WO2020065016A1 - Umfelderkennungssystem, fahrzeug sowie verfahren für ein umfelderkennungssystem - Google Patents

Umfelderkennungssystem, fahrzeug sowie verfahren für ein umfelderkennungssystem Download PDF

Info

Publication number
WO2020065016A1
WO2020065016A1 PCT/EP2019/076195 EP2019076195W WO2020065016A1 WO 2020065016 A1 WO2020065016 A1 WO 2020065016A1 EP 2019076195 W EP2019076195 W EP 2019076195W WO 2020065016 A1 WO2020065016 A1 WO 2020065016A1
Authority
WO
WIPO (PCT)
Prior art keywords
environment
sensor
environment sensor
information
detection system
Prior art date
Application number
PCT/EP2019/076195
Other languages
English (en)
French (fr)
Inventor
Günther Scharnagel
Original Assignee
Zf Friedrichshafen Ag
Ibeo Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zf Friedrichshafen Ag, Ibeo Automotive Systems GmbH filed Critical Zf Friedrichshafen Ag
Publication of WO2020065016A1 publication Critical patent/WO2020065016A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Definitions

  • the present invention relates to systems for recognizing the environment e.g. of a vehicle.
  • the invention further relates to a method for an environment detection system and a vehicle with an environment detection system.
  • LIDAR English Light Detection And Ranging
  • radar measuring systems can be used.
  • a LIDAR measuring system can have several LIDAR sensors.
  • a LIDAR sensor can be attached to the left as well as the right side of a vehicle.
  • a radar measuring system can be designed accordingly.
  • a LIDAR sensor can e.g. in the case of “minor” accidents, so that an actual line of sight of the LIDAR sensor is shifted to a specified target line of sight.
  • Tilt sensors are used to ensure that the LIDAR sensors are aligned in a desired direction.
  • the high safety requirements for the LIDAR sensors also apply to the inclination sensor.
  • Tilt sensors with a high degree of accuracy must therefore be used to monitor the LIDAR sensors.
  • Tilt sensors that offer the required accuracy are hardly available on the market or are very expensive.
  • inclination sensors cannot detect or record the rotation of a LIDAR sensor around the Z axis (i.e. a rotation about an axis perpendicular to a defined floor area).
  • DE 10 2013 21 1 648 A1 proposes, for example, to determine an image element that occurs in respective individual images of the two cameras.
  • the relative position of the first camera to the second camera is determined based on an orientation of the image element in the individual image of the first camera relative to the orientation of the image element in the individual image of the second camera.
  • the two individual images are now combined to form an overall image.
  • LIDAR sensors or radar sensors are not optical images in the classic sense. Rather, a LIDAR sensor or a radar sensor provides information such as a distance, a speed or an elevation angle relative to an object scanned by the sensor. The detection of common optical patterns in images and the comparison of their respective orientations cannot therefore be used for LIDAR sensors and radar sensors.
  • the invention relates to an environment detection system.
  • the environment detection system comprises a first environment sensor, which is set up to provide first information about a first spatial area based on received reflections of a signal emitted by the first environment sensor.
  • the environment detection system comprises a second environment sensor, which is set up to provide second information about a second spatial area based on received reflections of a signal emitted by the second environment sensor.
  • the first environment sensor sends a signal into the first spatial area and then receives reflections of the signal from objects located in the first spatial area.
  • the second environment sensor sends a signal into the second room area and then receives reflections of the signal from objects located in the second room area.
  • the two environment sensors can be LIDAR sensors, for example, which emit light (eg in the form of a laser beam) into their respective areas and reflect receive light from objects in the room.
  • the environment sensors can also be radar sensors, for example, which emit high-frequency signals into their respective spatial areas and receive reflections of the high-frequency signals from objects located in the spatial areas.
  • the first and the second spatial area partially overlap when the first environment sensor is oriented relative to the second environment sensor. This means that the spatial areas detected by the two environment sensors partially overlap.
  • the two environment sensors can e.g. be aligned or positioned during initial assembly or during maintenance according to the target orientation.
  • an evaluation element of the environment detection system is set up to determine whether the first spatial area and the second spatial area actually overlap based on the first information and the second information.
  • the evaluation element can e.g. Check whether parts of the first information provided by the first environment sensor are identical to parts of the second information provided by the second environment sensor or match the second information according to a predetermined rule. For example, the evaluation element can check whether an object described in distance information provided by the first environment sensor is also described in distance information provided by the second environment sensor. Similar comparisons can e.g. can also be carried out by means of speed or elevation angle information provided by the two environment sensors. Likewise, information from various categories (e.g. distance and speed) provided by the two environment sensors can be evaluated together.
  • the evaluation element is set up to output an error signal if it is determined that the first room area and the second room area do not overlap.
  • ASIC Application-Specific Integrated Circuit
  • IC Integrated Cir cuit
  • the output of the error signal can also be used to indicate to a system processing the measurements of the environment detection system that the environment detection system no longer works within the specified specifications and that its measured values are therefore no longer trustworthy.
  • the evaluation element is further configured according to some exemplary embodiments to determine an actual orientation of the first environmental sensor relative to the second environmental sensor based on the first information and the second information. For example, the evaluation element can calculate or determine the actual orientation of the first environment sensor relative to the second environment sensor using one or more objects that are described in the information provided by the two environment sensors.
  • the actual alignment of the two environment sensors can be used, for example, for the further monitoring of the relative alignment of the environment sensors to one another.
  • the evaluation element can also be set up to compare the determined orientation of the first environment sensor relative to the second environment sensor with the target alignment device. In this way it can be checked whether the relative orientation of the environmental sensors to one another (still) corresponds to the specifications and whether the measurements of the environmental sensors are therefore still trustworthy or correspond to one another.
  • the evaluation element in some embodiments is set up to output the error signal.
  • the predetermined criterion can be, for example, the complete agreement of the actual orientation of the first environment sensor relative to the second environment sensor with the target alignment, or an agreement within a predetermined tolerance range.
  • the specified criterion can be derived, for example, from the safety regulations to be observed. Accordingly, by outputting the error signal, a system processing the measurements of the environment detection system can be advised that the environment detection system no longer works within the specified specifications and that its measured values are therefore no longer worthy of trust. The system processing the measurements of the environment detection system can then trigger a safety routine, for example.
  • the evaluation element can also be set up to control an actuating element for the first environment sensor and / or the second environment sensor, an orientation of the first environment sensor and / or the second environment sensor according to a determined deviation of the orientation of the first environment sensor relative to the second environment sensor to change from the target orientation.
  • a position, a direction of view or a position of at least one of the two surroundings sensors can be changed by means of the adjusting element (for example a mechanical actuator) so that the relative orientation of the two surroundings sensors to each other again corresponds to the target orientation or at least better corresponds to the target orientation than the determined one did neuter alignment.
  • the functionality of the environment detection system can be restored or improved by adjusting at least one of the two environment sensors. In other words, the environment detection system can be recalibrated on the basis of the comparison of the information provided by the two environment sensors about the areas of the room they have detected.
  • the misalignment or misalignment of one or both of the environment sensors can also be corrected at the level of the measurements of the two environment sensors. If it is determined that the alignment of the first environment sensor relative to the second environment sensor corresponds to the predetermined criterion of the target alignment, the evaluation element can be set up according to some exemplary embodiments, for example, the first information and the second information taking into account the determined deviation of the alignment to combine the first environment sensor relative to the second environment sensor from the target orientation. By means of the determined deviation of the orientation of the first environment sensor relative to the second environment sensor from the target orientation, the actual overlap of the first and the second spatial area can be determined, for example, so that the corresponding information provided by the two environment sensors can be combined.
  • the environment detection system can also comprise at least one tilt sensor, which is set up to determine a tilt of the first environment sensor and / or the second environment sensor relative to a reference direction.
  • the evaluation element can then be set up to evaluate the first information and the second information, taking into account the inclination of the first surroundings sensor and / or the second surroundings sensor determined by the inclination sensor relative to the reference direction.
  • the comparison according to the invention of the information provided by the two environment sensors about the spatial areas detected by them enables the use of inclination sensors with lower accuracy requirements and possibly associated cost advantages.
  • the lower accuracy of the inclination sensor can be compensated for by the additional use of the information provided by the two environment sensors about the areas of the room they detect.
  • the present invention also relates to a vehicle.
  • a vehicle can be thought of as a device that includes one or more motor driven wheels (and optionally a powertrain system).
  • a vehicle can be a passenger car, a truck, a motorcycle, or a tractor.
  • the vehicle comprises at least one environment detection system according to the present invention in order to detect an environment of the vehicle.
  • the vehicle comprises a control element, which is set up to change an operating mode of the vehicle from a first operating mode to a second operating mode when the error signal is received from the environment detection system.
  • the vehicle according to the invention can respond to impairments of the environment detection system and adapt its operation to the current situation of the environment detection system due to the environment detection system according to the invention and the control element.
  • the vehicle can drive automatically in the first operating mode and the second operating mode, for example, and drive automatically, at least in the first operating mode, based on information about the surroundings of the vehicle detected by the environment detection system.
  • the error signal is output by the Environment detection system can no longer be trusted with the data of the environment detection system. Accordingly, less data about the surroundings of the vehicle is available for automated driving.
  • a maximum speed of the vehicle in the second operating mode can therefore be reduced in comparison to the first operating mode in order to further enable a safe automated journey.
  • the vehicle can drive automatically in the first operating mode and, for example, return control to a human driver in the second mode.
  • the present invention also relates to a method for an environment detection system with a first environment sensor and a second environment sensor.
  • the method comprises providing first information about a first spatial area by means of the first environment sensor based on received reflections of a signal emitted by the first environment sensor.
  • the method comprises providing second information about a second spatial area by means of the second environment sensor based on received reflections of a signal emitted by the second environment sensor.
  • the first and the second spatial area partially overlap when the first environment sensor is oriented relative to the second environment sensor.
  • the method further includes determining whether the first space area and the second space area overlap based on the first information and the second information. If it is determined that the first spatial area and the second spatial area do not overlap, the method comprises outputting an error signal.
  • the method according to the invention can also enable improved and more cost-effective monitoring of the relative orientation of environment sensors to one another.
  • Another aspect of the present invention also relates to a program with a program code for performing the method described herein when the program code runs on a processor or a programmable hardware component or is executed there.
  • Fig. 1 shows schematically an embodiment of an environment detection system
  • FIG. 3 schematically shows a section through the LIDAR sensor shown in FIG. 2;
  • Fig. 6 further recordings of two incorrectly aligned environment sensors
  • Fig. 7 shows schematically an embodiment of a vehicle with an environmental identification system.
  • the environment detection system 100 comprises a first environment sensor 110, which is set up to provide information 1111 about a first spatial area based on received reflections 142 of a signal 112 emitted by the first environment sensor 110 put.
  • the environment detection system 100 comprises a second environment sensor 120, which is set up to provide information 121 about a second spatial area based on received reflections 143 of a signal 122 emitted by the second environment sensor 120.
  • both the first environment sensor 110 and the second environment sensor 120 can each irradiate an object 140, which reflects the signal back to the environment sensors 110 and 120.
  • the environment detection system 100 also includes an evaluation element 130.
  • the evaluation element 130 is set up based on the information 1 1 1 about the first room area and the information 121 about the second room area determine whether the first room area and the second room area overlap. Furthermore, the evaluation element 130 is set up to output an error signal 131 if it is determined that the first room area and the second room area do not overlap.
  • FIG. 2 A top view of an exemplary LIDAR sensor 200 that can be used for the environment sensors 110 and 120 of the environment detection system 100 is shown in FIG. 2.
  • the LIDAR sensor 200 has a LIDAR receiving unit 210 and a LIDAR transmitting unit 220, which are arranged behind the receiving optics 230 and the transmitting optics 240 in FIG. 2.
  • a sectional view of the LIDAR sensor 200 is shown in FIG. 3.
  • the basic structure of the LIDAR sensor 200 is designed in accordance with the state of the art (WO 2017/081294 A1).
  • the LIDAR receiving unit 210 and / or the LIDAR transmitting unit 220 are advantageously designed in a focal plane array configuration, as shown in FIG. 3.
  • the elements of the respective unit are essentially arranged in one plane, advantageously on a chip.
  • the respective unit on the LIDAR measuring system is preferably arranged in a focal point of a corresponding optical system - transmitting optics 240 or receiving optics 230.
  • the Sor elements 21 1 and the emitter elements 221 arranged in the focus of the receiving optics 230 and the transmitting optics 240.
  • Such optics can be formed, for example, by an optical lens system.
  • the LIDAR receiver unit 210 has a plurality of sensor elements 211, which are preferably designed as SPAD, single photon avalanche diode.
  • the LI DAR transmitter unit 220 has a plurality of emitter elements 221 for emitting e.g. Laser light, conveniently laser pulses.
  • the emitter elements 221 are advantageously designed as VCSEL, vertical cavity surface emitting laser.
  • the transmitter unit 220 has emitter elements 221 which are distributed over an area of the sensor chip.
  • the receiving unit 210 has sensor elements 211 which are distributed over an area of the receiving chip.
  • a transmission optics 240 is assigned to the transmission chip and a reception optics 230 is assigned to the reception chip.
  • the optics represent a light arriving from a room area on the respective chip.
  • the spatial area corresponds to the viewing area of the measuring system 200, which is examined or sensed for objects.
  • the spatial area of the transmitting unit 220 and the receiving unit 210 are essentially identical.
  • the transmission optics 240 images an emitter element 221 onto a solid angle, which represents a partial area of the spatial area.
  • the emitter element 221 accordingly emits laser light in this solid angle.
  • the emitter elements 221 together cover the entire room area.
  • the receiving optics 230 images a sensor element 21 1 to a solid angle, which represents a partial area of the spatial area.
  • the number of all sensor elements 21 1 covers the entire room area.
  • Emitter elements 221 and sensor elements 21 1, which consider the same solid angle, map to one another and are accordingly assigned to one another.
  • a laser light from an emitter element 221 normally maps onto the associated sensor element 21 1.
  • a plurality of sensor elements 21 1 are arranged within the solid angle of an emitter element 221.
  • the measurement system 200 carries out a measurement process to determine objects within the spatial area. Such a measuring process comprises one or more measuring cycles, depending on the design of the measuring system 200 and its electronics.
  • the Time Correlated Single Photon Counting method is preferably used.
  • individual incoming photons are detected, in particular by SPAD, and the time at which sensor element 21 1 is triggered, including the time of detection, is stored in a memory element.
  • the time of detection is related to a reference time at which the laser light is emitted.
  • the transit time of the laser light can be determined from the difference, from which the distance of the object can be determined.
  • a sensor element 21 1 can be triggered on the one hand by the laser light and on the other hand by the ambient radiation.
  • a laser light always arrives at a certain distance from the object at the same time, whereas the ambient radiation always provides the same probability of triggering a sensor element 21 1.
  • the triggering of the sensor element at the time of detection that corresponds to the duration of the laser light with respect to the distance of the object add up, whereas the triggering by the ambient radiation is distributed uniformly over the measuring duration of a measuring cycle .
  • a measurement corresponds to the emission and subsequent detection of the laser light.
  • the data of the individual measurement cycles of a measurement process stored in the memory element enable the multiple times of detection to be evaluated in order to infer the distance of the object.
  • a sensor element 21 1 is advantageously connected to a time to digital converter, TDC, which stores the point in time at which the sensor unit is triggered in the memory element.
  • TDC time to digital converter
  • Such a memory element can be designed, for example, as a short-term memory or as a long-term memory.
  • the TDC fills a storage element with the times at which the sensor elements detected an arrival of the photon. This can be shown graphically by a histogram, which is on based on the data of the storage element. In the case of a histogram, the duration of a measurement cycle is divided into short periods of time, so-called bins. If a sensor element is triggered, the TDC increases the value of a bin by one. The bin which corresponds to the transit time of the laser pulse, that is the difference between the detection time and the reference time, is filled up.
  • FIGS. 4 to 6 Some exemplary orientations of the environment sensors 110 and 120 relative to one another are described below with reference to FIGS. 4 to 6 described in more detail.
  • the environment detection system 100 is installed in a vehicle and measures the surroundings of the vehicle.
  • the information provided by the environment sensors 1 10 and 120 on the spatial area covered by them is shown as graphic recordings in FIGS. 4 to 6 shown. It should be noted that this representation is selected purely for educational reasons and the information as described above is of a different type.
  • an Ll-DAR measuring system determines individual reflections, which are also referred to as detections. Each detection can include information such as distance, elevation angle, azimuth angle, speed, intensity and / or other variables.
  • FIG. 4 shows a situation in which environment sensors 110 and 120 are oriented relative to one another in accordance with a target orientation.
  • the image 410 shows the first area actually covered by the first environment sensor 110 and the image 420 shows the second area actually covered by the second environment sensor 120. Since the environment sensors 110 and 120 are oriented relative to one another in accordance with a target orientation, the first image 410 and the second image 420 overlap in accordance with the specification and can be combined to form an overall image 430 without errors.
  • Figure 440 a representation of the surroundings of the vehicle scanned by the LIDAR measuring system 100 is shown as a reference.
  • FIG. 5 further shows a situation in which the second environment sensor 120 is rotated about the z axis.
  • the second environment sensor 120 looks too far to the left.
  • the image 510 shows the first area actually covered by the first environment sensor 1 10 and the image 520 shows the area environment sensor 120 actually covered second room area. Since the second environment sensor 120 looks too far to the left, the first image 510 and the second image 520 can no longer be assembled without errors, as is indicated in the overall image 530.
  • FIG. 6 shows a situation in which the second environment sensor 120 is tilted.
  • the image 510 shows the first area actually covered by the first environment sensor 110 and the image 620 shows the second area actually covered by the second environment sensor 120. Since the second environment sensor 120 is tilted relative to the first environment sensor 110, the first image 610 and the second image 620 can no longer be combined without errors, as is indicated in the overall image 630.
  • the rotation or tilting of the second environment sensor 120 relative to the first environment sensor 110 can be recognized by the evaluation element 130 and optionally communicated and / or corrected to other systems.
  • FIG. 7 shows a vehicle 700 that uses an environment detection system 710 according to the present invention to detect its surroundings. Furthermore, the vehicle comprises a control element 720, which is set up to change an operating mode of the vehicle 700 from a first operating mode to a second operating mode when the error signal is received from the environment detection system 710.
  • the vehicle 700 can drive automatically in the first operating mode and the second operating mode, for example, and drive automatically at least in the first operating mode based on information about the surroundings of the vehicle 700 detected by the environment detection system.
  • the error system is output by the environment detection system 710, the data of the environment detection system 710 can no longer be trusted. Accordingly, there is less data available about the surroundings of vehicle 700 for automated driving.
  • a maximum speed of the vehicle 700 in the second operating mode can, for example, be reduced in comparison to the first operating mode.
  • the vehicle 700 can drive automatically in the first operating mode and, for example, return control to a human driver in the second mode.
  • the vehicle 700 can thus react to impairments of the environment detection system 710 and adapt its operation to the actual situation of the environment detection system 710.
  • Reflections of the signal emitted by the first environment sensor Reflections of the signal LIDAR sensor emitted by the second environment sensor

Abstract

Die vorliegende Erfindung betrifft ein Umfelderkennungssystem. Das Umfelderkennungssystem umfasst einen ersten Umfeldsensor (110), der eingerichtet ist, erste Informationen über einen ersten Raumbereich basierend auf empfangenen Reflexionen eines von dem ersten Umfeldsensor ausgesendeten Signals (112) bereitzustellen. Ferner umfasst das Umfelderkennungssystem einen zweiten Umfeldsensor (120), der eingerichtet ist, zweite Informationen über einen zweiten Raumbereich basierend auf empfangenen Reflexionen eines von dem zweiten Umfeldsensor ausgesendeten Signals (122) bereitzustellen. Das Umfelderkennungssystem umfasst weiterhin ein Auswerteelement (130), das eingerichtet ist, basierend auf den ersten Informationen und den zweiten Informationen zu bestimmen, ob der erste Raumbereich und der zweite Raumbereich überlappen. Falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich nicht überlappen, ist das Auswerteelement ferner eingerichtet, ein Fehlersignal auszugeben.

Description

Umfelderkennunqssvstem, Fahrzeug sowie Verfahren für ein
Umfelderkennunqssvstem
Die vorliegende Erfindung bezieht sich auf Systeme zur Erkennung des Umfelds z.B. eines Fahrzeugs. Die Erfindung betrifft weiterhin ein Verfahren für ein Umfelderken nungssystem sowie ein Fahrzeug mit einem Umfelderkennungssystem.
Zur Erkennung des Umfelds können z.B. LIDAR (engl. Light Detection And Ranging) Messsysteme oder Radarmesssysteme verwendet werden. Ein LIDAR-Messsystem kann mehrere LIDAR-Sensoren aufweisen. Beispielsweise kann jeweils ein LIDAR- Sensor an der linken als auch an rechten Seite eines Fahrzeugs angebracht sein.
Ein Radarmesssystem kann entsprechend ausgestaltet sein.
Ein LIDAR-Sensor kann z.B. bei„leichten“ Unfällen verschoben werden, so dass eine tatsächliche Blickrichtung des LIDAR-Sensors verschoben zu einer vorgegebenen Sollblickrichtung ist. Um sicherzustellen, dass die LIDAR-Sensoren in eine jeweilige Sollrichtung ausgerichtet sind, werden Neigungssensoren verwendet. Die hohen Si cherheitsanforderungen für die LIDAR-Sensoren gelten ebenso für den Neigungs sensor. Für die Überwachung der LIDAR-Sensoren müssen daher Neigungssenso ren mit einer hohen Genauigkeit verwendet werden. Neigungssensoren, welche die erforderliche Genauigkeit bieten, sind kaum auf dem Markt verfügbar bzw. sehr hochpreisig. Zudem können Neigungssensoren nicht die Rotation eines LIDAR- Sensors um die Z-Achse (d.h. eine Verdrehung um eine senkrecht zu einer definier ten Bodenfläche verlaufenden Achse) erkennen bzw. erfassen.
Für die Kalibrierung eines optischen Kamerasystems mit einer ersten Kamera und einer zweiten Kamera wird in der Druckschrift DE 10 2013 21 1 648 A1 z.B. vorge schlagen, ein Bildelement zu bestimmen, das in jeweiligen Einzelbildern der beiden Kameras vorkommt. Basierend auf einer Ausrichtung des Bildelements im Einzelbild der ersten Kamera relativ zur Ausrichtung des Bildelements im Einzelbild der zweiten Kamera wird die Relativposition der ersten Kamera zur zweiten Kamera bestimmt. Abhängig von der ermittelten Relativposition werden nunmehr die beiden Einzelbilder zu einem Gesamtbild zusammengefügt. Im Gegensatz zu optischen Kameras liefern LIDAR-Sensoren oder Radarsensoren jedoch keine optischen Bilder im klassischen Sinne. Vielmehr liefert ein LIDAR-Sensor oder ein Radarsensor Informationen wie einen Abstand, eine Geschwindigkeit oder einen Höhenwinkel relativ zu einem von dem Sensor abgetasteten Objekt. Das Erkennen von gemeinsamen optischen Mus tern in Bildern sowie der Vergleich von deren jeweiliger Ausrichtung ist für LIDAR- Sensoren und Radarsensoren daher nicht nutzbar.
Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, eine ver besserte und kostengünstigere Möglichkeit zur Überwachung der relativen Ausrich tung von Umfeldsensoren zueinander bereitzustellen.
Die erfindungsgemäße Aufgabe wird durch ein Umfelderkennungssystem, ein Fahr zeug sowie ein Verfahren für ein Umfelderkennungssystem gemäß den unabhängi gen Ansprüchen gelöst. Weitere Aspekte sowie Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen, der folgenden Beschreibung sowie in den Figuren beschrieben.
Gemäß einem ersten Aspekt betrifft die Erfindung ein Umfelderkennungssystem. Das Umfelderkennungssystem umfasst einen ersten Umfeldsensor, der eingerichtet ist, erste Informationen über einen ersten Raumbereich basierend auf empfangenen Re flexionen eines von dem ersten Umfeldsensor ausgesendeten Signals bereitzustel len. Weiterhin umfasst das Umfelderkennungssystem einen zweiten Umfeldsensor, der eingerichtet ist, zweite Informationen über einen zweiten Raumbereich basierend auf empfangenen Reflexionen eines von dem zweiten Umfeldsensor ausgesendeten Signals bereitzustellen. Mit anderen Worten: Der erste Umfeldsensor sendet ein Sig nal in den ersten Raumbereich aus und empfängt anschließend Reflexionen des Signals von in dem ersten Raumbereich befindlichen Objekten. Entsprechend sendet der zweite Umfeldsensor ein Signal in den zweiten Raumbereich aus und empfängt anschließend Reflexionen des Signals von in dem zweiten Raumbereich befindlichen Objekten.
Die beiden Umfeldsensoren können z.B. LIDAR-Sensoren sein, die Licht (z.B. in Form eines Laserstrahls) in ihre jeweiligen Raumbereiche aussenden und Reflexio- nen des Lichts von in den Raumbereichen befindlichen Objekten empfangen. Alter nativ können die Umfeldsensoren beispielsweise auch Radarsensoren sein, die Hochfrequenzsignale in ihre jeweiligen Raumbereiche aussenden und Reflexionen der Hochfrequenzsignale von in den Raumbereichen befindlichen Objekten empfan gen.
Der erste und der zweite Raumbereich überlappen sich bei einer Sollausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor teilweise. Somit überde cken sich die von den beiden Umfeldsensoren erfassten Raumbereiche teilweise. Die beiden Umfeldsensoren können z.B. bei einer Erstmontage oder bei einer Wartung gemäß der Sollausrichtung ausgerichtet bzw. positioniert werden.
Ein Auswerteelement des Umfelderkennungssystem ist gemäß der vorliegenden Er findung eingerichtet, basierend auf den ersten Informationen und den zweiten Infor mationen zu bestimmen, ob der erste Raumbereich und der zweite Raumbereich sich tatsächlich überlappen.
Für die Prüfung, ob der erste Raumbereich und der zweite Raumbereich sich tat sächlich überlappen, kann das Auswertelement z.B. prüfen, ob Teile der von dem ersten Umfeldsensor bereitgestellten ersten Informationen identisch sind mit Teilen der von dem zweiten Umfeldsensor bereitgestellten zweiten Informationen oder ge mäß einer vorbestimmten Vorschrift mit den zweiten Informationen übereinstimmen. Beispielsweise kann das Auswerteelemente prüfen ob ein in von dem ersten Umfeld sensor bereitgestellten Distanzinformationen beschriebenes Objekt auch in von dem zweiten Umfeldsensor bereitgestellten Distanzinformationen beschrieben ist. Ähnli che Vergleiche können z.B. auch mittels von den beiden Umfeldsensoren bereitge stellten Geschwindigkeits- oder Höhenwinkelinformationen durchgeführt werden. Ebenso können von den beiden Umfeldsensoren bereitgestellte Informationen ver schiedener Kategorien (z.B. Distanz und Geschwindigkeit) zusammen ausgewertet werden.
Die tatsächliche Blickrichtung eines oder beider Umfeldsensoren könnte beispiels weise aufgrund eines Stoßes oder einer sonstigen Krafteinwirkung gegenüber einer voreingestellten Sollblickrichtung verändert sein. Überlappen der von dem ersten Umfeldsensor erfasst erste Raumbereich und der von dem zweiten Umfeldsensor erfasste zweite Raumbereich nicht mehr, kann von einer Beeinträchtigung der Funk tionalität des Umfelderkennungssystems ausgegangen werden. Entsprechend ist das Auswerteelement eingerichtet, ein Fehlersignal auszugeben, falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich nicht überlappen.
Durch den erfindungsgemäßen Vergleich der von den beiden Umfeldsensoren be reitgestellten Informationen über die von ihnen erfassten Raumbereiche kann die relative Ausrichtung der beiden Umfeldsensoren zueinander überwacht werden. Das Auswerteelement kann z.B. eine bereits im Umfelderkennungssystem vorhandene programmierbare Hardwarekomponente, wie etwa ein Prozessor, ein Prozessorkern, ein anwendungsspezifischer integrierter Schaltkreis (engl. ASIC = Application- Specific Integrated Circuit) oder ein integrierter Schaltkreis (engl. IC = Integrated Cir cuit) sein, auf dem Software für die Steuerung des Umfelderkennungssystems ab läuft. Entsprechend kann die Überwachung der relativen Ausrichtung der beiden Um feldsensoren zueinander mit einem lediglich einmaligen Aufwand in die bestehende Software integriert werden. Es ist dann keine zusätzliche Hardware nötig. Insbeson dere kann auf hochpreisige und hochgenaue Neigungssensoren, die hohen Sicher heitsanforderungen zu genügen haben, für die Bestimmung der Ausrichtung der Um feldsensoren verzichtet werden. Somit ergibt sich neben dem vereinfachten Aufbau des Umfelderkennungssystems auch ein Kostenvorteil. Mittels des erfindungsgemä ßen Vergleichs der von den beiden Umfeldsensoren bereitgestellten Informationen über die von ihnen erfassten Raumbereiche kann im Vergleich zu konventionellen Neigungssensoren auch eine Rotation eines oder beider Umfeldsensoren um die Z- Achse erkannt werden. Das erfindungsgemäße Umfelderkennungssystem ermöglicht somit eine verbesserte Überwachung der relativen Ausrichtung der Umfeldsensoren zueinander.
Durch die Ausgabe des Fehlersignals kann ein die Messungen des Umfelderken nungssystems verarbeitendes System zudem darauf hingewiesen werden, dass das Umfelderkennungssystem nicht mehr innerhalb der vorgegebenen Spezifikationen arbeitet und seine Messwerte daher nicht mehr vertrauenswürdig sind. Falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich über lappen, ist das Auswerteelement gemäß einigen Ausführungsbeispielen ferner einge richtet, eine tatsächliche Ausrichtung des ersten Umfeldsensors relativ zu dem zwei ten Umfeldsensor basierend auf den ersten Informationen und den zweiten Informa tionen zu bestimmen. Beispielsweise kann das Auswerteelement anhand eines oder mehrerer Objekte, die in den von beiden Umfeldsensoren bereitgestellten Informatio nen beschrieben sind, die tatsächliche Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor berechnen bzw. bestimmen. Die tatsächliche Ausrich tung der beiden Umfeldsensoren kann beispielsweise für die weitergehende Über wachung der relativen Ausrichtung der Umfeldsensoren zueinander verwendet wer den.
Dazu kann das Auswerteelement ferner eingerichtet sein, die ermittelte Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor mit der Sollausrich tung zu vergleichen. So kann geprüft werden, ob die relative Ausrichtung der Um feldsensoren zueinander (noch) den Vorgaben entspricht und die Messungen der Umfeldsensoren somit weiterhin vertrauenswürdig sind bzw. einander entsprechen.
Falls bestimmt wird, dass die tatsächliche Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor nicht gemäß einem vorgegebenem Kriterium der Sollausrichtung entspricht, ist das Auswerteelement in einigen Ausführungsbei spielen entsprechend eingerichtet, das Fehlersignal auszugeben. Das vorgegebene Kriterium kann z.B. die vollständige Übereinstimmung der tatsächlichen Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor mit der Sollausrich tung oder eine Übereinstimmung innerhalb eines vorgegebenen Toleranzbereichs sein. Das vorgegebene Kriterium kann z.B. von einzuhaltenden Sicherheitsvorschrif ten abgeleitet sein. Entsprechend kann durch die Ausgabe des Fehlersignals ein die Messungen des Umfelderkennungssystems verarbeitendes System darauf hingewie sen werden, dass das Umfelderkennungssystem nicht mehr innerhalb der vorgege benen Spezifikationen arbeitet und seine Messwerte daher nicht mehr vertrauens würdig sind. Das die Messungen des Umfelderkennungssystems verarbeitende Sys tem kann dann z.B. eine Sicherheitsroutine auslösen. Ebenso kann gemäß Ausführungsbeispielen der vorliegenden Erfindung eine fehler hafte Ausrichtung der Umfeldsensoren zueinander korrigiert werden. So kann das Auswerteelement ferner eingerichtet sein, ein Stellelement für den ersten Umfeld sensor und/oder den zweiten Umfeldsensor anzusteuern, eine Ausrichtung des ers ten Umfeldsensors und/oder des zweiten Umfeldsensors gemäß einer ermittelten Abweichung der Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Um feldsensor von der Sollausrichtung zu ändern. Beispielsweise kann eine Lage, eine Blickrichtung oder eine Position zumindest eines der beiden Umfeldsensoren mittels des Stellelements (z.B. ein mechanischer Aktor) geändert werden, so dass die relati ve Ausrichtung der beiden Umfeldsensoren zueinander wieder der Sollausrichtung entspricht oder zumindest besser der Sollausrichtung entspricht als die ermittelte tat sächliche Ausrichtung. Durch die Verstellung zumindest eines der beiden Umfeld sensoren kann die Funktionsfähigkeit des Umfelderkennungssystems wiederherge stellt bzw. verbessert werden. Mit anderen Worten: Das Umfelderkennungssystem kann anhand des Vergleichs der von den beiden Umfeldsensoren bereitgestellten Informationen über die von ihnen erfassten Raumbereiche nachkalibriert werden.
Die Fehlstellung bzw. Fehlausrichtung eines oder beider der Umfeldsensoren kann auch auf der Ebene der Messungen der beiden Umfeldsensoren korrigiert werden. Falls bestimmt wird, dass die Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor gemäß dem vorgegebenem Kriterium der Sollausrichtung ent spricht, kann das Auswerteelement gemäß einigen Ausführungsbeispielen z.B. ein gerichtet sein, die ersten Informationen und die zweiten Informationen unter Berück sichtigung der ermittelten Abweichung der Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor von der Sollausrichtung zu kombinieren. Mittels der ermittelten Abweichung der Ausrichtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor von der Sollausrichtung kann z.B. der tatsächliche Überlapp des ersten und des zweiten Raumbereichs bestimmt werden, um so die einander entsprechenden Informationen, die von den beiden Umfeldsensoren bereitgestellten werden, kombinieren zu können. Gemäß einigen Ausführungsbeispielen kann das Umfelderkennungssystem auch weiterhin zumindest einen Neigungssensor umfassen, der eingerichtet ist, eine Nei gung des ersten Umfeldsensors und/oder des zweiten Umfeldsensors relativ zu einer Referenzrichtung zu bestimmen. Das Auswerteelement kann dann eingerichtet sein, die ersten Informationen und die zweiten Informationen unter Berücksichtigung der von dem Neigungssensor bestimmten Neigung des ersten Umfeldsensors und/oder des zweiten Umfeldsensors relativ zu der Referenzrichtung auszuwerten. Im Ver gleich zu gewöhnlichen LIDAR-Systemen kann der erfindungsgemäße Vergleich der von den beiden Umfeldsensoren bereitgestellten Informationen über die von ihnen erfassten Raumbereiche die Verwendung von Neigungssensoren mit geringeren Ge nauigkeitsanforderungen und damit evtl verbundenen Kostenvorteilen ermöglichen. Die geringere Genauigkeit des Neigungssensors kann durch die zusätzliche Nutzung der von den beiden Umfeldsensoren bereitgestellten Informationen über die von ihnen erfassten Raumbereiche kompensiert werden.
Gemäß einem weiteren Aspekt betrifft die vorliegende Erfindung zudem ein Fahr zeug. Allgemein kann ein Fahrzeug als eine Vorrichtung aufgefasst werden, die ei nes oder mehrere von einem Motor angetriebene Räder (und optional ein Antriebs strangsystem) umfasst. Zum Beispiel kann ein Fahrzeug ein Personenkraftwagen, ein Lastkraftwagen, ein Motorrad oder ein Traktor sein. Das Fahrzeug umfasst zu mindest ein Umfelderkennungssystem gemäß der vorliegenden Erfindung, um eine Umgebung des Fahrzeugs zu erfassen. Ferner umfasst das Fahrzeug ein Steue relement, das eingerichtet ist, bei Empfang des Fehlersignals von dem Umfelderken nungssystem einen Betriebsmodus des Fahrzeugs von einem ersten Betriebsmodus in einen zweiten Betriebsmodus zu ändern. Das erfindungsgemäße Fahrzeug kann aufgrund des erfindungsgemäßen Umfelderkennungssystems und des Steuerele ment auf Beeinträchtigungen des Umfelderkennungssystems reagieren und seinen Betrieb an die Ist-Situation des Umfelderkennungssystems anpassen.
Das Fahrzeug kann in dem ersten Betriebsmodus und dem zweiten Betriebsmodus beispielsweise automatisiert fahren und zumindest im ersten Betriebsmodus basie rend auf von dem Umfelderkennungssystem erfassten Informationen über die Umge bung des Fahrzeugs automatisiert fahren. Bei Ausgabe des Fehlersignals durch das Umfelderkennungssystem kann den Daten des Umfelderkennungssystems nicht mehr vertraut werden. Entsprechend stehen weniger Daten über die Umgebung des Fahrzeugs für die automatisierte Fahrt zur Verfügung. Gemäß Ausführungsbeispielen kann eine Höchstgeschwindigkeit des Fahrzeugs in dem zweiten Betriebsmodus da her im Vergleich zu dem ersten Betriebsmodus reduziert sein, um weiterhin eine si chere automatisierte Fahrt zu ermöglichen. Alternativ kann das Fahrzeug in dem ers ten Betriebsmodus automatisiert fahren und im zweiten Modus z.B. die Steuerung an einen menschlichen Fahrer zurückgeben.
In einem weiteren Aspekt betrifft die vorliegende Erfindung zudem noch ein Verfah ren für ein Umfelderkennungssystem mit einem ersten Umfeldsensor und einem zweiten Umfeldsensor. Das Verfahren umfasst ein Bereitstellen von ersten Informati onen über einen ersten Raumbereich mittels des ersten Umfeldsensors basierend auf empfangenen Reflexionen eines von dem ersten Umfeldsensor ausgesendeten Signals. Weiterhin umfasst das Verfahren ein Bereitstellen von zweiten Informationen über einen zweiten Raumbereich mittels des zweiten Umfeldsensors basierend auf empfangenen Reflexionen eines von dem zweiten Umfeldsensor ausgesendeten Signals. Der erste und der zweite Raumbereich überlappen sich bei einer Sollaus richtung des ersten Umfeldsensors relativ zu dem zweiten Umfeldsensor teilweise. Das Verfahren umfasst ferner ein Bestimmen, ob der erste Raumbereich und der zweite Raumbereich überlappen, basierend auf den ersten Informationen und den zweiten Informationen. Falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich nicht überlappen, umfasst das Verfahren ein Ausgeben eines Fehlersignals.
Wie bereits oben in Zusammenhang mit dem erfindungsgemäßen Umfelderken nungssystem beschrieben, kann auch das erfindungsgemäße Verfahren eine ver besserte und kostengünstigere Überwachung der relativen Ausrichtung von Umfeld sensoren zueinander ermöglichen.
Mögliche nähere Ausgestaltungen des Verfahrens sind oben in Zusammenhang mit dem erfindungsgemäßen Umfelderkennungssystem beschrieben. Ein weiterer Aspekt der vorliegenden Erfindung betrifft zudem ein Programm mit ei nem Programmcode zum Durchführen des hierin beschriebenen Verfahrens, wenn der Programmcode auf einem Prozessor oder einer programmierbaren Hardware komponente abläuft bzw. dort ausgeführt wird.
Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend, Bezug neh mend auf die beigefügten Figuren, näher erläutert. Es zeigen:
Fig. 1 schematisch ein Ausführungsbeispiel eines Umfelderkennungssystems;
Fig. 2 schematisch ein Ausführungsbeispiel eines LIDAR-Sensors;
Fig. 3 schematisch einen Schnitt durch den in Fig. 2 gezeigten LIDAR-Sensor;
Fig. 4 Aufnahmen von zwei korrekt zueinander ausgerichteten Umfeldsensoren;
Fig. 5 Aufnahmen von zwei inkorrekt zueinander ausgerichteten Umfeldsensoren;
Fig. 6 weitere Aufnahmen von zwei inkorrekt zueinander ausgerichteten Umfeld sensoren; und
Fig. 7 schematisch ein Ausführungsbeispiel eines Fahrzeugs mit einem Umfelder kennungssystem.
Fig. 1 zeigt schematisch ein Umfelderkennungssystem 100. Das Umfelderkennungs system 100 umfasst einen ersten Umfeldsensor 1 10, der eingerichtet ist, Informatio nen 1 1 1 über einen ersten Raumbereich basierend auf empfangenen Reflexionen 142 eines von dem ersten Umfeldsensor 1 10 ausgesendeten Signals 1 12 bereitzu stellen. Zudem umfasst das Umfelderkennungssystem 100 einen zweiten Umfeld sensor 120, der eingerichtet ist, Informationen 121 über einen zweiten Raumbereich basierend auf empfangenen Reflexionen 143 eines von dem zweiten Umfeldsensor 120 ausgesendeten Signals 122 bereitzustellen. Wie in Fig. 1 angedeutet, können sowohl der erste Umfeldsensor 1 10 als auch der zweite Umfeldsensor 120 jeweils ein Objekt 140 bestrahlen, welches das Signal zu den Umfeldsensoren 1 10 und 120 zurück reflektiert.
Bei einer Sollausrichtung des ersten Umfeldsensors 1 10 relativ zu dem zweiten Um feldsensor 120 überlappen der erste und der zweite Raumbereich, die von den bei den Umfeldsensoren sensiert werden, teilweise. Um die tatsächliche Ausrichtung der Umfeldsensoren 1 10 und 120 zueinander zu prüfen, umfasst das Umfelderken nungssystem 100 zudem ein Auswerteelement 130. Das Auswerteelement 130 ist eingerichtet, basierend auf den Informationen 1 1 1 über den ersten Raumbereich und den Informationen 121 über den zweiten Raumbereich zu bestimmen, ob der erste Raumbereich und der zweite Raumbereich sich überlappen. Ferner ist das Auswer teelement 130 eingerichtet, ein Fehlersignal 131 auszugeben, falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich nicht überlappen.
Mögliche nähere Ausgestaltungen des Umfelderkennungssystems 100 sind oben beschrieben.
Eine Draufsicht auf einen beispielhaften LIDAR-Sensor 200, der für die Umfeldsenso ren 1 10 und 120 des Umfelderkennungssystems 100 genutzt werden kann, ist in Fig. 2 gezeigt. Der LIDAR-Sensor 200 weist eine LIDAR Empfangseinheit 210 und eine LIDAR Sendeeinheit 220 auf, die in der Fig. 2 hinter der Empfangsoptik 230 bzw. der Sendeoptik 240 angeordnet sind. Eine Schnittdarstellung des LIDAR-Sensors 200 ist in Fig. 3 gezeigt.
Das LIDAR-Sensor 200 ist in seinem grundsätzlichen Aufbau gemäß den Ausführun gen zum Stand der Technik (WO 2017/081294 A1 ) ausgebildet.
Die LIDAR Empfangseinheit 210 und / oder die LIDAR Sendeeinheit 220 sind günsti ger Weise in einer Focal Plane-Array Konfiguration ausgebildet, wie dies in Fig. 3 dargestellt ist. Die Elemente der jeweiligen Einheit sind im Wesentlichen in einer Ebene, günstiger Weise auf einem Chip, angeordnet. Die jeweilige Einheit ist an dem LIDAR-Messsystem vorzugsweise in einem Brennpunkt einer entsprechenden Optik - Sendeoptik 240 oder Empfangsoptik 230 - angeordnet. Insbesondere sind die Sen- sorelemente 21 1 bzw. die Emitterelemente 221 im Brennpunkt der Empfangsoptik 230 bzw. der Sendeoptik 240 angeordnet. Eine solche Optik kann beispielsweise durch ein optisches Linsensystem ausgebildet sein.
Die LIDAR Empfangseinheit 210 weist mehrere Sensorelemente 211 auf, welche vorzugsweise als SPAD, Single Photon Avalanche Diode, ausgebildet sind. Die LI DAR Sendeeinheit 220 weist mehrere Emitterelemente 221 zur Aussendung von z.B. Laserlicht, günstigerweise Laserpulsen, auf. Die Emitterelemente 221 sind günstiger Weise als VCSEL, Vertical Cavity surface emitting laser, ausgebildet.
Die Sendeeinheit 220 weist Emitterelemente 221 auf, die über eine Fläche des Sen dechips verteilt sind. Die Empfangseinheit 210 weist Sensorelemente 211 auf, die über eine Fläche des Empfangschips verteilt sind. Dem Sendechip ist eine Sendeop tik 240 zugewiesen und dem Empfangschip ist eine Empfangsoptik 230 zugewiesen. Die Optik bildet ein aus einem Raumbereich eintreffendes Licht auf den jeweiligen Chip ab. Der Raumbereich entspricht dem Sichtbereich des Messsystems 200, der auf Objekte untersucht oder sensiert wird.
Der Raumbereich der Sendeeinheit 220 und der Empfangseinheit 210 sind im We sentlichen identisch. Die Sendeoptik 240 bildet ein Emitterelement 221 auf einen Raumwinkel ab, der einen Teilbereich des Raumbereichs darstellt. Das Emitterele ment 221 sendet dementsprechend Laserlicht in diesen Raumwinkel aus. Die Emit terelemente 221 decken gemeinsam den gesamten Raumbereich ab.
Die Empfangsoptik 230 bildet ein Sensorelement 21 1 auf einen Raumwinkel ab, der einen Teilbereich des Raumbereichs darstellt. Die Anzahl aller Sensorelemente 21 1 deckt den gesamten Raumbereich ab. Emitterelemente 221 und Sensorelemente 21 1 , die denselben Raumwinkel betrachten bilden auf einander ab und sind dement sprechend einander zugewiesen. Ein Laserlicht eines Emitterelements 221 bildet im Normalfall immer auf das zugehörige Sensorelement 21 1 ab. Gegebenenfalls sind mehrere Sensorelemente 21 1 innerhalb des Raumwinkels eines Emitterelements 221 angeordnet. Zur Ermittlung von Objekten innerhalb des Raumbereichs führt das Messsystem 200 einen Messvorgang durch. Ein solcher Messvorgang umfasst einen oder mehrere Messzyklen, je nach konstruktivem Aufbau des Messsystems 200 und dessen Elekt ronik.
Vorzugsweise wird das Time Correlated Single Photon Counting Verfahren, TCSPC, verwendet. Hierbei werden einzelne eintreffende Photonen detektiert, insbesondere durch SPAD, und der Zeitpunkt der Auslösung des Sensorelements 21 1 , auch Detek tionszeitpunkt, in einem Speicherelement abgelegt. Der Detektionszeitpunkt steht im Verhältnis zu einem Referenzzeitpunkt, zu dem das Laserlicht ausgesendet wird. Aus der Differenz lässt sich die Laufzeit des Laserlichts ermitteln, woraus der Abstand des Objekts bestimmt werden kann.
Ein Sensorelement 21 1 kann einerseits von dem Laserlicht und andererseits von der Umgebungsstrahlung ausgelöst werden. Ein Laserlicht trifft bei einem bestimmten Abstand des Objekts immer zur gleichen Zeit ein, wohingegen die Umgebungsstrah- lung jederzeit dieselbe Wahrscheinlichkeit bereitstellt ein Sensorelement 21 1 auszu lösen. Bei der mehrfachen Durchführung einer Messung, insbesondere mehrerer Messzyklen, summieren sich die Auslösungen des Sensorelements bei dem Detekti onszeitpunkt, der der der Laufzeit des Laserlichts bezüglich der Entfernung des Ob jekts entspricht, wohingegen sich die Auslösungen durch die Umgebungsstrahlung gleichmäßig über die Messdauer eines Messzyklus verteilen. Eine Messung ent spricht dem Aussenden und anschließendem Detektieren des Laserlichts. Die in dem Speicherelement abgelegten Daten der einzelnen Messzyklen eines Messvorgangs ermöglichen eine Auswertung der mehrfach ermittelten Detektionszeitpunkte, um auf den Abstand des Objekts zu schließen.
Ein Sensorelement 21 1 ist günstigerweise mit einem Time to Digital Converter, TDC, verbunden, der den Zeitpunkt des Auslösens der Sensoreinheit in dem Speicherele ment ablegt. Ein solches Speicherelement kann beispielsweise als Kurzzeitspeicher oder als Langzeitspeicher ausgebildet sein. Der TDC füllt für einen Messvorgang ein Speicherelement mit den Zeitpunkten, zu denen die Sensorelemente ein eintreffen des Photon detektierten. Dies lässt sich grafisch durch ein Histogramm, welches auf den Daten des Speicherelements basiert. Bei einem Histogramm ist die Dauer eines Messzyklus in kurze Zeitabschnitte unterteilt, sogenannte Bins. Wird ein Sensorele ment ausgelöst, so erhöht der TDC den Wert eines Bin um eins. Es wird der Bin auf gefüllt, welcher der Laufzeit des Laserpulses entspricht, also die Differenz zwischen Detektionszeitpunkt und Referenzzeitpunkt.
Einige beispielhafte Ausrichtungen der Umfeldsensoren 1 10 und 120 relativ zueinan der sind nachfolgend unter Bezugnahme auf die Figs. 4 bis 6 näher beschrieben. Bei den Beispielen der Figs. 4 bis 6 ist das Umfelderkennungssystem 100 jeweils in ei nem Fahrzeug verbaut und vermisst die Umgebung des Fahrzeugs. Zur besseren Verständlichkeit sind die von den Umfeldsensoren 1 10 und 120 jeweils bereitgestell ten Informationen über den von ihnen abgedeckten Raumbereich als graphische Aufnahmen in den Figs. 4 bis 6 dargestellt. Dabei ist zu beachten, dass diese Dar stellung rein aus pädagogischen Gründen gewählt ist und die Informationen wie oben beschrieben Informationen eines anderen Typs sind. Insbesondere ermittelt ein Ll- DAR-Messsystem einzelne Reflektionen, die auch als Detektionen bezeichnet wer den. Jede Detektion kann Informationen wie Abstand, Elevationswinkel, Azimuthwin- kel, Geschwindigkeit, Intensität und / oder weitere Größen umfassen.
Zunächst zeigt Fig. 4 eine Situation in der Umfeldsensoren 1 10 und 120 gemäß einer Sollausrichtung relativ zueinander ausgerichtet sind. Das Bild 410 zeigt den vom ers ten Umfeldsensor 1 10 tatsächlich abgedeckten ersten Raumbereich und das Bild 420 zeigt den vom zweiten Umfeldsensor 120 tatsächlich abgedeckten zweiten Raumbereich. Da die Umfeldsensoren 110 und 120 gemäß einer Sollausrichtung relativ zueinander ausgerichtet sind, überlappen sich das erste Bild 410 und das zweite Bild 420 gemäß Spezifikation und können fehlerfrei zu einem Gesamtbild 430 zusammengefügt werden. In Bild 440 ist als Referenz noch eine Darstellung der von den LIDAR-Messsystem 100 abgetasteten Umgebung des Fahrzeugs gezeigt.
Fig. 5 zeigt im Weiteren eine Situation in der der zweite Umfeldsensor 120 um die z- Achse verdreht ist. Bei der in Fig. 5 dargestellten Situation blickt der zweite Umfeld sensor 120 zu weit nach links. Das Bild 510 zeigt den vom ersten Umfeldsensor 1 10 tatsächlich abgedeckten ersten Raumbereich und das Bild 520 zeigt den vom zwei- ten Umfeldsensor 120 tatsächlich abgedeckten zweiten Raumbereich. Da der zweite Umfeldsensor 120 zu weit nach links blickt, können das erste Bild 510 und das zwei te Bild 520 nicht mehr fehlerfrei zusammengefügt werden, wie dies in dem Gesamt bild 530 angedeutet ist.
Fig. 6 zeigt noch eine Situation in der der zweite Umfeldsensor 120 verkippt ist. Das Bild 510 zeigt den vom ersten Umfeldsensor 1 10 tatsächlich abgedeckten ersten Raumbereich und das Bild 620 zeigt den vom zweiten Umfeldsensor 120 tatsächlich abgedeckten zweiten Raumbereich. Da der zweite Umfeldsensor 120 relativ zu dem ersten Umfeldsensor 1 10 verkippt ist, können das erste Bild 610 und das zweite Bild 620 nicht mehr fehlerfrei zusammengefügt werden, wie dies in dem Gesamtbild 630 angedeutet ist.
Die Verdrehung bzw. Verkippung des zweiten Umfeldsensors 120 relativ zu dem ers ten Umfeldsensor 1 10 kann durch das Auswertelement 130 erkannt und optional wei teren Systemen mitgeteilt und/oder korrigiert werden.
Fig. 7 zeigt noch ein Fahrzeug 700, das ein Umfelderkennungssystem 710 gemäß der vorliegenden Erfindung zur Erfassung seiner Umgebung nutzt. Ferner umfasst das Fahrzeug ein Steuerelement 720, das eingerichtet ist, bei Empfang des Fehler signals von dem Umfelderkennungssystem 710 einen Betriebsmodus des Fahrzeugs 700 von einem ersten Betriebsmodus in einen zweiten Betriebsmodus zu ändern.
Wie bereits oben beschrieben, kann das Fahrzeug 700 in dem ersten Betriebsmodus und dem zweiten Betriebsmodus beispielsweise automatisiert fahren und zumindest im ersten Betriebsmodus basierend auf von dem Umfelderkennungssystem erfassten Informationen über die Umgebung des Fahrzeugs 700 automatisiert fahren. Bei Aus gabe des Fehlersystems durch das Umfelderkennungssystem 710 kann den Daten des Umfelderkennungssystems 710 nicht mehr vertraut werden. Entsprechend ste hen weniger Daten über die Umgebung des Fahrzeugs 700 für die automatisierte Fahrt zur Verfügung. Um weiterhin eine sichere automatisierte Fahrt zu ermöglichen, kann daher beispielsweise eine Höchstgeschwindigkeit des Fahrzeugs 700 in dem zweiten Betriebsmodus im Vergleich zu dem ersten Betriebsmodus reduziert sein. Alternativ kann das Fahrzeug 700 in dem ersten Betriebsmodus automatisiert fahren und im zweiten Modus z.B. die Steuerung an einen menschlichen Fahrer zurückge ben.
Das Fahrzeug 700 kann somit auf Beeinträchtigungen des Umfelderkennungssys tems 710 reagieren und seinen Betrieb an die Ist-Situation des Umfelderkennungs systems 710 anpassen.
Bezuqszeichen Umfelderkennungssystem
erster Umfeldsensor
Informationen über einen ersten Raumbereich
von dem ersten Umfeldsensor ausgesendetes Signal
zweiter Umfeldsensor
Informationen über einen zweiten Raumbereich
von dem zweiten Umfeldsensor ausgesendetes Signal
Auswerteelement
Fehlersignal
Objekt
Reflexionen des von dem ersten Umfeldsensor ausgesendeten Signals Reflexionen des von dem zweiten Umfeldsensor ausgesendeten Signals LIDAR-Sensor
LIDAR- Empfangseinheit
Sensorelement
LIDAR-Sendeeinheit
Emitterelement
Empfangsoptik
Sendeoptik
Bild des ersten Umfeldsensors
Bild des zweiten Umfeldsensors
Gesamtbild
Referenzbild
Bild des ersten Umfeldsensors
Bild des zweiten Umfeldsensors
Gesamtbild
Bild des ersten Umfeldsensors
Bild des zweiten Umfeldsensors
Gesamtbild
Fahrzeug
Umfelderkennungssystem 720 Steuerelement

Claims

Patentansprüche
1. Umfelderkennungssystem (100), umfassend:
einen ersten Umfeldsensor (1 10), der eingerichtet ist, erste Informationen (1 1 1 ) über einen ersten Raumbereich basierend auf empfangenen Reflexionen (142) eines von dem ersten Umfeldsensor (1 10) ausgesendeten Signals (112) bereitzustellen;
einen zweiten Umfeldsensor (120), der eingerichtet ist, zweite Informationen über einen zweiten Raumbereich basierend auf empfangenen Reflexionen (143) eines von dem zweiten Umfeldsensor (120) ausgesendeten Signals (122) bereitzustellen, wobei der erste und der zweite Raumbereich sich bei einer Sollausrichtung des ers ten Umfeldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) teilweise über lappen,
gekennzeichnet durch ein Auswerteelement (130), das eingerichtet ist:
basierend auf den ersten Informationen (1 1 1 ) und den zweiten Informationen (1 12) zu bestimmen, ob der erste Raumbereich und der zweite Raumbereich sich überlap pen; und
ein Fehlersignal (131 ) auszugeben, falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich nicht überlappen.
2. Umfelderkennungssystem nach Anspruch 1 , dadurch gekennzeichnet, dass, falls bestimmt wird, dass der erste Raumbereich und der zweite Raumbereich überlap pen, das Auswerteelement (130) ferner eingerichtet ist, ein Ausrichtung des ersten Umfeldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) basierend auf den ersten Informationen (1 1 1 ) und den zweiten Informationen (1 12) zu bestimmen.
3. Umfelderkennungssystem nach Anspruch 2, dadurch gekennzeichnet, dass das Auswerteelement (130) ferner eingerichtet ist, die Ausrichtung des ersten Umfeld sensors (1 10) relativ zu dem zweiten Umfeldsensor (120) mit der Sollausrichtung zu vergleichen.
4. Umfelderkennungssystem nach Anspruch 3, dadurch gekennzeichnet, dass das Auswerteelement (130) ferner eingerichtet ist, das Fehlersignal (131 ) auszugeben, falls bestimmt wird, dass die Ausrichtung des ersten Umfeldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) nicht gemäß einem vorgegebenem Kriterium der Sollausrichtung entspricht.
5. Umfelderkennungssystem nach Anspruch 3 oder Anspruch 4, dadurch gekenn zeichnet, dass das Auswerteelement (130) ferner eingerichtet ist, ein Stellelement für den ersten Umfeldsensor (1 10) und/oder den zweiten Umfeldsensor (120) anzusteu ern, eine Ausrichtung des ersten Umfeldsensors (1 10) und/oder des zweiten Umfeld sensors (120) gemäß einer ermittelten Abweichung der Ausrichtung des ersten Um feldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) von der Sollausrichtung zu ändern.
6. Umfelderkennungssystem nach einem der Ansprüche 3 bis 5, dadurch gekenn zeichnet, dass das Auswerteelement (130) ferner eingerichtet ist, die ersten Informa tionen (1 11 ) und die zweiten Informationen (121 ) unter Berücksichtigung einer ermit telten Abweichung der Ausrichtung des ersten Umfeldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) von der Sollausrichtung zu kombinieren, falls bestimmt wird, dass eine Ausrichtung des ersten Umfeldsensors (1 10) relativ zu dem zweiten Umfeldsensor (120) gemäß einem vorgegebenem Kriterium der Sollausrichtung ent spricht.
7. Umfelderkennungssystem nach einem der Ansprüche 1 bis 6, gekennzeichnet durch zumindest einen Neigungssensor, der eingerichtet ist, eine Neigung des ersten Umfeldsensors (1 10) und/oder des zweiten Umfeldsensors (120) relativ zu einer Re ferenzrichtung zu bestimmen, wobei das Auswerteelement ferner eingerichtet ist, die ersten Informationen (1 1 1 ) und die zweiten Informationen (121 ) unter Berücksichti gung der von dem Neigungssensor bestimmten Neigung des ersten Umfeldsensors (1 10) und/oder des zweiten Umfeldsensors (120) relativ zu der Referenzrichtung auszuwerten.
8. Fahrzeug (700), gekennzeichnet durch:
zumindest ein Umfelderkennungssystem (710) nach einem der Ansprüche 1 bis 7, um eine Umgebung des Fahrzeugs zu erfassen; und
ein Steuerelement (720), das eingerichtet ist, bei Empfang des Fehlersignals einen Betriebsmodus des Fahrzeugs (700) von einem ersten Betriebsmodus in einen zwei ten Betriebsmodus zu ändern.
9. Fahrzeug nach Anspruch 8, dadurch gekennzeichnet, dass das Fahrzeug (700) in dem ersten Betriebsmodus und dem zweiten Betriebsmodus automatisiert fährt, wo bei eine Höchstgeschwindigkeit des Fahrzeugs (700) in dem zweiten Betriebsmodus reduziert ist im Vergleich zu dem ersten Betriebsmodus.
10. Verfahren für ein Umfelderkennungssystem (100) mit einem ersten Umfeldsensor (1 10) und einem zweiten Umfeldsensor (120), umfassend:
Bereitstellen von ersten Informationen (11 1 ) über einen ersten Raumbereich mittels des ersten Umfeldsensors (1 10) basierend auf empfangenen Reflexionen (142) ei nes von dem ersten Umfeldsensor (1 10) ausgesendeten Signals (1 12); und
Bereitstellen von zweiten Informationen (121 ) über einen zweiten Raumbereich mit tels des zweiten Umfeldsensors (120) basierend auf empfangenen Reflexionen (143) eines von dem zweiten Umfeldsensor (120) ausgesendeten Signals (122),
wobei der erste und der zweite Raumbereich sich bei einer Sollausrichtung des ers ten Umfeldsensors (120) relativ zu dem zweiten Umfeldsensor (120) teilweise über lappen,
dadurch gekennzeichnet, dass das Verfahren ferner Folgendes umfasst:
Bestimmen, ob der erste Raumbereich und der zweite Raumbereich überlappen, ba sierend auf den ersten Informationen und den zweiten Informationen; und
Ausgeben eines Fehlersignals (131 ), falls bestimmt wird, dass der erste Raumbe reich und der zweite Raumbereich nicht überlappen.
PCT/EP2019/076195 2018-09-28 2019-09-27 Umfelderkennungssystem, fahrzeug sowie verfahren für ein umfelderkennungssystem WO2020065016A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018216704.4A DE102018216704A1 (de) 2018-09-28 2018-09-28 Umfelderkennungssystem, Fahrzeug sowie Verfahren für ein Umfelderkennungssystem
DE102018216704.4 2018-09-28

Publications (1)

Publication Number Publication Date
WO2020065016A1 true WO2020065016A1 (de) 2020-04-02

Family

ID=68104627

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/076195 WO2020065016A1 (de) 2018-09-28 2019-09-27 Umfelderkennungssystem, fahrzeug sowie verfahren für ein umfelderkennungssystem

Country Status (2)

Country Link
DE (1) DE102018216704A1 (de)
WO (1) WO2020065016A1 (de)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003031228A2 (de) * 2001-10-05 2003-04-17 Robert Bosch Gmbh Objekterfassungsvorrichtung
DE102011120535A1 (de) * 2011-12-08 2013-06-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren und Vorrichtung zum Einstellen zumindest eines Sensors eines Fahrzeugs
DE102013211648A1 (de) 2013-06-20 2014-12-24 Continental Automotive Gmbh Verfahren und Vorrichtung zum Kalibrieren einer ersten und einer zweiten Kamera
DE112014006071T5 (de) * 2013-12-26 2016-09-08 Toyota Jidosha Kabushiki Kaisha Fahrzeugumgebungssitutation-Abschätzvorrichtung
WO2017081294A1 (de) 2015-11-11 2017-05-18 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur optischen distanzmessung
DE102017003629A1 (de) * 2017-04-13 2017-10-19 Daimler Ag Vorrichtung und Verfahren zur Kalibrierung optischer Sensoren eines Fahrzeugs

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010060942A1 (de) * 2010-12-01 2012-06-06 Sick Ag Sensoranordnung zur Objekterkennung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003031228A2 (de) * 2001-10-05 2003-04-17 Robert Bosch Gmbh Objekterfassungsvorrichtung
DE102011120535A1 (de) * 2011-12-08 2013-06-13 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Verfahren und Vorrichtung zum Einstellen zumindest eines Sensors eines Fahrzeugs
DE102013211648A1 (de) 2013-06-20 2014-12-24 Continental Automotive Gmbh Verfahren und Vorrichtung zum Kalibrieren einer ersten und einer zweiten Kamera
DE112014006071T5 (de) * 2013-12-26 2016-09-08 Toyota Jidosha Kabushiki Kaisha Fahrzeugumgebungssitutation-Abschätzvorrichtung
WO2017081294A1 (de) 2015-11-11 2017-05-18 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur optischen distanzmessung
DE102017003629A1 (de) * 2017-04-13 2017-10-19 Daimler Ag Vorrichtung und Verfahren zur Kalibrierung optischer Sensoren eines Fahrzeugs

Also Published As

Publication number Publication date
DE102018216704A1 (de) 2020-04-02

Similar Documents

Publication Publication Date Title
EP1947377A1 (de) Optoelektronischer Scanner
DE102019106129A1 (de) Testeinheit und Verfahren zum Prüfen einer LIDAR-Einheit für ein Fahrzeug
DE102016201057A1 (de) Lidar-vorrichtung, fahrzeug und verfahren zum erfassen eines objekts
DE102020000803A1 (de) Verfahren zum Plausibilisieren einer Detektion eines LIDAR-Systems eines Fahrzeugs, Vorrichtung eingerichtet zum Durchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
EP3894895A1 (de) Verfahren zur bestimmung eines sichtverhältnisses
DE10122664A1 (de) Kalibrierverfahren
EP3994480A1 (de) Anpassungsvorrichtung und lidar-messvorrichtung
DE102020110809B3 (de) Verfahren und Vorrichtung zum Erkennen von Blooming in einer Lidarmessung
WO2020065016A1 (de) Umfelderkennungssystem, fahrzeug sowie verfahren für ein umfelderkennungssystem
EP3519857B1 (de) Erfassungsvorrichtung für ein kraftfahrzeug, fahrerassistenzsystem, kraftfahrzeug sowie verfahren
DE102016224764A1 (de) Verfahren und Vorrichtung zum Betreiben eines Laserscanners und Laserscanner
DE102018216705A1 (de) LIDAR-Messsystem sowie Verfahren für ein LIDAR-Messsystem
DE102020124017A1 (de) Verfahren zum Betreiben einer optischen Detektionsvorrichtung, optische Detektionsvorrichtung und Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung
WO2021249845A1 (de) Verfahren und vorrichtung zu einer erkennung von verunreinigungen auf einer schutzscheibe eines lidarsensors
WO2021001178A1 (de) Anpassungsvorrichtung und lidar-messvorrichtung
WO2020065019A1 (de) Umfelderkennungssystem sowie verfahren für ein umfelderkennungssystem
EP3994481A1 (de) Auslesevorrichtung und lidar-messvorrichtung
DE102012025466A1 (de) Verfahren zum Unterscheiden zwischen einem Zielobjekt und einem atmosphärischen Bestandteil bei einer Messung mit Hilfe einer optoelektronischen Sensoreinrichtung eines Kraftfahrzeugs, Sensoreinrichtung und Kraftfahrzeug
DE102020128877B3 (de) Verfahren zur Ermittlung einer Änderung einer Reichweite eines Lidarsensors
DE102019111852B3 (de) Sicherheitslaserscanner und Verfahren
WO2020058406A1 (de) System, bildwand und verfahren zum messen einer signalantwort einer objekterfassungsvorrichtung mit laserscaneinrichtung
DE102007036632B4 (de) Optischer Sensor und Verfahren zum Nachweis von Objekten in einem Überwachungsbereich
DE102022115277A1 (de) Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug
DE102020126817A1 (de) Messanordnung und messverfahren
DE102020128732A1 (de) Verfahren und Vorrichtung zum Erkennen von Blooming-Kandidaten in einer Lidarmessung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19779852

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19779852

Country of ref document: EP

Kind code of ref document: A1