WO2022167343A1 - Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung - Google Patents

Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung Download PDF

Info

Publication number
WO2022167343A1
WO2022167343A1 PCT/EP2022/052098 EP2022052098W WO2022167343A1 WO 2022167343 A1 WO2022167343 A1 WO 2022167343A1 EP 2022052098 W EP2022052098 W EP 2022052098W WO 2022167343 A1 WO2022167343 A1 WO 2022167343A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
sensor
optical sensor
gated camera
camera
Prior art date
Application number
PCT/EP2022/052098
Other languages
English (en)
French (fr)
Inventor
Fridtjof Stein
Original Assignee
Daimler Truck AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Truck AG filed Critical Daimler Truck AG
Priority to CN202280012893.4A priority Critical patent/CN116848429A/zh
Priority to EP22708779.8A priority patent/EP4288799A1/de
Priority to US18/263,291 priority patent/US20240094363A1/en
Publication of WO2022167343A1 publication Critical patent/WO2022167343A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves

Definitions

  • the invention relates to a method for calibrating a gated camera, a control device for carrying out such a method, a calibration device with such a control device and a motor vehicle with such a calibration device.
  • a method for calibrating a gated camera, in particular an illumination device emerges from the European patent application with the publication number EP 3 308 193 B1.
  • light pulses are emitted by the lighting device. These emitted light pulses are compared with a reference light pulse, and the lighting device is calibrated based on this comparison. In this method, however, the interaction between the lighting device and the optical sensor is not considered.
  • a principle when calibrating a technical system is that the dimension of the environment in which the calibration is carried out and the dimension of the environment in which the technical system is operated are as identical as possible. In the case of distance measurements with distances of up to 200 m, this is very difficult to achieve in a cost- and space-saving manner.
  • the invention is based on the object of creating a method for calibrating a gated camera, a control device for carrying out such a method, a calibration device with such a control device and a motor vehicle with such a calibration device, the disadvantages mentioned being at least partially eliminated, preferably avoided are.
  • the object is achieved by providing the present technical teaching, in particular the teaching of the independent claims and the embodiments disclosed in the dependent claims and the description.
  • the object is achieved in particular by creating a method for calibrating a gated camera, which has an illumination device and an optical sensor, by means of a distance sensor system, activation of the illumination device and the optical sensor being coordinated in terms of time and the coordinated activation being visible Distance range is assigned.
  • An object is searched for at least one limit of the visible distance range, and if an object is found at the at least one limit of the visible distance range, the distance sensor system is used to determine an object distance as the distance between the found object and the gated camera.
  • a target distance of the at least one boundary from the gated camera is compared to the object distance, with the coordinated control being evaluated and/or changed depending on the comparison between the target distance and the object distance.
  • the method proposed here it is advantageously possible, based on a few distance measurements, preferably one distance measurement, to calibrate the control of the gated camera, in particular the lighting device and the optical sensor, in particular a distant limit and/or a close limit of the visible distance range .
  • This increases the measurement accuracy of the gated camera and satisfies legal requirements.
  • the calibration includes in particular the orchestration of the lighting device and the exposure control of the optical sensor.
  • the method it is advantageously possible with the method to recognize and compensate for age effects in the components of the gated camera, in particular the lighting device and the optical sensor.
  • a possible future failure of a component due to aging effects is preferably detected at an early stage, after which an exchange of the respective component can be initiated.
  • the gated camera which has the lighting device and the optical sensor, is calibrated while a motor vehicle, which has the gated camera, is driving.
  • the dimension of the environment in which the calibration is carried out and the dimension of the environment in which the gated camera is operated are therefore identical.
  • a local distance between the camera and the optical sensor is preferably also known and is small in comparison to the distance of the camera or the optical sensor from the visible distance range.
  • a distance between the optical sensor and an object is equal to a distance between the camera and the object.
  • the visible distance range is that - object-side - range in three-dimensional space, which is caused by the number and duration of the light pulses of the lighting device in connection with the start and end of the exposure of the optical sensor by means of the optical sensor in a two-dimensional recording on an image plane of the optical Sensor is mapped.
  • object-side an area in real space is addressed.
  • image side an area on the image plane of the optical sensor is addressed. The more visible The distance range is given on the object side. This corresponds to an image-side area on the image plane that is assigned by the imaging laws and the temporal control of the illumination device and the optical sensor.
  • the target distance is determined from the coordinated control, or the coordinated control is determined from the target distance.
  • the object distance is preferably set as the at least one limit of the visible distance range of the coordinated control, and thus as the current target distance, if the object distance and the target distance differ.
  • the illumination device is a laser.
  • the optical sensor is preferably a camera.
  • the distance sensor system has at least one sensor selected from a group consisting of a Stereo camera, a lidar sensor, and a radar sensor.
  • a determination of the object distance is advantageously possible in a simple manner by means of such a sensor.
  • the at least two sensors are preferably different from one another, in particular the at least two sensors differ in terms of the respective design and/or the respective sensor principle.
  • the sensor fusion device is used to fuse a sensor signal from the optical sensor and at least one sensor signal from the distance sensor system to form the fusion signal.
  • the coordinated control is changed when an absolute difference between the target distance and the object distance is greater than a predetermined limit difference.
  • the coordinated control is only changed when the absolute difference between the target distance and the object distance is greater than the predetermined limit difference.
  • the tuned drive is not changed when the absolute difference between the target distance and the object distance is less than or equal to the predetermined limit difference.
  • the activation of the lighting device is evaluated and/or changed as a function of the comparison between the target distance and the object distance.
  • the activation of the lighting device is changed in such a way that the object distance and the target distance are identical.
  • the control device is preferably set up to be operatively connected to the gated camera, in particular to the lighting device and the optical sensor, and the distance sensor system, and set up to control them in each case.
  • the object is also achieved by creating a calibration device that has a gated camera that has an illumination device and an optical sensor, a distance sensor system and a control device according to the invention or a control device according to one or more of the embodiments described above.
  • a calibration device that has a gated camera that has an illumination device and an optical sensor, a distance sensor system and a control device according to the invention or a control device according to one or more of the embodiments described above.
  • the control device is preferably operatively connected to the gated camera, in particular to the lighting device and the optical sensor, and the distance sensor system, and set up for their respective activation.
  • the object is also achieved by a motor vehicle with a calibration device according to the invention or a calibration device according to one or more of the embodiments described above is provided.
  • a motor vehicle with a calibration device according to the invention or a calibration device according to one or more of the embodiments described above is provided.
  • the motor vehicle is designed as a truck.
  • the motor vehicle it is also possible for the motor vehicle to be a passenger car, a commercial vehicle, or another motor vehicle.
  • FIG. 1 shows a schematic representation of an exemplary embodiment of a motor vehicle and an object at a distant boundary of a visible distance range
  • FIG. 2 shows a schematic representation of the exemplary embodiment of the motor vehicle and the object at a near limit of the visible distance range
  • FIG. 3 shows a flow chart of a first exemplary embodiment for calibrating a gated camera
  • FIG. 5 shows a flow chart of a third exemplary embodiment for calibrating a gated camera.
  • the distance sensor system 7 preferably has at least one sensor 8 selected from a group consisting of a stereo camera, a lidar sensor and a radar sensor. Alternatively or additionally, the distance sensor system 7 preferably has a sensor fusion device 10 .
  • the sensor fusion device 10 is set up to fuse at least two sensor signals from at least two sensors 8 to form a fusion signal.
  • the sensor fusion device 10 preferably fuses at least two different sensor signals from the distance sensor system 7 to form the fusion signal.
  • the sensor fusion device 10 fuses at least one sensor signal from the distance sensor system 7 and a signal from the optical sensor 13 to form the fusion signal.
  • Figure 2 shows a schematic representation of the exemplary embodiment of a motor vehicle 1 with the calibration device 3.
  • the object 25, in particular a passenger car, is arranged in the visible distance range 21, in particular at a near limit 23.2 of the visible distance range 21.
  • step B an object 25 is sought at at least one boundary 23 of the visible distance range 21 . If no object 25 is found, the method ends or alternatively the method starts again with step A.
  • the distance sensor 7 is used in steps C and D to determine the object distance 27 as the distance between the found object 25 and the gated camera 5.
  • step C at least one sensor signal is preferably detected by means of the distance sensor system 7 and in step D, the object distance 27 is preferably determined from the at least one sensor signal. If no object distance 27 can be determined in step D, the method ends or the method is alternatively started again with step A.
  • step D a target distance of the at least one boundary 23 of the visible distance range 21 from the gated camera 5 is compared with the object distance 27 in step E. If no comparison can be carried out in step E, the method ends or the method is alternatively started again with step A.
  • step E an absolute difference between the target distance and the object distance 27 is preferably determined. Furthermore, in step F, the coordinated control is preferably changed only if the absolute difference is greater than a predetermined limit difference. Thus, the coordinated control of the gated camera 5 is not changed in step F if the absolute difference is less than or equal to the predetermined limit difference. In step F, a correction for changing the tuned control as a function of the comparison between the setpoint distance and the object distance 27 is preferably determined using a low-pass filter.
  • Figure 4 shows a flow chart of a second exemplary embodiment of a method for calibrating the gated camera 5 using the distance sensor system 7.
  • Figure 5 shows a flow chart of a third exemplary embodiment of a method for calibrating the gated camera 5 using the distance sensor system 7.
  • step C4 the plurality of sensor signals and a signal from the optical sensor 13 are merged to form the fusion signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Gated-Kamera (5), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, mittels einer Abstandssensorik (7), wobei - eine Ansteuerung der Beleuchtungseinrichtung (11) und des optischen Sensors (13) zeitlich aufeinander abgestimmt werden, wobei - der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (21) zugeordnet wird, wobei - an mindestens einer Grenze (23) des sichtbaren Abstandsbereichs (21) ein Objekt (25) gesucht wird, wobei - wenn ein Objekt (25) an dem mindestens einen Grenze (23) des sichtbaren Abstandsbereichs (21) gefunden wird, mittels der Abstandssensorik (7) ein Objekt-Abstand (27) als Abstand des gefundenen Objekts (25) zu der Gated-Kamera (5) bestimmt wird, wobei - ein Soll-Abstand der mindestens einen Grenze (23) zu der Gated-Kamera (5) mit dem Objekt-Abstand (27) verglichen wird, wobei - die abgestimmte Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand (27) bewertet und/oder verändert wird.

Description

Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Gated-Kamera, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung.
Ein Verfahren zum Kalibrieren einer Gated-Kamera, insbesondere einer Beleuchtungseinrichtung, geht aus der europäischen Patentanmeldung mit der Veröffentlichungsnummer EP 3 308 193 B1 hervor. Bei diesem Verfahren werden mittels der Beleuchtungseinrichtung Lichtpulse ausgesendet. Diese ausgesendeten Lichtpulse werden mit einem Referenzlichtpuls verglichen, und basierend auf diesem Vergleich wird die Beleuchtungseinrichtung kalibriert. Bei diesem Verfahren wird allerdings das Zusammenspiel von Beleuchtungseinrichtung und optischem Sensor nicht betrachtet.
Ein Grundsatz beim Kalibrieren eines technischen Systems besteht darin, dass die Dimension der Umgebung, in welcher die Kalibrierung vorgenommen wird, und die Dimension der Umgebung, in welcher das technische System betrieben wird, möglichst identisch sind. Bei Abstandsmessungen mit Entfernungen von bis zu 200 m ist dies nur sehr schwer kosten- und platzsparend zu verwirklichen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Kalibrieren einer Gated- Kamera, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen. Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Kalibrieren einer Gated- Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, mittels einer Abstandssensorik geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden und der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich zugeordnet wird. An mindestens einer Grenze des sichtbaren Abstandsbereichs wird ein Objekt gesucht, wobei, wenn ein Objekt an der mindestens einen Grenze des sichtbaren Abstandsbereichs gefunden wird, mittels der Abstandssensorik ein Objekt-Abstand als Abstand des gefundenen Objekts zu der Gated-Kamera bestimmt wird. Ein Soll-Abstand der mindestens einen Grenze zu der Gated-Kamera wird mit dem Objekt-Abstand verglichen, wobei die abgestimmte Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bewertet und/oder verändert wird.
Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, basierend auf wenigen Abstandsmessungen, vorzugsweise einer Abstandsmessung, die Ansteuerung der Gated-Kamera, insbesondere der Beleuchtungseinrichtung und des optischen Sensors, insbesondere eine entfernte Grenze und/oder eine nahe Grenze des sichtbaren Abstandsbereichs, zu kalibrieren. Damit wird die Messgenauigkeit der Gated-Kamera erhöht, und die gesetzlichen Anforderungen werden erfüllt. Die Kalibrierung umfasst insbesondere die Orchestrierung der Beleuchtungseinrichtung und der Belichtungsansteuerung des optischen Sensors.
Darüber hinaus ist es mit dem Verfahren vorteilhaft möglich, Alterseffekte bei den Komponenten der Gated-Kamera, insbesondere der Beleuchtungseinrichtung und dem optischen Sensor, zu erkennen und zu kompensieren. Vorzugsweise wird außerdem ein möglicher zukünftiger Ausfall einer Komponente aufgrund von Alterungseffekten frühzeitig erkannt, worauf ein Austausch der jeweiligen Komponente initiiert werden kann.
Außerdem erfolgt die Kalibrierung der Gated-Kamera, die die Beleuchtungseinrichtung und den optischen Sensor aufweist, während der Fahrt eines Kraftfahrzeugs, welches die Gated-Kamera aufweist. Damit sind die Dimension der Umgebung, in welcher die Kalibrierung vorgenommen wird, und die Dimension der Umgebung, in welcher die Gated- Kamera betrieben werden, identisch.
Die Kalibrierung der Gated-Kamera, die die Beleuchtungseinrichtung und den optischen Sensor aufweist, stellt sicher, dass Alterungseffekte und/oder Verschmutzungen der Beleuchtungseinrichtung und/oder des optischen Sensors nicht die Abstandsmessung verfälschen. Eine Laufzeitverschiebung von 10 ns resultiert bereits in einem Fehler für die Abstandsmessung von ca. 3 m.
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere als ein Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
Insbesondere werden durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere bestimmtem Abstand einer nahen und einer entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Kamera bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Kamera und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Kamera bzw. des optischen Sensors zu dem sichtbaren Abstandsbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und einem Objekt gleich einem Abstand zwischen der Kamera und dem Objekt.
Der sichtbare Abstandsbereichs ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welche durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbarer Abstandsbereich ist dabei objektseitig gegeben. Dieser entspricht einem durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordneten bildseitigen Bereich auf der Bildebene.
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbarer Abstandsbereiches, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
Vorteilhafterweise wird der Soll-Abstand aus der abgestimmten Ansteuerung bestimmt, oder die abgestimmte Ansteuerung wird aus dem Soll-Abstand bestimmt.
In einer weiteren bevorzugten Ausführungsform des Verfahrens wird vorzugsweise der Objekt-Abstand als die mindestens eine Grenze des sichtbaren Abstandsbereichs der abgestimmten Ansteuerung, und damit als aktueller Soll-Abstand, gesetzt, falls sich der Objekt-Abstand und der Soll-Abstand unterscheiden.
Die Beleuchtungseinrichtung ist in einer bevorzugten Ausgestaltung ein Laser. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Abstandssensorik mindestens einen Sensor, ausgewählt aus einer Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor, und einem Radar-Sensor, aufweist. Vorteilhafterweise ist mittels eines solchen Sensors eine Bestimmung des Objekt- Abstands in einfacher Weise möglich.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Abstandssensorik eine Sensorfusionseinrichtung aufweist, die eingerichtet ist um mindestens zwei Sensorsignale von mindestens zwei Sensoren zu einem Fusion-Signal zu fusionieren. Der Objekt- Abstand wird auf Grundlage des Fusion-Signals bestimmt.
Vorzugsweise sind die mindestens zwei Sensoren voneinander verschieden, insbesondere unterscheiden sich die mindestens zwei Sensoren in der jeweiligen Bauart und/oder in dem jeweiligen Sensorprinzip.
Vorzugsweise sind die mindestens zwei Sensoren ausgewählt aus der Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor und einem Radar-Sensor.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels der Sensorfusionseinrichtung ein Sensorsignal des optischen Sensors und mindestens ein Sensorsignal der Abstandssensorik zu dem Fusion-Signal fusioniert werden.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die abgestimmte Ansteuerung verändert wird, wenn eine absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand größer ist als eine vorbestimmte Grenz-Differenz. Insbesondere wird die abgestimmte Ansteuerung nur dann verändert, wenn die absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand größer als die vorbestimmte Grenz- Differenz ist. Zusätzlich wird die abgestimmte Ansteuerung nicht verändert, wenn die absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand kleiner als oder gleich wie die vorbestimmte Grenz-Differenz ist.
Die absolute Differenz von zwei Werten entspricht dem Betrag der Differenz von diesen beiden Werten. Somit wird mittels der absoluten Differenz immer ein positiver Abstand zwischen zwei Werten bestimmt.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Ansteuerung der Beleuchtungseinrichtung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bewertet und/oder verändert wird. In einer bevorzugten Ausführungsform des Verfahrens wird, falls ein Unterschied zwischen dem Objekt-Abstand und dem Soll-Abstand festgestellt wird, die die Ansteuerung der Beleuchtungseinrichtung derart verändert, dass der Objekt-Abstand und der Soll-Abstand identisch sind.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels eines Tiefpass- Filters eine Korrektur zur Veränderung der abgestimmten Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bestimmt wird. Vorteilhafterweise werden mittels des Tiefpass-Filters schleichende Änderungen durch Alterung und Umgebungseinflüsse kompensiert.
Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer oder mehreren der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
Die Steuereinrichtung ist bevorzugt eingerichtet, um mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, und der Abstandssensorik wirkverbunden zu werden, und eingerichtet zu deren jeweiliger Ansteuerung.
Die Aufgabe wird auch gelöst, indem eine Kalibrierungsvorrichtung geschaffen wird, die eine Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, eine Abstandssensorik und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einer oder mehreren der zuvor beschriebenen Ausführungsformen aufweist. In Zusammenhang mit der Kalibrierungsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
Die Steuereinrichtung ist bevorzugt mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, und der Abstandssensorik wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Kalibrierungsvorrichtung oder einer Kalibrierungsvorrichtung nach einer oder mehreren der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Kalibrierungsvorrichtung erläutert wurden.
In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder anderes Kraftfahrzeug ist.
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs und eines Objekts an einer entfernten Grenze eines sichtbaren Abstandsbereichs,
Fig. 2 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs und des Objekts an einer nahen Grenze des sichtbaren Abstandsbereichs,
Fig. 3 ein Ablaufdiagramm eines ersten Ausführungsbeispiels zum Kalibrieren eine Gated-Kamera,
Fig. 4 ein Ablaufdiagramm eines zweiten Ausführungsbeispiels zum Kalibrieren einer Gated-Kamera, und
Fig. 5 ein Ablaufdiagramm eines dritten Ausführungsbeispiels zum Kalibrieren einer Gated-Kamera.
Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Kalibrierungsvorrichtung 3. Die Kalibrierungsvorrichtung 3 weist eine Gated-Kamera 5, eine Abstandssensorik 7 und eine Steuereinrichtung 9 auf. Weiterhin weist die Gated-Kamera 5 eine Beleuchtungseinrichtung 11 , vorzugsweise einen Laser, und einen optischen Sensor 13, vorzugsweise eine Kamera, auf. Die Steuereinrichtung 9 ist hier nur schematisch dargestellt und ist in nicht explizit dargestellter Weise mit der Gated-Kamera 5, insbesondere der Beleuchtungseinrichtung 11 und dem optischen Sensor 13, und der Abstandssensorik 7 verbunden und eingerichtet zu deren jeweiliger Ansteuerung. Dargestellt in Figur 1 ist insbesondere ein Sensorerfassungsbereich 15 der Abstandssensorik 7, ein Beleuchtungs-Frustum 17 der Beleuchtungseinrichtung 11 und ein Beobachtungsbereich 19 des optischen Sensors 13. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 21 , der sich als Teilmenge des Beobachtungsbereichs 19 des optischen Sensors 13 und des Beleuchtungs-Frustums 17 der Beleuchtungseinrichtung 11 ergibt.
Vorzugsweise weist die Abstandssensorik 7 mindestens einen Sensor 8, ausgewählt aus einer Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor, und einem Radar- Sensor, auf. Alternativ oder zusätzlich weist die Abstandssensorik 7 vorzugsweise eine Sensorfusionseinrichtung 10 auf. Die Sensorfusionseinrichtung 10 ist eingerichtet, um mindestens zwei Sensorsignale von mindestens zwei Sensoren 8 zu einem Fusion-Signal zu fusionieren.
Vorzugsweise fusioniert die Sensorfusionseinrichtung 10 mindestens zwei unterschiedliche Sensorsignale der Abstandssensorik 7 zu dem Fusion-Signal. Alternativ fusioniert die Sensorfusionseinrichtung 10 mindestens ein Sensorsignal der Abstandssensorik 7 und ein Signal des optischen Sensors 13 zu dem Fusion-Signal.
In dem sichtbaren Abstandsbereich 21, insbesondere an einer entfernten Grenze 23.1 des sichtbaren Abstandsbereichs 21, ist ein Objekt 25, insbesondere ein Personenkraftwagen, angeordnet. Ein Objekt-Abstand 27 als Abstand zwischen dem Objekt 25 und der Gated-Kamera 5 wird vorzugsweise mittels der Abstandssensorik 7 bestimmt.
Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung eines Verfahrens zum Kalibrieren der Gated-Kamera 5 nach einem oder mehreren der in den Figuren 3, 4 und 5 beschriebenen Ausführungsbeispielen.
Figur 2 zeigt eine schematische Darstellung des Ausführungsbeispiels eines Kraftfahrzeugs 1 mit der Kalibrierungsvorrichtung 3.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern jeweils auf die vorangegangene Beschreibung verwiesen wird.
In dem sichtbaren Abstandsbereich 21 , insbesondere an einer nahen Grenze 23.2 des sichtbaren Abstandsbereichs 21 , ist das Objekt 25, insbesondere ein Personenkraftwagen, angeordnet.
Figur 3 zeigt ein Ablaufdiagramm eines ersten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7. In Schritt A werden eine Ansteuerung der Beleuchtungseinrichtung 11 und des optischen Sensors 13 zeitlich aufeinander abgestimmt, wobei der abgestimmten Ansteuerung der sichtbare Abstandsbereich 21 zugeordnet wird.
In Schritt B wird an mindestens einer Grenze 23 des sichtbaren Abstandsbereichs 21 ein Objekt 25 gesucht. Wird kein Objekt 25 gefunden, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
Wenn in Schritt B an der mindestens einen Grenze 23 des sichtbaren Abstandsbereichs 21 ein Objekt 25 gefunden wird, werden in den Schritten C und D mittels der Abstandssensorik 7 der Objekt-Abstand 27 als Abstand des gefundenen Objekts 25 zu der Gated-Kamera 5 bestimmt. Vorzugsweise wird in Schritt C mittels der Abstandssensorik 7 mindestens ein Sensorsignal erfasst und in Schritt D wird vorzugsweise aus dem mindestens einen Sensorsignal der Objekt-Abstand 27 bestimmt. Kann in Schritt D kein Objekt-Abstand 27 bestimmt werden, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
Falls in Schritt D der Objekt-Abstand 27 bestimmt wird, wird in Schritt E ein Soll-Abstand der mindestens einen Grenze 23 des sichtbaren Abstandsbereichs 21 zu der Gated- Kamera 5 mit dem Objekt-Abstand 27 verglichen. Falls in Schritt E kein Vergleich durchgeführt werden kann, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
In Schritt F wird die abgestimmte Ansteuerung, vorzugsweise die Ansteuerung der Beleuchtungseinrichtung 11, in Abhängigkeit von dem Vergleich zwischen dem Soll- Abstand und dem Objekt-Abstand 27 aus Schritt E bewertet und/oder verändert.
Vorzugsweise wird in Schritt E eine absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand 27 bestimmt. Weiterhin wird vorzugsweise in Schritt F die abgestimmte Ansteuerung nur dann verändert, wenn die absolute Differenz größer ist als ein vorbestimmte Grenz-Differenz. Somit wird die abgestimmt Ansteuerung der Gated- Kamera 5 in Schritt F nicht verändert, falls die absolute Differenz kleiner als oder gleich wie die vorbestimmte Grenz-Differenz ist. Vorzugsweise wird in Schritt F mittels eines Tiefpass-Filters eine Korrektur zur Veränderung der abgestimmten Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand 27 bestimmt.
Figur 4 zeigt ein Ablaufdiagramm eines zweiten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern jeweils auf die vorangegangene Beschreibung verwiesen wird.
In den Schritten C1 , C2 und C3 werden mittels einer Mehrzahl an Sensoren 8, insbesondere eines ersten Sensors, eines zweiten Sensors und eines dritten Sensors, eine Mehrzahl an Sensorsignalen erfasst und mittels der Sensorfusionseinrichtung 10 in Schritt C4 zu einem Fusion-Signal fusioniert. In Schritt D wird der Objekt-Abstand 27 auf Grundlage des Fusion-Signals aus Schritt C4 bestimmt. Vorzugsweise sind die einzelnen Sensoren 8 der Mehrzahl an Sensoren 8 voneinander verschieden.
Figur 5 zeigt ein Ablaufdiagramm eines dritten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7.
In Schritt C4 werden die Mehrzahl an Sensorsignalen und ein Signal des optischen Sensors 13 zu dem Fusion-Signal fusioniert.

Claims

Patentansprüche Verfahren zum Kalibrieren einer Gated-Kamera (5), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, mittels einer Abstandssensorik (7), wobei eine Ansteuerung der Beleuchtungseinrichtung (11) und des optischen Sensors (13) zeitlich aufeinander abgestimmt werden, wobei der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (21) zugeordnet wird, wobei an mindestens einer Grenze (23) des sichtbaren Abstandsbereichs (21) ein Objekt (25) gesucht wird, wobei wenn ein Objekt (25) an der mindestens einen Grenze (23) des sichtbaren Abstandsbereichs (21) gefunden wird, mittels der Abstandssensorik (7) ein Objekt-Abstand (27) als Abstand des gefundenen Objekts (25) zu der Gated- Kamera (5) bestimmt wird, wobei ein Soll-Abstand der mindestens einen Grenze (23) zu der Gated-Kamera (5) mit dem Objekt-Abstand (27) verglichen wird, wobei die abgestimmte Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand (27) bewertet und/oder verändert wird. Verfahren nach Anspruch 1, wobei die Abstandssensorik (7) mindestens einen Sensor (8), ausgewählt aus einer Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor, und einem Radar-Sensor, aufweist. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Abstandssensorik (7) eine Sensorfusionseinrichtung (10) aufweist, die eingerichtet ist, um mindestens zwei Sensorsignale von mindestens zwei Sensoren (8) zu einem Fusion-Signal zu fusionieren, wobei der Objekt-Abstand (27) auf Grundlage des Fusion-Signals bestimmt wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei mittels der Sensorfusionseinrichtung (10) ein Sensorsignal des optischen Sensors (13) und mindestens ein Sensorsignal der Abstandssensorik (7) zu dem Fusion-Signal fusioniert werden Verfahren nach einem der vorhergehenden Ansprüche, wobei die abgestimmte Ansteuerung verändert wird, wenn eine absolute Differenz zwischen dem Soll- Abstand und dem Objekt-Abstand (27) größer ist als eine vorbestimmte Grenz- Differenz. Verfahren nach einem der vorhergehenden Ansprüche wobei die Ansteuerung der Beleuchtungseinrichtung (11) in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand (27) bewertet und/oder verändert wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei mittels eines Tiefpass-Filters eine Korrektur zur Veränderung der abgestimmten Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt- Abstand (27) bestimmt wird. Steuereinrichtung (9), eingerichtet zur Durchführung eines Verfahrens zum Kalibrieren einer Gated-Kamera (5) nach einem der vorhergehenden Ansprüche. Kalibrierungsvorrichtung (3) mit einer Gated-Kamera (5), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, einer Abstandssensorik (7) und einer Steuereinrichtung (9) nach Anspruch 8. Kraftfahrzeug (1) mit einer Kalibrierungsvorrichtung (3) nach Anspruch 9.
PCT/EP2022/052098 2021-02-02 2022-01-28 Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung WO2022167343A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202280012893.4A CN116848429A (zh) 2021-02-02 2022-01-28 用于校准选通摄像头的方法、用于执行这种方法的控制装置、具有这种控制装置的校准装置和具有这种校准装置的机动车
EP22708779.8A EP4288799A1 (de) 2021-02-02 2022-01-28 Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung
US18/263,291 US20240094363A1 (en) 2021-02-02 2022-01-28 Method for Calibrating a Gated Camera, Control Unit for Carrying Out Such a Method, Calibrating Device Having Such a Control Unit and Motor Vehicle Having Such a Calibrating Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021000508.2A DE102021000508A1 (de) 2021-02-02 2021-02-02 Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinnchtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102021000508.2 2021-02-02

Publications (1)

Publication Number Publication Date
WO2022167343A1 true WO2022167343A1 (de) 2022-08-11

Family

ID=82402934

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/052098 WO2022167343A1 (de) 2021-02-02 2022-01-28 Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung

Country Status (5)

Country Link
US (1) US20240094363A1 (de)
EP (1) EP4288799A1 (de)
CN (1) CN116848429A (de)
DE (1) DE102021000508A1 (de)
WO (1) WO2022167343A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023004107A1 (de) 2023-10-12 2024-01-25 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Funktionsprüfung einer Gated-Kamera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019118786A1 (en) * 2017-12-13 2019-06-20 Magic Leap, Inc. Global shutter pixel circuit and method for computer vision applications
EP3308193B1 (de) 2015-06-15 2020-03-18 Microsoft Technology Licensing, LLC Kalibrierung eines flugzeit (tof)-systems
DE102020003199A1 (de) * 2020-05-28 2020-08-06 Daimler Ag Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017149370A1 (en) 2016-03-01 2017-09-08 Brightway Vision Ltd. Gated imaging apparatus, system and method
US11353588B2 (en) 2018-11-01 2022-06-07 Waymo Llc Time-of-flight sensor with structured light illuminator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3308193B1 (de) 2015-06-15 2020-03-18 Microsoft Technology Licensing, LLC Kalibrierung eines flugzeit (tof)-systems
WO2019118786A1 (en) * 2017-12-13 2019-06-20 Magic Leap, Inc. Global shutter pixel circuit and method for computer vision applications
DE102020003199A1 (de) * 2020-05-28 2020-08-06 Daimler Ag Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Also Published As

Publication number Publication date
CN116848429A (zh) 2023-10-03
DE102021000508A1 (de) 2022-08-04
US20240094363A1 (en) 2024-03-21
EP4288799A1 (de) 2023-12-13

Similar Documents

Publication Publication Date Title
EP3729137B1 (de) Multipuls-lidarsystem zur mehrdimensionalen erfassung von objekten
DE4110132C2 (de) Abstandsteuergerät für ein Fahrzeug
DE102013209436A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Beleuchtungsmusters
WO2007065704A1 (de) Vorrichtung und verfahren zur vermessung der oberfläche eines körpers
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
WO2022167343A1 (de) Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung
EP3579015B1 (de) Verfahren und vorrichtung zur detektion eines objekts mittels breitbandiger laserpulse
WO2022096215A1 (de) Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE102022202778B4 (de) System und Verfahren zur konfokal-chromatischen Linienabstandsmessung
WO2019170700A1 (de) Vorrichtung zur scannenden abstandsermittlung eines objekts
WO2019110206A1 (de) Lidar-system zur umfelderfassung und verfahren zum betreiben eines lidar-systems
DE102017005056A1 (de) Verfahren zum Betrieb eines Stereokamerasystems in einem Fahrzeug
DE2928750C2 (de)
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
DE102020007064B4 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102020211468A1 (de) LIDAR-Vorrichtung und LIDAR-System
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102020007061A1 (de) Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102020005762B4 (de) Verfahren zum Kalibrieren einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung sowie Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102021001175A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
DE102019218790A1 (de) Verfahren zum Bereitstellen von Bilddaten von einem Kamerasystem sowie Kamerasystem und Kraftfahrzeug
WO2022042902A1 (de) Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung
DE102021000447A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
EP4281727A1 (de) System und verfahren zur konfokal-chromatischen linienabstandsmessung
DE102021212292A1 (de) Vorrichtung und Verfahren zur Umgebungsüberwachung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22708779

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18263291

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280012893.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022708779

Country of ref document: EP

Effective date: 20230904