EP4352547A1 - Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung - Google Patents
Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtungInfo
- Publication number
- EP4352547A1 EP4352547A1 EP22732141.1A EP22732141A EP4352547A1 EP 4352547 A1 EP4352547 A1 EP 4352547A1 EP 22732141 A EP22732141 A EP 22732141A EP 4352547 A1 EP4352547 A1 EP 4352547A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- recording
- gated camera
- object area
- visible object
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000000007 visual effect Effects 0.000 title claims abstract description 28
- 230000003287 optical effect Effects 0.000 claims abstract description 42
- 238000005286 illumination Methods 0.000 claims description 22
- 238000004891 communication Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 1
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
Definitions
- the invention relates to a method for operating a gated camera, a control device for carrying out such a method, a visibility measuring device with such a control device and a motor vehicle with such a visibility measuring device.
- Methods are known for calculating a visual range, in which a contrast or a spectrum of an image is evaluated.
- methods are known in which a decreasing contrast of a lane marking is evaluated with increasing distance.
- a disadvantage of the known methods is that atmospheric reflections have a great influence on the contrast and/or the spectrum of the recording-particularly at night, particles along the visual beams cause strong reflections through scattering-and the calculation of the visual range is therefore very error-prone.
- the invention is based on the object of creating a method for operating a gated camera, a control device for carrying out such a method, a visibility measuring device with such a control device and a motor vehicle with such a visibility measuring device, the disadvantages mentioned being at least partially eliminated, preferably avoided are.
- the object is achieved by providing the present technical teaching, in particular the teaching of the independent claims and the embodiments disclosed in the dependent claims and the description.
- the object is achieved in particular by creating a method for operating a gated camera, which has an illumination device and an optical sensor, with activation of the illumination device and the optical sensor being coordinated in terms of time.
- a visible object area is assigned to a first coordinated control, with the first control being used to record a first recording of the visible object area from a first distance between the gated camera and the visible object area.
- a second coordinated control is selected in such a way that the second coordinated control is assigned to the visible object area, with the second coordinated control taking a second picture of the visible object area after the first recording from a second distance of the gated camera that differs from the first distance to the visible object area is recorded.
- the first recording and the second recording are compared using at least one criterion, a visual range of the gated camera being inferred on the basis of the comparison.
- the gated camera advantageously hides reflections that occur outside of the visible object area due to atmospheric disturbances, so that these reflections cannot be seen in the first recording and/or in the second recording.
- the atmospheric disturbances preferably dampen the light of the illumination device returning to the optical sensor as a function of the first distance and of the second distance, so that a visual range of the gated camera can advantageously be inferred.
- the visual range of the gate camera can advantageously be determined on the basis of this method, up to which precise, robust and/or low error-prone object recognition and/or object measurement is possible.
- the method for generating recordings by means of a temporally coordinated activation of an illumination device and an optical sensor is, in particular, a method known as a gated imaging method; in particular, the optical sensor is a camera that is only sensitively switched in a specific, limited time range, which is referred to as "gated activation".
- the lighting device is also controlled correspondingly only in a specific, selected time interval in order to illuminate a scene on the object side, in particular the visible object area.
- the lighting device emits a predefined number of light pulses, preferably with a duration of between 5 ns and 20 ns.
- the beginning and end of the exposure of the optical sensor is linked to the number and duration of the emitted light pulses and a start of the illumination.
- a specific visible object area can be detected by the optical sensor by the temporal activation of the lighting device on the one hand and the optical sensor on the other hand with a correspondingly defined local position, i.e. in particular at specific distances between a near and a distant limit of the visible object area from the optical sensor will.
- a local position of the optical sensor and the lighting device is known from the structure of the gated camera.
- a local distance between the lighting device and the optical sensor is preferably known and small in comparison to the distance of the lighting device or the optical sensor from the visible object area.
- a distance between the optical sensor and the visible object area is therefore equal to a distance between the gated camera and the visible object area.
- the visible object area is that area - on the object side - in three-dimensional space which, due to the number and duration of the light pulses of the lighting device and the start of the lighting in connection with the start and end of the exposure of the optical sensor by means of the optical sensor, is in a two-dimensional Recording is imaged on an image plane of the optical sensor.
- object-side an area in real space is addressed.
- image side an area on the image plane of the optical sensor is addressed.
- the visible object area is given on the object side. This corresponds to an image-side area on the image plane that is assigned by the imaging laws and the temporal control of the illumination device and the optical sensor.
- the method it is therefore possible, in particular, to determine the position and the spatial width of the visible object area, in particular a distance between the near limit and the far limit of the visible area, by a correspondingly suitable selection of the temporal control of the lighting device on the one hand and the optical sensor on the other Object area to define.
- the visible object area is specified, with the timing of the illumination device on the one hand and the optical sensor on the other being correspondingly specified therefrom.
- the illumination device has at least one surface emitter, in particular a so-called VCSE laser.
- the optical sensor is preferably a camera.
- the first gated camera distance to the visible object area and the second gated camera distance to the visible object area are respectively distances of the gated camera to the near boundary of the visible object area.
- the visible object area is preferably arranged in a fixed manner in a coordinate system, with the gated camera being arranged variably—in particular at two different positions—in the coordinate system.
- An empty, in particular static, road surface is preferably used as the visible object area, with the visible object area additionally preferably having peripheral buildings and/or peripheral vegetation.
- the gated camera is displaced relative to the visible object area, in particular at a constant speed.
- a difference between the first distance and the second distance can be calculated from the speed at which the gated camera is displaced and a period of time between taking the first shot and taking the second shot.
- the period of time is preferably selected to be small if at least one object, in particular a moving or moved object, is present in the visible object area.
- the first recording and the second recording are aligned with one another, in particular before the comparison, by means of an image registration method.
- at least one moving object or movement artifact is removed in at least one recording selected from the first recording and the second recording.
- the image registration method can be used to compensate for a movement of the gated camera—in particular a change in height and/or a change in the roll, pitch, and yaw angle.
- Movement artefacts and/or moving objects which in particular can only be seen in the first recording or the second recording, affect the comparability of the two recordings.
- the comparability of the two recordings can therefore advantageously be increased by removing the at least one moving object or movement artefact.
- a differential recording is generated as a comparison as the difference between the first recording and the second recording, with the differential recording being evaluated on the basis of the at least one criterion.
- the at least one criterion is an attenuation of a luminance - in particular in relation to a difference between the first distance of the gated camera to the visible object area and the second distance of the gated camera to the visible object area - is used.
- a visual range of the gated camera can advantageously be inferred in a simple and/or robust manner by means of the attenuation of the luminance.
- the attenuation of the luminance is preferably determined using the difference recording.
- the attenuation of the luminance can thus be determined very precisely and reliably.
- the visual range of the gated camera by means of the attenuation of the luminance - in particular in relation to the difference between the first distance of the gated camera to the visible object area and the second distance of the gated camera to the visible object area - and a predetermined threshold luminance is calculated.
- the luminance of a recording is advantageously greater the smaller the distance between the gated camera, in particular the optical sensor, and the visible object area, in particular the near limit of the visible object area.
- a change in the luminance from the first recording to the second recording is therefore always negative.
- the visibility at which, in particular, the predefined threshold luminance is present can be calculated at least approximately using one of the two following formulas.
- the visual range S w the first distance Si, the second distance S 2 , a distance S 0b between the near and far border of the visible object area, the luminance of the first recording Ldi, the luminance of the second recording Ld 2 , the thresholds -Luminance Ld s and the change in luminance as a function of distance 5sLd is used, where the change in luminance as a function of distance is calculated using the formula calculated.
- a maximum speed for a motor vehicle having the gated camera is determined based on the visual range of the gated camera.
- the maximum speed for the particular having the gated camera becomes autonomous moving motor vehicle adjusted in such a way that the range of vision is greater than a braking distance associated with the maximum speed of the motor vehicle. It is thus advantageously possible for the motor vehicle, which in particular is driving autonomously, to be able to be operated reliably even under adverse atmospheric conditions.
- the visual range of the gated camera is sent using a communication device. It is thus advantageously possible for the motor vehicle having the gate camera to share the ascertained visual range with other motor vehicles. Alternatively or additionally, it is possible to send the visibility to a data center.
- a method according to the invention or a method according to one or more of the embodiments described above is carried out cyclically—in particular at regular time intervals.
- the range of vision is advantageously determined as a function of the situation, and an adaptive adjustment of the maximum speed of the motor vehicle is advantageously possible in this way.
- the object is also achieved by creating a control device that is set up to carry out a method according to the invention or a method according to one or more of the embodiments described above.
- the control device is preferably designed as a computing device, particularly preferably as a computer, or as a control unit, in particular as a control unit of a motor vehicle.
- a computing device particularly preferably as a computer
- a control unit in particular as a control unit of a motor vehicle.
- the control device is preferably set up to be operatively connected to the gated camera, in particular to the lighting device and the optical sensor, and set up to control them in each case.
- the control device is preferably set up to be operatively connected to the communication device and set up to control it.
- the object is also achieved by creating a visibility measuring device that has a gated camera that has an illumination device and an optical sensor, and a control device according to the invention or a control device according to one or more of the embodiments described above.
- a visibility measuring device that has a gated camera that has an illumination device and an optical sensor
- a control device according to the invention or a control device according to one or more of the embodiments described above In connection with the visibility measuring device arise in particular Advantages that have already been explained in connection with the method and the control device.
- the visibility measuring device also has a communication device that is set up to send a visibility of the gated camera.
- the control device is preferably operatively connected to the gated camera, in particular to the lighting device and the optical sensor, and set up for their respective activation.
- the control device is preferably operatively connected to the communication device and set up to control it.
- the object is also achieved by creating a motor vehicle with a visibility measuring device according to the invention or a visibility measuring device according to one or more of the embodiments described above.
- a visibility measuring device according to the invention or a visibility measuring device according to one or more of the embodiments described above.
- the motor vehicle is designed as an autonomously driving motor vehicle.
- the motor vehicle is preferably designed as a truck.
- the motor vehicle it is also possible for the motor vehicle to be in the form of a passenger car, a commercial vehicle, or another motor vehicle.
- Fig. 1 is a schematic representation of an embodiment of a
- FIG. 2 shows a schematic representation of the exemplary embodiment of the motor vehicle and the visible object area at the time a second recording is made
- Fig. 3 is a schematic representation of a flowchart of a
- FIG. 1 shows a schematic illustration of an exemplary embodiment of a motor vehicle 1 with a visibility measuring device 3 at the time when a first recording 29.1 is taken.
- the visibility measuring device 3 has a gated camera 5 and a control device 7 .
- the gated camera 5 has an illumination device 9—preferably a laser, in particular a VSCE laser—and an optical sensor 11—preferably a camera.
- the visibility measuring device 3 preferably has a communication device 13 .
- the control device 7 is only shown schematically here and is connected to the gated camera 5, in particular the lighting device 9 and the optical sensor 11, in a manner that is not explicitly shown, and set up for their respective activation.
- the control device 7 is preferably connected to the communication device 13 in a manner that is not explicitly shown and is set up to control it. Shown in Figure 1 is in particular an illumination frustum 15 of the illumination device 9 and an observation area 17 of the optical sensor 11.
- a visible object area 19 which results as a subset of the illumination frustum 15 of the illumination device 9 and the observation area 17 of the optical sensor 11 , is also shown hatched.
- the visible object area 19 has a near boundary 21.1 and a distant boundary 21.2.
- the visible object area 19, in particular the close limit 21.1 has a first distance 23.1 from the gated camera 5, in particular from the optical sensor 11. Furthermore, the close limit 21.1 and the far limit 21.2 have a distance 25.
- FIG. 2 shows a schematic representation of the exemplary embodiment of the motor vehicle 1 and the visible object region 19 at the time of recording a second recording 29.2 that follows the first recording 29.1.
- the motor vehicle 1 has moved by a distance 27 in the direction of the visible object region 19 in the period between the time when the first image 29.1 was taken and the time when the second image 29.2 was taken.
- the visible object area 19, in particular the near boundary 21.1 is therefore at a second distance 23.2 from the gated camera 5, in particular from the optical sensor 11.
- the near boundary 21.1 and the distant boundary 21.2 have the distance 25.
- the control device 7 is set up in particular to carry out a method for operating the gated camera 5 and to determine a visual range of the gated camera 5 .
- Figure 3 shows a schematic representation of a flowchart of an embodiment of the method for operating the gated camera 5.
- Activation of the illumination device 9 and the optical sensor 11 are coordinated with one another in terms of time.
- a first step a the visible object area 19 is assigned to a first coordinated control. Furthermore, the first recording 29.1 of the visible object area 19 is taken from the first distance 23.1 of the gated camera 5 to the visible object area 19 by means of the first coordinated control.
- a second coordinated control is selected in such a way that the visible object region 19 is assigned to the second coordinated control. Furthermore, by means of the second coordinated control, a second recording 29.2 of the visible object area 19 is taken after the first recording 29.1 from a second distance 23.2 of the gated camera 5 to the visible object area 19, which is different from the first distance 23.1.
- a third step c) the first recording 29.1 and the second recording 29.2 are compared using at least one criterion, a visual range 31 of the gated camera 5 being inferred on the basis of the comparison.
- the at least one criterion is an attenuation of a luminance - in particular in relation to a difference between the first distance 23.1 of the gated camera 5 to the visible object area 19 and the second distance 23.2 of the gated camera 5 to the visible object area 19 - used.
- the visual range 31 of the gated camera 5 is calculated.
- the first recording 29.1 and the second recording 29.2 are preferably aligned with one another, in particular before the comparison in the third step c), by means of an image registration method.
- at least one moving object or movement artifact is preferably removed in at least one recording 29, selected from the first recording 29.1 and the second recording 29.2.
- a difference recording 33 is preferably generated as a comparison as the difference between the first recording 29.1 and the second recording 29.2—in particular before the comparison in the third step c).
- the difference recording 33 is then preferably evaluated on the basis of the at least one criterion.
- a maximum speed 35 for the motor vehicle 1 having the gated camera 5 is preferably determined based on the visual range 31 of the gated camera 5 .
- the visual range 31 of the gated camera 5 is preferably sent using the communication device 13 .
- the visual range 31 of the gated camera 5 is sent to a data center and/or at least one other motor vehicle by means of the communication device 13 .
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Studio Devices (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated- Kamera (5), die eine Beleuchtungseinrichtung (9) und einen optischen Sensor (7) aufweist, wobei • - eine Ansteuerung der Beleuchtungseinrichtung (9) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei • - einer ersten abgestimmten Ansteuerung ein sichtbarer Objektbereich (19) zugeordnet wird, wobei • - mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme des sichtbaren Objektbereichs (19) aus einem ersten Abstand der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) aufgenommen wird, wobei • - eine zweite abgestimmte Ansteuerung derart gewählt wird, dass der zweiten abgestimmten Ansteuerung der sichtbare Objektbereich (19) zugeordnet wird, wobei • - mittels der zweiten abgestimmten Ansteuerung zeitlich nach der ersten Aufnahme eine zweite Aufnahme des sichtbaren Objektbereichs (19) aus einem zweiten, von dem ersten Abstand verschiedenen Abstand (23.2) der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) aufgenommen wird, wobei • - die erste Aufnahme und die zweite Aufnahme anhand mindestens eines Kriteriums verglichen werden, wobei • - auf Grundlage des Vergleichs, vorzugsweise einer Differenz- Aufnahme, auf eine Sichtweite der Gated-Kamera (5) geschlossen wird. Ein Kraftfahrzeug (1) mit einer Sichtweitenmessvorrichtung (3) hat sich beispielsweise in dem Zeitraum zwischen dem Zeitpunkt des Aufnehmens der ersten Aufnahme und dem Zeitpunkt des Aufnehmens der zweiten Aufnahme um eine Strecke (27) in Richtung des sichtbaren Objektbereichs (19) bewegt. Vorzugsweise werden die erste und die zweite Aufnahme mittels eines Bildregistrierungsverfahrens zueinander ausgerichtet. Vorzugsweise ist das Kriterium eine Dämpfung einer Leuchtdichte.
Description
Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung
Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung.
Zur Berechnung einer Sichtweite sind Verfahren bekannt, bei welchen ein Kontrast oder ein Spektrum einer Aufnahme ausgewertet wird. Insbesondere sind Verfahren bekannt, bei welchen ein abnehmender Kontrast einer Spurmarkierung mit zunehmender Entfernung bewertet wird. Nachteilig an den bekannten Verfahren ist, dass atmosphärische Reflexionen einen großen Einfluss auf den Kontrast und/oder das Spektrum der Aufnahme haben - insbesondere nachts erzeugen Partikel entlang der Sichtstrahlen durch Streuung starke Reflexionen - und dadurch die Berechnung der Sichtweite sehr fehleranfällig ist.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Betreiben einer Gated- Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Betreiben einer Gated- Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden. Einer ersten abgestimmten Ansteuerung wird ein sichtbarer Objektbereich zugeordnet, wobei mittels der ersten Ansteuerung eine erste Aufnahme des sichtbaren Objektbereichs aus einem ersten Abstand der Gated-Kamera zu dem sichtbaren Objektbereich aufgenommen wird. Eine zweite abgestimmte Ansteuerung wird derart gewählt, dass der zweiten abgestimmten Ansteuerung der sichtbare Objektbereich zugeordnet wird, wobei mittels der zweiten abgestimmten Ansteuerung zeitlich nach der ersten Aufnahme eine zweite Aufnahme des sichtbaren Objektbereichs aus einem zweiten, von dem ersten Abstand verschiedenen Abstand der Gated-Kamera zu dem sichtbaren Objektbereich aufgenommen wird. Die erste Aufnahme und die zweite Aufnahme werden anhand mindestens eines Kriteriums verglichen, wobei auf Grundlage des Vergleichs auf eine Sichtweite der Gated-Kamera geschlossen wird.
Vorteilhafterweise blendet die Gated-Kamera Reflexionen aus, die aufgrund von atmosphärischen Störungen außerhalb des sichtbaren Objektbereichs entstehen, sodass diese Reflexionen in der ersten Aufnahme und/oder in der zweiten Aufnahme nicht zu sehen sind. Die atmosphärischen Störungen dämpfen vorzugsweise das zu dem optischen Sensor zurückkommende Licht der Beleuchtungseinrichtung in Abhängigkeit von dem ersten Abstand und von dem zweiten Abstand, sodass vorteilhafterweise auf eine Sichtweite der Gated-Kamera geschlossen werden kann. Zusätzlich kann vorteilhafterweise auf Grundlage dieses Verfahrens die Sichtweite der Gate-Kamera bestimmt werden, bis zu welcher eine genaue, robuste, und/oder gering fehleranfällige Objekterkennung und/oder Objektvermessung möglich ist.
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie, insbesondere den sichtbaren Objektbereich, auszuleuchten.
Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und die Dauer der abgegebenen Lichtimpulse und einen Start der Beleuchtung gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Objektbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere in bestimmten Abständen einer nahen und einer entfernten Grenze des sichtbaren Objektbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Beleuchtungseinrichtung bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Beleuchtungseinrichtung und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Beleuchtungseinrichtung bzw. des optischen Sensors zu dem sichtbaren Objektbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und dem sichtbaren Objektbereich gleich einem Abstand zwischen der Gated-Kamera und dem sichtbaren Objektbereich.
Der sichtbare Objektbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und die Dauer der Lichtimpulse der Beleuchtungseinrichtung und dem Start der Beleuchtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbare Objektbereich ist dabei objektseitig gegeben. Dies entspricht einem durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordneten bildseitigen Bereich auf der Bildebene.
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Objektbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Objektbereich reflektiert wird, auf den optischen Sensor trifft. Dabei verlängert sich der zeitliche Abstand zwischen einem Ende
der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Objektbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbaren Objektbereichs, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Objektbereichs, zu definieren.
In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Objektbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
Die Beleuchtungseinrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
Im Kontext der vorliegenden technischen Lehre sind der erste Abstand der Gated-Kamera zu dem sichtbaren Objektbereich und der zweite Abstand der Gated-Kamera zu dem sichtbaren Objektbereich jeweils Abstände der Gated-Kamera zu der nahen Grenze des sichtbaren Objektbereichs.
Im Kontext der vorliegenden technischen Lehre wird der sichtbare Objektbereich vorzugsweise in einem Koordinatensystem fixiert angeordnet, wobei die Gated-Kamera in dem Koordinatensystem variabel - insbesondere an zwei verschiedenen Positionen - angeordnet wird.
Vorzugsweise wird als sichtbarer Objektbereich eine leere insbesondere statische Straßenoberfläche genutzt, wobei der sichtbare Objektbereich zusätzlich vorzugsweise eine Randbebauung und/oder einen Randbewuchs aufweist.
Nachteilig auf die Messung der Sichtweite wirkt sich insbesondere ein Objekt aus, welches ausschließlich zum Zeitpunkt nur einer Aufnahme, ausgewählt aus der ersten Aufnahme und der zweiten Aufnahme, in dem sichtbaren Objektbereich vorhanden ist.
In einer bevorzugten Ausgestaltung wird die Gated-Kamera mit einer insbesondere konstanten Geschwindigkeit relativ zu dem sichtbaren Objektbereich verlagert. In diesem
Fall kann eine Differenz zwischen dem ersten Abstand und dem zweiten Abstand aus der Geschwindigkeit, mit welcher die Gated-Kamera verlagert wird, und einer Zeitspanne zwischen dem Aufnehmen der ersten Aufnahme und dem Aufnehmen der zweiten Aufnahme berechnet werden. Vorzugsweise wird die Zeitspanne klein gewählt, falls in dem sichtbaren Objektbereich mindestens ein Objekt, insbesondere ein sich bewegendes oder bewegtes Objekt, vorhanden ist.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erste Aufnahme und die zweite Aufnahme insbesondere vor dem Vergleich mittels eines Bildregistrierungsverfahrens zueinander ausgerichtet werden. Alternativ oder zusätzlich wird in zumindest einer Aufnahme, ausgewählt aus der ersten Aufnahme und der zweiten Aufnahme, mindestens ein bewegtes Objekt oder Bewegungsartefakt entfernt.
Vorteilhafterweise kann mittels des Bildregistrierungsverfahrens eine Eigenbewegung - insbesondere eine Höhenänderung und/oder eine Änderung der Roll-Nick-Gier-Winkel - der Gated-Kamera kompensiert werden.
Bewegungsartefakte und/oder bewegte Objekte, die insbesondere nur in der ersten Aufnahme oder der zweiten Aufnahme zu sehen sind, beeinflussen die Vergleichbarkeit der beiden Aufnahmen. Daher kann vorteilhafterweise durch eine Entfernung des mindestens einen bewegten Objekts oder Bewegungsartefakts die Vergleichbarkeit der beiden Aufnahmen erhöht werden.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass als Vergleich eine Differenz-Aufnahme als Differenz der ersten Aufnahme und der zweiten Aufnahme erzeugt wird, wobei die Differenz-Aufnahme anhand des mindestens einen Kriteriums ausgewertet wird.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass als das mindestens eine Kriterium eine Dämpfung einer Leuchtdichte - insbesondere in einem Verhältnis zu einer Differenz aus dem ersten Abstand der Gated-Kamera zu dem sichtbaren Objektbereich und dem zweiten Abstand der Gated-Kamera zu dem sichtbaren Objektbereich - verwendet wird. Vorteilhafterweise kann mittels der Dämpfung der Leuchtdichte in einfacher und/oder robuster Weise auf eine Sichtweite der Gated-Kamera geschlossen werden.
Vorzugsweise wird die Dämpfung der Leuchtdichte anhand der Differenz-Aufnahme bestimmt. Vorteilhafterweise kann damit sehr präzise und zuverlässig die Dämpfung der Leuchtdichte bestimmt werden.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Sichtweite der Gated- Kamera mittels der Dämpfung der Leuchtdichte - insbesondere in dem Verhältnis zu der Differenz aus dem ersten Abstand der Gated-Kamera zu dem sichtbaren Objektbereich und dem zweiten Abstand der Gated-Kamera zu dem sichtbaren Objektbereich - und einer vorgegebenen Schwellen-Leuchtdichte berechnet wird.
Vorteilhafterweise ist die Leuchtdichte einer Aufnahme größer, je kleiner der Abstand zwischen der Gated-Kamera, insbesondere des optischen Sensors, und dem sichtbaren Objektbereich, insbesondere der nahen Grenze des sichtbaren Objektbereichs, ist. Damit ist eine Änderung der Leuchtdichte von der ersten Aufnahme zu der zweiten Aufnahme immer negativ. Damit kann die Sichtweite, bei welcher insbesondere die vorgegebene Schwellen-Leuchtdichte vorliegt, zumindest näherungsweise mit einer der beiden folgenden Formeln berechnet werden.
Dabei wird die Sichtweite Sw, der erste Abstand Si, der zweite Abstand S2, eine Entfernung S0b zwischen der nahen und der entfernten Grenze des sichtbaren Objektbereichs, die Leuchtdichte der ersten Aufnahme Ldi, die Leuchtdichte der zweiten Aufnahme Ld2, die Schwellen-Leuchtdichte Lds und die Änderung der Leuchtdichte in Abhängigkeit der Abstände 5sLd verwendet, wobei sich die Änderung der Leuchtdichte in Abhängigkeit der Abstände mittels der Formel
berechnet.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass basierend auf der Sichtweite der Gated-Kamera eine Höchstgeschwindigkeit für ein die Gated-Kamera aufweisendes Kraftfahrzeug bestimmt wird. Vorteilhafterweise wird die Höchstgeschwindigkeit für das die Gated-Kamera aufweisende insbesondere autonom
fahrende Kraftfahrzeug derart eingestellt, dass die Sichtweite größer ist als ein der Höchstgeschwindigkeit des Kraftfahrzeugs zugeordneter Bremsweg. Damit ist es vorteilhafterweise möglich, dass das insbesondere autonom fahrende Kraftfahrzeug auch unter widrigen atmosphärischen Bedingungen zuverlässig betrieben werden kann.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Sichtweite der Gated- Kamera mittels einer Kommunikationsvorrichtung versendet wird. Vorteilhafterweise ist es damit möglich, dass das die Gate-Kamera aufweisende Kraftfahrzeug die ermittelte Sichtweite mit anderen Kraftfahrzeugen teilt. Alternativ oder zusätzlich ist es möglich die Sichtweite an ein Rechenzentrum zu versenden.
In einer bevorzugten Ausgestaltung wird ein erfindungsgemäßes Verfahren oder ein Verfahren gemäß einer oder mehrerer der zuvor beschriebenen Ausführungsformen zyklisch - insbesondere mit regelmäßigen zeitlichen Abständen - durchgeführt. Damit wird die Sichtweite vorteilhafterweise situationsbedingt ermittelt und vorteilhafterweise ist damit eine adaptive Anpassung der Höchstgeschwindigkeit des Kraftfahrzeugs möglich.
Die Aufgabe wird auch gelöst, indem eine Steuervorrichtung geschaffen wird, die zur Durchführung eines erfindungsgemäßen Verfahrens oder eines Verfahrens gemäß einer oder mehrerer der zuvor beschriebenen Ausführungsformen eingerichtet ist. Die Steuervorrichtung ist vorzugsweise als Rechenvorrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuervorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
Die Steuervorrichtung ist bevorzugt eingerichtet, um mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden zu werden, und eingerichtet zu deren jeweiliger Ansteuerung. Zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit der Kommunikationsvorrichtung wirkverbunden zu werden, und eingerichtet zu deren Ansteuerung.
Die Aufgabe wird auch gelöst, indem eine Sichtweitenmessvorrichtung geschaffen wird, die eine Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, und eine erfindungsgemäße Steuervorrichtung oder eine Steuervorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen aufweist. In Zusammenhang mit der Sichtweitenmessvorrichtung ergeben sich insbesondere die
Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuervorrichtung erläutert wurden.
In einer bevorzugten Ausgestaltung weist die Sichtweitenmessvorrichtung zusätzlich eine Kommunikationsvorrichtung auf, die eingerichtet ist, um eine Sichtweite der Gated- Kamera zu versenden.
Die Steuervorrichtung ist bevorzugt mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. Zusätzlich ist die Steuervorrichtung bevorzugt mit der Kommunikationsvorrichtung wirkverbunden und eingerichtet zu deren Ansteuerung.
Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Sichtweitenmessvorrichtung oder einer Sichtweitenmessvorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuervorrichtung und der Sichtweitenmessvorrichtung erläutert wurden.
In einer bevorzugten Ausgestaltung ist das Kraftfahrzeug als autonom fahrendes Kraftfahrzeug ausgebildet. Alternativ oder zusätzlich ist das Kraftfahrzeug vorzugsweise als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug als ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ausgebildet ist.
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels eines
Kraftfahrzeugs und eines sichtbaren Objektbereichs zum Zeitpunkt eines Aufnehmens einer ersten Aufnahme,
Fig. 2 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs und des sichtbaren Objektbereichs zum Zeitpunkt eines Aufnehmens einer zweiten Aufnahme, und
Fig. 3 eine schematische Darstellung eines Ablaufdiagramms eines
Ausführungsbeispiels eines Verfahrens zum Betreiben einer Gated-Kamera.
Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Sichtweitenmessvorrichtung 3 zum Zeitpunkt eines Aufnehmens einer ersten Aufnahme 29.1. Die Sichtweitenmessvorrichtung 3 weist eine Gated-Kamera 5 und eine Steuervorrichtung 7 auf. Weiterhin weist die Gated-Kamera 5 eine Beleuchtungseinrichtung 9 - vorzugsweise einen Laser, insbesondere einen VSCE- Laser - und einem optischen Sensor 11 - vorzugsweise eine Kamera - auf. Zusätzlich weist die Sichtweitenmessvorrichtung 3 vorzugsweise eine Kommunikationsvorrichtung 13 auf. Die Steuervorrichtung 7 ist hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Gated-Kamera 5, insbesondere der Beleuchtungseinrichtung 9 und dem optischen Sensor 11, verbunden und eingerichtet zu deren jeweiliger Ansteuerung. Zusätzlich ist die Steuervorrichtung 7 vorzugsweise in nicht explizit dargestellter Weise mit der Kommunikationsvorrichtung 13 verbunden und eingerichtet zu deren Ansteuerung. Dargestellt in Figur 1 ist insbesondere ein Beleuchtungs-Frustum 15 der Beleuchtungseinrichtung 9 und ein Beobachtungsbereich 17 des optischen Sensors 11.
Schraffiert dargestellt ist außerdem ein sichtbarer Objektbereich 19, der sich als Teilmenge des Beleuchtungs-Frustums 15 der Beleuchtungseinrichtung 9 und dem Beobachtungsbereich 17 des optischen Sensors 11 ergibt. Der sichtbare Objektbereich 19 weist eine nahe Grenze 21.1 und eine entfernte Grenze 21.2 auf. Der sichtbare Objektbereich 19, insbesondere die nahe Grenze 21.1, hat einen ersten Abstand 23.1 von der Gated-Kamera 5, insbesondere von dem optischen Sensor 11. Weiterhin haben die nahe Grenze 21.1 und die entfernte Grenze 21.2 eine Entfernung 25.
Figur 2 zeigt eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs 1 und des sichtbaren Objektbereichs 19 zum Zeitpunkt eines Aufnehmens einer zweiten, der ersten Aufnahme 29.1 zeitlich nachfolgenden Aufnahme 29.2.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird.
Das Kraftfahrzeug 1 hat sich in dem Zeitraum zwischen dem Zeitpunkt des Aufnehmens der ersten Aufnahme 29.1 und dem Zeitpunkt des Aufnehmens der zweiten Aufnahme 29.2 um eine Strecke 27 in Richtung des sichtbaren Objektbereichs 19 bewegt. Somit hat der sichtbare Objektbereich 19, insbesondere die nahe Grenze 21.1, einen zweiten Abstand 23.2 von der Gated-Kamera 5, insbesondere von dem optischen Sensor 11.
Weiterhin weisen die nahe Grenze 21.1 und die entfernte Grenze 21.2 die Entfernung 25 auf.
Die Steuervorrichtung 7 ist insbesondere eingerichtet, um ein Verfahren zum Betreiben der Gated-Kamera 5 durchzuführen und eine Sichtweite der Gated-Kamera 5 zu bestimmen.
Figur 3 zeigt eine schematische Darstellung eines Ablaufdiagramms eines Ausführungsbeispiels des Verfahrens zum Betreiben der Gated-Kamera 5.
Eine Ansteuerung der Beleuchtungseinrichtung 9 und des optischen Sensors 11 werden zeitlich aufeinander abgestimmt.
In einem ersten Schritt a) wird einer ersten abgestimmten Ansteuerung der sichtbare Objektbereich 19 zugeordnet. Weiterhin wird mittels der ersten abgestimmten Ansteuerung die erste Aufnahme 29.1 des sichtbaren Objektbereichs 19 aus dem ersten Abstand 23.1 der Gated-Kamera 5 zu dem sichtbaren Objektbereich 19 aufgenommen.
In einem zweiten Schritt b) wird eine zweite abgestimmte Ansteuerung derart gewählt, dass der zweiten abgestimmten Ansteuerung der sichtbare Objektbereich 19 zugeordnet wird. Weiterhin wird mittels der zweiten abgestimmten Ansteuerung zeitlich nach der ersten Aufnahme 29.1 eine zweite Aufnahme 29.2 des sichtbaren Objektbereichs 19 aus einem zweiten, von dem ersten Abstand 23.1 verschiedenen Abstand 23.2 der Gated- Kamera 5 zu dem sichtbaren Objektbereich 19 aufgenommen.
In einem dritten Schritt c) werden die erste Aufnahme 29.1 und die zweite Aufnahme 29.2 anhand mindestens eines Kriteriums verglichen, wobei auf Grundlage des Vergleichs auf eine Sichtweite 31 der Gated-Kamera 5 geschlossen wird.
Vorzugsweise wird als das mindestens eine Kriterium eine Dämpfung einer Leuchtdichte - insbesondere in einem Verhältnis zu einer Differenz aus dem ersten Abstand 23.1 der Gated-Kamera 5 zu dem sichtbaren Objektbereich 19 und dem zweiten Abstand 23.2 der Gated-Kamera 5 zu dem sichtbaren Objektbereich 19 - verwendet.
Vorzugsweise wird mittels der Dämpfung der Leuchtdichte - insbesondere in dem Verhältnis zu der Differenz aus dem ersten Abstand 23.1 der Gated-Kamera 5 zu dem sichtbaren Objektbereich 19 und dem zweiten Abstand 23.2 der Gated-Kamera 5 zu dem
sichtbaren Objektbereich 19 - und einer vorgegebenen Schwellen-Leuchtdichte die Sichtweite 31 der Gated-Kamera 5 berechnet.
In einem optionalen vierten Schritt d) werden vorzugsweise die erste Aufnahme 29.1 und die zweite Aufnahme 29.2 insbesondere vor dem Vergleich in dem dritten Schritt c) mittels eines Bildregistrierungsverfahrens zueinander ausgerichtet. Alternativ oder zusätzlich wird vorzugsweise in zumindest einer Aufnahme 29, ausgewählt aus der ersten Aufnahme 29.1 und der zweiten Aufnahme 29.2, mindestens ein bewegtes Objekt oder Bewegungsartefakt entfernt.
In einem optionalen fünften Schritt e) wird vorzugsweise als Vergleich eine Differenz- Aufnahme 33 als Differenz der ersten Aufnahme 29.1 und der zweiten Aufnahme 29.2 erzeugt - insbesondere vor dem Vergleich in dem dritten Schritt c). Vorzugsweise wird dann in dem dritten Schritt c) die Differenz-Aufnahme 33 anhand des mindestens einen Kriteriums ausgewertet.
In einem optionalen sechsten Schritt f) wird vorzugsweise basierend auf der Sichtweite 31 der Gated-Kamera 5 eine Höchstgeschwindigkeit 35 für das die Gated-Kamera 5 aufweisende Kraftfahrzeug 1 bestimmt.
In einem optionalen siebten Schritt g) wird vorzugsweise die Sichtweite 31 der Gated- Kamera 5 mittels der Kommunikationsvorrichtung 13 versendet. Insbesondere wird die Sichtweite 31 der Gated-Kamera 5 mittels der Kommunikationsvorrichtung 13 an ein Rechenzentrum und/oder mindestens ein weiteres Kraftfahrzeug versendet.
Claims
1. Verfahren zum Betreiben einer Gated-Kamera (5), die eine Beleuchtungseinrichtung (9) und einen optischen Sensor (7) aufweist, wobei eine Ansteuerung der Beleuchtungseinrichtung (9) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei einer ersten abgestimmten Ansteuerung ein sichtbarer Objektbereich (19) zugeordnet wird, wobei mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme (29.1) des sichtbaren Objektbereichs (19) aus einem ersten Abstand (23.1) der Gated- Kamera (5) zu dem sichtbaren Objektbereich (19) aufgenommen wird, wobei eine zweite abgestimmte Ansteuerung derart gewählt wird, dass der zweiten abgestimmten Ansteuerung der sichtbare Objektbereich (19) zugeordnet wird, wobei mittels der zweiten abgestimmten Ansteuerung zeitlich nach der ersten Aufnahme (29.1) eine zweite Aufnahme (29.2) des sichtbaren Objektbereichs (19) aus einem zweiten, von dem ersten Abstand (23.1) verschiedenen Abstand (23.2) der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) aufgenommen wird, wobei die erste Aufnahme (29.1) und die zweite Aufnahme (29.2) anhand mindestens eines Kriteriums verglichen werden, wobei auf Grundlage des Vergleichs auf eine Sichtweite (31) der Gated-Kamera (5) geschlossen wird.
2. Verfahren nach Anspruch 1 , wobei die erste Aufnahme (29.1) und die zweite Aufnahme (29.2) insbesondere vor dem Vergleich mittels eines
Bildregistrierungsverfahrens zueinander ausgerichtet werden, und/oder zumindest einer Aufnahme (29), ausgewählt aus der ersten Aufnahme (29.1) und der zweiten Aufnahme (29.2), mindestens ein bewegtes Objekt oder Bewegungsartefakt entfernt wird.
3. Verfahren nach einem der vorhergehenden Ansprüche, wobei als Vergleich eine Differenz-Aufnahme (33) als Differenz der ersten Aufnahme (29.1) und der zweiten Aufnahme (29.2) erzeugt wird, wobei die Differenz-Aufnahme anhand des mindestens einen Kriteriums ausgewertet wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei als das mindestens eine Kriterium eine Dämpfung einer Leuchtdichte - insbesondere in einem Verhältnis zu einer Differenz aus dem ersten Abstand (23.1) der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) und dem zweiten Abstand (23.2) der Gated- Kamera (5) zu dem sichtbaren Objektbereich (19) - verwendet wird.
5. Verfahren nach Anspruch 4, wobei mittels der Dämpfung der Leuchtdichte - insbesondere in dem Verhältnis zu der Differenz aus dem ersten Abstand (23.1) der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) und dem zweiten Abstand (23.2) der Gated-Kamera (5) zu dem sichtbaren Objektbereich (19) - und einer vorgegebenen Schwellen-Leuchtdichte die Sichtweite (31) der Gated-Kamera (5) berechnet wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei basierend auf der Sichtweite (31) der Gated-Kamera (5) eine Höchstgeschwindigkeit (35) für ein die Gated-Kamera (5) aufweisendes Kraftfahrzeug (1) bestimmt wird.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Sichtweite (31) der Gated-Kamera (5) mittels einer Kommunikationsvorrichtung (13) versendet wird.
8. Steuervorrichtung (7), eingerichtet zur Durchführung eines Verfahren nach einem der vorhergehenden Ansprüche.
9. Sichtweitenmessvorrichtung (3) mit einer Gated-Kamera (5), die eine Beleuchtungseinrichtung (9) und einen optischen Sensor (11) aufweist, einer
Steuervorrichtung (7) nach Anspruch 8 und vorzugsweise einer Kommunikationsvorrichtung (13), die eingerichtet ist, um eine Sichtweite (13) der Gated-Kamera (5) zu versenden.
10. Kraftfahrzeug (1) mit einer Sichtweitenmessvorrichtung (3) nach Anspruch 9.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021002915.1A DE102021002915A1 (de) | 2021-06-07 | 2021-06-07 | Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung |
PCT/EP2022/065218 WO2022258527A1 (de) | 2021-06-07 | 2022-06-03 | Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
EP4352547A1 true EP4352547A1 (de) | 2024-04-17 |
Family
ID=82117377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP22732141.1A Pending EP4352547A1 (de) | 2021-06-07 | 2022-06-03 | Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240281985A1 (de) |
EP (1) | EP4352547A1 (de) |
CN (1) | CN117441114A (de) |
DE (1) | DE102021002915A1 (de) |
WO (1) | WO2022258527A1 (de) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9723233B2 (en) | 2012-04-18 | 2017-08-01 | Brightway Vision Ltd. | Controllable gated sensor |
DE102017203037A1 (de) * | 2017-02-24 | 2018-08-30 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren, System, Computerprogrammprodukt, computerlesbares Medium zum Anpassen einer Fahrdynamik eines Fahrzeugs, sowie Fahrzeug umfassend das System zum Anpassen der Fahrdynamik des Fahrzeugs |
DE102020002994B4 (de) | 2020-05-19 | 2023-03-30 | Daimler Truck AG | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung |
DE102020004690A1 (de) | 2020-08-03 | 2021-05-27 | Daimler Ag | Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung |
DE102020006880A1 (de) * | 2020-11-09 | 2021-01-14 | Daimler Ag | Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung |
-
2021
- 2021-06-07 DE DE102021002915.1A patent/DE102021002915A1/de active Pending
-
2022
- 2022-06-03 EP EP22732141.1A patent/EP4352547A1/de active Pending
- 2022-06-03 US US18/567,744 patent/US20240281985A1/en active Pending
- 2022-06-03 WO PCT/EP2022/065218 patent/WO2022258527A1/de active Application Filing
- 2022-06-03 CN CN202280040531.6A patent/CN117441114A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117441114A (zh) | 2024-01-23 |
DE102021002915A1 (de) | 2022-12-08 |
WO2022258527A1 (de) | 2022-12-15 |
US20240281985A1 (en) | 2024-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020002994B4 (de) | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung | |
EP1298454A2 (de) | Verfahren zur Erkennung und Verfolgung von Objekten | |
DE102018122374B4 (de) | Verfahren zum Bestimmen eines ein Kraftfahrzeug umgebenden Freiraums, Computerprogrammprodukt, Freiraumbestimmungseinrichtung und Kraftfahrzeug | |
WO2021239323A1 (de) | Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung | |
DE102020004690A1 (de) | Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung | |
EP3663881B1 (de) | Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren | |
EP4241114A1 (de) | Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung | |
EP3293971B1 (de) | Verfahren zur nachführung eines bildausschnitts | |
DE102018121866A1 (de) | Verfahren zur Tiefenabschätzung von zweidimensionalen Sensordaten | |
EP4352547A1 (de) | Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung | |
WO2022042902A1 (de) | Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung | |
WO2022106115A1 (de) | Verfahren zum betreiben einer ersten beleuchtungseinrichtung, einer zweiten beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung | |
DE102021000508A1 (de) | Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinnchtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung | |
EP3663800B1 (de) | Verfahren zur objekterfassung mit einer 3d-kamera | |
DE102018006758B4 (de) | Fahrzeugkamerasystem und Verfahren zum Aufnehmen von Bildern vor einem Fahrzeug | |
DE102021003153B4 (de) | Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung | |
DE102021003728B4 (de) | Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung | |
DE102019129101A1 (de) | Verfahren und System zum Schätzen eines Begrenzungsrahmens, der ein Zielfahrzeug einschließt | |
DE102021003160A1 (de) | Gated-Kamera, Kraftfahrzeug mit einer solchen Gated-Kamera und Verfahren zum Betreiben einer solchen Gated-Kamera | |
DE102023002181B3 (de) | Adaptive Filterkette zum Anzeigen eines Umfeldmodells in einem Fahrzeug | |
DE102021004516B3 (de) | Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera | |
WO2022184738A1 (de) | Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung | |
DE102018217219B4 (de) | Verfahren zum Ermitteln einer dreidimensionalen Position eines Objekts | |
DE102021004521B4 (de) | Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung | |
DE102023201500A1 (de) | Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: UNKNOWN |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE |
|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20231103 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
DAV | Request for validation of the european patent (deleted) | ||
DAX | Request for extension of the european patent (deleted) |