WO2023036594A1 - Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera - Google Patents

Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera Download PDF

Info

Publication number
WO2023036594A1
WO2023036594A1 PCT/EP2022/073367 EP2022073367W WO2023036594A1 WO 2023036594 A1 WO2023036594 A1 WO 2023036594A1 EP 2022073367 W EP2022073367 W EP 2022073367W WO 2023036594 A1 WO2023036594 A1 WO 2023036594A1
Authority
WO
WIPO (PCT)
Prior art keywords
lighting
distance range
lighting element
visible distance
functional
Prior art date
Application number
PCT/EP2022/073367
Other languages
English (en)
French (fr)
Inventor
Fridtjof Stein
Original Assignee
Daimler Truck AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Truck AG filed Critical Daimler Truck AG
Priority to CN202280060195.1A priority Critical patent/CN117940795A/zh
Publication of WO2023036594A1 publication Critical patent/WO2023036594A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor

Definitions

  • the invention relates to a method for operating a gated camera, a control device for carrying out such a method, a gated camera with such a control device and a motor vehicle with such a gated camera.
  • a shadow cast by the object to be detected is preferably used in order to detect the object simply and reliably.
  • the detection of objects improves the more pronounced, and in particular the longer, the shadow cast is.
  • a lighting element For a well-defined shadow, in particular a long shadow, a lighting element must be arranged as low as possible in a vertical direction, in particular at the smallest possible distance from a road surface on which the motor vehicle is driving.
  • the disadvantage of such an arrangement of the lighting element which is as deep as possible, is that an unevenness in the road also casts a long shadow and, in the worst case, covers an object and its shadow so that the object cannot be detected.
  • the invention is therefore based on the object of creating a method for operating a gated camera, a control device for carrying out such a method, a gated camera with such a control device and a motor vehicle with such a gated camera, the disadvantages mentioned being at least partially resolved, preferably avoided.
  • the object is achieved by providing the present technical teaching, in particular the teaching of the independent claims and the embodiments disclosed in the dependent claims and the description.
  • the object is achieved in particular by creating a method for operating a gated camera that has an illumination device and an optical sensor.
  • the lighting device and the optical sensor are controlled in a manner coordinated with one another in terms of time, with a visible distance range being assigned to a time coordination.
  • a visible distance range property is provided.
  • the lighting device has at least two functional positions, so that the visible distance range can be illuminated by means of the lighting device from at least one functional position of the at least two functional positions, the at least two functional positions being spatially spaced from one another.
  • a functional position of the at least two functional positions for illuminating the visible distance range is selected.
  • a first recording is made by means of the time-coordinated activation, with the property of the visible distance range being determined using the first recording.
  • a second recording is made by means of the time-coordinated activation, with an object detection method preferably being carried out on the basis of the second recording.
  • the property of the visible distance range is received by the gated camera, in particular wirelessly. More preferably, the gated camera receives the visible distance range property from a data center and/or a navigation system.
  • the visible distance range is illuminated depending on the property of the visible distance range from one functional position of the at least two functional positions.
  • the visible distance range is dependent on the property of the visible distance range illuminated alternately from different functional positions of the at least two functional positions.
  • the method for generating recordings by means of a temporally coordinated activation of an illumination device and an optical sensor is, in particular, a method known as a gated imaging method; in particular, the optical sensor is a camera that is only sensitive to a specific, limited time range, which is referred to as "gated activation", so the camera is a gated camera.
  • the lighting device is also controlled correspondingly only in a specific, selected time interval in order to illuminate a scene on the object side, in particular the visible distance range.
  • a predefined number of light pulses are emitted by the lighting device, preferably each with a duration of between 5 ns and 20 ns.
  • the beginning and the end of the exposure of the optical sensor is linked to the number and duration of the emitted light pulses and a start of the illumination.
  • a certain visible distance range can be detected by the optical sensor by the temporal activation of the lighting device on the one hand and the optical sensor on the other hand with a correspondingly defined local position, i.e. in particular at certain distances between a near and a distant limit of the visible distance range from the optical sensor become.
  • a local position of the optical sensor and the lighting device is known from the structure of the gated camera.
  • a local distance between the lighting device and the optical sensor is preferably known and is small in comparison to the distance of the lighting device or the optical sensor from the visible distance range.
  • a distance between the optical sensor and the visible distance range is equal to a distance between the gated camera and the visible distance range.
  • the visible distance range is that - object-side - range in three-dimensional space, which by the number and duration of the light pulses of the lighting device and the start of the lighting in connection with the start and the end of the exposure of the optical sensor by means of the optical sensor in a two-dimensional Recording is imaged on an image plane of the optical sensor.
  • the observation area is in particular the area in three-dimensional space—on the object side—which, given sufficient lighting and exposure of the optical sensor by means of the optical sensor, could be imaged in a two-dimensional recording as a whole—in particular as a maximum.
  • the observation area corresponds to the entire image area of the optical sensor that can be exposed and that could theoretically be illuminated.
  • the visible distance range is thus a subset of the observation range in real space.
  • only a subset of the image plane of the optical sensor is exposed in the method proposed here, with this subarea of the image plane being present in particular between a start image line and an end image line.
  • object-side an area in real space is addressed.
  • image side an area on the image plane of the optical sensor is addressed.
  • the observation range and the visible distance range are given on the object side. They correspond to image-side areas on the image plane that are assigned by the imaging laws and the temporal control of the illumination device and the optical sensor.
  • the method it is therefore possible, in particular, to determine the position and the spatial width of the visible distance range, in particular a distance between the near limit and the far limit of the visible range, by suitably selecting the temporal control of the lighting device on the one hand and the optical sensor on the other Distance range to define.
  • the visible distance range is specified, with the timing of the lighting device on the one hand and the optical sensor on the other being correspondingly specified therefrom.
  • the timing of the lighting device on the one hand and of the optical sensor on the other hand is predetermined, with the visible distance range being predetermined accordingly.
  • the lighting device has at least one surface emitter, in particular a so-called VCSE laser, preferably a plurality of surface emitters, in particular a plurality of VCSE lasers.
  • the optical sensor is preferably a camera.
  • the process can be carried out continuously.
  • the at least one lighting device has a lighting element, the lighting element being selectively shifted into one of the at least two functional positions based on the property of the visible distance range.
  • the lighting device preferably has exactly two functional positions, it being possible for one lighting element to be arranged discretely, optionally in one of the exactly two functional positions.
  • the one lighting element can be shifted between the at least two functional positions, preferably in discrete steps, so that the one lighting element can advantageously be arranged in a plurality of functional positions.
  • the one lighting element can be shifted continuously between the at least two functional positions, so that the one lighting element can advantageously be arranged at any desired functional position between the at least two functional positions.
  • the at least one lighting device has at least two lighting elements.
  • a first lighting element of the at least two lighting elements is arranged in a first functional position of the at least two functional positions.
  • a second lighting element of the at least two lighting elements is arranged in a second functional position of the at least two functional positions. Based on the property of the visible distance range, the first lighting element or the second lighting element is controlled to illuminate the visible distance range.
  • a vertical deviation of an area to be observed, in particular a street to be observed, from a horizontal course is used as the property of the visible distance range.
  • the functional position of the at least two functional positions which is below in the vertical direction is preferably used as the standard functional position, in particular if there is no vertical deviation of the surface to be observed from the horizontal course.
  • the at least one further functional position of the at least two functional positions is used as an additional functional position, in particular if there is a vertical deviation of the area to be monitored from the horizontal course.
  • the at least two functional positions are vertically spaced from one another.
  • control device that is set up to carry out a method according to the invention or a method according to one or more of the embodiments described above.
  • control device In connection with the control device, there are in particular the advantages that have already been explained in connection with the method.
  • the control device is preferably set up to be operatively connected to the lighting device and the optical sensor and set up to control them in each case.
  • the control device is preferably set up to cause a displacement of one lighting element of the lighting device.
  • the control device is preferably set up to control the at least two lighting elements of the lighting device alternately or simultaneously.
  • the control device is preferably set up to receive the property of the visible distance range from a data center and/or a navigation system.
  • the object is also achieved by creating a gated camera which has an illumination device, an optical sensor and a control device according to the invention or a control device according to one or more of the embodiments described above.
  • the lighting device has at least two functional positions, the at least two functional positions being spatially, in particular vertically, spaced apart from one another.
  • the control device is preferably operatively connected to the lighting device and the optical sensor and set up for their respective control.
  • the lighting device has a lighting element, the lighting element being displaceable between the at least two functional positions.
  • the lighting device has at least two lighting elements, with one lighting element being arranged in each case in a functional position.
  • a first lighting element is the at least two
  • the object is also achieved by creating a motor vehicle with a gated camera according to the invention or a gated camera according to one or more of the embodiments described above.
  • a gated camera according to the invention or a gated camera according to one or more of the embodiments described above.
  • the motor vehicle is designed as an autonomously driving motor vehicle.
  • the motor vehicle is preferably designed as a truck.
  • the motor vehicle it is also possible for the motor vehicle to be in the form of a passenger car, a commercial vehicle, or another motor vehicle.
  • FIG. 1 shows a schematic representation of a first exemplary embodiment of a motor vehicle
  • FIG. 2 shows a schematic representation of a second exemplary embodiment of the motor vehicle
  • FIG. 3 shows a schematic representation of a third exemplary embodiment of the motor vehicle
  • FIG. 4 shows a schematic representation of an illumination of a visible distance range from a first functional position and a second functional position
  • FIG. 5 shows a flow diagram of an embodiment for operating an embodiment of a gated camera.
  • Figure 1 shows a schematic representation of a first exemplary embodiment of a motor vehicle 1 with a gated camera 3.
  • the gated camera 3 has at least one lighting device 5, in particular a first lighting device 5.1 and a second lighting device 5.2, an optical sensor 7 and a control device 9 .
  • the first lighting device 5.1 has at least two functional positions 11, in particular a first functional position 11.1 and a second functional position 11.2, so that a visible distance range using the at least a lighting device 5, in particular the first lighting device 5.1, can be optionally illuminated from at least one functional position 11 of the at least two functional positions 11.
  • the at least two functional positions 11 are spatially, preferably vertically, spaced apart from one another.
  • the control device 9 is only shown schematically here and is operatively connected to the at least one lighting device 5, in particular the first lighting device 5.1 and the second lighting device 5.2, and the optical sensor 7 in a manner that is not explicitly shown, and is set up for their respective activation.
  • the control device 9 is provided with a property 25 of the visible distance range.
  • the first lighting device 5.1 preferably has at least two lighting elements 13, in particular a first lighting element 13.1 and a second lighting element 13.2.
  • the first lighting element 13.1 is particularly preferably arranged in the first functional position 11.1.
  • the second lighting element 13.2 is particularly preferably arranged in the second functional position 11.2.
  • the first lighting element 13.1 and the second lighting element 13.2 are thus particularly preferably spatially, in particular vertically, spaced apart from one another.
  • Figure 2 shows a schematic representation of a second exemplary embodiment of motor vehicle 1.
  • the gated camera 3 is preferably an extension of the gated camera 3 from Figure 1.
  • the first lighting device 5.1 is designed analogously to the first lighting device 5.1 from FIG.
  • the second lighting device 5.2 has at least two functional positions 11, in particular a third functional position 11.3 and a fourth functional position 11.4.
  • the second lighting device 5.2 preferably has at least two lighting elements 13, in particular a third lighting element 13.3 and a fourth lighting element 13.4.
  • the third lighting element 13.3 is particularly preferably arranged in the third functional position 11.3.
  • the fourth lighting element 13.4 is particularly preferably arranged in the fourth functional position 11.4.
  • two lighting elements 13 each, selected from the first lighting device 5.1 and the second lighting device 5.2, are controlled, in particular activated, at the same time.
  • the first lighting element 13.1 and the third lighting element 13.3 or the second lighting element 13.2 and the fourth lighting element 13.4 are preferably activated simultaneously.
  • the first lighting element 13.1 and the fourth lighting element 13.4 or the second lighting element 13.2 and the third lighting element 13.3 are preferably activated simultaneously.
  • the first lighting element 13.1 and the second lighting element 13.2 or the third lighting element 13.3 and the fourth lighting element 13.4 are activated simultaneously.
  • the lighting elements 13 of the first lighting device 5.1 and the second lighting device 5.2 are controlled, in particular activated, one after the other.
  • the first lighting element 13.1, the second lighting element 13.2, the third lighting element 13.3 and the fourth lighting element 13.4 are preferably activated one after the other in a first chronological order.
  • the first lighting element 13.1, the second lighting element 13.2, the fourth lighting element 13.4 and the third lighting element 13.3 are activated one after the other, preferably in a second chronological order.
  • the first lighting element 13.1, the third lighting element 13.3, the second lighting element 13.2 and the fourth lighting element 13.4 are activated one after the other, preferably in a third chronological order.
  • first lighting element 13.1, the third lighting element 13.3, the fourth lighting element 13.4 and the second lighting element 13.2 are activated one after the other, preferably in a fourth chronological order.
  • first lighting element 13.1, the fourth lighting element 13.4, the second lighting element 13.2 and the third lighting element 13.3 are activated one after the other, preferably in a fifth chronological order.
  • preferably in a sixth chronological sequence activates the first lighting element 13.1, the fourth lighting element 13.4, the third lighting element 13.3 and the second lighting element 13.2 one after the other.
  • Figure 3 shows a schematic representation of a third exemplary embodiment of motor vehicle 1.
  • the gated camera 3 has the first lighting device 5.1 and the second lighting device 5.2.
  • the first lighting device 5.1 preferably has only a single lighting element 13, in particular the first lighting element 13.1.
  • the first lighting element 13.1 can be displaced between the first functional position 11.1 and the second functional position 11.2.
  • the second lighting device 5.2 preferably has only a single lighting element 13, in particular the third lighting element 13.3.
  • the third lighting element 13.3 can be displaced between the third functional position 11.3 and the fourth functional position 11.4.
  • the first lighting device 5.1 and the second lighting device 5.2 are controlled, in particular activated, one after the other or simultaneously.
  • the first lighting element 13.1 is preferably activated in at least one functional position selected from the first functional position 11.1 and the second functional position 11.2.
  • the third lighting element is preferably activated when the second lighting device 5.2 is activated
  • FIG. 4 shows a schematic representation of an illumination of the visible distance range.
  • FIG. 4a shows a schematic representation of the illumination of the visible distance range from the first functional position 11.1.
  • a surface 15 to be observed in particular a street to be observed, has a vertical deviation 17, in particular in the form of a hill, from a horizontal course.
  • the vertical deviation 15 casts a shadow 19, which at least partially covers an observation area 21 of the optical sensor.
  • the shadow 19 is schematically determined here by means of a light beam 23 shown schematically.
  • FIG. 4b shows a schematic representation of the illumination of the visible distance range from the second functional position 11.2.
  • the area 15 to be observed also has the vertical deviation 17, in particular in the form of the hill, from a horizontal course.
  • the surface 15 is illuminated by means of an illumination element 13, which is arranged in the second functional position 11.2, the vertical deviation 15 does not cast a shadow.
  • the schematic determination of whether the vertical deviation 17 casts a shadow is also carried out here by means of a schematically illustrated light beam 23.
  • Figure 5 shows a flowchart of an embodiment for operating an embodiment of the gated camera 3.
  • the control device 9 is preferably set up to carry out a method described below.
  • a first step a) the lighting device 5 and the optical sensor 7 are synchronized with one another in terms of time, a visible distance range being assigned to a first time coordination.
  • a second step b) the property 25 of the visible distance range is provided.
  • a vertical deviation 17 of a surface 15 to be observed, in particular a street to be observed, from a horizontal course is preferably used as the property 25 of the visible distance range.
  • a functional position 11 of the at least two functional positions 11 is selected for illuminating the visible distance range.
  • a functional position 11 of the at least two functional positions 11 is selected for illuminating the visible distance range.
  • the first functional position 11.1 or the second functional position 11.2 is selected.
  • the single lighting element 13 of the lighting device is preferably moved to the selected functional position 11 and activated.
  • the first lighting element 13.1, which is arranged in the first functional position 11.1, or the second lighting element 13.2, which is arranged in the second functional position 11.2 is actuated based on the property 25 of the visible distance range, in particular activated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated-Kamera (3), die eine Beleuchtungsvorrichtung (5) und einen optischen Sensor (7) aufweist, wobei − die Beleuchtungsvorrichtung (5) und der optische Sensor (7) zeitlich aufeinander abgestimmt werden, wobei − einer ersten zeitlichen Abstimmung ein sichtbarer Abstandsbereich zugeordnet wird, wobei − eine Eigenschaft (25) des sichtbaren Abstandsbereichs bereitgestellt wird, wobei − die Beleuchtungsvorrichtung (5) mindestens zwei Funktionspositionen (11) aufweist, sodass der sichtbare Abstandsbereich mittels der Beleuchtungsvorrichtung (5) wahlweise aus mindestens einer Funktionsposition (11) der mindestens zwei Funktionspositionen (11) beleuchtet werden kann, wobei − die mindestens zwei Funktionspositionen (11) räumlich voneinander beabstandet sind, wobei − basierend auf der Eigenschaft (25) des sichtbaren Abstandsbereichs eine Funktionsposition (11) der mindestens zwei Funktionspositionen (11) zur Beleuchtung des sichtbaren Abstandsbereichs ausgewählt wird.

Description

Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Gated-Kamera mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Gated-Kamera.
Es sind Verfahren insbesondere für Kraftfahrzeuge bekannt, bei denen mittels einer Gated-Kamera Objekte detektiert werden. Dabei wird vorzugsweise ein Schattenwurf des zu detektierenden Objekts genutzt, um das Objekt einfach und zuverlässig zu detektieren. Die Detektion von Objekten wird besser, je ausgeprägter, insbesondere je länger, der Schattenwurf ist. Für einen gut ausgeprägten Schattenwurf, insbesondere einen langen Schattenwurf, muss ein Beleuchtungselement in einer vertikalen Richtung möglichst tief, insbesondere mit einem möglichst kleinen Abstand zu einer Straßenoberfläche, auf der das Kraftfahrzeug fährt, angeordnet sein. Nachteilig an einer solchen, möglichst tiefen, Anordnung des Beleuchtungselements ist, dass eine Unebenheit der Straße ebenfalls einen langen Schatten wirft und im schlechtesten Fall ein Objekt und dessen Schatten überdeckt, sodass das Objekt nicht detektiert werden kann.
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Gated-Kamera mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Gated-Kamera zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen. Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Betreiben einer Gated- Kamera, die eine Beleuchtungsvorrichtung und einen optischen Sensor aufweist, geschaffen wird. Dabei werden die Beleuchtungsvorrichtung und der optische Sensor zeitlich aufeinander abgestimmt angesteuert, wobei einer zeitlichen Abstimmung ein sichtbarer Abstandsbereich zugeordnet wird. Zusätzlich wird eine Eigenschaft des sichtbaren Abstandsbereichs bereitgestellt. Die Beleuchtungsvorrichtung weist mindestens zwei Funktionspositionen auf, sodass der sichtbare Abstandsbereich mittels der Beleuchtungsvorrichtung wahlweise aus mindestens einer Funktionsposition der mindestens zwei Funktionspositionen beleuchtet werden kann, wobei die mindestens zwei Funktionspositionen räumlich voneinander beabstandet sind. Weiterhin wird basierend auf der Eigenschaft des sichtbaren Abstandsbereichs eine Funktionsposition der mindestens zwei Funktionspositionen zur Beleuchtung des sichtbaren Abstandsbereichs ausgewählt.
Vorteilhafterweise ist es damit möglich, den sichtbaren Abstandsbereich aus den mindestens zwei verschiedenen Funktionspositionen zu beleuchten und damit insbesondere in Abhängigkeit von der Eigenschaft des sichtbaren Abstandsbereichs eine sichere und zuverlässige Detektion von Objekten in dem sichtbaren Abstandsbereich zu gewährleisten.
In einer bevorzugten Ausgestaltung wird mittels der zeitlich abgestimmten Ansteuerung eine erste Aufnahme aufgenommen, wobei die Eigenschaft des sichtbaren Abstandsbereichs anhand der ersten Aufnahme ermittelt wird. Alternativ oder zusätzlich wird vorzugsweise nach der Auswahl der Funktionsposition zur Beleuchtung des sichtbaren Abstandsbereichs mittels der zeitlich abgestimmten Ansteuerung eine zweite Aufnahme aufgenommen, wobei vorzugsweise anhand der zweiten Aufnahme ein Objektdetektionsverfahren durchgeführt wird.
In einer weiteren bevorzugten Ausgestaltung wird die Eigenschaft des sichtbaren Abstandsbereichs von der Gated-Kamera insbesondere drahtlos empfangen. Besonders bevorzugt empfängt die Gated-Kamera die Eigenschaft des sichtbaren Abstandsbereichs von einem Rechenzentrum und/oder einem Navigationssystem.
Vorzugsweise wird der sichtbare Abstandsbereich in Abhängigkeit der Eigenschaft des sichtbaren Abstandsbereichs aus einer Funktionsposition der mindestens zwei Funktionspositionen beleuchtet. Alternativ oder zusätzlich wird der sichtbare Abstandsbereich in Abhängigkeit der Eigenschaft des sichtbaren Abstandsbereichs abwechselnd aus verschiedenen Funktionspositionen der mindestens zwei Funktionspositionen beleuchtet.
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungsvorrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungsvorrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie, insbesondere den sichtbaren Abstandsbereich, auszuleuchten.
Insbesondere werden durch die Beleuchtungsvorrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise jeweils mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse und einen Start der Beleuchtung gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungsvorrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere in bestimmten Abständen einer nahen und einer entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Beleuchtungsvorrichtung bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Beleuchtungsvorrichtung und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Beleuchtungsvorrichtung bzw. des optischen Sensors zu dem sichtbaren Abstandsbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und dem sichtbaren Abstandsbereich gleich einem Abstand zwischen der Gated-Kamera und dem sichtbaren Abstandsbereich.
Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und die Dauer der Lichtimpulse der Beleuchtungsvorrichtung und dem Start der Beleuchtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird. Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereichs im realen Raum. Entsprechend wird auch nur eine Teilmenge der Bildebene des optischen Sensors bei dem hier vorgeschlagenen Verfahren belichtet, wobei dieser Teilbereich der Bildebene insbesondere zwischen einer Start-Bildzeile und einer End-Bildzeile gegeben ist.
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungsvorrichtung und des optischen Sensors zugeordnete bildseitige Bereiche auf der Bildebene.
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungsvorrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungsvorrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Dabei verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungsvorrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungsvorrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbaren Abstandsbereichs, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren. In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungsvorrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
In einer weiteren bevorzugten Ausgestaltung des Verfahrens wird die zeitliche Abstimmung der Beleuchtungsvorrichtung einerseits und des optischen Sensors andererseits vorgegeben, wobei daraus entsprechend der sichtbare Abstandsbereich vorgegeben wird.
Die Beleuchtungsvorrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, bevorzugt eine Mehrzahl an Oberflächenemitter, insbesondere eine Mehrzahl an VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
Vorteilhafterweise kann das Verfahren kontinuierlich durchgeführt werden.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die mindestens eine Beleuchtungsvorrichtung ein Beleuchtungselement aufweist, wobei das Beleuchtungselement basierend auf der Eigenschaft des sichtbaren Abstandsbereichs wahlweise in eine der mindestens zwei Funktionspositionen verlagert wird.
Vorteilhafterweise ist es damit möglich, mittels eines einzigen Beleuchtungselements den sichtbaren Abstandsbereich aus den mindestens zwei verschiedenen Funktionspositionen zu beleuchten.
Vorzugsweise weist die Beleuchtungsvorrichtung genau zwei Funktionspositionen auf, wobei das eine Beleuchtungselement diskret wahlweise in einer Funktionsposition der genau zwei Funktionspositionen angeordnet werden kann. Alternativ oder zusätzlich kann das eine Beleuchtungselement vorzugsweise in diskreten Schritten zwischen den mindestens zwei Funktionspositionen verlagert werden, sodass das eine Beleuchtungselement vorteilhafterweise in einer Mehrzahl an Funktionspositionen angeordnet werden kann. Alternativ oder zusätzlich kann das eine Beleuchtungselement kontinuierlich zwischen den mindestens zwei Funktionspositionen verlagert werden, sodass das eine Beleuchtungselement vorteilhafterweise an jeder beliebigen Funktionsposition zwischen den mindestens zwei Funktionspositionen angeordnet werden kann. Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die mindestens eine Beleuchtungsvorrichtung mindestens zwei Beleuchtungselemente aufweist. Ein erstes Beleuchtungselement der mindestens zwei Beleuchtungselemente ist in einer ersten Funktionsposition der mindestens zwei Funktionspositionen angeordnet. Ein zweites Beleuchtungselement der mindestens zwei Beleuchtungselemente ist in einer zweiten Funktionsposition der mindestens zwei Funktionspositionen angeordnet. Basierend auf der Eigenschaft des sichtbaren Abstandsbereichs wird das erste Beleuchtungselement oder das zweite Beleuchtungselement zur Beleuchtung des sichtbaren Abstandsbereichs angesteuert.
Vorteilhafterweise ist es damit möglich, ohne einen Verlagerungsmechanismus den sichtbaren Abstandsbereich aus den mindestens zwei verschiedenen Funktionspositionen zu beleuchten.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass als die Eigenschaft des sichtbaren Abstandsbereichs eine vertikale Abweichung einer zu beobachtenden Fläche, insbesondere einer zu beobachtenden Straße, von einem waagerechten Verlauf verwendet wird.
Vorzugsweise wird die in der vertikalen Richtung unten liegende Funktionsposition der mindestens zwei Funktionspositionen als Standard-Funktionsposition verwendet, insbesondere falls keine vertikale Abweichung der zu beobachtenden Fläche von dem waagerechten Verlauf vorhanden ist. Alternativ oder zusätzlich wird die mindestens eine weitere Funktionsposition der mindestens zwei Funktionspositionen als Zusatz- Funktionsposition verwendet, insbesondere falls eine vertikale Abweichung der zu beobachtenden Fläche von dem waagerechten Verlauf vorhanden ist.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die mindestens zwei Funktionspositionen vertikal voneinander beabstandet sind. Vorteilhafterweise ist es damit in einfacher Weise möglich, einen Schattenwurf der vertikalen Abweichung der zu beobachtenden Fläche, insbesondere der zu beobachtenden Straße, von dem waagerechten Verlauf zu verkürzen und somit eine zuverlässige Objektdetektion zu gewährleisten.
Die Aufgabe wird auch gelöst, indem eine Steuervorrichtung geschaffen wird, die zur Durchführung eines erfindungsgemäßen Verfahrens oder eines Verfahrens nach einer oder mehreren der zuvor beschriebenen Ausführungsformen eingerichtet ist. In Zusammenhang mit der Steuervorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
Die Steuervorrichtung ist bevorzugt eingerichtet, um mit der Beleuchtungsvorrichtung und dem optischen Sensor wirkverbunden zu werden und eingerichtet zu deren jeweiliger Ansteuerung. Zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um eine Verlagerung des einen Beleuchtungselements der Beleuchtungsvorrichtung zu veranlassen. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um die mindestens zwei Beleuchtungselemente der Beleuchtungsvorrichtung abwechselnd oder gleichzeitig anzusteuern. Alternativ oder zusätzlich ist die Steuervorrichtung vorzugsweise eingerichtet, um die Eigenschaft des sichtbaren Abstandsbereichs von einem Rechenzentrum und/oder einem Navigationssystem zu empfangen.
Die Aufgabe wird auch gelöst, indem eine Gated-Kamera geschaffen wird, die eine Beleuchtungsvorrichtung, einen optischen Sensor und eine erfindungsgemäße Steuervorrichtung oder eine Steuervorrichtung nach einer oder mehreren der zuvor beschriebenen Ausführungsformen aufweist. Zusätzlich weist die Beleuchtungsvorrichtung mindestens zwei Funktionspositionen auf, wobei die mindestens zwei Funktionspositionen räumlich, insbesondere vertikal, voneinander beabstandet sind. In Zusammenhang mit der Gated-Kamera ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuervorrichtung erläutert wurden.
Die Steuervorrichtung ist bevorzugt mit der Beleuchtungsvorrichtung und dem optischen Sensor wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Beleuchtungsvorrichtung ein Beleuchtungselement aufweist, wobei das Beleuchtungselement zwischen den mindestens zwei Funktionspositionen verlagerbar ist.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Beleuchtungsvorrichtung mindestens zwei Beleuchtungselemente aufweist, wobei jeweils ein Beleuchtungselement in jeweils einer Funktionsposition angeordnet ist.
Vorzugsweise ist ein erstes Beleuchtungselement der mindestens zwei
Beleuchtungselemente in einer ersten Funktionsposition der mindestens zwei
Funktionspositionen angeordnet. Alternativ oder zusätzlich ist vorzugsweise ein zweites Beleuchtungselement der mindestens zwei Beleuchtungselemente in einer zweiten Funktionsposition der mindestens zwei Funktionspositionen angeordnet.
Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Gated-Kamera oder einer Gated-Kamera nach einer oder mehreren der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuervorrichtung und der Gated-Kamera erläutert wurden.
In einer bevorzugten Ausgestaltung ist das Kraftfahrzeug als autonom fahrendes Kraftfahrzeug ausgebildet. Alternativ oder zusätzlich ist das Kraftfahrzeug vorzugsweise als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug als ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ausgebildet ist.
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
Dabei zeigen:
Fig. 1 eine schematische Darstellung eines ersten Ausführungsbeispiels eines Kraftfahrzeugs,
Fig. 2 eine schematische Darstellung eines zweiten Ausführungsbeispiels des Kraftfahrzeugs,
Fig. 3 eine schematische Darstellung eines dritten Ausführungsbeispiels des Kraftfahrzeugs,
Fig. 4 eine schematische Darstellung einer Beleuchtung eines sichtbaren Abstandsbereichs aus einer ersten Funktionsposition und einer zweiten Funktionsposition, und
Fig. 5 ein Flussdiagramm eines Ausführungsbeispiels zum Betreiben eines Ausführungsbeispiels einer Gated-Kamera.
Figur 1 zeigt eine schematische Darstellung eines ersten Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Gated-Kamera 3. Die Gated-Kamera 3 weist mindestens eine Beleuchtungsvorrichtung 5, insbesondere eine erste Beleuchtungsvorrichtung 5.1 und eine zweite Beleuchtungsvorrichtung 5.2, einen optischen Sensor 7 sowie eine Steuervorrichtung 9 auf. Die erste Beleuchtungsvorrichtung 5.1 weist mindestens zwei Funktionspositionen 11, insbesondere eine erste Funktionsposition 11.1 und eine zweite Funktionsposition 11.2 auf, sodass ein sichtbarer Abstandsbereich mittels der mindestens einen Beleuchtungsvorrichtung 5, insbesondere der ersten Beleuchtungsvorrichtung 5.1 , wahlweise aus mindestens einer Funktionsposition 11 der mindestens zwei Funktionspositionen 11 beleuchtet werden kann. Dabei sind die mindestens zwei Funktionspositionen 11 räumlich, vorzugsweise vertikal, voneinander beabstandet.
Die Steuervorrichtung 9 ist hier nur schematisch dargestellt und ist in nicht explizit dargestellter Weise mit der mindestens einen Beleuchtungsvorrichtung 5, insbesondere der ersten Beleuchtungsvorrichtung 5.1 und der zweiten Beleuchtungsvorrichtung 5.2, und dem optischen Sensor 7 wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. Zusätzlich wird insbesondere der Steuervorrichtung 9 eine Eigenschaft 25 des sichtbaren Abstandsbereichs bereitgestellt.
Vorzugsweise weist die erste Beleuchtungsvorrichtung 5.1 mindestens zwei Beleuchtungselemente 13, insbesondere ein erstes Beleuchtungselement 13.1 und ein zweites Beleuchtungselement 13.2, auf. Besonders bevorzugt ist das erste Beleuchtungselement 13.1 in der ersten Funktionsposition 11.1 angeordnet. Alternativ oder zusätzlich ist besonders bevorzugt das zweite Beleuchtungselement 13.2 in der zweiten Funktionsposition 11.2 angeordnet. Damit sind besonders bevorzugt das erste Beleuchtungselement 13.1 und das zweite Beleuchtungselement 13.2 räumlich, insbesondere vertikal, voneinander beabstandet.
Figur 2 zeigt eine schematische Darstellung eines zweiten Ausführungsbeispiels des Kraftfahrzeugs 1.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern jeweils auf die vorangegangene Beschreibung verwiesen wird.
Die Gated-Kamera 3 ist vorzugsweise eine Erweiterung der Gated-Kamera 3 aus Figur 1.
Die erste Beleuchtungsvorrichtung 5.1 ist analog zu der ersten Beleuchtungsvorrichtung 5.1 aus Figur 1 ausgebildet.
Zusätzlich weist die zweite Beleuchtungsvorrichtung 5.2 mindestens zwei Funktionspositionen 11 , insbesondere eine dritte Funktionsposition 11.3 und eine vierte Funktionsposition 11.4 auf. Vorzugsweise weist die zweite Beleuchtungsvorrichtung 5.2 mindestens zwei Beleuchtungselemente 13, insbesondere ein drittes Beleuchtungselement 13.3 und ein viertes Beleuchtungselement 13.4, auf. Besonders bevorzugt ist das dritte Beleuchtungselement 13.3 in der dritten Funktionsposition 11.3 angeordnet. Alternativ oder zusätzlich ist besonders bevorzugt das vierte Beleuchtungselement 13.4 in der vierten Funktionsposition 11.4 angeordnet.
In einer bevorzugten Ausgestaltung werden jeweils zwei Beleuchtungselemente 13, ausgewählt aus der ersten Beleuchtungsvorrichtung 5.1 und der zweiten Beleuchtungsvorrichtung 5.2, gleichzeitig angesteuert, insbesondere aktiviert. Vorzugsweise werden das erste Beleuchtungselement 13.1 und das dritte Beleuchtungselement 13.3 oder das zweite Beleuchtungselement 13.2 und das vierte Beleuchtungselement 13.4 gleichzeitig aktiviert. Alternativ werden vorzugsweise das erste Beleuchtungselement 13.1 und das vierte Beleuchtungselement 13.4 oder das zweite Beleuchtungselement 13.2 und das dritte Beleuchtungselement 13.3 gleichzeitig aktiviert. Alternativ werden vorzugsweise das erste Beleuchtungselement 13.1 und das zweite Beleuchtungselement 13.2 oder das dritte Beleuchtungselement 13.3 und das vierte Beleuchtungselement 13.4 gleichzeitig aktiviert.
In einer alternativen bevorzugten Ausgestaltung werden die Beleuchtungselemente 13 der ersten Beleuchtungsvorrichtung 5.1 und der zweiten Beleuchtungsvorrichtung 5.2 nacheinander angesteuert, insbesondere aktiviert. Vorzugsweise werden in einer ersten zeitlichen Reihenfolge das erste Beleuchtungselement 13.1, das zweite Beleuchtungselement 13.2, das dritte Beleuchtungselement 13.3 und das vierte Beleuchtungselement 13.4 nacheinander aktiviert. Alternativ werden vorzugsweise in einer zweiten zeitlichen Reihenfolge das erste Beleuchtungselement 13.1, das zweite Beleuchtungselement 13.2, das vierte Beleuchtungselement 13.4 und das dritte Beleuchtungselement 13.3 nacheinander aktiviert. Alternativ werden vorzugsweise in einer dritten zeitlichen Reihenfolge das erste Beleuchtungselement 13.1, das dritte Beleuchtungselement 13.3, das zweite Beleuchtungselement 13.2 und das vierte Beleuchtungselement 13.4 nacheinander aktiviert. Alternativ werden vorzugsweise in einer vierten zeitlichen Reihenfolge das erste Beleuchtungselement 13.1 , das dritte Beleuchtungselement 13.3, das vierte Beleuchtungselement 13.4 und das zweite Beleuchtungselement 13.2 nacheinander aktiviert. Alternativ werden vorzugsweise in einer fünften zeitlichen Reihenfolge das erste Beleuchtungselement 13.1, das vierte Beleuchtungselement 13.4, das zweite Beleuchtungselement 13.2 und das dritte Beleuchtungselement 13.3 nacheinander aktiviert. Alternativ werden vorzugsweise in einer sechsten zeitlichen Reihenfolge das erste Beleuchtungselement 13.1, das vierte Beleuchtungselement 13.4, das dritte Beleuchtungselement 13.3 und das zweite Beleuchtungselement 13.2 nacheinander aktiviert.
In einer weiteren alternativen bevorzugten Ausgestaltung wird vorzugsweise zuerst mindestens ein Beleuchtungselement 13, ausgewählt aus dem ersten Beleuchtungselement 13.1, dem zweiten Beleuchtungselement 13.2, dem dritten Beleuchtungselement 13.3 und dem vierten Beleuchtungselement 13.4, und zeitlich danach mindestens ein Beleuchtungselement 13, ausgewählt aus dem ersten Beleuchtungselement 13.1, dem zweiten Beleuchtungselement 13.2, dem dritten Beleuchtungselement 13.3 und dem vierten Beleuchtungselement 13.4, aktiviert.
Figur 3 zeigt eine schematische Darstellung eines dritten Ausführungsbeispiels des Kraftfahrzeugs 1.
Die Gated-Kamera 3 weist die erste Beleuchtungsvorrichtung 5.1 und die zweite Beleuchtungsvorrichtung 5.2 auf.
Vorzugsweise weist die erste Beleuchtungsvorrichtung 5.1 nur ein einziges Beleuchtungselement 13, insbesondere das erste Beleuchtungselement 13.1 , auf. Das erste Beleuchtungselement 13.1 ist zwischen der ersten Funktionsposition 11.1 und der zweiten Funktionsposition 11.2 verlagerbar.
Alternativ oder zusätzlich weist vorzugsweise die zweite Beleuchtungsvorrichtung 5.2 nur ein einziges Beleuchtungselement 13, insbesondere das dritte Beleuchtungselement 13.3, auf. Das dritte Beleuchtungselement 13.3 ist zwischen der dritten Funktionsposition 11.3 und der vierten Funktionsposition 11.4 verlagerbar.
In einer bevorzugten Ausgestaltung werden die erste Beleuchtungsvorrichtung 5.1 und die zweite Beleuchtungsvorrichtung 5.2 nacheinander oder gleichzeitig angesteuert, insbesondere aktiviert. Vorzugsweise wird bei einer Ansteuerung der ersten Beleuchtungsvorrichtung 5.1 das erste Beleuchtungselement 13.1 in mindestens einer Funktionsposition, ausgewählt aus der ersten Funktionsposition 11.1 und der zweiten Funktionsposition 11.2, aktiviert. Alternativ oder zusätzlich wird vorzugsweise bei einer Ansteuerung der zweiten Beleuchtungsvorrichtung 5.2 das dritte Beleuchtungselement
13.3 in mindestens einer Funktionsposition, ausgewählt aus der dritten Funktionsposition
11.3 und der vierten Funktionsposition 11.4, aktiviert. Figur 4 zeigt eine schematische Darstellung einer Beleuchtung des sichtbaren Abstandsbereichs.
Figur 4 a) zeigt eine schematische Darstellung der Beleuchtung des sichtbaren Abstandsbereichs aus der ersten Funktionsposition 11.1.
Eine zu beobachtende Fläche 15, insbesondere eine zu beobachtende Straße, weist eine vertikale Abweichung 17, insbesondere in Form eines Hügels, von einem waagerechten Verlauf auf. Bei einer Beleuchtung der Fläche 15 mittels eines Beleuchtungselements 13, welches in der ersten Funktionsposition 11.1 angeordnet ist, wirft die vertikale Abweichung 15 einen Schatten 19, weicher einen Beobachtungsbereich 21 des optischen Sensors zumindest teilweise überdeckt. Die schematische Bestimmung des Schattens 19 erfolgt hier mittels eines schematisch dargestellten Lichtstrahls 23. Somit liegt ein Objekt, welches rechts von der vertikalen Abweichung 15 angeordnet ist, komplett in dem Schatten 19 und kann daher mittels des optischen Sensors 7 nur schwer detektiert werden.
Figur 4 b) zeigt eine schematische Darstellung der Beleuchtung des sichtbaren Abstandsbereichs aus der zweiten Funktionsposition 11.2.
Die zu beobachtende Fläche 15, insbesondere die zu beobachtende Straße, weist ebenfalls die vertikale Abweichung 17, insbesondere in Form des Hügels, von einem waagerechten Verlauf auf. Bei einer Beleuchtung der Fläche 15 mittels eines Beleuchtungselements 13, welches in der zweiten Funktionsposition 11.2 angeordnet ist, wirft die vertikale Abweichung 15 keinen Schatten. Die schematische Bestimmung, ob die vertikale Abweichung 17 einen Schatten wirft, erfolgt hier ebenfalls mittels eines schematisch dargestellten Lichtstrahls 23. Somit kann selbst ein Objekt, welches rechts von der vertikalen Abweichung 15 angeordnet ist, in einfacher Weise mittels des optischen Sensors 7 detektiert werden.
Figur 5 zeigt ein Flussdiagramm eines Ausführungsbeispiels zum Betreiben eines Ausführungsbeispiels der Gated-Kamera 3.
Vorzugsweise ist die Steuervorrichtung 9 eingerichtet, um ein im Folgenden beschriebenes Verfahren durchzuführen. In einem ersten Schritt a) werden die Beleuchtungsvorrichtung 5 und der optische Sensor 7 zeitlich aufeinander abgestimmt, wobei einer ersten zeitlichen Abstimmung ein sichtbarer Abstandsbereich zugeordnet wird.
In einem zweiten Schritt b) wird die Eigenschaft 25 des sichtbaren Abstandsbereichs bereitgestellt. Vorzugsweise wird als die Eigenschaft 25 des sichtbaren Abstandsbereichs eine vertikale Abweichung 17 einer zu beobachtenden Fläche 15, insbesondere einer zu beobachtenden Straße, von einem waagerechten Verlauf genutzt.
In einem dritten Schritt c) wird basierend auf der Eigenschaft 25 des sichtbaren Abstandsbereichs eine Funktionsposition 11 der mindestens zwei Funktionspositionen 11 zur Beleuchtung des sichtbaren Abstandsbereichs ausgewählt. Vorzugsweise wird entweder die erste Funktionsposition 11.1 oder die zweite Funktionsposition 11.2 ausgewählt.
In einem optionalen vierten Schritt d) wird vorzugsweise das einzige Beleuchtungselement 13 der Beleuchtungsvorrichtung in die ausgewählte Funktionsposition 11 verlagert und aktiviert. Alternativ wird in dem optionalen vierten Schritt d) vorzugsweise das erste Beleuchtungselement 13.1, welches in der ersten Funktionsposition 11.1 angeordnet ist, oder das zweite Beleuchtungselement 13.2, welches in der zweiten Funktionsposition 11.2 angeordnet ist, basierend auf der Eigenschaft 25 des sichtbaren Abstandsbereichs angesteuert, insbesondere aktiviert.

Claims

Patentansprüche Verfahren zum Betreiben einer Gated-Kamera (3), die eine Beleuchtungsvorrichtung (5) und einen optischen Sensor (7) aufweist, wobei die Beleuchtungsvorrichtung (5) und der optische Sensor (7) zeitlich aufeinander abgestimmt werden, wobei einer ersten zeitlichen Abstimmung ein sichtbarer Abstandsbereich zugeordnet wird, wobei eine Eigenschaft (25) des sichtbaren Abstandsbereichs bereitgestellt wird, wobei die Beleuchtungsvorrichtung (5) mindestens zwei Funktionspositionen (11) aufweist, sodass der sichtbare Abstandsbereich mittels der Beleuchtungsvorrichtung (5) wahlweise aus mindestens einer Funktionsposition (11) der mindestens zwei Funktionspositionen (11) beleuchtet werden kann, wobei die mindestens zwei Funktionspositionen (11) räumlich voneinander beabstandet sind, wobei basierend auf der Eigenschaft (25) des sichtbaren Abstandsbereichs eine Funktionsposition (11) der mindestens zwei Funktionspositionen (11) zur Beleuchtung des sichtbaren Abstandsbereichs ausgewählt wird. Verfahren nach Anspruch 1 , wobei die Beleuchtungsvorrichtung (5) ein Beleuchtungselement (13) aufweist, wobei das Beleuchtungselement (13) basierend auf der Eigenschaft (25) des sichtbaren Abstandsbereichs wahlweise in eine der mindestens zwei Funktionspositionen (11) verlagert wird. Verfahren nach Anspruch 1 , wobei die Beleuchtungsvorrichtung (5) mindestens zwei Beleuchtungselemente (13) aufweist, wobei ein erstes Beleuchtungselement (13.1) der mindestens zwei Beleuchtungselemente (13) in einer ersten Funktionsposition (11.1) der mindestens zwei Funktionspositionen (11) angeordnet ist, wobei ein zweites Beleuchtungselement (13.2) der mindestens zwei Beleuchtungselemente (13) in einer zweiten Funktionsposition (11.2) der mindestens zwei Funktionspositionen (11) angeordnet ist, wobei basierend auf der Eigenschaft (25) des sichtbaren Abstandsbereichs das erste Beleuchtungselement (13.1) oder das zweite Beleuchtungselement (13.2) zur Beleuchtung des sichtbaren Abstandsbereichs angesteuert wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei als die Eigenschaft (25) des sichtbaren Abstandsbereichs eine vertikale Abweichung (17) einer zu beobachtenden Fläche (15), insbesondere einer zu beobachtenden Straße, von einem waagerechten Verlauf verwendet wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei die mindestens zwei Funktionsposition (11) vertikal voneinander beabstandet sind. Steuervorrichtung (9) zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche. Gated-Kamera (3) mit einer Beleuchtungsvorrichtung (5), einem optischen Sensor (7) und einer Steuervorrichtung (9) nach Anspruch 6, wobei die Beleuchtungsvorrichtung (5) mindestens zwei Funktionspositionen (11) aufweist, wobei die mindestens zwei Funktionspositionen (11) räumlich, insbesondere vertikal, voneinander beabstandet sind. Gated-Kamera (3) nach Anspruch 7, wobei die Beleuchtungsvorrichtung (5) ein Beleuchtungselement (13) aufweist, wobei das Beleuchtungselement (13) zwischen den mindestens zwei Funktionspositionen (11) verlagerbar ist. 16 Gated-Kamera (3) nach Anspruch 7, wobei die Beleuchtungsvorrichtung (5) mindestens zwei Beleuchtungselemente (13) aufweist, wobei jeweils ein Beleuchtungselement (13) in jeweils einer Funktionsposition (11) angeordnet ist. Kraftfahrzeug (1) mit einer Gated-Kamera (3) nach einem der Ansprüche 7 bis 9.
PCT/EP2022/073367 2021-09-07 2022-08-23 Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera WO2023036594A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202280060195.1A CN117940795A (zh) 2021-09-07 2022-08-23 用于操作选通摄像头的方法、用于执行这种方法的控制装置、具有这种控制装置的选通摄像头和具有这种选通摄像头的机动车

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021004516.5 2021-09-07
DE102021004516.5A DE102021004516B3 (de) 2021-09-07 2021-09-07 Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera

Publications (1)

Publication Number Publication Date
WO2023036594A1 true WO2023036594A1 (de) 2023-03-16

Family

ID=83280363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2022/073367 WO2023036594A1 (de) 2021-09-07 2022-08-23 Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera

Country Status (3)

Country Link
CN (1) CN117940795A (de)
DE (1) DE102021004516B3 (de)
WO (1) WO2023036594A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008139A1 (de) * 2006-02-20 2007-08-23 Adc Automotive Distance Control Systems Gmbh Sensor mit einem dynamischen Erfassungsbereich
US20180227566A1 (en) * 2017-02-06 2018-08-09 Microsoft Technology Licensing, Llc Variable field of view and directional sensors for mobile machine vision applications

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020004690A1 (de) 2020-08-03 2021-05-27 Daimler Ag Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
DE102020007061B4 (de) 2020-11-19 2022-08-11 Daimler Truck AG Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006008139A1 (de) * 2006-02-20 2007-08-23 Adc Automotive Distance Control Systems Gmbh Sensor mit einem dynamischen Erfassungsbereich
US20180227566A1 (en) * 2017-02-06 2018-08-09 Microsoft Technology Licensing, Llc Variable field of view and directional sensors for mobile machine vision applications

Also Published As

Publication number Publication date
DE102021004516B3 (de) 2023-01-19
CN117940795A (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
EP3513161A1 (de) Fahrzeugprüfstand zum kalibrieren und/oder testen von systemen eines fahrzeugs, die wenigstens eine kamera umfassen sowie verfahren zur durchführung der kalibrierung und/oder tests von systemen eines fahrzeugs, die wenigstens eine kamera umfassen
WO2021233603A1 (de) Verfahren zur messung eines abstandes zwischen einem objekt und einem optischen sensor, steuereinrichtung zur durchführung eines solchen verfahrens, abstandsmessvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen abstandsmessvorrichtung
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
DE102016010373B4 (de) Verfahren und Vorrichtung zur Erkennung des Öffnungszustands eines Garagentores
DE102008010407A1 (de) Verfahren und eine Vorrichtung zum Projezieren einer optischen Projektion auf eine Projektionsfläche
EP3158285A1 (de) Verfahren zur ermittlung eines räumlichen verschiebungsvektorfeldes
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
WO2022167343A1 (de) Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung
DE102015012816A1 (de) Verfahren zum Kalibrieren eines Laserscheinwerfers in einem Kraftfahrzeug und Kraftfahrzeug
DE102021101593B3 (de) Verfahren zum Betrieb von Umfeldsensoren in einem Kraftfahrzeug und Kraftfahrzeug
WO2019110206A1 (de) Lidar-system zur umfelderfassung und verfahren zum betreiben eines lidar-systems
WO2022106115A1 (de) Verfahren zum betreiben einer ersten beleuchtungseinrichtung, einer zweiten beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung
DE102020007064B4 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102019001336A1 (de) Vorrichtung zur Erfassung eines Fahrtzielbereichs
WO2022042902A1 (de) Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
WO2022184738A1 (de) Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
DE102021003728B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
EP4356599A1 (de) Gated-kamera, kraftfahrzeug mit einer solchen gated-kamera und verfahren zum betreiben einer solchen gated-kamera
DE10058981A1 (de) Verfahren sowie Vorrichtung zur Erfassung eines Raumbereichs, sowie Mehrzahl von Vorrichtungen und Fahrzeug
WO2022058075A1 (de) Verfahren zum kalibrieren einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung, kalibrierungsvorrichtung, kraftfahrzeug, kalibrierungsmarkierung und kalibrierungsmarkierungsanordnung
EP4356163A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung
DE102021000447A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22768720

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280060195.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE