DE102020007061A1 - Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung - Google Patents

Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung Download PDF

Info

Publication number
DE102020007061A1
DE102020007061A1 DE102020007061.2A DE102020007061A DE102020007061A1 DE 102020007061 A1 DE102020007061 A1 DE 102020007061A1 DE 102020007061 A DE102020007061 A DE 102020007061A DE 102020007061 A1 DE102020007061 A1 DE 102020007061A1
Authority
DE
Germany
Prior art keywords
recording
optical sensor
lighting device
image
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102020007061.2A
Other languages
English (en)
Other versions
DE102020007061B4 (de
Inventor
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler Truck AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Truck AG filed Critical Daimler Truck AG
Priority to DE102020007061.2A priority Critical patent/DE102020007061B4/de
Priority to US18/253,563 priority patent/US20230400586A1/en
Priority to PCT/EP2021/077664 priority patent/WO2022106115A1/de
Priority to CN202180077503.7A priority patent/CN116685865A/zh
Publication of DE102020007061A1 publication Critical patent/DE102020007061A1/de
Application granted granted Critical
Publication of DE102020007061B4 publication Critical patent/DE102020007061B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung (5.1), einer zweiten Beleuchtungseinrichtung (5.2) und eines optischen Sensors (7), wobei
- eine Ansteuerung der ersten Beleuchtungseinrichtung (5.1), der zweiten Beleuchtungseinrichtung (5.2) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei
- der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (15) zugeordnet wird, wobei
- eine erste Aufnahme (19.1) bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung (5.1) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei
- eine zweite Aufnahme (19.2) bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung (5.2) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei
- eine dritte Aufnahme (19.3) mit dem optischen Sensor (7) ohne Beleuchtung mittels einem der Beleuchtungseinrichtungen (5) aufgenommen wird, und wobei eine Differenz-Aufnahme (19.4) aus der ersten Aufnahme (19.1), der zweiten Aufnahme (19.2) und der dritten Aufnahme (19.3) gebildet wird

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung.
  • Es sind Verfahren zum Betreiben einer Beleuchtungseinrichtung und eines optischen Sensors bekannt. Nachteilig an den bekannten Verfahren ist, dass zum einen nur eine einzige Beleuchtungseinrichtung betrachtet wird und zum anderen eine Umgebung mit einer geringen Umgebungsbeleuchtung vorausgesetzt wird. Damit sind die Verfahren in Situationen mit Tageslicht und/oder bei starker Sonneneinstrahlung ungeeignet.
  • Des Weiteren geht aus der Veröffentlichung „Gated2Depth: Real-Time Dense Lidar From Gated Images“ von Tobias Gruber et. al. (https://arxiv.org/pdf/1902.04997.pdf) ein Verfahren zur Erstellung einer Aufnahme mit Abstandsinformationen in Echtzeit hervor. Problematisch dabei ist, dass dieses Verfahren nur bei einer Reichweite von bis zu 80 m angewendet werden kann.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zum Betreiben von einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
  • Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
  • Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors geschaffen wird, wobei eine Ansteuerung der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden und der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich zugeordnet wird. Mittels der abgestimmten Ansteuerung wird eine erste Aufnahme bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung mit dem optischen Sensor aufgenommen. Mittels der abgestimmten Ansteuerung wird eine zweite Aufnahme bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung mit dem optischen Sensor aufgenommen. Mittels des optischen Sensors wird eine dritte Aufnahme ohne Beleuchtung mittels einer der Beleuchtungseinrichtungen aufgenommen. Weiterhin wird eine Differenz-Aufnahme aus der ersten Aufnahme, der zweiten Aufnahme und der dritten Aufnahme gebildet.
  • Insbesondere entspricht die dritte Aufnahme einer Umgebungs-Aufnahme, insbesondere einer Tageslicht-Aufnahme. Vorteilhafterweise wird mittels Subtraktion der dritten Aufnahme der Einfluss des Umgebungslichts, insbesondere Tageslichts, aus der ersten Aufnahme und der zweiten Aufnahme herausgerechnet. Damit ist eine robustere und zuverlässigere Auswertung der Differenz-Aufnahme möglich.
  • Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung mindestens einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die mindestens eine Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
  • Insbesondere werden durch die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise jeweils mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere bestimmten Abständen einer nahen und einer entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden.
  • Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welche durch die Anzahl und Dauer der Lichtimpulse der ersten Beleuchtungseinrichtung und/oder der zweiten Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
  • Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbare Abstandsbereich ist dabei objektseitig gegeben. Dieser entspricht einem durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und des optischen Sensors zugeordneten bildseitigen Bereich auf der Bildebene.
  • Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die erste Beleuchtungseinrichtung und/oder die zweite Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der ersten Beleuchtungseinrichtung und/oder der zweiten Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer, bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
  • Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der ersten Beleuchtungseinrichtung und/oder der zweiten Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits, die Lage und die räumliche Breite des sichtbaren Abstandsbereiches, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
  • In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der ersten Beleuchtungseinrichtung und/oder der zweiten Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
  • Die Beleuchtungseinrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
  • In einer Ausführungsform des Verfahrens wird nach der ersten Aufnahme und nach der zweiten Aufnahme die dritte Aufnahme aufgenommen.
  • In einer weiteren Ausführungsform des Verfahrens wird nach der ersten Aufnahme die dritte Aufnahme aufgenommen. Nach der dritten Aufnahme wird die zweite Aufnahme aufgenommen.
  • In einer weiteren Ausführungsform des Verfahrens wird die dritte Aufnahme vor der ersten Aufnahme und der zweiten Aufnahme aufgenommen.
  • Vorteilhafterweise kann das Verfahren kontinuierlich durchgeführt werden. In einer Ausführungsform des Verfahrens bei einer kontinuierlichen Durchführung werden die erste Aufnahme, die zweite Aufnahme und die dritte Aufnahme pro Zeiteinheit gleich oft aufgenommen.
  • In einer weiteren Ausführungsform des Verfahrens bei einer kontinuierlichen Durchführung werden eine Aufnahme, abwechselnd ausgewählt aus der ersten Aufnahme und der zweiten Aufnahme, im Wechsel mit der dritten Aufnahme aufgenommen, das heißt beispielsweise eine Folge der Art: Eine erste Aufnahme, dann eine dritte Aufnahme, dann eine zweite Aufnahme, dann eine dritte Aufnahme, dann wieder eine erste Aufnahme, und so weiter. Damit verlängert sich der zeitliche Abstand zwischen den einzelnen Beleuchtungen mittels der ersten Beleuchtungseinrichtung bzw. zwischen den einzelnen Beleuchtungen mittels der zweiten Beleuchtungseinrichtung. Dieser zeitlich längere Abstand ermöglicht eine optimale Abkühlung der ersten Beleuchtungseinrichtung bzw. der zweiten Beleuchtungseinrichtung und somit eine Beleuchtung mit einem höheren Energieausstoß.
  • In einer weiteren bevorzugten Ausführungsform des Verfahrens werden die erste Aufnahme, die zweite Aufnahme und die dritte Aufnahme in einem zeitlichen Abstand von weniger als 0,01 Sekunden, vorzugsweise weniger als 0,001 Sekunden, aufgenommen.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass eine erste Teildifferenz-Aufnahme als Differenz der ersten Aufnahme und der dritten Aufnahme gebildet wird. Weiterhin wird eine zweite Teildifferenz-Aufnahme als Differenz der zweiten Aufnahme und der dritten Aufnahme gebildet. Die Differenz-Aufnahme wird dann als Differenz der ersten Teildifferenz-Aufnahme und der zweiten Teildifferenz-Aufnahme gebildet.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass auf die erste Aufnahme, die zweite Aufnahme und die dritte Aufnahme ein Verfahren zur Bildregistrierung angewendet wird, bevor die Differenz-Aufnahme gebildet wird. Vorteilhafterweise wird mittels der Bildregistrierung eine Eigenbewegung des Kraftfahrzeugs kompensiert.
  • In einer Ausführungsform des Verfahrens wird auf die erste Aufnahme und die dritte Aufnahme ein Verfahren zur Bildregistrierung angewendet, wobei die dritte Aufnahme für die Bildung der ersten Teildifferenz-Aufnahme an die erste Aufnahme angepasst wird. Zusätzlich wird auf die zweite Aufnahme und die dritte Aufnahme ein Verfahren zur Bildregistrierung angewendet, wobei die dritte Aufnahme für die Bildung der zweiten Teildifferenz-Aufnahme an die zweite Aufnahme angepasst wird. Nach Bildung der ersten Teildifferenz-Aufnahme und der zweiten Teildifferenz-Aufnahme wird ein Verfahren zur Bildregistrierung auf die erste Teildifferenz-Aufnahme und die zweite Teildifferenz-Aufnahme angewendet.
  • In einer bevorzugten Ausführungsform des Verfahrens wird auf die erste Aufnahme und die dritte Aufnahme ein Verfahren zur Bildregistrierung angewendet, wobei die erste Aufnahme an die dritte Aufnahme angepasst wird. Zusätzlich wird auf die zweite Aufnahme und die dritte Aufnahme ein Verfahren zur Bildregistrierung angewendet, wobei die zweite Aufnahme an die dritte Aufnahme angepasst wird. Vorteilhafterweise entfällt eine weitere Bildregistrierung, da die erste Aufnahme und die zweite Aufnahme an die dritte Aufnahme angepasst werden. Somit sind die erste Teildifferenz-Aufnahme und die zweite Teildifferenz-Aufnahme automatisch registriert.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass in der Differenz-Aufnahme nach Objekten gesucht. Vorteilhafterweise sind in der Differenz-Aufnahme nur Bildinformationen zu sehen, welche entweder nur in der ersten Aufnahme oder nur in der zweiten Aufnahme zu sehen sind. Diese Bildinformation sind unter anderem Schatten, welche von einem Objekt aufgrund der unterschiedlichen Beleuchtung mittels der ersten Beleuchtungseinrichtung und der zweiten Beleuchtungseinrichtung erzeugt werden. Anhand dieser Bildinformationen, insbesondere dieser Schatten, kann auf ein Objekt geschlossen werden.
  • In einer bevorzugten Ausführungsform des Verfahrens werden Objekte erst ab einer vorbestimmten horizontalen bildseitigen Schattenbreite Δu detektiert. Diese vorbestimmte horizontale bildseitige Schattenbreite Δu ermöglicht eine robuste und zuverlässige Objektdetektion in der Differenz-Aufnahme.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass in der Differenz-Aufnahme eine Abstandsmessung durchgeführt wird.
  • In einer bevorzugten Ausführungsform des Verfahrens erfolgt die Abstandsmessung mittels eines Verfahrens, welches aus der deutschen Offenlegungsschrift DE 10 2020 02 994 A1 bekannt ist. Zur Durchführung des Verfahrens muss die objektseitige Lage des sichtbaren Abstandsbereichs, die bildseitige Lage des sichtbaren Abstandsbereichs und die Fußpunkt-Bildzeile des Objekts bekannt sein. Die objektseitige Lage des sichtbaren Abstandsbereichs ist aus der abgestimmten Ansteuerung der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und des optischen Sensors bekannt. Die bildseitige Lage des sichtbaren Abstandsbereichs ist sowohl aus der ersten Aufnahme als auch aus der zweiten Aufnahme bekannt. Die Fußpunkt-Bildzeile des Objekts ist aus der Differenz-Aufnahme bekannt. Damit wird der Abstand des Objekts insbesondere basierend auf dem Schatten des Objekts abgeschätzt.
  • Die Fußpunkt-Bildzeile eines Schattens kann in Abhängigkeit von der Form des Schattens variieren. Insbesondere hängt die Genauigkeit der Bestimmung der Fußpunkt-Bildzeile von der Form des Schattens ab. Vor allem bei dreieckigen Schatten, welche bildseitig von unten nach oben breiter werden, findet eine Objektdetektion ab der vorbestimmten horizontalen bildseitigen Schattenbreite Δu statt. Solche dreieckigen Schatten werden insbesondere bei einer horizontalen Beabstandung der Beleuchtungseinrichtungen untereinander einerseits und mindestens einer Beleuchtungseinrichtung und dem optischen Sensor andererseits erzeugt. Die Abstandsmessung in Abhängigkeit von der vorbestimmten horizontalen bildseitigen Schattenbreite Δu ist dennoch zuverlässig. Die Zuverlässigkeit wird anhand der folgenden Überlegungen verdeutlicht.
  • Unter Voraussetzung eines in Fahrtrichtung, insbesondere in x-Richtung, des Kraftfahrzeugs flachen Objekts können mittels des Strahlensatzes ein objektseitiger Schattenabstand xw einer beliebigen Position innerhalb des Schattens, insbesondere eines dreieckigen Schattens, zu dem optischen Sensor, die objektseitige horizontale Schattenbreite yw des Schattens an der beliebigen Position, der Bildebenenabstand f einer Bildebene des optischen Sensors von der Linse des optischen Sensors, und die vorbestimmte horizontale bildseitige Schattenbreite Δu in das Verhältnis Δ u ƒ = y w x W
    Figure DE102020007061A1_0001
    gesetzt werden. Ebenso können ein horizontaler Beleuchtungsabstand yB einer der beiden Beleuchtungseinrichtungen zu dem optischen Sensor, der objektseitige Schattenabstand xw, und ein Objektabstand xo des Objekts zu dem optischen Sensor mittels des Strahlensatzes in das Verhältnis x W y B = x W x O x O
    Figure DE102020007061A1_0002
    gesetzt werden. Aus einer Kombination der Formeln (1) und (2) ergibt sich eine Abstandsdifferenz Δx mit Δ x = x W x O = x O 2 ƒ × y B Δ u x O
    Figure DE102020007061A1_0003
    zwischen der beliebigen Position xw, an welcher der objektseitige Schattenabstand betrachtet wird, und dem Objektabstand xo. Für einen Beleuchtungsabstand yB = 2 m, einen Bildebenenabstand f = 5000 px und eine vorbestimmte horizontale bildseitige Schattenbreite Δu = 3 px ergibt sich bei einem tatsächlichen Objektabstand xO = 200 m eine Abstandsdifferenz Δx von ca. 13 m. Damit liegt der Fehler der Abstandsmessung bei nur 7,5 %. Dieser Fehler ist bei einem Objektabstand xo von 200 m akzeptabel.
  • Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer oder mehreren der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
  • Die Aufgabe wird auch gelöst, indem eine Gated-Kamera-Vorrichtung geschaffen wird, die eine erste Beleuchtungseinrichtung, eine zweite Beleuchtungseinrichtung, einen optischen Sensor und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem oder mehreren der zuvor beschriebenen Ausführungsbeispiele aufweist. Die Steuereinrichtung ist bevorzugt mit der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und dem optischen Sensor wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. In Zusammenhang mit der Gated-Kamera-Vorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung horizontal versetzt zueinander angeordnet sind. Insbesondere ist die erste Beleuchtungseinrichtung und/oder die zweite Beleuchtungseinrichtung horizontal versetzt zu dem optischen Sensor angeordnet.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung vertikal versetzt zueinander angeordnet sind. Insbesondere ist die erste Beleuchtungseinrichtung und/oder die zweite Beleuchtungseinrichtung vertikal versetzt zu dem optischen Sensor angeordnet.
  • In einem bevorzugten Ausführungsbeispiel sind die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung sowohl vertikal als auch horizontal zueinander versetzt angeordnet. Alternativ oder zusätzlich ist ein erster Abstand zwischen der ersten Beleuchtungseinrichtung und dem optischen Sensor kleiner als ein zweiter Abstand zwischen der zweiten Beleuchtungseinrichtung und dem optischen Sensor. Besonders bevorzugt beträgt der erste Abstand weniger als 50 cm, bevorzugt weniger als 20 cm, bevorzugt weniger als 10 cm. Besonders bevorzugt beträgt außerdem der zweite Abstand mehr als 50 cm, bevorzugt mehr als 100 cm, bevorzugt mehr als 150 cm.
  • Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Gated-Kamera-Vorrichtung oder einer Gated-Kamera-Vorrichtung nach einem oder mehreren der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Gated-Kamera-Vorrichtung erläutert wurden.
  • In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder anderes Kraftfahrzeug ist.
  • In einem bevorzugten Ausführungsbeispiel ist das Kraftfahrzeug ein Lastkraftwagen. Der optische Sensor und die erste Beleuchtungseinrichtung sind oberhalb der Windschutzscheibe angeordnet und weisen einen Abstand voneinander - den ersten Abstand - von weniger als 50 cm, vorzugsweise weniger 20 cm, vorzugsweise weniger als 10 cm, auf. Die zweite Beleuchtungseinrichtung ist vorzugsweise im Bereich der Stoßstange angeordnet.
  • Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem Ausführungsbeispiel einer Gated-Kamera-Vorrichtung,
    • 2 eine schematische Darstellung einer Ausführungsform eines Verfahrens zum Betreiben der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und des optischen Sensors, und
    • 3 eine schematische Darstellung zur Bestimmung einer Abstandsdifferenz Δx.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einem Ausführungsbeispiel einer Gated-Kamera-Vorrichtung 3. Die Gated-Kamera-Vorrichtung 3 weist eine erste Beleuchtungseinrichtung 5.1, eine zweite Beleuchtungseinrichtung 5.2, einen optischen Sensor 7, insbesondere eine Kamera, und eine Steuereinrichtung 9 auf. Die Steuereinrichtung 9 ist in nicht explizit dargestellter Weise mit der ersten Beleuchtungseinrichtung 5.1, der zweiten Beleuchtungseinrichtung 5.2 und dem optischen Sensor 7 wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
  • Vorzugsweise sind die erste Beleuchtungseinrichtung 5.1 und die zweite Beleuchtungseinrichtung 5.2 vertikal versetzt zueinander angeordnet. Alternativ oder zusätzlich sind die erste Beleuchtungseinrichtung 5.1 und die zweite Beleuchtungseinrichtung 5.2 vorzugsweise horizontal versetzt zueinander angeordnet.
  • Vorzugsweise ist ein erster Abstand zwischen der ersten Beleuchtungseinrichtung 5.1 und dem optischen Sensor 7 kleiner als ein zweiter Abstand zwischen der zweiten Beleuchtungseinrichtung 5.2 und dem optischen Sensor 7. Besonders bevorzugt beträgt der erste Abstand weniger als 50 cm, bevorzugt weniger als 20 cm, bevorzugt weniger als 10 cm. Besonders bevorzugt beträgt außerdem der zweite Abstand mehr als 50 cm, bevorzugt mehr als 100 cm, bevorzugt mehr als 150 cm.
  • Die erste Beleuchtungseinrichtung 5.1 und die zweite Beleuchtungseinrichtung 5.2 weisen vorzugsweise mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf.
  • Dargestellt in 1 ist insbesondere ein erstes Beleuchtungs-Frustum 11.1 der ersten Beleuchtungseinrichtung 5.1, ein zweites Beleuchtungs-Frustum 11.2 der zweiten Beleuchtungseinrichtung 5.2 und ein Beobachtungsbereich 13 des optischen Sensors 7. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 15, der sich als Teilmenge des ersten Beleuchtungs-Frustums 11.1 der ersten Beleuchtungseinrichtung 5.1, des zweiten Beleuchtungs-Frustums 11.2 der zweiten Beleuchtungseinrichtung 5.2 und des Beobachtungsbereichs 13 des optischen Sensors 7 ergibt. Innerhalb des sichtbaren Abstandsbereichs 15 ist ein Objekt 17 angeordnet.
  • Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung einer in 2 näher beschriebenen Ausführungsform eines Verfahrens zum Betreiben der ersten Beleuchtungseinrichtung 5.1, der zweiten Beleuchtungseinrichtung 5.2 und des optischen Sensors 7.
  • Eine Ansteuerung der ersten Beleuchtungseinrichtung 5.1, der zweiten Beleuchtungseinrichtung 5.2 und des optischen Sensors 7 werden zeitlich aufeinander abgestimmt, und der abgestimmten Ansteuerung wird der sichtbare Abstandsbereich 15 zugeordnet. Mittels der abgestimmten Ansteuerung wird eine erste Aufnahme 19.1 bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung 5.1 mit dem optischen Sensor 7 aufgenommen. Die erste Aufnahme 19.1 ist in 2 a) dargestellt. Mittels der abgestimmten Ansteuerung wird weiterhin eine zweite Aufnahme 19.2 bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung 5.2 mit dem optischen Sensor 7 aufgenommen. Die zweite Aufnahme 19.2 ist in 2 c) dargestellt. Mittels des optischen Sensors 7 wird außerdem eine dritte Aufnahme 19.3 ohne Beleuchtung mittels der ersten Beleuchtungseinrichtung 5.1 oder der zweiten Beleuchtungseinrichtung 5.2 aufgenommen. Die dritte Aufnahme 19.3 ist in 2 b) dargestellt. Anschließend wird aus der ersten Aufnahme 19.1, der zweiten Aufnahme 19.2, und der dritten Aufnahme 19.3 eine Differenz-Aufnahme 19.4 gebildet. Die Differenz-Aufnahme 19.4 ist in 2 f) dargestellt.
  • In der ersten Aufnahme 19.1, der zweiten Aufnahme 19.2 und der dritten Aufnahme 19.3 ist ein bildseitiges Objekt 17' erkennbar. In einem optimalen Fall ist in der ersten Aufnahme 19.1, wie in 2 a) dargestellt, kein Schattenwurf zu sehen. Zusätzlich ist der zweiten Aufnahme 19.2 ein bildseitig sichtbarer Schattenwurf 21' des Objekts 17 zu sehen. Der bildseitig sichtbare Schattenwurf 21' entsteht, da die zweite Beleuchtungseinrichtung 5.2 und der optische Sensor 7 voneinander beabstandet, insbesondere horizontal zueinander versetzt, angeordnet sind. Vorzugsweise sind die erste Beleuchtungseinrichtung 5.1 und die zweite Beleuchtungseinrichtung 5.2 derart angeordnet, dass die bildseitig sichtbaren Schattenwürfe 21' in der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 voneinander verschieden sind.
  • Da die bildseitig sichtbaren Schattenwürfe 21' in der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 voneinander verschieden sind, ist in der Differenz-Aufnahme 19.4 in 2 f) nur noch der bildseitig sichtbare Schattenwurf 21' zu sehen.
  • Vorzugsweise wird die dritte Aufnahme 19.3 zeitlich zwischen der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 aufgenommen. Alternativ wird die dritte Aufnahme 19.3 zeitlich vor der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 aufgenommen. Alternativ wird die dritte Aufnahme 19.3 zeitlich nach der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 aufgenommen.
  • Vorzugsweise werden die erste Aufnahme und die zweite Aufnahme in einem zeitlichen Abstand von weniger als 0,1 Sekunden, vorzugsweise in einem zeitlichen Abstand von weniger als 0,01 Sekunden, aufgenommen.
  • Vorzugsweise wird in einem Verfahrensschritt A eine erste Teildifferenz-Aufnahme 19.5 als Differenz der ersten Aufnahme 19.1 und der dritten Aufnahme 19.3 gebildet. Die erste Teildifferenz-Aufnahme 19.5 ist in 2 d) dargestellt. In einem Verfahrensschritt B wird eine zweite Teildifferenz-Aufnahme 19.6 als Differenz der zweiten Aufnahme 19.2 und der dritten Aufnahme 19.3 gebildet. Die zweite Teildifferenz-Aufnahme 19.6 ist in 2 e) dargestellt. Mittels Subtraktion der dritten Aufnahme 19.3 von der ersten Aufnahme 19.1 und der zweiten Aufnahme 19.2 wird die Hintergrundbeleuchtung aus der Aufnahme 19.1 und der zweiten Aufnahme 19.2 entfernt und in der ersten Teildifferenz-Aufnahme 19.5 und der zweiten Teildifferenz-Aufnahme 19.6 sind die unbelichteten Bereiche, insbesondere der bildseitige Schattenwurf 21', deutlicher erkennbar. In einem Verfahrensschritt C wird die Differenz-Aufnahme 19.4 als Differenz der ersten Teildifferenz-Aufnahme 19.5 und der zweiten Teildifferenz-Aufnahme 19.6 gebildet.
  • Vorzugsweise wird in den Verfahrensschritten A und B zusätzlich ein Verfahren zur Bildregistrierung durchgeführt. Vorzugsweise werden dabei die erste Aufnahme 19.1 und die zweite Aufnahme 19.2 an die dritte Aufnahme 19.3 angepasst. In dem Verfahrensschritt C kann ebenfalls zusätzlich ein Verfahren zur Bildregistrierung durchgeführt werden. Die Bildregistrierung in dem Verfahrensschritt C ist allerdings nicht notwendig, wenn in den Verfahrensschritten A und B die erste Aufnahme 19.1 und die zweite Aufnahme 19.2 an die dritte Aufnahme 19.3 angepasst wurden.
  • Vorzugsweise wird in der Differenz-Aufnahme 19.4 ein Verfahren zur Objektdetektion durchgeführt.
  • Vorzugsweise wird in der Differenz-Aufnahme 19.4 ein Verfahren zur Abstandsmessung, insbesondere zur Messung eines Abstandes zwischen dem optischen Sensor 7 und einem detektierten Objekt 17, durchgeführt.
  • 3 zeigt eine Draufsicht auf die Situation, insbesondere eine x-y-Ebene, aus 1. Die zweite Beleuchtungseinrichtung 5.2 und der optische Sensor 7 sind horizontal versetzt zueinander angeordnet. Der objektseitige Schattenbereich 21 entspricht dem bildseitig sichtbaren Schattenwurf 21' des Objekts 17, welcher bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung 5.2 entsteht. Mittels des Strahlensatzes können ein objektseitiger Schattenabstand xw einer beliebigen Position innerhalb des objektseitigen Schattenbereichs 21 zu dem optischen Sensor 7, die objektseitige horizontale Schattenbreite yw des Schattens an der beliebigen Position, der Bildebenenabstand f einer Bildebene 23 des optischen Sensors 7 von der Linse des optischen Sensors 7, und die vorbestimmte horizontale bildseitige Schattenbreite Δu in das Verhältnis (1) gesetzt werden. Ebenso können ein horizontaler Beleuchtungsabstand yB der zweiten Beleuchtungseinrichtung 5.2 zu dem optischen Sensor 7, der objektseitige Schattenabstand xw, und ein Objektabstand xO des Objekts 17 zu dem optischen Sensor 7 mittels des Strahlensatzes in das Verhältnis (2) gesetzt werden. Zusammengefasst berechnet sich dann eine Abstandsdifferenz Δx zwischen der beliebigen Position xw, an welcher der objektseitige Schattenbereich 21 betrachtet wird, und dem Objektabstand xO mit der Formel (3).
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10202002994 A1 [0029]

Claims (10)

  1. Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung (5.1), einer zweiten Beleuchtungseinrichtung (5.2) und eines optischen Sensors (7), wobei - eine Ansteuerung der ersten Beleuchtungseinrichtung (5.1), der zweiten Beleuchtungseinrichtung (5.2) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei - der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (15) zugeordnet wird, wobei - eine erste Aufnahme (19.1) bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung (5.1) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei - eine zweite Aufnahme (19.2) bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung (5.2) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei - eine dritte Aufnahme (19.3) mit dem optischen Sensor (7) ohne Beleuchtung mittels einem der Beleuchtungseinrichtungen (5) aufgenommen wird, und wobei - eine Differenz-Aufnahme (19.4) aus der ersten Aufnahme (19.1), der zweiten Aufnahme (19.2) und der dritten Aufnahme (19.3) gebildet wird.
  2. Verfahren nach Anspruch 1, wobei - eine erste Teildifferenz-Aufnahme (19.5) als Differenz der ersten Aufnahme (19.1) und der dritten Aufnahme (19.3) gebildet wird, wobei - eine zweite Teildifferenz-Aufnahme (19.6) als Differenz der zweiten Aufnahme (19.2) und der dritten Aufnahme (19.3) gebildet wird, wobei - die Differenz-Aufnahme (19.4) als Differenz der ersten Teildifferenz-Aufnahme (19.5) und der zweiten Teildifferenz-Aufnahme (19.6) gebildet wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei auf die erste Aufnahme (19.1), die zweite Aufnahme (19.2) und die dritte Aufnahme (19.3) ein Verfahren zur Bildregistrierung angewendet wird, bevor die Differenz-Aufnahme (19.4) gebildet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei in der Differenz-Aufnahme (19.4) nach Objekten (17) gesucht wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei in der Differenz-Aufnahme (19.4) eine Abstandsmessung durchgeführt wird.
  6. Steuereinrichtung (9), eingerichtet zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
  7. Gated-Kamera-Vorrichtung (3) mit einer ersten Beleuchtungseinrichtung (5.1), einer zweiten Beleuchtungseinrichtung (5.2), einem optischen Sensor (7) und einer Steuereinrichtung (9) nach Anspruch 6.
  8. Gated-Kamera-Vorrichtung (3) nach Anspruch 7, wobei die erste Beleuchtungseinrichtung (5.1) und die zweite Beleuchtungseinrichtung (5.2) horizontal versetzt zueinander angeordnet sind.
  9. Gated-Kamera-Vorrichtung (3) nach Anspruch 7 oder Anspruch 8, wobei die erste Beleuchtungseinrichtung (5.1) und die zweite Beleuchtungseinrichtung (5.2) vertikal versetzt zueinander angeordnet sind.
  10. Kraftfahrzeug (1) mit einer Gated-Kamera-Vorrichtung (3) nach einem der Ansprüche 7 bis 9.
DE102020007061.2A 2020-11-19 2020-11-19 Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung Active DE102020007061B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020007061.2A DE102020007061B4 (de) 2020-11-19 2020-11-19 Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
US18/253,563 US20230400586A1 (en) 2020-11-19 2021-10-07 Method for Operating a First Illumination Device, a Second Illumination Device and an Optical Sensor, Control Device for Carrying Out Such a Method, Gated Camera Apparatus Comprising Such a Control Device, and Motor Vehicle Comprising Such a Gated Camera Apparatus
PCT/EP2021/077664 WO2022106115A1 (de) 2020-11-19 2021-10-07 Verfahren zum betreiben einer ersten beleuchtungseinrichtung, einer zweiten beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung
CN202180077503.7A CN116685865A (zh) 2020-11-19 2021-10-07 用于操作第一照明装置、第二照明装置和光学传感器的方法、用于执行这种方法的控制装置、具有这种控制装置的选通摄像头装置和具有这种选通摄像头装置的机动车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020007061.2A DE102020007061B4 (de) 2020-11-19 2020-11-19 Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung

Publications (2)

Publication Number Publication Date
DE102020007061A1 true DE102020007061A1 (de) 2022-05-19
DE102020007061B4 DE102020007061B4 (de) 2022-08-11

Family

ID=78085919

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020007061.2A Active DE102020007061B4 (de) 2020-11-19 2020-11-19 Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung

Country Status (4)

Country Link
US (1) US20230400586A1 (de)
CN (1) CN116685865A (de)
DE (1) DE102020007061B4 (de)
WO (1) WO2022106115A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021004516B3 (de) 2021-09-07 2023-01-19 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5034810A (en) 1989-12-07 1991-07-23 Kaman Aerospace Corporation Two wavelength in-situ imaging of solitary internal waves
US20180203122A1 (en) 2015-07-14 2018-07-19 Brightway Vision Ltd. Gated structured imaging
DE102017204836A1 (de) 2017-03-22 2018-09-27 Continental Automotive Gmbh Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
DE102020002994A1 (de) 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
DE102020003199A1 (de) 2020-05-28 2020-08-06 Daimler Ag Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007036129B3 (de) * 2007-08-01 2008-09-25 Sick Ag Vorrichtung und Verfahren zur dreidimensionalen Überwachung eines Raumbereichs mit mindestens zwei Bildsensoren
DE102012010190B4 (de) * 2011-07-18 2022-08-18 Lufthansa Technik Aktiengesellschaft Verfahren, Vorrichtung und Endoskop sowieAufsatz
US11662433B2 (en) * 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5034810A (en) 1989-12-07 1991-07-23 Kaman Aerospace Corporation Two wavelength in-situ imaging of solitary internal waves
US20180203122A1 (en) 2015-07-14 2018-07-19 Brightway Vision Ltd. Gated structured imaging
DE102017204836A1 (de) 2017-03-22 2018-09-27 Continental Automotive Gmbh Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
DE102020002994A1 (de) 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
DE102020003199A1 (de) 2020-05-28 2020-08-06 Daimler Ag Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021004516B3 (de) 2021-09-07 2023-01-19 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera

Also Published As

Publication number Publication date
WO2022106115A1 (de) 2022-05-27
US20230400586A1 (en) 2023-12-14
DE102020007061B4 (de) 2022-08-11
CN116685865A (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
DE102018207821A1 (de) Verfahren zur Bereitstellung eines Übersichtsbildes
DE112019000014T5 (de) Infrarotbasiertes System und Verfahren zur Straßenoberflächenüberwachung sowie Kraftfahrzeug
DE102020007061B4 (de) Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
EP1932017B1 (de) Vorrichtung und verfahren zur aufnahme von abstandsbildern
WO2022096215A1 (de) Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE19517026B4 (de) Verfahren zur Bestimmung der Geschwindigkeit eines Fahrzeuges mit Hilfe einer das Fahrzeug aufnehmenden Videokamera und Vorrichtung zur Durchführung des Verfahrens
DE102021000508A1 (de) Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinnchtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102020004989A1 (de) Verfahren zur Kalibrierung einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102020005762B4 (de) Verfahren zum Kalibrieren einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung sowie Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE19517031A1 (de) Verfahren zur Bestimmung der Länge eines Fahrzeuges mit Hilfe einer das Fahrzeug aufnehmenden Videokamera und Vorrichtung zur Durchführung des Verfahrens
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
DE102021003153A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung
EP3594624A2 (de) Verfahren zur wegstreckenmessung sowie system zur wegstreckenmessung
DE102021001175A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
DE102021004521A1 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
EP3821201B1 (de) Optisches messverfahren sowie optische messvorrichtung
DE102020007064A1 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102010013815A1 (de) Verfahren und Vorrichtung zur Erkennung und Verfolgung von Objekten im Umfeld eines Kraftfahrzeugs
DE2404373A1 (de) Vorrichtung zum schaetzen bzw. messen der abmasse, gestalten und geschwindigkeiten von tropfen in einem spruehnebel
DE102022200151A1 (de) Sensor

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R018 Grant decision by examination section/examining division
R020 Patent grant now final