DE102020006880A1 - Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung - Google Patents

Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung Download PDF

Info

Publication number
DE102020006880A1
DE102020006880A1 DE102020006880.4A DE102020006880A DE102020006880A1 DE 102020006880 A1 DE102020006880 A1 DE 102020006880A1 DE 102020006880 A DE102020006880 A DE 102020006880A DE 102020006880 A1 DE102020006880 A1 DE 102020006880A1
Authority
DE
Germany
Prior art keywords
image
visible distance
border
optical sensor
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020006880.4A
Other languages
English (en)
Inventor
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102020006880.4A priority Critical patent/DE102020006880A1/de
Publication of DE102020006880A1 publication Critical patent/DE102020006880A1/de
Priority to US18/251,804 priority patent/US20240012144A1/en
Priority to EP21789679.4A priority patent/EP4241114A1/de
Priority to CN202180075341.3A priority patent/CN116529633A/zh
Priority to PCT/EP2021/077661 priority patent/WO2022096215A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Detektieren eines Objekts (19) mittels einer Beleuchtungseinrichtung (5) und eines optischen Sensors (7), wobei- eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei- der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (15) zugeordnet wird, wobei- mindestens eine bildseitige Grenze (17) des sichtbaren Abstandsbereichs (15) mit einer vorbestimmten Norm-Darstellung der mindestens einen Grenze (17) des sichtbaren Abstandsbereichs (15) verglichen wird, wobei- ein Objekt (19) an der mindestens einen Grenze (17) basierend auf dem Vergleich gesucht wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Detektionsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Detektionsvorrichtung.
  • Verfahren zur Objektdetektion und Objektverfolgung mittels einer Beleuchtungseinrichtung und eines optischen Sensors sind bekannt. Aus der internationalen Patentanmeldung mit der Veröffentlichungsnummer WO 2017/009848 A1 geht ein solches Verfahren hervor, bei dem eine Beleuchtungseinrichtung und ein optischer Sensor zeitlich aufeinander abgestimmt angesteuert werden, um einen bestimmten sichtbaren Abstandsbereich in einem Beobachtungsbereich des optischen Sensors aufzunehmen, wobei sich der sichtbare Abstandsbereich aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors ergibt. Nachteilig bei diesem Verfahren ist, dass keine Rückkopplung zwischen dem detektierten und zu verfolgenden Objekt und der Beleuchtungseinrichtung und dem optischen Sensor durchgeführt wird.
  • Aus der Veröffentlichung „Gated2Depth: Real-Time Dense Lidar From Gated Images“ von Tobias Gruber et. al. (https://arxiv.org/pdf/1902.04997.pdf) geht ein Verfahren zur Erstellung einer Aufnahme mit Abstandsinformationen in Echtzeit hervor. Problematisch dabei ist, dass dieses Verfahren nur bei einer Reichweite von bis zu 80 m angewendet werden kann.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zum Detektieren von einem Objekt mittels einer Beleuchtungseinrichtung und eines optischen Sensors, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Detektionsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Detektionsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
  • Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
  • Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden und der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich zugeordnet wird. Mindestens eine bildseitige Grenze des sichtbaren Abstandsbereichs wird mit einer vorbestimmten Norm-Darstellung der mindestens einen Grenze des sichtbaren Abstandsbereichs verglichen. Basierend auf dem Vergleich wird ein Objekt an der mindestens einen Grenze, insbesondere an der mindestens einen bildseitigen Grenze, gesucht.
  • Mithilfe des Verfahrens ist es vorteilhaft möglich, ein Objekt, insbesondere frühzeitig, insbesondere an einer entfernten Grenze des sichtbaren Abstandsbereichs, zu suchen und zu detektieren. Bei einer frühzeitigen Objekterkennung ist es vorteilhaft möglich, eine verkehrssicherheitsoptimale Brems- und/oder Ausweichstrategie zu planen. Weiterhin ist es aufgrund der frühzeitigen Objekterkennung möglich, mithilfe weiterer Sensoren, insbesondere Radar-Sensoren und/oder Lidar-Sensoren, das detektierte Objekt genau auszumessen und eine Objektverfolgung durchzuführen.
  • In einer bevorzugten Ausführungsform des Verfahrens werden der optische Sensor und die Beleuchtungseinrichtung räumlich voneinander beabstandet angeordnet, vorzugsweise werden der optische Sensor und die Beleuchtungseinrichtung mit einem möglichst großen räumlichen Abstand voneinander angeordnet. Vorteilhafterweise wird durch die Beabstandung des optischen Sensors und der Beleuchtungseinrichtung ein Schattenwurf von einem Objekt generiert, welches in der Aufnahme des optischen Sensors sichtbar ist. Mittels des Schattenwurfs können somit auch Objekte detektiert werden, welche wenig oder keinen Kontrast zur Straßenoberfläche aufweisen.
  • Die Detektion eines Objekts an der entfernten Grenze des sichtbaren Abstandsbereichs ist abhängig von den Reflexionseigenschaften und/oder der Helligkeit des Objektes. Ein Objekt, welches hell ist und/oder gute Reflexionseigenschaften aufweist, kann detektiert werden, sobald das Objekt in den sichtbaren Abstandsbereich an der entfernten Grenze eintritt. Ein Objekt, welches dunkel ist und/oder schlechte Reflexionseigenschaften aufweist, kann erst dann detektiert werden, wenn sich ein nicht vernachlässigbarer Teil des Objekts und/oder der Schattenwurf des Objekts innerhalb des sichtbaren Abstandsbereichs befindet.
  • Die Detektion eines Objekts an einer nahen Grenze des sichtbaren Abstandsbereichs ist unabhängig von den Reflexionseigenschaften und/oder der Helligkeit des Objekts.
  • Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optischer Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
  • Insbesondere werden durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise jeweils mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere bestimmten Abständen der nahen und der entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden.
  • Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
  • Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbare Abstandsbereich ist dabei objektseitig gegeben. Dieser entspricht einem durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordneten bildseitigen Bereich auf der Bildebene.
  • Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
  • Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits, die Lage und die räumliche Breite des sichtbaren Abstandsbereiches, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
  • In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
  • Die Beleuchtungseinrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
  • In einer Ausführungsform des Verfahrens wird, wenn ein Objekt gefunden, das heißt detektiert wird, das detektierte Objekt klassifiziert. Vorzugsweise wird die Klassifizierung mittels eines neuronalen Netzes oder eines Deep-Learning-Verfahrens durchgeführt.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass als die bildseitige Grenze des sichtbaren Abstandsbereichs eine bildseitige Linie, die zwischen einem belichteten Bereich und einem unbelichteten Bereich in der Aufnahme verläuft, bestimmt wird. Ein Objekt wird basierend auf einer Abweichung der bildseitigen Linie von einem horizontalen Verlauf der Norm-Darstellung detektiert.
  • Die vorbestimmte Norm-Darstellung der mindestens einen Grenze des sichtbaren Abstandsbereichs ist insbesondere eine horizontale Linie zwischen dem belichteten Bereich und dem unbelichteten Bereich der Aufnahme. Falls sich ein Objekt auf der mindestens einen Grenze des sichtbaren Abstandsbereichs befindet, so ist dieses Objekt in der Aufnahme sichtbar. Ein Objekt, welches hell ist und/oder gute Reflexionseigenschaften aufweist, vergrößert den belichteten Bereich der Aufnahme und verkleinert den unbelichteten Bereich der Aufnahme. Ein Objekt, welches dunkel ist und/oder schlechte Redaktionseigenschaften aufweist, vergrößert den unbelichteten Bereich der Aufnahme und verkleinert den belichteten Bereich der Aufnahme. In beiden Fällen weist die bildseitige Grenze des sichtbaren Abstandsbereichs einen von einem horizontalen Verlauf abweichenden Verlauf auf. Vorteilhafterweise wird basierend auf dieser Abweichung das Objekt detektiert.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass ein bildseitiger Auswerte-Bereich bestimmt wird, welcher die mindestens eine bildseitige Grenze des sichtbaren Abstandsbereichs aufweist. Weiterhin wird ein Spaltenhistogramm über alle dem Auswerte-Bereich auf dem optischen Sensor zugeordneten Bildpunkte mittels Summation der Beleuchtungsintensitäten der zugeordneten Bildpunkte für jede Bildspalte des Auswerte-Bereichs erstellt. Basierend auf einer Abweichung des Spaltenhistogramms von einem waagerechten Verlauf wird ein Objekt detektiert.
  • Im Kontext vorliegenden technischen Lehre ist ein waagerechter Verlauf eines Spaltenhistogramms ein Verlauf, bei welchem alle Werte in einem vorbestimmten Intervall liegen. Dies bedeutet insbesondere, dass die Werte innerhalb einer vorbestimmten Toleranz konstant sind. Alternativ ist ein waagerechter Verlauf eines Spaltenhistogramms ein Verlauf, welcher mit einem vorbestimmten maximalen Fehler mittels einer horizontalen Linie interpoliert werden kann.
  • Falls sich ein Objekt auf der mindestens einen Grenze des sichtbaren Abstandsbereichs befindet, erzeugt dieses Objekt in dem Spaltenhistogramm eine deutliche Abweichung von einem waagerechten Verlauf.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass in der Aufnahme ein Abstand des detektierten Objekts von dem optischen Sensor bestimmt wird. Weiterhin wird in der Aufnahme eine bildseitige vertikale Ausdehnung des Objekts bestimmt, und basierend auf dem Abstand und der bildseitigen vertikalen Ausdehnung wird näherungsweise eine objektseitige Höhe des detektierten Objekts abgeschätzt. Vorteilhafterweise ist es möglich, eine maximal mögliche objektseitige Höhe eines detektierten Objekts abzuschätzen.
  • Ein Verfahren zur Bestimmung des Abstandes zwischen dem detektierten Objekt und dem optischen Sensor geht aus der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 hervor. Die bildseitige vertikale Ausdehnung des Objekts kann direkt in der Aufnahme bestimmt werden.
  • Im Kontext der vorliegenden technischen Lehre kann aus der bildseitigen vertikalen Ausdehnung des Objekts bevorzugt ein objektseitiger Abstand zwischen dem optischen Sensor und einer maximalen objektseitigen Ausdehnung des Schattenwurfs des Objekts bestimmt werden.
  • Im Kontext der vorliegenden technischen Lehre ist das detektiert Objekt objektseitig in einer x-y-Ebene angeordnet, und die Beleuchtungseinrichtung ist auf einer z-Achse in der Höhe zB über der x-y-Ebene angeordnet. Der Abstand xo zwischen der Beleuchtungseinrichtung und/oder dem optischen Sensor und dem detektierten Objekt wird in x-Richtung gemessen. Um die objektseitige Höhe, insbesondere die maximal mögliche objektseitige Höhe, des detektierten Objekts zo abzuschätzen, wird vorausgesetzt, dass das Objekt keine Ausdehnung in x-Richtung aufweist. Mittels des Strahlensatzes werden die Höhe der Beleuchtungseinrichtung zB, die Höhe des detektierten Objekts zO, der Abstand xO und die maximale Ausdehnung des Schattenwurfs des Objekts xS zueinander ins Verhältnis gesetzt. Mittels der Formel z O = z B ( x S x O ) x S
    Figure DE102020006880A1_0001
    wird dann die objektseitige Höhe zo abgeschätzt. Die Abschätzung mittels der Formel (1) liefert immer eine objektseitig Höhe zO, die kleiner ist als die Höhe der Beleuchtungseinrichtung zB.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass eine Serie von Aufnahmen erstellt wird, falls ein Objekt an der entfernten Grenze des sichtbaren Abstandsbereichs als einer ersten bildseitigen Grenze der wenigstens einen bildseitigen Grenze detektiert wird. Die nahe Grenze des sichtbaren Abstandsbereichs wird als eine zweite bildseitige Grenze der wenigstens einen bildseitigen Grenze bildseitig ausgewertet, wobei die bildseitige nahe Grenze des sichtbaren Abstandsbereichs mit einer vorbestimmten Norm-Darstellung der nahen Grenze des sichtbaren Abstandsbereichs verglichen wird. Basierend auf dem Vergleich wird das detektiert Objekt gesucht. Die Serie von Aufnahme wird beendet, wenn das detektiert Objekt an der nahen Grenze des sichtbaren Abstandsbereichs gefunden wird. Mithilfe dieser Weiterbildung ist es vorteilhaft möglich, ein Objekt sowohl an der entfernten Grenze des sichtbaren Abstandsbereichs als auch an der nahen Grenze des sichtbaren Abstandsbereichs zu detektieren.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass auf ein nicht überfahrbares Objekt geschlossen wird, falls ein Objekt in einer Aufnahme sowohl an der nahen Grenze des sichtbaren Abstandsbereichs als auch an der entfernten Grenze des sichtbaren Abstandsbereichs detektiert wird.
  • Im Kontext der vorliegenden technischen Lehre weist ein nicht überfahrbares Objekt eine objektseitig Höhe zO auf, welche größer ist als die Höhe der Beleuchtungseinrichtung zB oder der Höhe der Beleuchtungseinrichtung zB entspricht.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass für ein detektiertes Objekt eine Objektverfolgung durchgeführt wird.
  • In einer bevorzugten Ausführungsform des Verfahrens wird die Objektverfolgung mittels eines Kanade-Lucas-Tomasi-Verfahrens (KLT-Verfahrens) durchgeführt.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass der Vergleich der mindestens einen bildseitigen Grenze mit der Norm-Darstellung der mindestens einen Grenze mittels eines Deep-Learning-Verfahren und vorzugsweise mit einem neuronalen Netz durchgeführt wird.
  • Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer oder mehreren der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
  • Die Aufgabe wird auch gelöst, indem eine Detektionsvorrichtung geschaffen wird, die eine Beleuchtungseinrichtung, einen optischen Sensor und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem oder mehreren der zuvor beschriebenen Ausführungsbeispiele aufweist. Die Steuereinrichtung ist bevorzugt mit der Beleuchtungseinrichtung und dem optischen Sensor wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. In Zusammenhang mit der Detektionsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
  • Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Detektionsvorrichtung oder einer Detektionsvorrichtung nach einem oder mehreren der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Detektionsvorrichtung erläutert wurden.
  • In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder anderes Kraftfahrzeug ist.
  • Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Ausführungsbeispiels eines
    • Kraftfahrzeugs mit einem Ausführungsbeispiel einer Detektionsvorrichtung, 2 eine schematische Darstellung eines ersten und eines zweiten Beispiels einer Aufnahme mit einer Visualisierung einer entfernten Grenze und einer nahen Grenze eines ersten sichtbaren Abstandsbereichs,
    • 3 eine schematische Darstellung eines dritten Beispiels einer Aufnahme mit einer Visualisierung der entfernten Grenze und der nahen Grenze eines zweiten sichtbaren Abstandsbereichs,
    • 4 eine schematische Darstellung eines vierten Beispiels einer Aufnahme,
    • 5 eine schematische Darstellung eines fünften Beispiels einer Aufnahme und eines Beispiels eines zugehörigen Spaltenhistogramms, und
    • 6 eine schematische Darstellung eines Beispiels zur Abschätzung einer Höhe eines ersten Objekts und eines zweiten Objekts.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einem Ausführungsbeispiel einer Detektionsvorrichtung 3. Die Detektionsvorrichtung 3 weist eine Beleuchtungseinrichtung 5, einen optischen Sensor 7, insbesondere eine Kamera, und eine Steuereinrichtung 9 auf. Die Steuereinrichtung 9 ist in nicht explizit dargestellter Weise mit der Beleuchtungseinrichtung 5 und dem optischen Sensor 7 wirkverbunden und eingerichtet zu der jeweiligen Ansteuerung.
  • Die Beleuchtungseinrichtung 5 weist vorzugsweise mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf.
  • Dargestellt in 1 ist insbesondere ein Beleuchtungs-Frustum 11 der Beleuchtungseinrichtung 5 und ein Beobachtungsbereich 13 des optischen Sensors 7. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 15, der sich als Teilmenge des Beleuchtungs-Frustums 11 der Beleuchtungseinrichtung 5 und des Beobachtungsbereichs 13 des optischen Sensors 7 ergibt. An einer entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 ist ein Objekt 19 angeordnet.
  • Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung einer im Folgenden näher beschriebenen Ausführungsform eines Verfahrens zum Detektieren des Objekts 19 mittels der Beleuchtungseinrichtung 5 und des optischen Sensors 7.
  • Eine Ansteuerung der Beleuchtungseinrichtung 5 und des optischen Sensors 7 werden zeitlich aufeinander abgestimmt, und der abgestimmten Ansteuerung wird der sichtbare Abstandsbereich 15 zugeordnet. Mindestens eine bildseitigen Grenze 17', insbesondere die bildseitige entfernte Grenze 17.1' oder die bildseitige nahe Grenze 17.2', des sichtbaren Abstandsbereichs 15 wird mit einer vorbestimmten Norm-Darstellung der mindestens einen Grenze 17 des sichtbaren Abstandsbereichs 15 verglichen. Basierend auf dem Vergleich wird das Objekt 19 an der mindestens einen Grenze 17 gesucht.
  • Vorzugsweise wird eine Serie von Aufnahmen 21 erstellt, falls das Objekt 19 an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 detektiert wird. Weiterhin wird die nahe Grenze 17.2. sichtbaren Abstandsbereichs 15 bildseitig ausgewertet, wobei die bildseitige nahe Grenze 17.2' des sichtbaren Abstandsbereichs 15 mit einer vorbestimmten Norm-Darstellung der nahen Grenze 17.2 des sichtbaren Abstandsbereichs 15 verglichen wird. Basierend auf dem Vergleich wird das Objekt 19, welches zuvor an der entfernten Grenze 17.1 detektiert wurde, gesucht. Die Serie von Aufnahmen 21 wird beendet, wenn das Objekt 19 an der nahen Grenze 17.2 des sichtbaren Abstandsbereichs 15 ebenfalls detektiert wird.
  • Vorzugsweise wird für das detektiert Objekt 19 eine Objektverfolgung durchgeführt.
  • In den 2 und 3 ist eine erste Ausführungsform des Vergleichs zwischen der mindestens einen bildseitigen Grenze 17' des sichtbaren Abstandsbereichs 15 und der vorbestimmten Norm-Darstellung der mindestens einen Grenze 17 des sichtbaren Abstandsbereichs 15 dargestellt. In einer Aufnahme 21 des optischen Sensors 7 wird eine bildseitige Linie 23 als die bildseitige Grenze 17' des sichtbaren Abstandsbereichs 15 bestimmt. Die bildseitige Linie 23 verläuft zwischen einem belichteten Bereich 25 und einem unbelichteten Bereich 27. Das Objekt 19 wird basierend auf eine Abweichung der bildseitigen Linie 23 von einem horizontalen Verlauf der Norm-Darstellung detektiert.
  • In 2 a) ist eine schematische Darstellung eines ersten Beispiels der Aufnahme 21 dargestellt. Ein bildseitiges Objekt 19', welches hell ist und/oder gute Reflexionseigenschaften aufweist, ist an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 angeordnet. Eine bildseitige Linie 23.1 zeigte die bildseitige entfernte Grenze 17.1' des sichtbaren Abstandsbereichs 15. Eine bildseitige Linie 23.2 zeigt die bildseitige nahe Grenze 17.2' des sichtbaren Abstandsbereichs 15. Die vorbestimmten Norm-Darstellung von sowohl der entfernten Grenze 17.1 als auch der nahen Grenze 17.2 ist eine Linie mit einem horizontalen Verlauf. Aufgrund der hellen Farbe und/oder der guten Reflexionseigenschaften des Objekts 19 weist die bildseitige Linie 23.1 im Bereich des bildseitigen Objekts 19' eine Ausbuchtung nach oben auf, wodurch der belichtete Bereich 25 vergrößert wird. Basierend auf einer Abweichung der bildseitigen Linie 23.1, insbesondere der Ausbuchtung, wird das Objekt 19 an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 detektiert.
  • In 2 b) ist eine schematische Darstellung eines zweiten Beispiels der Aufnahme 21 dargestellt. Ein bildseitiges Objekt 19', welches dunkel ist und/oder schlechte Reflexionseigenschaften aufweist, ist an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 angeordnet. Aufgrund der dunklen Farbe und/oder der schlechten Reflexionseigenschaften des Objekts 19 weist die bildseitige Linie 23.1 im Bereich des bildseitigen Objekts 19' eine Ausbuchtung nach unten auf, wodurch der unbelichtete Bereich 27.1 vergrößert wird. Basierend auf der Abweichung der bildseitigen Linie 23.1, insbesondere der Ausbuchtung, wird das Objekt 19 an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 detektiert.
  • In 3) ist eine schematische Darstellung eines dritten Beispiels der Aufnahme 21 dargestellt. Ein bildseitiges Objekt 19', welches dunkel ist und/oder schlechte Reflexionseigenschaften aufweist, ist an der nahen Grenze 17.2 des sichtbaren Abstandsbereichs 15 angeordnet. Aufgrund der dunklen Farbe und/oder der schlechten Reflexionseigenschaften und eines Schattenwurfs des Objekts 19 weist die bildseitige Linie 23.2 im Bereich des bildseitigen Objekts 19' eine Ausbuchtung nach oben auf, wodurch der unbelichtete Bereich 27.2 vergrößert wird. Basierend auf einer Abweichung der bildseitigen Linie 23.2, insbesondere der Ausbuchtung, wird das Objekt 19 an der nahen Grenze 17.2 des sichtbaren Abstandsbereichs 15 detektiert.
  • 4 zeigt eine schematische Darstellung eines vierten Beispiels der Aufnahme 21. In der Aufnahme 21 sind die unbelichteten Bereiche 27.1 und 27.2 durch das bildseitige Objekt 19', welches dunkel ist und/oder schlechte Reflexionseigenschaften aufweist, optisch verbunden. In diesem Fall wird in einer einzigen Aufnahme 21 das Objekt 19 sowohl an der entfernten Grenze 17.2 des sichtbaren Abstandsbereichs 15, als auch an der nahen Grenze 17.2 des sichtbaren Abstandsbereichs 15 zeitgleich detektiert und es wird auf ein Objekt 19 geschlossen, welches nicht überfahrbar ist.
  • 5 zeigt eine schematische Darstellung eines fünften Beispiels der Aufnahme 21 und eines Beispiels eines zugehörigen Spaltenhistogramms 29.
  • In 5 a) ist ein Ausschnitt der Aufnahme 21 mit der bildseitigen entfernten Grenze 17.1' des sichtbaren Abstandsbereichs 15 dargestellt. Weiterhin ist das Objekt 19 an der entfernten Grenze 17.1 des sichtbaren Abstandsbereichs 15 angeordnet und in der Aufnahme 21 als bildseitiges Objekt 19' dargestellt. Zum Detektieren des Objekts 19 wird ein bildseitiger Auswerte-Bereich 31 bestimmt. Der bildseitige Auswerte-Bereich 31 wird derart bestimmt, dass die bildseitige entfernte Grenze 17' in dem Auswerte-Bereich 31 enthalten ist. Das Spaltenhistogramm 29, dargestellt in 5 b), über alle dem Auswerte-Bereich 31 auf dem optischen Sensor 7 zugeordneten Bildpunkte wird mittels Summation der Beleuchtungsintensitäten der zugeordneten Bildpunkte für jede Bildspalte des Auswerte-Bereichs 31 erstellt. Basierend auf einer Abweichung des Spaltenhistogramms 29 von einem waagerechten Verlauf wird das Objekt 19 detektiert.
  • Das Objekt 19 ist hell und/oder weist gute Reflexionseigenschaften auf, daher ist in dem Spaltenhistogramm 29 eine deutliche Abweichung von einem waagerechten Verlauf nach oben sichtbar. Auf Grundlage dieser Abweichung des Spaltenhistogramm 29 von einem waagerechten Verlauf wird das Objekt 19 detektiert.
  • 6 eine schematische Darstellung eines Beispiels zur Abschätzung einer Höhe eines ersten Objekts 19.1 und eines zweiten Objekts 19.2. Sowohl das erste Objekt 19.1, als auch das zweite Objekt 19.2 weisen einen identischen Abstand xO zu der Beleuchtungseinrichtung 5 auf. Mittels eines Lichtstrahls 35 dargestellt, weisen sowohl das erste Objekt 19.1, als auch das zweite Objekt 19.2 eine identische Ausdehnung xS des Schattenwurfs 37 auf. Mittels eines geeigneten Verfahrens werden sowohl der Abstand xo, als auch die bildseitige vertikale Ausdehnung bestimmt. Aus der vertikalen Ausdehnung berechnet sich die Ausdehnung xS des Schattenwurfs 37. Basierend auf dem Abstand xo und der bildseitigen vertikalen Ausdehnung, insbesondere der Ausdehnung xs des Schattenwurfs 37, wird näherungsweise, insbesondere mittels der Formel (1), eine Höhe zO von beiden Objekten 19 abgeschätzt, wobei die abgeschätzte Höhe zo für beide Objekte identisch ist. Die abgeschätzte Höhe zo ist geringfügig größer als die tatsächliche Höhe zO2 des zweiten Objekt 19.2. Jedoch ist die abgeschätzte Höhe zo sehr viel größer als die tatsächliche Höhe zO1 des ersten Objekts 19.1. Somit ist aus 6 deutlich erkennbar, dass die Höhe eines Objekts 19 bei Verwendung der Formel (1) nie unterschätzt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2017/009848 A1 [0002]
    • DE 102020002994 A1 [0026]

Claims (10)

  1. Verfahren zum Detektieren eines Objekts (19) mittels einer Beleuchtungseinrichtung (5) und eines optischen Sensors (7), wobei - eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei - der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich (15) zugeordnet wird, wobei - mindestens eine bildseitige Grenze (17') des sichtbaren Abstandsbereichs (15) mit einer vorbestimmten Norm-Darstellung der mindestens einen Grenze (17) des sichtbaren Abstandsbereichs (15) verglichen wird, wobei - ein Objekt (19) an der mindestens einen Grenze (17) basierend auf dem Vergleich gesucht wird.
  2. Verfahren nach Anspruch 1, wobei als die mindestens eine bildseitige Grenze (17') des sichtbaren Abstandsbereichs (15) eine bildseitige Linie (23), die zwischen einem belichteten Bereich (25) und einem unbelichteten Bereich (27) in der Aufnahme (21) verläuft, bestimmt wird, wobei ein Objekt (19) basierend auf einer Abweichung der bildseitigen Linie (23) von einem horizontalen Verlauf der Norm-Darstellung detektiert wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei - ein bildseitiger Auswerte-Bereich (31) der Aufnahme (21) bestimmt wird, welcher die mindestens eine bildseitige Grenze (17') des sichtbaren Abstandsbereichs (15) aufweist, wobei - ein Spaltenhistogramm (29) über alle dem Auswerte-Bereiche (31) auf dem optischen Sensor (7) zugeordneten Bildpunkte mittels Summation der Beleuchtungsintensitäten der zugeordneten Bildpunkte für jede Bildspalte des Auswerte-Bereichs (31) erstellt wird, wobei - ein Objekt (19) basierend auf einer Abweichung des Spaltenhistogramms (29) von einem waagerechten Verlauf detektiert wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei - in der Aufnahme (21) ein Abstand eines detektierten Objekts (19) von dem optischen Sensor (7) bestimmt wird, wobei - in der Aufnahme (21) eine bildseitige vertikale Ausdehnung des detektierten Objekts (19) bestimmt wird, wobei - basierend auf dem Abstand und der bildseitigen vertikalen Ausdehnung näherungsweise eine objektseitige Höhe des detektierten Objekts (19) abgeschätzt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei - eine Serie von Aufnahmen (21) erstellt wird, falls ein Objekt (19) an einer entfernten Grenze (17.1) des sichtbaren Abstandsbereichs (15) als einer ersten bildseitigen Grenze (17.1') der wenigstens einen bildseitigen Grenze (17') detektiert wird, wobei - eine nahe Grenze (17.2) des sichtbaren Abstandsbereichs (15) als eine zweite bildseitige Grenze (17.2') der wenigstens einen bildseitigen Grenze (17') bildseitig ausgewertet wird, wobei - die bildseitige nahe Grenze (17.2') des sichtbaren Abstandsbereichs (15) mit einer vorbestimmten Norm-Darstellung der nahen Grenze (17.2) des sichtbaren Abstandsbereichs (15) verglichen wird, wobei - das detektierte Objekt (19) basierend auf dem Vergleich an der nahen Grenze (17.2) des sichtbaren Abstandsbereichs (15) gesucht wird, wobei - die Serie von Aufnahmen (21) beendet wird, wenn das detektierte Objekt (19) an der nahen Grenze (17.2) des sichtbaren Abstandsbereichs (15) detektiert wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei, falls ein Objekt (19) in einer Aufnahme (21) sowohl an der nahen Grenze (17.2) des sichtbaren Abstandsbereichs (15), als auch an der entfernten Grenze (17.1) des sichtbaren Abstandsbereichs (15) detektiert wird, auf ein nicht überfahrbares Objekt (19) geschlossen wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei für ein detektiertes Objekt (19) eine Objektverfolgung durchgeführt wird.
  8. Steuereinrichtung (9), eingerichtet zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
  9. Detektionsvorrichtung (3) mit einer Beleuchtungseinrichtung (5), einem optischen Sensor (7) und einer Steuereinrichtung (9) nach Anspruch 8.
  10. Kraftfahrzeug (1) mit einer Detektionsvorrichtung (3) nach Anspruch 9.
DE102020006880.4A 2020-11-09 2020-11-09 Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung Pending DE102020006880A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102020006880.4A DE102020006880A1 (de) 2020-11-09 2020-11-09 Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung
US18/251,804 US20240012144A1 (en) 2020-11-09 2021-10-07 Method for Detecting an Object by Means of a Lighting Device and an Optical Sensor, Control Device for Carrying Out Such a Method, Detection Device With Such a Control Device and Motor Vehicle With Such a Detection Device
EP21789679.4A EP4241114A1 (de) 2020-11-09 2021-10-07 Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
CN202180075341.3A CN116529633A (zh) 2020-11-09 2021-10-07 用于借助照明装置和光学传感器探测物体的方法、用于执行这种方法的控制装置、具有这种控制装置的探测装置和具有这种探测装置的机动车
PCT/EP2021/077661 WO2022096215A1 (de) 2020-11-09 2021-10-07 Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020006880.4A DE102020006880A1 (de) 2020-11-09 2020-11-09 Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung

Publications (1)

Publication Number Publication Date
DE102020006880A1 true DE102020006880A1 (de) 2021-01-14

Family

ID=74091972

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020006880.4A Pending DE102020006880A1 (de) 2020-11-09 2020-11-09 Verfahren zum Detektieren eines Objekts mittels einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrlchtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung

Country Status (5)

Country Link
US (1) US20240012144A1 (de)
EP (1) EP4241114A1 (de)
CN (1) CN116529633A (de)
DE (1) DE102020006880A1 (de)
WO (1) WO2022096215A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022184738A1 (de) * 2021-03-05 2022-09-09 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
WO2022258527A1 (de) * 2021-06-07 2022-12-15 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6189116B2 (ja) * 2013-07-09 2017-08-30 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法およびプログラム
IL239919A (en) * 2015-07-14 2016-11-30 Brightway Vision Ltd Branded template lighting
DE102020002994B4 (de) 2020-05-19 2023-03-30 Daimler Truck AG Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022184738A1 (de) * 2021-03-05 2022-09-09 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
WO2022258527A1 (de) * 2021-06-07 2022-12-15 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung

Also Published As

Publication number Publication date
WO2022096215A1 (de) 2022-05-12
US20240012144A1 (en) 2024-01-11
EP4241114A1 (de) 2023-09-13
CN116529633A (zh) 2023-08-01

Similar Documents

Publication Publication Date Title
DE4110132C2 (de) Abstandsteuergerät für ein Fahrzeug
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
EP1067399B1 (de) Verfahren zur Sichtweitenbestimmung
DE102009015142B4 (de) Fahrzeugumgebungs-Erkennungs-Vorrichtung und Steuerungssystem zum Verfolgen eines vorausfahrenden Fahrzeugs
DE4107177C2 (de) Fahrzeug/Fahrzeug-Entfernungsmeßvorrichtung
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
DE102004018813A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102005013555A1 (de) Radarvorrichtung
DE102008015499A1 (de) Verfahren und Vorrichtung zur Bestimmung der 3D-Koordinaten eines Objekts
WO2022096215A1 (de) Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
DE112019000014T5 (de) Infrarotbasiertes System und Verfahren zur Straßenoberflächenüberwachung sowie Kraftfahrzeug
DE102020007061B4 (de) Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
WO2022167343A1 (de) Verfahren zum kalibrieren einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kalibrierungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kalibrierungsvorrichtung
DE102020005762B4 (de) Verfahren zum Kalibrieren einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung sowie Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021003728B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
WO2022263435A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung
EP4127767B1 (de) Objekterkennung durch ein aktives optisches sensorsystem
DE102021001175A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
DE102021000447A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung
DE102022001031A1 (de) Vorrichtung und Verfahren zur Mitigation von Streulichteffekten in einem Lidar

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE