DE102020004690A1 - Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung - Google Patents

Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung Download PDF

Info

Publication number
DE102020004690A1
DE102020004690A1 DE102020004690.8A DE102020004690A DE102020004690A1 DE 102020004690 A1 DE102020004690 A1 DE 102020004690A1 DE 102020004690 A DE102020004690 A DE 102020004690A DE 102020004690 A1 DE102020004690 A1 DE 102020004690A1
Authority
DE
Germany
Prior art keywords
lighting device
optical sensor
recording
visible distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102020004690.8A
Other languages
English (en)
Inventor
Fridtjof Stein
Mario Bijelic
Werner Ritter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102020004690.8A priority Critical patent/DE102020004690A1/de
Publication of DE102020004690A1 publication Critical patent/DE102020004690A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erkennung von Objekten (21) mittels einer ersten Beleuchtungseinrichtung (5), einer zweiten Beleuchtungseinrichtung (7) und einem optischen Sensor (9), wobei- die erste Beleuchtungseinrichtung (5) und die zweite Beleuchtungseinrichtung (7) räumlich beabstandet sind, wobei- Ansteuerungen der ersten Beleuchtungseinrichtung (5), der zweiten Beleuchtungseinrichtung (7) und des optischen Sensors (9) zeitlich aufeinander abgestimmt werden, wobei- einer ersten abgestimmten Ansteuerung ein erster sichtbarer Abstandsbereich (19.1) zugeordnet wird, wobei- einer zweiten abgestimmten Ansteuerung ein zweiter sichtbarer Abstandsbereich (19.2) zugeordnet wird, wobei- sich der erste sichtbare Abstandsbereichs (19.1) und der zweite sichtbare Abstandsbereichs (19.2) überschneiden, wobei- eine erste Aufnahme (23) des ersten sichtbaren Abstandsbereichs (19.1) bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung (5) mit dem optischen Sensor (9) mittels der ersten abgestimmten Ansteuerung aufgenommen wird, wobei- eine zweite Aufnahme (25) des zweiten sichtbaren Abstandsbereichs (19.2) bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung (7) mit dem optischen Sensor (9) mittels der zweiten abgestimmten Ansteuerung aufgenommen wird, wobei- in einer Differenz-Aufnahme (29) Bildinformationen (31) gesucht werden, wobei- mittels in der Differenz-Aufnahme (29) gefundener Bildinformationen (31) wenigstens ein Objekt (21) detektiert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung von Objekten, eine Steuereinrichtung, die eingerichtet ist zur Durchführung eines solchen Verfahrens, eine Erkennungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Erkennungsvorrichtung.
  • Verfahren zur Erkennung von Objekten mittels einer Beleuchtungseinrichtung und einem optischen Sensor sind bekannt. Aus der internationalen Patentanmeldung mit der Veröffentlichungsnummer WO 2017/009848 A1 geht ein solches Verfahren hervor, bei dem eine Beleuchtungseinrichtung und ein optischer Sensor zeitlich aufeinander abgestimmt angesteuert werden, um einen bestimmten sichtbaren Abstandsbereich aufzunehmen und Objekte in dieser Aufnahme zu erkennen.
  • Problematisch dabei ist, dass die Objekterkennung anhand einer zweidimensionalen Aufnahme durchgeführt wird. Mittels einer einzigen Aufnahme ist es allerdings nicht möglich, auf die Ausmaße des Objekts zu schließen. Für eine dreidimensionale Beobachtung und Beurteilung eines Objekts sind mindestens zwei Aufnahmen, bei Verwendung einer monokularen Kamera, notwendig. Bei einem fahrenden Fahrzeug ist es im Normalfall allerdings aufgrund der Fahrzeug-Eigenbewegung, dem Nicken, dem Rollen und Gieren nahezu unmöglich eine Bildregistrierung für zwei nacheinander aufgenommenen Aufnahmen durchzuführen. Eine registrierte, aus zwei Aufnahmen kombinierte Aufnahme würde sowohl beleuchtungsrelevante Unterschiede als auch davon nicht trennbare bewegungsrelevante Unterschiede aufweisen. Eine zuverlässige Objekterkennung ist damit nicht möglich.
  • Darüber hinaus ist eine Objekterkennung von Objekten, die einen geringen Kontrast zu dem Hintergrund und/oder zu der Umgebung aufweisen, nur sehr schwer möglich.
  • Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Erkennung von Objekten, eine Steuereinrichtung, die eingerichtet ist zur Durchführung eines solchen Verfahrens, eine Erkennungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Erkennungsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
  • Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
  • Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zur Erkennung von Objekten mittels einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und einem optischen Sensor geschaffen wird, wobei die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung räumlich voneinander beabstandet sind. Dabei werden Ansteuerungen der ersten Beleuchtungseinrichtung, der zweiten Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt. Einer ersten abgestimmten Ansteuerung der ersten Beleuchtungseinrichtung und des optischen Sensors wird ein erster sichtbarer Abstandsbereich zugeordnet, und einer zweiten Ansteuerung der zweiten Beleuchtungseinrichtung und des optischen Sensors wird ein zweiter sichtbarer Abstandsbereich zugeordnet, wobei sich der erste sichtbare Abstandsbereich und der zweite sichtbare Abstandsbereich zumindest teilweise überschneiden. Mittels der ersten abgestimmten Ansteuerung wird eine erste Aufnahme des ersten sichtbaren Abstandsbereichs bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung mit dem optischen Sensor aufgenommen. Des Weiteren wird mittels der zweiten abgestimmten Ansteuerung eine zweite Aufnahme des zweiten sichtbaren Abstandsbereichs bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung mit dem optischen Sensor aufgenommen. In einer als Differenzbild der ersten Aufnahme und der zweiten Aufnahme erzeugten Differenz-Aufnahme werden Bildinformationen gesucht und mittels in der Differenz-Aufnahme gefundener Bildinformationen wird wenigstens ein Objekt detektiert.
  • Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, Szenen mit zwei unterschiedlichen Beleuchtungseinrichtungen auszuleuchten und unterschiedlich beleuchtete Aufnahmen zu erstellen. Die unterschiedlichen Beleuchtungen und die Auswertung der Aufnahmen ermöglicht es vorteilhaft, dreidimensionale Objekte bei Verwendung eines monokularen optischen Sensors zu detektieren.
  • Das Verfahren kann besonders vorteilhaft in automatisiert fahrenden Fahrzeugen, insbesondere automatisch fahrenden Lastkraftwagen, angewendet werden. Insbesondere bei einer Nachfahrt ohne Vorausfahrer mit hoher Reichweitenanforderung können vorteilhaft mithilfe des Verfahrens auf der eigenen Fahrspur des Fahrzeugs angeordnete, nicht überfahrbare Objekte detektiert werden. Das Verfahren ermöglicht eine rechtzeitige und angemessene Reaktion auf die Detektion solcher Objekte. Eine solche angemessene Reaktion kann beispielsweise eine Notbremsung oder das Befahren einer - gegebenenfalls ad hoc bestimmten - Ausweichtrajektorie sein.
  • Solche nicht überfahrbaren Objekte werden typischerweise auch als „lost cargo“ bezeichnet. Es kann sich bei solchen Objekten aber auch um auf der Straße liegende, insbesondere verunfallte, Personen oder Tiere handeln.
  • Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung von einer Beleuchtungseinrichtung und einem optischem Sensor ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
  • Insbesondere werden durch die Beleuchtungseinrichtungen eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtungen und andererseits des optischen Sensors mit entsprechend definierter örtliche Lage, das heißt insbesondere bestimmtem Abstand des Beginns des Abstandsbereichs von dem optischen Sensor und bestimmter Abstandsbereichs-Breite, durch den optischen Sensor erfasst werden.
  • Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtungen in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
  • Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum, das heißt auf Seiten des zu beobachtenden Objekts, angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbare Abstandsbereich ist dabei objektseitig gegeben. Diesem entspricht durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitige Bereich auf der Bildebene.
  • Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtungen treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtungen und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtungen und von dem optischen Sensor entfernt ist.
  • Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtungen einerseits und des optischen Sensors andererseits die Lage und räumliche Breite des sichtbaren Abstandsbereichs zu definieren.
  • In einer alternativen Ausgestaltung des Verfahrens kann der sichtbare Abstandsbereich vorgegeben sein, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtungen einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
  • In einer weiteren Ausführungsform des Verfahrens beleuchten die erste Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung die objektseitige Szenerie abwechselnd, das heißt die Beleuchtungseinrichtungen senden nie gleichzeitig Lichtimpulse aus. In einem ersten Zeitintervall sendet die erste Beleuchtungseinrichtung Lichtimpulse aus, in einem zweiten Zeitintervall wird mit dem optischen Sensor eine erste Aufnahme erstellt, in einem dritten Zeitintervall sendet die zweite Beleuchtungseinrichtung Lichtimpulse aus und in einem vierten Zeitintervall wird mit dem optischen Sensor eine zweite Aufnahme erstellt. Die Zeitintervalle sind so gewählt, dass sich das erste Zeitintervall und das dritte Zeitintervall nicht überschneiden. Alternativ oder zusätzlich sind die erste Abstimmung und die zweite Abstimmung derart gewählt, dass der erste sichtbare Abstandsbereich und der zweite sichtbare Abstandsbereich nahezu identisch, vorzugsweise identisch, sind. Alternativ oder zusätzlich sind die ersten Beleuchtungseinrichtung und die zweite Beleuchtungseinrichtung derart an der Fahrzeugfront angebracht, dass der Abstand zwischen den Beleuchtungseinrichtungen maximal ist. Alternativ oder zusätzlich ist die erste Beleuchtungseinrichtung oder die zweite Beleuchtungseinrichtung in unmittelbarer Nähe zu dem optischen Sensor angeordnet. Vorzugsweise werden die erste Aufnahme und die zweite Aufnahme mit einem zeitlich möglichst geringen Abstand erstellt.
  • Die Beleuchtungseinrichtungen sind in bevorzugter Ausgestaltung jeweils ein Laser. Der optische Sensor ist in bevorzugter Ausgestaltung eine Kamera.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass ein erster Schattenwurf in der ersten Aufnahmen und ein zweiter Schattenwurf in der zweiten Aufnahme beurteilt werden, wobei basierend auf der Beurteilung des ersten Schattenwurfs und des zweiten Schattenwurfs auf das Objekt geschlossen wird.
  • Vorteilhafterweise entsteht durch die Beleuchtung der objektseitigen Szenerie mittels der ersten Beleuchtungseinrichtung ein erster objektseitiger Schattenwurf des Objekts und mittels der zweiten Beleuchtungseinrichtung ein zweiter objektseitiger Schattenwurf des Objekts. Die bildseitigen abgebildeten Schattenwürfe werden dann beurteilt. In der Differenz-Aufnahme sind dann lediglich die Teile der ersten Aufnahme und der zweiten Aufnahme zu sehen, welche nur von dem ersten, insbesondere bildseitigen, Schattenwurf oder dem zweiten, insbesondere bildseitigen, Schattenwurf überdeckt werden.
  • In einer bevorzugten Ausführungsform des Verfahrens sind die Beleuchtungseinrichtungen an der Fahrzeugfront derart angebracht, dass der Abstand zwischen der ersten Beleuchtungseinrichtung und der zweiten Beleuchtungseinrichtung maximal ist. Damit sind dementsprechend auch die Unterschiede zwischen dem ersten Schattenwurf und dem zweiten Schattenwurf stark ausgeprägt und eine Beurteilung der Schattenwürfe in der Differenz-Aufnahme ist in einfacher und robuster Weise, insbesondere auch bei kleinen Objekten, möglich.
  • Vorteilhafterweise ist die Beurteilung der Szenerie mittels des ersten Schattenwurfs und des zweiten Schattenwurfs unabhängig von den vorhandenen Kontrastverhältnissen. Somit ist insbesondere auch eine robuste und zuverlässige Erkennung von Objekten bei Regen und/oder Nebel und/oder Dunkelheit möglich.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die erste Aufnahme und die zweite Aufnahme in einem zeitlichen Abstand von weniger als 0,1 Sekunden aufgenommen werden. Ein zeitlicher Abstand von 0,1 Sekunden zwischen der ersten Aufnahme und der zweiten Aufnahme bedeutet, dass zehn Bilder pro Sekunde aufgenommen werden können. Vorzugsweise wird die zeitliche Ansteuerung so abgestimmt, dass der optische Sensor 20 Bilder, vorzugsweise 50 Bilder, vorzugsweise 120 Bilder oder mehr, pro Sekunde aufnimmt.
  • Vorzugsweise wird das Verfahren kontinuierlich mit einer Aufnahmerate von 120 Bildern pro Sekunde durchgeführt. Damit ist eine kontinuierliche und zuverlässigen Erkennung von Objekten möglich. Dadurch ist es vorteilhaft möglich die bewegungsrelevanten Unterschiede zwischen der ersten Aufnahme der zweiten Aufnahme zu minimieren. Eventuelle, noch vorhandene, kleine Artefakte lassen sich mit einer korrelationsbasierten Registrierung, insbesondere durch Aufeinanderlegen der Aufnahmen, kompensieren.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass ein Abstand zwischen dem detektierten Objekt und dem optischen Sensor bestimmt wird. Die Abstandsbestimmung zwischen dem detektierten Objekt und dem optischen Sensor wird mittels eines geeigneten Verfahrens durchgeführt. Ein solches geeignetes Verfahren ist aus der deutschen Offenlegungsschrift mit der Veröffentlichungsnummer DE 10 2020 002 994 A1 bekannt.
  • Vorteilhafterweise kann mit der Detektion des Objekts und der Abstandsbestimmung des detektierten Objekts die rechtzeitige und angemessene Reaktion auf solche Objekte optimiert werden.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Suche von Bildinformationen mittels Mustererkennung durchgeführt wird. Damit ist eine robuste Detektion und Interpretation von den Bildinformationen gewährleistet.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die gefundenen Bildinformationen mittels Deep Learning klassifiziert werden.
  • Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Fahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
  • Die Aufgabe wird auch gelöst, indem eine Erkennungsvorrichtung geschaffen wird, die eine erste Beleuchtungseinrichtung, ein zweiter Beleuchtungseinrichtung, einen optischen Sensor, und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele aufweist. In Zusammenhang mit der Erkennungsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
  • Die Steuereinrichtung ist bevorzugt mit der ersten Beleuchtungseinrichtung, mit der zweiten Beleuchtungseinrichtung und mit dem optischen Sensor wirkverbunden und eingerichtet zu deren Ansteuerung.
  • Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Erkennungsvorrichtung oder einer Erkennungsvorrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Erkennungsvorrichtung erläutert wurden.
  • In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ist.
  • Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Dabei zeigen:
    • 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem Ausführungsbeispiel einer Erkennungsvorrichtung, und
    • 2 eine schematische Darstellung einer ersten Aufnahme, einer zweiten Aufnahme und einer Differenz-Aufnahme die im Rahmen einer Ausführungsform des Verfahrens mit einem optischen Sensor aufgenommen sind.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1, mit einem Ausführungsbeispiel einer Erkennungsvorrichtung 3. Die Erkennungsvorrichtung 3 weist eine erste Beleuchtungseinrichtung 5, eine zweite Beleuchtungseinrichtung 7 und einen optischen Sensor 9 auf. Außerdem weist die Erkennungsvorrichtung 3 eine Steuereinrichtung 11 auf, die hier nur schematisch dargestellt und in nicht expliziter Weise mit der ersten Beleuchtungseinrichtung 5, der zweiten Beleuchtungseinrichtung 7 und dem optischen Sensor 9 zu deren jeweiliger Ansteuerung wirkverbunden ist. In 1 ist insbesondere ein erstes Beleuchtungs-Frustum 13, ein zweites Beleuchtungs-Frustum 15 und ein Beobachtungsbereich 17 des optischen Sensors 9 dargestellt. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 19, welcher sowohl ein erster sichtbarer Abstandsbereich 19.1 als auch ein zweiter sichtbarer Abstandsbereich 19.2 ist. In dem sichtbaren Abstandsbereich 19 ist ein Objekt 21 angeordnet.
  • Die Steuereinrichtung 11 ist insbesondere eingerichtet zur Durchführung einer im Folgenden näher beschriebenen Ausführungsform eines Verfahrens zur Erkennung von einem Objekt.
  • Dabei werden die erste Beleuchtungseinrichtung 5, die zweite Beleuchtungseinrichtung 7 und der optische Sensor 9 zeitlich aufeinander abgestimmt angesteuert, wobei eine örtliche Lage des ersten sichtbaren Abstandsbereichs 19.1 und des zweiten sichtbaren Abstandsbereichs 19.2 aus der zeitlichen Abstimmung der Ansteuerung der ersten Beleuchtungseinrichtung 5, der zweiten Beleuchtungseinrichtung 7 und des optischen Sensors 9 gegeben ist. Der erste sichtbare Abstandsbereich 19.1 und der zweite sichtbare Abstandsbereich 19.2 sind so ausgewählt, dass die Bereiche sich zumindest teilweise überschneiden. Mittels einer ersten abgestimmten Ansteuerung der ersten Beleuchtungseinrichtung 5 und des optischen Sensors 9 wird eine erste Aufnahme 23 des ersten Abstandsbereichs 19.1 aufgenommen. Mittels einer zweiten abgestimmten Ansteuerung der zweiten Beleuchtungseinrichtung 7 und des optischen Sensors 9 wird eine zweite Aufnahme 25 des zweiten Abstandsbereichs 19.2 aufgenommen. In einer Differenz-Aufnahme 29 werden dann Bildinformationen 31 gesucht und anhand von gefundenen Bildinformationen 31 wird das Objekt 21 detektiert.
  • 2 zeigt eine schematische Darstellung einer ersten Aufnahme 23, einer zweiten Aufnahme 25 und einer Differenz-Aufnahme 29 in einer Bildebene des optischen Sensors 9. Vorzugsweise werden die erste Aufnahme 23 und die zweite Aufnahme 25 in einem zeitlichen Abstand von 0,1 Sekunden, vorzugsweise in einem zeitlichen Abstand von weniger als 0,01 Sekunden, aufgenommen.
  • In 2 ist mit 21' das Bild des Objekts 21 in der ersten Aufnahme 23 und der zweiten Aufnahme 25 bezeichnet.
  • In der ersten Aufnahme 23 sind das Bild 21' des Objekts 21 und ein erster bildseitiger Schattenwurf 27 zu sehen. Der erste bildseitige Schattenwurf 27 entsteht aufgrund der vertikal tiefen Ausrichtung der ersten Beleuchtungseinrichtung 5 und dem großen Abstand zwischen der ersten Beleuchtungseinrichtung 5 und dem optischen Sensor 9.
  • In der zweiten Aufnahme 25 ist ebenfalls das Bild 21' des Objekts 21 zu sehen. Ein zweiter bildseitiger Schattenwurf ist in der zweiten Aufnahme 25 aufgrund des minimalen Abstandes zwischen der zweiten Beleuchtungseinrichtung 7 und dem optischen Sensor 9 nicht vorhanden.
  • Die Differenz-Aufnahme 29 enthält alle Bildbereich, in welchen sich die erste Aufnahme 23 und die zweite Aufnahme 25 unterscheiden. Diese Bildbereiche enthalten dann die zu untersuchenden Bildinformationen 31. Aufgrund der räumlichen Anordnung der ersten Beleuchtungseinrichtung 5, der zweiten Beleuchtungseinrichtung 7 und des optischen Sensors 9 und des zeitlich kurzen Abstandes der Aufnahmen entspricht die Bildinformationen 31 dem ersten Schattenwurf 27. Mittels der in der Differenz-Aufnahme 29 gefundenen Bildinformationen 31 wird dann auf das Objekt 21 geschlossen. Vorzugsweise wird anschließend das detektierte Objekt 21 mittels Deep Learning klassifiziert.
  • Die Suche nach den Bildinformationen 31 wird vorzugsweise mit Hilfe eines Mustererkennungs-Algorithmus durchgeführt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2017/009848 A1 [0002]
    • DE 102020002994 A1 [0026]

Claims (9)

  1. Verfahren zur Erkennung von Objekten (21) mittels einer ersten Beleuchtungseinrichtung (5), einer zweiten Beleuchtungseinrichtung (7) und einem optischen Sensor (9), wobei - die erste Beleuchtungseinrichtung (5) und die zweite Beleuchtungseinrichtung (7) räumlich voneinander beabstandet sind, wobei - Ansteuerungen der ersten Beleuchtungseinrichtung (5), der zweiten Beleuchtungseinrichtung (7) und des optischen Sensors (9) zeitlich aufeinander abgestimmt werden, wobei - einer ersten abgestimmten Ansteuerung der ersten Beleuchtungseinrichtung (5) und des optischen Sensors (9) ein erster sichtbarer Abstandsbereich (19.1) zugeordnet wird, wobei - einer zweiten abgestimmten Ansteuerung der zweiten Beleuchtungseinrichtung (7) und des optischen Sensors (9) ein zweiter sichtbarer Abstandsbereich (19.2) zugeordnet wird, wobei - sich der erste sichtbare Abstandsbereichs (19.1) und der zweite sichtbare Abstandsbereichs (19.2) zumindest teilweise überschneiden, wobei - eine erste Aufnahme (23) des ersten sichtbaren Abstandsbereichs (19.1) bei einer Beleuchtung mittels der ersten Beleuchtungseinrichtung (5) mit dem optischen Sensor (9) mittels der ersten abgestimmten Ansteuerung aufgenommen wird, wobei - eine zweite Aufnahme (25) des zweiten sichtbaren Abstandsbereichs (19.2) bei einer Beleuchtung mittels der zweiten Beleuchtungseinrichtung (7) mit dem optischen Sensor (9) mittels der zweiten abgestimmten Ansteuerung aufgenommen wird, wobei - in einer als Differenzbild der ersten Aufnahme (23) und der zweiten Aufnahme (25) erzeugten Differenz-Aufnahme (29) Bildinformationen (31) gesucht werden, wobei - mittels in der Differenz-Aufnahme (29) gefundener Bildinformationen (31) wenigstens ein Objekt (21) detektiert wird.
  2. Verfahren nach Anspruch 1, wobei ein erster Schattenwurf (27) in der ersten Aufnahme (23) und ein zweiter Schattenwurf in der zweiten Aufnahme (25) beurteilt werden, wobei basierend auf der Beurteilung des ersten Schattenwurfs (27) und des zweiten Schattenwurfs auf das Objekt (21) geschlossen wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die erste Aufnahme (23) und die zweite Aufnahme (25) in einem zeitlichen Abstand von weniger als 0,1 Sekunden aufgenommen werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Abstand zwischen dem detektierten Objekt (21) und dem optischen Sensor (9) bestimmt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Suche von Bildinformationen (31) mittels Mustererkennung durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei gefundene Bildinformationen (31) mittels Deep Learning klassifiziert werden.
  7. Steuereinrichtung (11) eingerichtet zur Durchführung eines Verfahrens zur Erkennung von Objekten (21) nach einem der vorhergehenden Ansprüche.
  8. Erkennungsvorrichtung (3) mit einer ersten Beleuchtungseinrichtung (5), einer zweiten Beleuchtungseinrichtung (7), einem optischen Sensor (9), und einer Steuereinrichtung (11) nach Anspruch 7, wobei die erste Beleuchtungseinrichtung (5) und die zweite Beleuchtungseinrichtung (7) räumlich voneinander beabstandet sind.
  9. Kraftfahrzeug (1) mit einer Erkennungsvorrichtung (3) nach Anspruch 8.
DE102020004690.8A 2020-08-03 2020-08-03 Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung Withdrawn DE102020004690A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020004690.8A DE102020004690A1 (de) 2020-08-03 2020-08-03 Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020004690.8A DE102020004690A1 (de) 2020-08-03 2020-08-03 Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Publications (1)

Publication Number Publication Date
DE102020004690A1 true DE102020004690A1 (de) 2021-05-27

Family

ID=75784338

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020004690.8A Withdrawn DE102020004690A1 (de) 2020-08-03 2020-08-03 Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung

Country Status (1)

Country Link
DE (1) DE102020004690A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021002915A1 (de) 2021-06-07 2022-12-08 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung
DE102021004516B3 (de) 2021-09-07 2023-01-19 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
WO2023001711A1 (de) * 2021-07-20 2023-01-26 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung
DE102021004521A1 (de) 2021-09-07 2023-03-09 Daimler Truck AG Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010051602A1 (de) * 2010-11-16 2012-05-16 Hans-Heinrich Götting jun. Verfahren zur Erfassung von Merkmalen in der Umgebung
WO2017009848A1 (en) * 2015-07-14 2017-01-19 Brightway Vision Ltd. Gated structured imaging
DE102017204836A1 (de) * 2017-03-22 2018-09-27 Continental Automotive Gmbh Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
DE102020002994A1 (de) * 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010051602A1 (de) * 2010-11-16 2012-05-16 Hans-Heinrich Götting jun. Verfahren zur Erfassung von Merkmalen in der Umgebung
WO2017009848A1 (en) * 2015-07-14 2017-01-19 Brightway Vision Ltd. Gated structured imaging
DE102017204836A1 (de) * 2017-03-22 2018-09-27 Continental Automotive Gmbh Verfahren und Vorrichtung zum Erfassen von Objekten in der Umgebung eines Fahrzeuges
DE102020002994A1 (de) * 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021002915A1 (de) 2021-06-07 2022-12-08 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Sichtweitenmessvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Sichtweitenmessvorrichtung
WO2023001711A1 (de) * 2021-07-20 2023-01-26 Daimler Truck AG Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung
DE102021003728A1 (de) 2021-07-20 2023-01-26 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021003728B4 (de) 2021-07-20 2023-04-20 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021004516B3 (de) 2021-09-07 2023-01-19 Daimler Truck AG Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
DE102021004521A1 (de) 2021-09-07 2023-03-09 Daimler Truck AG Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021004521B4 (de) 2021-09-07 2024-05-23 Daimler Truck AG Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung

Similar Documents

Publication Publication Date Title
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
DE102006041930A1 (de) Fahrer-Assistenzsystem mit Objekterkennung
EP1460454A2 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102011010860A1 (de) Verfahren und Fahrerassistenzsystem zum Anzeigen von Bildern in einem Kraftfahrzeug sowie Kraftfahrzeug
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102006037600B4 (de) Verfahren zur auflösungsabhängigen Darstellung der Umgebung eines Kraftfahrzeugs
DE102006044864A1 (de) Verfahren zur rechnergestützten Bildverarbeitung in einem Nachtsichtsystem eines Verkehrsmittels
DE102013215408A1 (de) Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung
DE102009038406B4 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE102020007061B4 (de) Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
WO2014202496A1 (de) Verfahren zum anzeigen von umgebungsinformationen in einem fahrzeug
WO2022042902A1 (de) Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
DE102021000508A1 (de) Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinnchtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
WO2021239322A1 (de) Verfahren zur detektion von verlorenen bildinformationen, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
WO2022263435A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021003728B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
WO2022184738A1 (de) Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
DE102020007064B4 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102015121504A1 (de) Verfahren zum Erkennen einer Längsparklücke zum Parken eines Kraftfahrzeugs anhand einer Fahrbahnmakierung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP4352547A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung
DE102021000447A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R230 Request for early publication
R120 Application withdrawn or ip right abandoned
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE