DE102020003218A1 - Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung - Google Patents
Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung Download PDFInfo
- Publication number
- DE102020003218A1 DE102020003218A1 DE102020003218.4A DE102020003218A DE102020003218A1 DE 102020003218 A1 DE102020003218 A1 DE 102020003218A1 DE 102020003218 A DE102020003218 A DE 102020003218A DE 102020003218 A1 DE102020003218 A1 DE 102020003218A1
- Authority
- DE
- Germany
- Prior art keywords
- optical sensor
- image
- image information
- area
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/18—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4808—Evaluating distance, position or velocity data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/02—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4865—Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Vascular Medicine (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Detektion von verlorenen Bildinformationen mittels einer Beleuchtungseinrichtung (5) und einem optischen Sensor (7), wobei- eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei- ein sichtbarer Abstandsbereichs (15) in einem Beobachtungsbereich (13) des optischen Sensors (7) aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) gegeben ist, wobei eine Aufnahme (25) des Beobachtungsbereichs (13) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei- in der Aufnahme (25) in Bereichen außerhalb des bildseitigen sichtbaren Abstandsbereichs (15) Bildinformationen gesucht werden, und wobei- gefundene Bildinformationen detektiert und zugänglich gemacht werden.
Description
- Die Erfindung betrifft ein Verfahren zur Detektion von verlorenen Bildinformationen, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Detektionsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Detektionsvorrichtung.
- Aus der internationalen Patentanmeldung mit der Veröffentlichungsnummer
WO 2017/009848 A1 - Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Detektion von verlorenen Bildinformationen, eine Steuereinrichtung, die eingerichtet ist zur Durchführung eines solchen Verfahrens, eine Detektionsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Detektionsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
- Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
- Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zur Detektion von verlorenen Bildinformationen mittels einer Beleuchtungseinrichtung und einem optischen Sensor geschaffen wird. Dabei werden die Beleuchtungseinrichtung und der optische Sensor zeitlich aufeinander abgestimmt angesteuert. Eine örtliche Lage eines sichtbaren Abstandsbereichs in einem Beobachtungsbereichs des optischen Sensors ist dabei gegeben durch die zeitliche Abstimmung der Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors. Es wird eine Aufnahme des Beobachtungsbereichs mit dem optischen Sensor mittels der abgestimmten Ansteuerung aufgenommen. Schließlich werden in der Aufnahme in den Bereichen außerhalb des bildseitigen sichtbaren Abstandsbereichs Bildinformationen gesucht. Falls in der Aufnahme in den Bereichen außerhalb des bildseitigen sichtbaren Abstandsbereichs Bildinformationen gefunden werden, werden diese Bildinformationen detektiert und zugänglich gemacht. Unter „Zugänglichmachen“ wird dabei insbesondere verstanden, dass die detektierte Bildinformation an ein Steuergerät zur Weiterverarbeitung und/oder Nutzung beim autonomen Fahren weitergeleitet oder dem Steuergerät anderweitig zur Verfügung gestellt wird.
- Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, Objekte außerhalb des sichtbaren Abstandsbereichs zu detektieren und dem Fahrzeug, in dem das Verfahren durchgeführt wird, die entsprechenden Informationen zur Verfügung zu stellen. Insbesondere sind die Detektion und Erkennung von retroreflektierenden Verkehrszeichen, welche einen gewissen fluoreszierenden und/ oder phosphoreszierenden Effekt haben, mit großer Präzision möglich. Dies ist insbesondere deswegen möglich, da die Verkehrszeichen auf Grund einer photolumineszierenden Eigenschaft Lichtphotonen der Beleuchtung absorbieren und über einen gewissen Zeitraum, insbesondere bis zu wenigen Sekunden, nach Ende der Beleuchtung diese Photonen wieder emittieren. Daher sind die retroreflektierenden Verkehrszeichen mit einer photolumineszierenden Eigenschaft bei direkter Beleuchtung, das heißt wenn sie im sichtbaren Abstandsbereich sind, durch die zusätzliche reflektierende Wirkung überbelichtet und damit software-technisch nicht lesbar. Sobald die Verkehrszeichen nicht mehr innerhalb des sicherbaren Abstandsbereich sind, wirkt der photolumineszierende Effekt, und durch die emittierten Photonen werden die Verkehrszeichen deutlich in der Aufnahme des optischen Sensors abgebildet. Vorteilhafterweise eignet sich das Verfahren auch zur Erkennung von Fahrrädern mit photolumineszierenden Bauteilen und Personen mit photolumineszierender Kleidung.
- Das Verfahren kann besonders vorteilhaft in automatisiert fahrenden Fahrzeugen, insbesondere automatisch fahrenden Lastkraftwagen, angewendet werden. Insbesondere bei einer Nachtfahrt können vorteilhaft mithilfe des Verfahrens Verkehrszeichen oder andere Verkehrsteilnehmer detektiert werden. Das Verfahren ermöglicht eine rechtzeitige und angemessene Reaktion auf die Detektion der Verkehrszeichen und der anderen Verkehrsteilnehmer. Eine solche angemessene Reaktion kann beispielsweise eine Geschwindigkeitsreduktion, eine Notbremsung oder das Befahren einer - gegebenenfalls ad hoc bestimmten - Ausweichtrajektorie sein.
- Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung von Beleuchtungseinrichtung und optischem Sensor ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird, die Kamera ist also eine Gated-Kamera. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
- Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtliche Lage, das heißt insbesondere bestimmtem Abstand des Beginns des Abstandsbereichs von dem optischen Sensor und bestimmter Abstandsbereichs-Breite, durch den optischen Sensor erfasst werden.
- Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
- Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereich im realen Raum.
- Der bildseitige Beobachtungsbereich entspricht allen auf dem optischen Sensor vorhandenen Bildzeilen. Der bildseitige sichtbare Abstandsbereich ist als Teilbereich der Bildebene insbesondere zwischen einer Start-Bildzeile und einer End-Bildzeile gegeben. Die Start-Bildzeile bestimmt den Beginn des sichtbaren Abstandsbereichs in der Aufnahme. Weiterhin bestimmt die End-Bildzeile das Ende des sichtbaren Abstandsbereichs in der Aufnahme.
- Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum, das heißt auf Seiten des zu beobachtenden Objekts, angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitige Bereiche auf der Bildebene.
- Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und räumliche Breite des sichtbaren Abstandsbereichs zu definieren. - In einer alternativen Ausgestaltung des Verfahrens kann der sichtbare Abstandsbereich vorgegeben sein, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits bestimmt und entsprechend vorgegeben wird.
- Unter einer Bildzeile wird hier insbesondere die Menge aller Bildpunkte einer Aufnahme in der Bildebene des optischen Sensors verstanden, die auf einer gemeinsamen horizontalen Linie in der Bildebene liegen.
- Insbesondere wird die Detektion von Bildinformationen, vorzugsweise photolumineszierenden Objekten, auf alle Bild-Zeilen, die nicht zwischen der Start-Bildzeile und der End-Bildzeile liegen, angewendet.
- Die Beleuchtungseinrichtung ist in bevorzugter Ausgestaltung ein Laser. Der optische Sensor ist in bevorzugter Ausgestaltung eine Kamera.
- Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass für die Aufnahme des Abstandsbereichs ein Zeilenhistogramm über alle einem Auswerte-Bereich in dem Beobachtungsbereich auf dem optischen Sensor zugeordneten Bildzeilen mittels Summation der Beleuchtungsintensitäten pro Bildzeile des optischen Sensors erstellt wird. Die Start-Bildzeile und die End-Bildzeile werden dann mittels des Zeilenhistogramms bestimmt. Damit werden die bildseitigen Bereiche außerhalb des bildseitigen Abstandsbereichs bestimmt. Dies ermöglicht in vorteilhafter Weise die Ermittlung der Bild-Lage des dem objektseitigen sichtbaren Abstandsbereichs bildseitig zugeordneten Bereichs auf dem optischen Sensor. Insoweit ergibt sich nämlich aus der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits ein klarer Helligkeitsübergang am Beginn des bildseitigen Abstandsbereichs und am Ende des bildseitigen Abstandsbereichs. Dies ermöglicht letztlich die Bestimmung der Bereiche außerhalb des bildseitigen sichtbaren Abstandsbereichs, in welchem nach Bildinformationen, insbesondere von photolumineszierenden Objekten, gesucht wird.
- Unter einem Zeilenhistogramm wird hier insbesondere verstanden, dass den einzelnen Bildzeilen des optischen Sensors in dem Auswerte-Bereich die Summe der Beleuchtungsintensitäten über alle in dem Auswerte-Bereich liegenden Bildpunkte der jeweiligen Bildzeile zugeordnet werden. Auf diese Weise ist der entsprechend durch die zeitliche Ansteuerung entstehende Helligkeitsübergang sehr einfach und sicher in der Bildebene des optischen Sensors detektierbar.
- Der Auswerte-Bereich ist gemäß einer bevorzugten Ausgestaltung mit dem Beobachtungsbereich identisch. Dies entspricht einer besonders einfach zu implementierenden Ausführungsform des Verfahrens. Es ist aber auch möglich, dass der Auswerte-Bereich gemäß einer anderen bevorzugten Ausgestaltung kleiner gewählt wird als der Beobachtungsbereich, insbesondere als ein interessierender Bereich oder „region of interest“, in dem sich die zu detektierenden Objekte befinden können. Dies erlaubt vorteilhaft eine schnellere und effizientere Durchführung des Verfahrens.
Indem nur die in dem Auswerte-Bereich liegenden Bildpunkte in die Summation einbezogen werden, kann der Auswerte-Bereich insbesondere auch horizontal beschränkt sein. - Vorzugsweise wird der Auswerte-Bereich in der Aufnahme vor Berechnung des Zeilenhistogramms durch eine GPS-Vorausschau, insbesondere unter Rückprojektion des Straßenverlaufs in die Bildebene, und/ oder durch eine Methode zum optischen Spur-Tracking identifiziert
- Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Suche und Detektion der Bildinformationen mittels eines Mustererkennungsalgorithmus durchgeführt werden.
- Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Suche und Detektion der Bildinformationen mittels Deep Learning durchgeführt werden.
- Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die detektierten Bildinformationen wiederhergestellt und gespeichert werden. Damit ist es insbesondere möglich dem Fahrer die detektierten Bildinformationen in Kombination mit der Aufnahme zu zeigen. Bei autonom fahrenden Fahrzeugen werden die detektierten Bildinformationen bevorzugt gespeichert, um die Reaktionen des Fahrzeugs nach der Fahrt nachvollziehen zu können.
- Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass zwei Aufnahmen, nämlich eine erste Aufnahme und eine zweite Aufnahme, mit dem optischen Sensor mittels zwei unterschiedlich zeitlich abgestimmter Ansteuerungen der Beleuchtungseinrichtung und des optischen Sensors aufgenommen werden. Die erste Aufnahme, die zweite Aufnahme und die detektierten Bildinformationen werden zu einer Gesamt-Aufnahme zusammengefügt. Bevorzugt sind die sichtbaren Abstandsbereiche der ersten Aufnahme und der zweiten Aufnahme nicht überlappend. Ein photolumineszierendes Objekt, welches im sichtbaren Abstandsbereich der ersten Aufnahme ist, wird in der ersten Aufnahme überbelichtet dargestellt. Vorteilhafterweise befindet sich das photolumineszierende Objekt nicht im sichtbaren Abstandsbereich der zweiten Aufnahme. Damit ist das Objekt auf Grund seiner nachleuchtenden Eigenschaft außerhalb des sichtbaren Abstandsbereichs zu erkennen. In der Gesamt-Aufnahme wird bei der Kombination der ersten Aufnahme und der zweiten Aufnahme bevorzugt die überbelichtete Darstellung des Objekts aus der ersten Aufnahme durch die Darstellung des Objekts aus der zweiten Aufnahme ersetzt. Insbesondere auf diese Weise wird die detektierte Bildinformation wiederhergestellt.
- Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Fahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
- Die Aufgabe wird auch gelöst, indem eine Detektionsvorrichtung geschaffen wird, die eine Beleuchtungseinrichtung, einen optischen Sensor, und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele aufweist. In Zusammenhang mit der Detektionsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
- Die Steuereinrichtung ist bevorzugt einerseits mit der Beleuchtungseinrichtung und andererseits mit dem optischen Sensor wirkverbunden und eingerichtet zu deren Ansteuerung.
- Die Aufgabe wird schließlich auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Detektionsvorrichtung oder einer Detektionsvorrichtung nach einem der zuvor beschriebenen Ausführungsbeispiele geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Detektionsvorrichtung erläutert wurden.
- In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ist.
- Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Dabei zeigen:
-
1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem Ausführungsbeispiel einer Detektionsvorrichtung; -
2 eine schematische Darstellung einer Aufnahme die im Rahmen einer Ausführungsform des Verfahrens mit einem optischen Sensor aufgenommen ist, und -
3 eine schematische Darstellung eines Zeilenhistogramms, welches in einer Ausführungsform des Verfahrens verwendet wird. -
1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs1 , mit einem Ausführungsbeispiel einer Detektionsvorrichtung3 . Die Detektionsvorrichtung3 weist eine Beleuchtungseinrichtung5 und einen optischen Sensor7 auf. Außerdem weist die Detektionsvorrichtung3 eine Steuereinrichtung9 auf, die hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Beleuchtungseinrichtung5 und dem optischen Sensor7 zu deren jeweiliger Ansteuerung wirkverbunden ist. Dargestellt in1 ist insbesondere ein Beleuchtungs-Frustum11 der Beleuchtungseinrichtung5 und ein Beobachtungsbereich13 des optischen Sensors7 . Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich15 , der sich als Teilmenge des Beobachtungsbereichs13 des optischen Sensors7 ergibt. - In dem sichtbaren Abstandsbereich
15 ist ein Verkehrszeichen17 angeordnet. Außerhalb des sichtbaren Abstandsbereichs15 ist ein Verkehrszeichen19 angeordnet. - In
1 ist auch ein Beginn21 und ein Ende23 des sichtbaren Abstandsbereichs15 eingezeichnet. - Die Steuereinrichtung
9 ist insbesondere eingerichtet zur Durchführung einer im Folgenden näher beschriebenen Ausführungsform eines Verfahrens zur Detektion von verlorenen Bildinformationen in einer mittels einer Beleuchtungseinrichtung5 und einem optischen Sensor7 erzeugten Aufnahme25 . - Dabei werden die Beleuchtungseinrichtung
5 und der optische Sensor7 zeitlich aufeinander abgestimmt angesteuert, wobei ein sichtbarer Abstandsbereichs15 in dem Beobachtungsbereich13 aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung5 und des optischen Sensors7 gegeben ist. Es wird eine Aufnahme des Beobachtungsbereichs13 mit dem optischen Sensor7 unter Anwendung der abgestimmten Ansteuerung aufgenommen. -
2 zeigt eine schematische Darstellung einer solchen Aufnahme25 in einer Bildebene des optischen Sensors7 . Dabei ist in2 eine Start-Bildzeile27 für den Beginn21 und eine End-Bildzeile29 für das Ende23 des sichtbaren Abstandsbereichs15 in der Aufnahme25 dargestellt. In der Aufnahme25 sind außerdem die Bilder der Verkehrszeichen17 und19 dargestellt. In der Aufnahme25 ist mit17' das Bild des Verkehrszeichens17 und mit 19' das Bild des Verkehrszeichens19 bezeichnet. Aufgrund der retroreflektierenden Eigenschaft der Verkehrszeichen17 und19 ist im Bild des Verkehrszeichen17' keine Beschriftung erkennbar. Das Verkehrszeichen19 war wenige Augenblicke vor dem Erstellen der Aufnahme25 im objektseitigen sichtbaren Abstandsbereich lokalisiert. Durch die photolumineszierende Eigenschaft des Verkehrszeichens19 ist im Bild des Verkehrszeichens19' die Beschriftung deutlich erkennbar. - Ein Verfahren zur Detektion von verlorenen Bildinformationen wird dann in den Bereichen oberhalb der End-Bildzeile
29 und unterhalb der Start-Bildzeile27 eingesetzt, um Bildinformationen, vorzugsweise Objekte mit photolumineszierender Eigenschaft, zu suchen. Falls Bildinformationen19' gefunden werden, werden diese Bildinformationen detektiert und der Steuereinrichtung9 und damit dem Kraftfahrzeug1 und/ oder dem Fahrer zur Verfügung gestellt. - Vorzugsweise basiert das Verfahren zur Suche und Detektion von verlorenen Bildinformationen auf Mustererkennung oder Deep Learning.
- Darüber hinaus ist in
2 ein Auswerte-Bereich31 eingezeichnet, welcher insbesondere durch eine GPS-Vorausschau und/ oder durch eine Methode zum optischen Spur-Tracking bestimmt werden kann. Der Auswerte-Bereich31 ist hier als interessierender Bereich kleiner als der Beobachtungsbereich13 . Er kann aber auch mit diesem zusammenfallen. -
3 zeigt eine schematische Darstellung eines Zeilenhistogramms33 der Aufnahme25 gemäß2 oder des Auswerte-Bereichs31 der Aufnahme25 . In diesem Zeilenhistogramm33 sind auf der Abszisse die einzelnen Bildzeilen des optischen Sensors7 abgetragen, wobei auf der Ordinate für jede Bildzeile eine Summe der Beleuchtungsintensitäten pro Bildpunkt über alle Bildpunkte der jeweiligen Bildzeile in dem Auswerte-Bereich31 aufgetragen ist. Dieses Zeilenhistogramm33 wird über alle dem Auswertebereich31 auf dem optischen Sensor7 zugeordneten Bildzeilen mittels Summation der Beleuchtungsintensitäten pro Bildzeile des optischen Sensors7 erstellt.
Die Start-Bildzeile27 und die End-Bildzeile29 werden dann mittels der Zeilenhistogramms33 ermittelt, wobei insbesondere aufgrund der zeitlich abgestimmten Ansteuerung der Beleuchtungseinrichtung5 und des optischen Sensors7 deutliche Intensitätssprünge einerseits in der Start-Bildzeile27 und andererseits in der End-Bildzeile29 erkennbar sind. - ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- WO 2017/009848 A1 [0002]
Claims (9)
- Verfahren zur Detektion von verlorenen Bildinformationen mittels einer Beleuchtungseinrichtung (5) und einem optischen Sensor (7), wobei - eine Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) zeitlich aufeinander abgestimmt werden, wobei - ein sichtbarer Abstandsbereichs (15) in einem Beobachtungsbereich (13) des optischen Sensors (7) aus der zeitlichen Abstimmung der Ansteuerung der Beleuchtungseinrichtung (5) und des optischen Sensors (7) gegeben ist, wobei eine Aufnahme (25) des Beobachtungsbereichs (13) mit dem optischen Sensor (7) mittels der abgestimmten Ansteuerung aufgenommen wird, wobei - in der Aufnahme (25) in Bereichen außerhalb des bildseitigen sichtbaren Abstandsbereichs (15) Bildinformationen gesucht werden, und wobei - gefundene Bildinformationen detektiert und zugänglich gemacht werden.
- Verfahren nach
Anspruch 1 , wobei für eine Identifizierung des bildseitigen sichtbaren Abstandsbereichs (15) ein Zeilenhistogramm (33) über alle einem Auswerte-Bereich (31) in dem Beobachtungsbereich (13) auf dem optischen Sensor (7) zugeordneten Bildzeilen mittels Summation der Beleuchtungsintensitäten pro Bildzeile des optischen Sensors (7) erstellt wird, wobei eine Start-Bildzeile und eine End-Bildzeile mittels des Zeilenhistogramms (33) bestimmt werden, und wobei die Bereiche der Aufnahme (25) außerhalb des bildseitigen sichtbaren Abstandsbereichs (15) mittels der Start-Bildzeile und der End-Bildzeile identifiziert werden. - Verfahren nach einem der vorhergehenden Ansprüche, wobei die Suche und die Detektion der Bildinformationen mittels Mustererkennung durchgeführt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei die Suche und die Detektion der Bildinformationen mittels Deep Learning durchgeführt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei die detektierten Bildinformationen wiederhergestellt und gespeichert werden.
- Verfahren nach einem der vorhergehenden Ansprüche, wobei zwei Aufnahmen (25) mit dem optischen Sensor (7) mittels zwei unterschiedlich zeitlich abgestimmter Ansteuerungen aufgenommen werden, und wobei die Aufnahmen (25) und die detektierten Bildinformationen zu einer Gesamt-Aufnahme zusammengefügt werden.
- Steuereinrichtung (9), eingerichtet zur Durchführung eines Verfahrens zur Detektion von verlorenen Bildinformationen nach einem der vorhergehenden Ansprüche.
- Detektionsvorrichtung (3) mit einer Beleuchtungseinrichtung (5), einem optischen Sensor (7) und einer Steuereinrichtung (9) nach
Anspruch 7 . - Kraftfahrzeug (1) mit einer Detektionsvorrichtung (3) nach
Anspruch 8 .
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020003218.4A DE102020003218A1 (de) | 2020-05-28 | 2020-05-28 | Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung |
CN202180038721.XA CN115843338A (zh) | 2020-05-28 | 2021-04-15 | 用于探测丢失的图像信息的方法、用于执行这种方法的控制装置、具有这种控制装置的探测装置和具有这种探测装置的机动车 |
US17/928,202 US20230221411A1 (en) | 2020-05-28 | 2021-04-15 | Method for Detecting Lost Image Information, Control Apparatus for Carrying Out a Method of this Kind, Detection Device Having a Control Apparatus of this Kind and Motor Vehicle Having a Detection Device of this Kind |
PCT/EP2021/059798 WO2021239322A1 (de) | 2020-05-28 | 2021-04-15 | Verfahren zur detektion von verlorenen bildinformationen, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020003218.4A DE102020003218A1 (de) | 2020-05-28 | 2020-05-28 | Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020003218A1 true DE102020003218A1 (de) | 2020-10-15 |
Family
ID=72613740
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020003218.4A Pending DE102020003218A1 (de) | 2020-05-28 | 2020-05-28 | Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230221411A1 (de) |
CN (1) | CN115843338A (de) |
DE (1) | DE102020003218A1 (de) |
WO (1) | WO2021239322A1 (de) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL235359A0 (en) * | 2014-10-27 | 2015-11-30 | Ofer David | Wide-dynamic-range simulation of an environment with a high intensity radiating/reflecting source |
IL239919A (en) | 2015-07-14 | 2016-11-30 | Brightway Vision Ltd | Branded template lighting |
US10620300B2 (en) * | 2015-08-20 | 2020-04-14 | Apple Inc. | SPAD array with gated histogram construction |
-
2020
- 2020-05-28 DE DE102020003218.4A patent/DE102020003218A1/de active Pending
-
2021
- 2021-04-15 US US17/928,202 patent/US20230221411A1/en active Pending
- 2021-04-15 WO PCT/EP2021/059798 patent/WO2021239322A1/de active Application Filing
- 2021-04-15 CN CN202180038721.XA patent/CN115843338A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN115843338A (zh) | 2023-03-24 |
US20230221411A1 (en) | 2023-07-13 |
WO2021239322A1 (de) | 2021-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020002994B4 (de) | Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung | |
DE102009023326B4 (de) | Vorrichtung und Verfahren zum Detektieren eines kritischen Bereiches und Fußgängerdetektionsvorrichtung unter Verwendung derselben | |
DE102020004690A1 (de) | Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung | |
DE102016216000A1 (de) | Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren | |
DE102009050519A1 (de) | Verfahren zur Fahrerinformation | |
DE102017111468A1 (de) | Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat | |
DE102012100463A1 (de) | Vorrichtung und Verfahren zur Ermittlung und Ausgabe von Daten für eine automatische Lichtsteuerung für ein Fahrzeug | |
DE102020003199A1 (de) | Verfahren zur Erkennung von Bildartefakten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung | |
DE102017010731A1 (de) | Verfahren zur Erfassung eines Objektes | |
DE112019000014T5 (de) | Infrarotbasiertes System und Verfahren zur Straßenoberflächenüberwachung sowie Kraftfahrzeug | |
EP1049064B1 (de) | Verkehrsüberwachungseinrichtung mit Polarisationsfiltern | |
DE102019127283A1 (de) | System und Verfahren zum Erfassen eines Objekts in einer dreidimensionalen Umgebung eines Trägerfahrzeugs | |
DE102013215408A1 (de) | Anzeigesystem für ein Fahrzeug und Verfahren für die Anzeige einer Fahrzeugumgebung | |
DE102007041333B4 (de) | Berührungslos arbeitendes Zählsystem | |
DE102009036196A1 (de) | Verfahren und Vorrichtung zur Verkehrszeichenerkennung für ein Fahrzeug | |
DE102020003218A1 (de) | Verfahren zur Detektion von verlorenen Bildinformationen, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Detektionsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Detektionsvorrichtung | |
DE102019129737A1 (de) | Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs | |
DE102013022050A1 (de) | Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
WO2022106115A1 (de) | Verfahren zum betreiben einer ersten beleuchtungseinrichtung, einer zweiten beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, gated-kamera-vorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen gated-kamera-vorrichtung | |
DE102017206974A1 (de) | Verfahren zur indirekten Detektion eines verdeckten Verkehrsteilnehmers | |
DE102020007760A1 (de) | Verfahren zur Klassifizierung von Fahrbahnmarkierungen und Fahrzeug | |
DE102019001610A1 (de) | Verfahren zum Betreiben eines Kraftfahrzeugs | |
DE102020005343A1 (de) | Verfahren zur Objektverfolgung von mindestens einem Objekt, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Objektverfolgungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Objektverfolgungsvorrichtung | |
DE102019001336A1 (de) | Vorrichtung zur Erfassung eines Fahrtzielbereichs | |
DE102018127474A1 (de) | Verfahren zum Betreiben eines Sicherheitssystems für ein Kraftfahrzeug; Sicherheitssystem und Computerprogrammprodukt |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: DAIMLER TRUCK AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70372 STUTTGART, DE Owner name: DAIMLER AG, DE Free format text: FORMER OWNER: DAIMLER AG, 70372 STUTTGART, DE |
|
R230 | Request for early publication | ||
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R081 | Change of applicant/patentee |
Owner name: DAIMLER TRUCK AG, DE Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE |