DE102021005624A1 - Verfahren zur Bestimmung eines Abstands - Google Patents

Verfahren zur Bestimmung eines Abstands Download PDF

Info

Publication number
DE102021005624A1
DE102021005624A1 DE102021005624.8A DE102021005624A DE102021005624A1 DE 102021005624 A1 DE102021005624 A1 DE 102021005624A1 DE 102021005624 A DE102021005624 A DE 102021005624A DE 102021005624 A1 DE102021005624 A1 DE 102021005624A1
Authority
DE
Germany
Prior art keywords
distance
vehicle
ego vehicle
reference point
reflection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021005624.8A
Other languages
English (en)
Inventor
Fridtjof Stein
Sebastian Kleinschmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102021005624.8A priority Critical patent/DE102021005624A1/de
Publication of DE102021005624A1 publication Critical patent/DE102021005624A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Bestimmung eines Abstands (a) zwischen einem Ego-Fahrzeug (1) und einem Fahrzeug (2) eines nachfolgenden Verkehrs.Erfindungsgemäß wird das Fahrzeug (2) mittels einer Monokamera (4) des Ego-Fahrzeugs (1) erfasst. Es wird eine durch ein beleuchtungsveränderndes stationäres Objekt (3) hervorgerufene Helligkeitsveränderung aufgrund eines Schattenwurfs (6) oder einer Reflexion des Objekts (3) in erfassten Kamerabildern (5) ermittelt. Es wird eine Position des Schattenwurfs (6) oder der Reflexion und/oder des Objekts (3) in der realen Welt erfasst und als Referenzpunkt (R) für die Bestimmung des Abstands (a) verwendet. Der Abstand (a) wird anhand einer vom Referenzpunkt (R) mit dem Ego-Fahrzeug (1) zurückgelegten Wegstrecke bis zur Erfassung des Schattenwurfs (6) oder der Reflexion und/oder anhand einer Zeit von einem Passieren des Referenzpunktes (R) mit dem Ego-Fahrzeug (1) bis zur Erfassung des Schattenwurfs (6) oder der Reflexion bestimmt.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung eines Abstands gemäß dem Oberbegriff des Anspruchs 1.
  • Aus der DE 10 2019 207 707 A1 ist ein Verfahren zur Steuerung eines abstandserfassenden Sensorsystems eines Fahrzeugs bekannt. Das Sensorsystem weist eine Monokamera auf. Das Verfahren umfasst die Schritte:
    • - Empfangen einer Positionsinformation bezüglich einer Position des Fahrzeugs in einem Fahrzeugverbund mittels einer Steuereinheit des Fahrzeugs;
    • - Ermitteln eines Erfassungsparameters in Abhängigkeit von der empfangenen Positionsinformation mittels der Steuereinheit; und
    • - Steuern des abstandserfassenden Sensorsystems unter Verwendung des ermittelten Erfassungsparameters mittels der Steuereinheit, um einen ersten Erfassungsmodus des Sensorsystems in einen zweiten Erfassungsmodus des Sensorsystems überzuführen.
  • Dabei ist das Auflösungsvermögen des abstandserfassenden Sensorsystems bezüglich eines räumlichen Abstands und einer Relativgeschwindigkeit des Fahrzeugs zu einem vorausfahrenden Fahrzeug des Fahrzeugverbunds in dem zweiten Erfassungsmodus größer als in dem ersten Erfassungsmodus.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein neuartiges Verfahren zur Bestimmung eines Abstands zwischen einem Ego-Fahrzeug und einem Fahrzeug eines nachfolgenden Verkehrs anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem erfindungsgemäßen Verfahren zur Bestimmung eines Abstands zwischen einem Ego-Fahrzeug und einem Fahrzeug eines nachfolgenden Verkehrs wird das Fahrzeug mittels einer Monokamera des Ego-Fahrzeugs erfasst. Es wird eine durch ein beleuchtungsveränderndes stationäres Objekt hervorgerufene Helligkeitsveränderung aufgrund eines Schattenwurfs oder einer Reflexion des Objekts in erfassten Kamerabildern ermittelt. Es wird eine Position des Schattenwurfs bzw. der Reflexion und/oder eine Position des Objekts in der realen Welt erfasst und als Referenzpunkt für die Bestimmung des Abstands verwendet. Der Referenzpunkt wird auch als Ankerpunkt bezeichnet. Anhand einer vom Referenzpunkt mit dem Ego-Fahrzeug zurückgelegten Wegstrecke bis zur Erfassung des Schattenwurfs bzw. der Reflexion mittels der Monokamera und/oder anhand einer Zeit von einem Passieren des Referenzpunktes mit dem Ego-Fahrzeug bis zur Erfassung des Schattenwurfs oder der Reflexion mittels der Monokamera wird der Abstand zwischen dem Ego-Fahrzeug und dem Fahrzeug des nachfolgenden Verkehrs bestimmt.
  • Es wird somit beispielsweise ein Wegabstand zwischen dem Ego-Fahrzeug und dem Fahrzeug des nachfolgenden Verkehrs, d. h. eine Entfernung bis zum Fahrzeug des nachfolgenden Verkehrs, und/oder ein zeitlicher Abstand zwischen dem Ego-Fahrzeug und dem Fahrzeug des nachfolgenden Verkehrs ermittelt.
  • Wenn der Wegabstand ermittelt werden soll, jedoch nicht direkt durch eine Messung eines vom Ego-Fahrzeug zurückgelegten Wegs und/oder anhand eines Wegabstands zwischen einer aktuellen Position des Ego-Fahrzeugs und dem Referenzpunkt bestimmt werden kann, so kann der Wegabstand, d. h. die vom Referenzpunkt mit dem Ego-Fahrzeug zurückgelegte Wegstrecke bis zur Erfassung des Schattenwurfs oder der Reflexion, beispielsweise anhand einer Geschwindigkeit des Ego-Fahrzeugs und der Zeit vom Passieren des Referenzpunktes mit dem Ego-Fahrzeug bis zur Erfassung des Schattenwurfs oder der Reflexion bestimmt werden.
  • Der Referenzpunkt, d. h. insbesondere das beleuchtungsverändernde stationäre Objekt und/oder dessen Schattenwurf oder Reflexion, und insbesondere die betreffende Position, wird beispielsweise mittels einer Sensorik des Ego-Fahrzeugs erfasst, insbesondere während des Passierens des beleuchtungsverändernden stationären Objekts und/oder dessen Schattenwurfs oder Reflexion, und/oder aus einer digitalen Landkarte ausgelesen, in welcher dies bereits verzeichnet ist. Dabei handelt es sich beispielsweise um eine fahrzeuginterne digitale Landkarte. Mittels der Sensorik des Ego-Fahrzeugs neu erfasste Referenzpunkte werden vorteilhafterweise in der digitalen Landkarte gespeichert.
  • Das erfindungsgemäße Verfahren ermöglicht somit die Bestimmung der Entfernung vom Ego-Fahrzeug zum Fahrzeug des nachfolgenden Verkehrs ausschließlich mittels der Monokamera, basierend auf der Auswertung der durch ein beleuchtungsveränderndes stationäres Objekt hervorgerufenen Helligkeitsveränderung durch Schattenwurf oder Reflexion in den Kamerabildern. Wie beschrieben, wird dann anhand der von diesem Referenzpunkt mit dem Ego-Fahrzeug zurückgelegten Wegstrecke, Zeitdauer und/oder Geschwindigkeit die Entfernung vom Ego-Fahrzeug zum Fahrzeug des nachfolgenden Verkehrs bestimmt.
  • Die erfindungsgemäße Lösung ermöglicht eine signifikante Entfernungsermittlung des Ego-Fahrzeugs zu nachfolgenden Verkehrsteilnehmern, insbesondere Fahrzeugen, insbesondere zu an das Ego-Fahrzeug heranfahrenden anderen Verkehrsteilnehmern mit potenziellem Kollisionskurs. Diese Information ermöglicht einer Situationsanalyse eine Entscheidungsfindung, beispielsweise bezüglich eines Einfädelns oder eines Spurwechsels, mit deutlich höherer Konfidenz.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch eine perspektivische Ansicht einer Verkehrssituation mit einem Ego-Fahrzeug, einem Fahrzeug eines nachfolgenden Verkehrs und einem stationären Objekt zu drei Zeitpunkten sowie ein jeweiliges mittels einer Monokamera des Ego-Fahrzeugs erfasstes Bild,
    • 2 schematisch eine perspektivische Ansicht einer Verkehrssituation mit einem Ego-Fahrzeug, einem Fahrzeug eines nachfolgenden Verkehrs und einem weiteren stationären Objekt,
    • 3 schematisch eine perspektivische Ansicht einer Verkehrssituation mit einem Ego-Fahrzeug, einem Fahrzeug eines nachfolgenden Verkehrs und einem weiteren stationären Objekt,
    • 4 schematisch ein Ego-Fahrzeug, und
    • 5 schematisch ein System zur Durchführung eines Verfahrens zur Bestimmung eines Abstands zwischen einem Ego-Fahrzeug und einem Fahrzeug eines nachfolgenden Verkehrs.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • 1 zeigt beispielhaft eine Verkehrssituation mit einem Ego-Fahrzeug 1, einem Fahrzeug 2 eines nachfolgenden Verkehrs, d. h. insbesondere einem auf das Ego-Fahrzeug 1 folgenden Fahrzeug 2, und einem stationären Objekt 3 zu drei, insbesondere aufeinanderfolgenden, Zeitpunkten T1, T2, T3, sowie ein jeweiliges mittels einer Monokamera 4 des Ego-Fahrzeugs 1 erfasstes Kamerabild 5. Dabei ist die Monokamera 4 des Ego-Fahrzeugs 1, wie in 4 schematisch dargestellt, nach hinten ausgerichtet, so dass das Fahrzeug 2 des nachfolgenden Verkehrs erfasst wird. Unter einer Monokamera 4 wird eine monokulare Kamera verstanden.
  • Zum ersten Zeitpunkt T1 hat das Ego-Fahrzeug 1 das stationäre Objekt 3 bereits passiert, das Fahrzeug 2 des nachfolgenden Verkehrs jedoch noch nicht. Zum zweiten Zeitpunkt T2 passiert das Fahrzeug 2 des nachfolgenden Verkehrs das stationäre Objekt 3. Zum dritten Zeitpunkt T3 hat das Fahrzeug 2 des nachfolgenden Verkehrs das stationäre Objekt 3 passiert.
  • Bei dem stationären Objekt 3 handelt es sich um ein beleuchtungsveränderndes stationäres Objekt 3, beispielsweise aufgrund eines Schattenwurfs 6, wie in 1 gezeigt, oder einer Reflexion des stationären Objekts 3. Dies wird in einem hier beschriebenen Verfahren zur Bestimmung eines Abstands a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs verwendet. Der mittels des Verfahrens bestimmte Abstand a ist schematisch in 5 dargestellt, welche ein System zur Durchführung dieses Verfahrens zeigt.
  • Beleuchtungsverändernde stationäre Objekte 3 sind beispielsweise eine Tunneleinfahrt, eine Tunnelausfahrt oder eine Brücke über einer vom Ego-Fahrzeug 1 und Fahrzeug 2 des nachfolgenden Verkehrs befahrenen Fahrbahn 7.
  • In diesem Verfahren ist vorgesehen, dass das Fahrzeug 2 des nachfolgenden Verkehrs mittels der Monokamera 4 des Ego-Fahrzeugs 1 erfasst wird, wie in 1 gezeigt, und eine durch das beleuchtungsverändernde stationäre Objekt 3 hervorgerufene Helligkeitsveränderung, im Beispiel gemäß 1 aufgrund des Schattenwurfs 6 des stationären Objekts 3 oder in anderen Beispielen aufgrund der Reflexion des stationären Objekts 3 in den erfassten Kamerabildern 5 ermittelt wird.
  • Im Beispiel gemäß 1 erfolgt diese Helligkeitsveränderung zum zweiten Zeitpunkt T2, in welchem das Fahrzeug 2 des nachfolgenden Verkehrs das stationäre Objekt 3 und insbesondere dessen Schattenwurf 6 passiert, wodurch das Fahrzeug 2 des nachfolgenden Verkehrs im zu diesem zweiten Zeitpunkt T2 erfassten Kamerabild 5 durch den Schattenwurf 6 zumindest abschnittsweise verdunkelt ist.
  • Es wird nun eine Position des Schattenwurfs 6 bzw. in anderen Beispielen der Reflexion und/oder eine Position des stationären Objekts 3 in der realen Welt erfasst und als Referenzpunkt R für die Bestimmung des Abstands a verwendet. Der Referenzpunkt R wird auch als Ankerpunkt bezeichnet.
  • Die Erfassung der Position des Schattenwurfs 6 bzw. der Reflexion an Stelle der Position des stationären Objekts 3 kann insbesondere dann vorteilhaft sein, wenn der Schattenwurf 6 in Abhängigkeit von einem Sonnenstand seine Position erheblich verändert und diese somit erheblich von der Position des den Schattenwurf 6 verursachenden stationären Objekts 3 abweichen kann. Im dargestellten Beispiel ist dies nicht der Fall. Beispielsweise ist dies bei sehr hohen und von der vom Ego-Fahrzeug 1 und nachfolgenden Verkehr befahrenen Fahrbahn 7 sehr weit entfernten stationären Objekten 3 der Fall. Deren Schattenwurf 6 reicht bis zur Fahrbahn 7, verändert seine Position auf der Fahrbahn 7 in Abhängigkeit vom jeweiligen Sonnenstand jedoch relativ stark. Auf diese Weise kann eine Genauigkeit der Abstandsbestimmung auch bei Verwendung solcher stationären Objekte 3 und deren Schattenwurf 6 weiter verbessert werden.
  • Anhand einer vom Referenzpunkt R mit dem Ego-Fahrzeug 1 zurückgelegten Wegstrecke bis zur Erfassung des Schattenwurfs 6 bzw. der Reflexion mittels der Monokamera 4 und/oder anhand einer Zeit von einem Passieren des Referenzpunktes R mit dem Ego-Fahrzeug 1 bis zur Erfassung des Schattenwurfs 6 oder der Reflexion mittels der Monokamera 4 wird der Abstand a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs bestimmt.
  • Als Abstand a wird somit beispielsweise ein Wegabstand zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs, d. h. eine Entfernung bis zum Fahrzeug 2 des nachfolgenden Verkehrs, und/oder ein zeitlicher Abstand zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs ermittelt.
  • Wenn als Abstand a der Wegabstand ermittelt werden soll, jedoch nicht direkt durch eine Messung eines vom Ego-Fahrzeug 1 zurückgelegten Wegs und/oder anhand eines Wegabstands zwischen einer aktuellen Position des Ego-Fahrzeugs 1 und dem Referenzpunkt R bestimmt werden kann, so kann der Wegabstand, d. h. die vom Referenzpunkt R mit dem Ego-Fahrzeug 1 zurückgelegte Wegstrecke bis zur Erfassung des Schattenwurfs 6 oder der Reflexion, beispielsweise anhand einer Geschwindigkeit des Ego-Fahrzeugs 1 und der Zeit vom Passieren des Referenzpunktes R mit dem Ego-Fahrzeug 1 bis zur Erfassung des Schattenwurfs 6 oder der Reflexion bestimmt werden.
  • Beispielsweise fährt das Ego-Fahrzeug 1 mit 72 km/h und somit mit 20 m/s. Es unterquert beispielsweise ein als Brücke ausgebildetes stationäres Objekt 3, welches als Referenzpunkt R verwendet wird. Die Monokamera 4 des Ego-Fahrzeugs 1 erfasst das Fahrzeug 2 des nachfolgenden Verkehrs, welches nach fünf Sekunden von dem Schattenwurf 6 des als Brücke ausgebildeten stationären Objekts 3 verdunkelt wird. Daraus ergibt sich ein Abstand a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs von 100 m.
  • Der beschriebenen Lösung liegt der Grundgedanke zugrunde, dass Helligkeitsveränderungen, verursacht durch Schattenwurf 6 oder Reflexionen stationärer Objekte 3, während der Fahrt entlang einer Fahrbahn 7 eine Erscheinungsform eines Fahrzeugs 2 für einen Beobachter ändern. Solche Veränderungen lassen sich somit auch mittels der Monokamera 4 detektieren. Wenn der Beobachter weiß, wie weit das verursachende stationäre Objekt 3 oder dessen Schattenwurf 6 oder Reflexion entfernt ist, kann er auf die Entfernung des Fahrzeugs 2 zurückschließen. Dies wird mittels des beschriebenen Verfahrens automatisiert durchgeführt.
  • Der Referenzpunkt R, d. h. insbesondere das beleuchtungsverändernde stationäre Objekt 3 und/oder dessen Schattenwurf 6 oder Reflexion, und insbesondere die betreffende Position, wird beispielsweise mittels einer Sensorik des Ego-Fahrzeugs 1 erfasst, insbesondere während des Passierens des beleuchtungsverändernden stationären Objekts 3 und/oder dessen Schattenwurfs 6 oder Reflexion, und/oder aus einer digitalen, in 5 gezeigten Landkarte 8 ausgelesen, in welcher dies bereits verzeichnet ist. Dabei handelt es sich beispielsweise um eine fahrzeuginterne digitale Landkarte 8. Mittels der Sensorik des Ego-Fahrzeugs 1 neu erfasste Referenzpunkte R werden vorteilhafterweise in der digitalen Landkarte 8 gespeichert.
  • Die 2 und 3 zeigen Beispiele für eine Abwandlung des beschriebenen Verfahrens. Hierbei ist das stationäre Objekt 3 kein beleuchtungsveränderndes stationäres Objekt 3 und es wird keine Helligkeitsveränderung aufgrund eines Schattenwurfs 6 oder einer Reflexion des stationären Objekts 3 erfasst, sondern die Position des stationären Objekts 3 selbst wird als Referenzpunkt R verwendet und es wird ein Passieren des stationären Objekts 3 durch das Fahrzeug 2 des nachfolgenden Verkehrs in den erfassten Kamerabildern 5 ermittelt. Das weitere Verfahren zur Bestimmung des Abstands a erfolgt dann auf die gleiche oder zumindest auf ähnliche Weise wie oben beschrieben. Für diese Variante des Verfahrens werden markante stationäre Objekte 3 verwendet, beispielsweise markante zu überfahrende Linien auf der Fahrbahn 7, zum Beispiel Zebrastreifen, d. h. eine Markierung eines Fußgängerüberwegs auf der Fahrbahn 7, wie in 2 gezeigt, oder Haltelinien, oder ein anderes markantes stationäres Objekt 3, beispielsweise ein Verkehrszeichen, wie in 3 gezeigt.
  • Bei dieser Variante des Verfahrens zur Bestimmung des Abstands a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs wird somit ebenfalls das Fahrzeug 2 des nachfolgenden Verkehrs mittels der Monokamera 4 des Ego-Fahrzeugs 1 erfasst. Hier wird jedoch das Passieren des stationären Objekts 3 in den erfassten Kamerabildern 5 ermittelt. Es wird die Position des stationären Objekts 3 in der realen Welt erfasst und als Referenzpunkt R für die Bestimmung des Abstands a verwendet. Anhand einer vom Referenzpunkt R mit dem Ego-Fahrzeug 1 zurückgelegten Wegstrecke bis zur Erfassung des Passierens des stationären Objekts 3 durch das Fahrzeug 2 des nachfolgenden Verkehrs mittels der Monokamera 4 wird der Abstand a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs bestimmt.
  • 4 zeigt eine schematische Darstellung des Ego-Fahrzeugs 1. 5 zeigt das gesamte System zur Durchführung des Verfahrens und einen Ablauf des Verfahrens in einem Steuergerät 11 des Systems und des Ego-Fahrzeugs 1.
  • Das Ego-Fahrzeug 1 weist die nach hinten ausgerichtete Monokamera 4, eine Positionsbestimmungseinheit 9 zur Positionsbestimmung mittels eines globalen Navigationssatellitensystems, eine inertiale Messeinheit 10 und das Steuergerät 11 auf.
  • Die Monokamera 4 ist beispielsweise als eine LWIR-Kamera (Long-Wave-Infrared) ausgebildet, die durch eine Wahrnehmung einer Emissivität im Bereich einer Wärmestrahlung tags- und nachts ohne Beleuchtung eingesetzt werden kann. Alternativ kann die Monokamera 4 beispielsweise eine NIR-Kamera (Near-Infrared) oder als eine Kamera zur Erfassung von Licht im für Menschen sichtbaren Bereich ausgebildet sein. Mit einer als Infrarot-Kamera, beispielsweise LWIR-Kamera oder NIR-Kamera, ausgebildeten Monokamera 4 wird als Reflexion beispielsweise eine reflektierte Temperatur des stationären Objekts 3 ermittelt. Beispielsweise reflektiert eine Windschutzscheibe des Fahrzeugs 2 des nachfolgenden Verkehrs eine Temperatur des Himmels und bei Passieren des stationären Objekts 3, beispielsweise bei einem Unterfahren eines als Brückenbogen ausgebildeten stationären Objekts 3, dessen Temperatur, welche von der Temperatur des Himmels abweicht. Daraus resultiert die Helligkeitsveränderung im dann mittels der Monokamera 4 erfassten Kamerabild 5.
  • Mittels der Positionsbestimmungseinheit 9 kann, insbesondere in Verbindung mit der digitalen Landkarte 8, die jeweils aktuelle Position des Ego-Fahrzeugs 1 bestimmt werden. Dadurch kann beispielsweise auch die Position eines mittels der Sensorik des Ego-Fahrzeugs 1 neu erfassten Referenzpunktes R bestimmt werden und vorteilhafterweise in der digitalen Landkarte 8 gespeichert werden, und es können bereits in der digitalen Landkarte 8 verzeichnete Referenzpunkte R in der Umgebung des Ego-Fahrzeugs 1 ausgelesen werden. Dabei werden Referenzpunkte R für das beschriebene Verfahren nur dann als aktiv angesehen und somit für das Verfahren als aktiver Referenzpunkt aR verwendet, wenn sie sich in einem Erfassungsbereich der Monokamera 4 befinden. Referenzpunkte R, die sich außerhalb des Erfassungsbereichs der Monokamera 4 befinden, werden als passiv angesehen und für eine dann jeweils aktuell durchzuführende Abstandsbestimmung nicht verwendet. Für das beschriebene Verfahren werden somit als Referenzpunkt R nur jeweils aktive Referenzpunkte aR verwendet.
  • Im Ego-Fahrzeug 1, insbesondere im Steuergerät 11, liegen somit für das Verfahren verwendbare Referenzpunkte R vor, die jeweils entweder aus der digitalen Landkarte 8 ausgelesen sind oder vom Ego-Fahrzeug 1 neu erfasst und gespeichert wurden und somit aus dem Speicher des Ego-Fahrzeugs 1 ausgelesen sind. Diese Referenzpunkte R werden mittels einer Referenzpunktverwaltung 12 verwaltet, so dass zur Abstandsbestimmung als Referenzpunkt R nur die jeweils aktiven Referenzpunkte aR verwendet werden.
  • Zur Bestimmung des Abstands a werden beispielsweise die Positionsbestimmungseinheit 9 zur Positionsbestimmung mittels des globalen Navigationssatellitensystems und die digitale Landkarte 8 verwendet und/oder es wird die inertiale Messeinheit 10 verwendet. Mittels der inertialen Messeinheit 10 kann insbesondere die vom Referenzpunkt R mit dem Ego-Fahrzeug 1 zurückgelegte Wegstrecke ermittelt und daraus der Abstand a bestimmt werden. Mittels der Positionsbestimmungseinheit 9 zur Positionsbestimmung mittels des globalen Navigationssatellitensystems und der digitale Landkarte 8 kann die aktuelle Position des Ego-Fahrzeugs 1 bestimmt werden und dadurch ebenfalls die vom Referenzpunkt R mit dem Ego-Fahrzeug 1 zurückgelegte Wegstrecke ermittelt und daraus der Abstand a bestimmt werden.
  • 5 zeigt den Ablauf des Verfahrens im Steuergerät 11, wobei das beschriebene Verfahren hier zur Verbesserung einer Abstandsbestimmung mittels eines anderen Verfahrens verwendet wird. Mit der Monokamera 4 ist es nicht möglich, direkt eine verlässliche Entfernung zu messen. Um trotzdem Entfernungen zu schätzen, wird bisher bereits häufig ein Klassifikator vorgeschaltet, d. h. es wird eine Objektklassifikation 14 durchgeführt. Wenn mittels der Monokamera 4 ein Fahrzeug 2 des nachfolgenden Verkehrs erfasst wird, wird es mittels des Klassifikators beispielsweise als PKW, Motorrad oder LKW klassifiziert, wodurch für die Abstandsbestimmung von einer entsprechenden für das jeweilige Fahrzeug 2 üblichen Breite B und Höhe H ausgegangen werden kann. Daraus kann mittels des Strahlensatzes und einer Abbildungsgeometrie der Monokamera 4 die Entfernung, d. h. der Abstand a, bestimmt werden. Für einige Anwendungen reicht eine damit verbundene Unsicherheit jedoch nicht aus. Daher ist im Beispiel gemäß 5 vorgesehen, dass diese Abstandsbestimmung mittels des oben beschriebenen Verfahrens verbessert wird.
  • Es wird somit im Beispiel gemäß 5 ein Objekttracking 13 durchgeführt, um das Fahrzeug 2 des nachfolgenden Verkehrs zu erfassen. Es wird dann die Objektklassifikation 14 im mittels der Monokamera 4 erfassten Kamerabild 5 durchgeführt, um das Fahrzeug 2 des nachfolgenden Verkehrs zu klassifizieren. Anhand eines Ergebnisses dieser Klassifizierung und der daraus resultierenden Breite B und Höhe H des Fahrzeugs 2 des nachfolgenden Verkehrs wird dann eine Entfernungsschätzung 15 durchgeführt, d. h. der Abstand a zunächst auf diese Weise geschätzt. Es wird nun geprüft, ob ein Referenzpunktereignis 16 vorliegt, d. h. ob die Abstandsbestimmung auf die oben beschriebene Weise anhand eines Referenzpunktes R durchgeführt werden kann. Dies ist nur möglich, wenn mindestens ein aktiver Referenzpunkt aR vorhanden ist.
  • Liegt kein Referenzpunktereignis 16 vor, in 5 gekennzeichnet durch das Bezugszeichen n für nein, bleibt es bei dieser Schätzung des Abstands a und es wird mit dem Objekttracking 13 fortgefahren.
  • Liegt ein Referenzpunktereignis 16 vor, in 5 gekennzeichnet durch das Bezugszeichen j für ja, wird die oben beschriebene Referenzpunktabstandsbestimmung 17 durchgeführt und somit der Abstand a auf die oben beschriebene Weise mittels des Referenzpunktes R bestimmt. Dadurch wird das Ergebnis der Entfernungsschätzung 15 durch die Abstandsbestimmung mittels des Referenzpunktes R auf die oben beschriebene Weise verbessert und somit ein genauerer Wert für den Abstand a bestimmt. Mit diesem genaueren Wert für den Abstand a wird nun auch eine genauere Schätzung der Breite B und Höhe H des Fahrzeugs 2 des nachfolgenden Verkehrs ermöglicht. Diese können nachfolgend für die Entfernungsschätzung 15 verwendet werden, so dass nachfolgende Ergebnisse der Entfernungsschätzung 15 für den Abstand a verbessert werden, selbst wenn dann keine Referenzpunkte R zur Verfügung stehen.
  • Nach der Abstandsbestimmung mittels des Referenzpunktes R wird wieder das Objekttracking 13 durchgeführt und danach wieder die Abstandsbestimmung auf die beschriebene Weise durchgeführt, d. h. wieder zunächst mittels der Entfernungsschätzung 15, vorteilhafterweise mittels genauer geschätzter Breite B und Höhe H des Fahrzeugs 2 des nachfolgenden Verkehrs, und danach wieder mittels des Referenzpunktes R, wenn ein Referenzpunkt R vorhanden ist. Es wird somit vorteilhafterweise eine fortlaufende Abstandsbestimmung zum Fahrzeug 2 des nachfolgenden Verkehrs durchgeführt.
  • Das Verfahren, d. h. die Vorgehensweise gemäß 5 und/oder das oben beschriebene Verfahren zur Bestimmung des Abstands a mittels des Referenzpunktes R, ist beispielsweise für autonome Fahrzeuge, zum Beispiel für autonome Nutzfahrzeuge, insbesondere LKW, insbesondere bei autonomen Fahrten auf öffentlichen Straßen, besonders vorteilhaft. Für das autonome Fahren ist eine Wahrnehmung und Vermessung einer Umgebung des Ego-Fahrzeugs 1 zwingend notwendig. Dafür werden typischerweise Sensoren wie Lidar, Kameras, Radar und Ultraschall eingesetzt.
  • Eine große Herausforderung bei autonomen LKWs sind Spurwechsel und Einfädelvorgänge. Dabei ist insbesondere für ein Einfädeln bei einer Auffahrt auf eine Autobahn, startend mit einer kleinen Geschwindigkeit, eine Erfassung des nachfolgenden Verkehrs auch über eine große Entfernung erforderlich, beispielsweise in Abhängigkeit von einer maximalen Eigenbeschleunigung, welche auch von einer jeweiligen Beladung des Ego-Fahrzeugs 1 abhängt, und von einer maximalen Geschwindigkeit anderer Verkehrsteilnehmer.
  • Die Erfassung des nachfolgenden Verkehrs über große Entfernungen ist dabei insbesondere aufgrund geringer Beschleunigungen von LKWs erforderlich, da es entsprechend lange dauert, bis eine akzeptable Geschwindigkeit zum Einfädeln in den Verkehr erreicht ist, ohne ein Hindernis oder eine Gefährdung durch zu hohe Relativgeschwindigkeiten darzustellen.
  • Entsprechende Vermessungsanforderungen bezüglich des nachfolgenden Verkehrs liegen beispielsweise bei über 300 m nach hinten. Mittels des hier beschriebenen Verfahrens kann auch auf solche großen Entfernungen die Bestimmung des Abstands a zum Fahrzeug 2 des nachfolgenden Verkehrs durchgeführt werden. Im Gegensatz dazu bringen die großen Entfernungsanforderungen ein Stereokamerasystem an seine messtechnischen Grenzen. Lidar-Ansätze für diese Entfernungen kollidieren mit den nötigen Abstrahlenergien mit den Augensicherheitsanforderungen. Radare sind ergänzend denkbar. Automotive Radare sind jedoch zumeist für den Bereich bis 200 m ausgelegt. Sie ermöglichen neben einer Abstands- auch eine Relativgeschwindigkeitsmessung. Daher können Lidar und/oder Radar beispielsweise zusätzlich unterstützend und fusionierend eingesetzt werden, jedoch wird insbesondere die Abstandsbestimmung auf große Entfernungen mittels des oben beschriebenen Verfahrens mit der Monokamera 4 durchgeführt.
  • Neben der Verwendung des beschriebenen Verfahrens für LKWs ist das Verfahren ebenso für andere Ego-Fahrzeuge 1 geeignet, beispielsweise auch für PKW und Omnibusse.
  • Alternativ oder zusätzlich zur Bestimmung des Abstands a zwischen dem Ego-Fahrzeug 1 und dem Fahrzeug 2 des nachfolgenden Verkehrs wird mit der beschriebenen Vorgehensweise auch eine Abstandsbestimmung zu Verkehrsteilnehmern in andere Richtungen, insbesondere nach vorn zu vorausfahrenden Verkehrsteilnehmern, ermöglicht. Hierzu ist eine entsprechend, insbesondere nach vorn, ausgerichtete Monokamera 4 erforderlich. Wenn die Eigenposition des Ego-Fahrzeugs 1 und der Referenzpunkt R, der im Sichtfrustum der Monokamera 4 liegt, bekannt sind und ein anderer Verkehrsteilnehmer diesen Referenzpunkt R passiert und dies mittels der Monokamera 4 detektiert wird, ist auch seine Distanz bestimmbar.
  • Das beschriebene System und Verfahren ermöglichen eine signifikante Entfernungsmessung von heranfahrenden anderen Verkehrsteilnehmern mit potenziellem Kollisionskurs. Diese Information ermöglicht einer Situationsanalyse eine Entscheidungsfindung bezüglich eines Einfädelns bzw. eines Spurwechsels mit deutlich höherer Konfidenz.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019207707 A1 [0002]

Claims (3)

  1. Verfahren zur Bestimmung eines Abstands (a) zwischen einem Ego-Fahrzeug (1) und einem Fahrzeug (2) eines nachfolgenden Verkehrs, dadurch gekennzeichnet, dass - das Fahrzeug (2) mittels einer Monokamera (4) des Ego-Fahrzeugs (1) erfasst wird, - eine durch ein beleuchtungsveränderndes stationäres Objekt (3) hervorgerufene Helligkeitsveränderung aufgrund eines Schattenwurfs (6) oder einer Reflexion des Objekts (3) in erfassten Kamerabildern (5) ermittelt wird, - eine Position des Schattenwurfs (6) oder der Reflexion und/oder des Objekts (3) in der realen Welt erfasst wird und als Referenzpunkt (R) für die Bestimmung des Abstands (a) verwendet wird, - der Abstand (a) anhand einer vom Referenzpunkt (R) mit dem Ego-Fahrzeug (1) zurückgelegten Wegstrecke bis zur Erfassung des Schattenwurfs (6) oder der Reflexion und/oder anhand einer Zeit von einem Passieren des Referenzpunktes (R) mit dem Ego-Fahrzeug (1) bis zur Erfassung des Schattenwurfs (6) oder der Reflexion bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die vom Referenzpunkt (R) mit dem Ego-Fahrzeug (1) zurückgelegte Wegstrecke bis zur Erfassung des Schattenwurfs (6) oder der Reflexion anhand einer Geschwindigkeit des Ego-Fahrzeugs (1) und der Zeit vom Passieren des Referenzpunktes (R) mit dem Ego-Fahrzeug (1) bis zur Erfassung des Schattenwurfs (6) oder der Reflexion bestimmt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Referenzpunkt (R) mittels einer Sensorik des Ego-Fahrzeugs (1) erfasst wird und/oder aus einer digitalen Landkarte (8) ausgelesen wird.
DE102021005624.8A 2021-11-12 2021-11-12 Verfahren zur Bestimmung eines Abstands Pending DE102021005624A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021005624.8A DE102021005624A1 (de) 2021-11-12 2021-11-12 Verfahren zur Bestimmung eines Abstands

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021005624.8A DE102021005624A1 (de) 2021-11-12 2021-11-12 Verfahren zur Bestimmung eines Abstands

Publications (1)

Publication Number Publication Date
DE102021005624A1 true DE102021005624A1 (de) 2022-02-17

Family

ID=80000344

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021005624.8A Pending DE102021005624A1 (de) 2021-11-12 2021-11-12 Verfahren zur Bestimmung eines Abstands

Country Status (1)

Country Link
DE (1) DE102021005624A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207707A1 (de) 2019-05-27 2020-12-03 Robert Bosch Gmbh Verfahren zur Steuerung eines abstandserfassenden Sensorsystems eines Fahrzeugs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207707A1 (de) 2019-05-27 2020-12-03 Robert Bosch Gmbh Verfahren zur Steuerung eines abstandserfassenden Sensorsystems eines Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102011088130B4 (de) Verfahren und Vorrichtung zur Erkennung einer Bremssituation
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102011014081A1 (de) Verfahren zum Erkennen eines Abbiegemanövers
DE112019000339T5 (de) Automatisches beleuchtungssystem
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
EP1557692A1 (de) Verfahren zur Erkennung von gekennzeichneten Gefahr- und/oder Baustellen im Bereich von Fahrbahnen
DE102018002955A1 (de) Verfahren und steueranordnung zur umgebungswahrnehmung
DE102011081614A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
DE102018217746A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE10148069A1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102011080928A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
DE102012100463A1 (de) Vorrichtung und Verfahren zur Ermittlung und Ausgabe von Daten für eine automatische Lichtsteuerung für ein Fahrzeug
DE102010049215A1 (de) Verfahren zur Bestimmung einer Fahrzeugumgebung
DE102018004782A1 (de) Verfahren und Vorrichtung zum Erfassen einer Umgebung, sowie Fahrzeug mit einer solchen Vorrichtung
DE102012220191A1 (de) Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
EP3109663A1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug
DE102008054041B3 (de) Verfahren zur kombinierten Ausgabe eines Bildes und einer ein Verkehrszeichen betreffenden Information, sowie Kraftfahrzeug hierfür
DE102010049214A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE102009036196A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung für ein Fahrzeug
DE102021005624A1 (de) Verfahren zur Bestimmung eines Abstands
DE102015216927B4 (de) Verfahren und Vorrichtung zur automatischen Dokumentation von Verkehrsverstößen

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE