DE102021003432A1 - Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug - Google Patents

Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug Download PDF

Info

Publication number
DE102021003432A1
DE102021003432A1 DE102021003432.5A DE102021003432A DE102021003432A1 DE 102021003432 A1 DE102021003432 A1 DE 102021003432A1 DE 102021003432 A DE102021003432 A DE 102021003432A DE 102021003432 A1 DE102021003432 A1 DE 102021003432A1
Authority
DE
Germany
Prior art keywords
vehicle
height
windshield
determined
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021003432.5A
Other languages
English (en)
Inventor
Alexander Rössler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102021003432.5A priority Critical patent/DE102021003432A1/de
Publication of DE102021003432A1 publication Critical patent/DE102021003432A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Anzeige von Informationen (I) aus einer Fahrzeugumgebung eines Fahrzeugs (5), wobei mittels eines multifunktionalen Windschutzscheiben-Displays (20) Informationen (I) auf einer Windschutzscheibe des Fahrzeugs (5) angezeigt werden, wobei mittels Umgebungssensoren, umfassend eine Kamera (6) und Radarsensoren (1.1, 1.2, 1.3), eine vor dem Fahrzeug (5) liegende Umgebung erfasst wird, wobei aus der erfassten Umgebung ermittelt wird, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt, wobei als Information (I) eine Höhe (h) zur Erkennung einer Durchfahrthöhe eines als Brücke (11) oder Durchfahrt (30) erkannten Objekts (2.1 bis 2.6) bestimmt wird, wobei die Höhe (h) mittels des multifunktionalen Windschutzscheiben-Displays (20) auf der Windschutzscheibe des Fahrzeugs (5) angezeigt wird, wobei im Falle einer zu niedrigen Höhe (h) die Durchfahrt (30) mittels des multifunktionalen Windschutzscheiben-Displays (20) positionsrichtig auf der Windschutzscheibe grafisch hervorgehoben wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1 sowie ein Fahrzeug gemäß dem Oberbegriff des Anspruchs 8.
  • DE 10 2010 013 401 A1 beschreibt eine im Wesentlichen transparente Frontscheiben-Head-Up-Anzeige, umfassend Licht emittierende Partikel oder Mikrostrukturen über einem vordefinierten Gebiet der Frontscheibe, die eine lumineszierende Anzeige zulassen, während eine Sicht durch die Frontscheibe zugelassen wird. Ein Verfahren zum Anzeigen einer Grafik an einer im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige eines Host-Fahrzeugs, die eine bevorzugte Fahrdistanz für das Host-Fahrzeug beschreibt, umfasst, dass eine Geschwindigkeit des Host-Fahrzeugs überwacht wird, eine bevorzugte Fahrdistanz für das Host-Fahrzeug auf der Grundlage der Geschwindigkeit des Host-Fahrzeugs ermittelt wird, eine Grafik, die die bevorzugte Fahrdistanz beschreibt, für eine Anzeige an der im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige ermittelt wird und die Grafik an der im Wesentlichen transparenten Frontscheiben-Head-Up-Anzeige angezeigt wird.
  • DE 10 2020 000 70 57 A1 beschreibt ein Verfahren zur Bestimmung einer Durchfahrhöhe für ein Fahrzeug mittels einer Kamera, wobei mit der Kamera ein Bild von einer vor dem Fahrzeug liegenden Umgebung aufgenommen wird, wobei aus Bilddaten der Kamera ermittelt wird, ob ein Objekt in der Umgebung vorliegt und eine Durchfahrt des Objekts möglich ist, wobei zusätzlich ein Long-Range-Radar sowie zwei Short-Range-Radars mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug verwendet werden, um Objekte in der Umgebung zu erkennen, wobei Sichtbereiche der Radarsensoren und der Kamera einander überlappen, wobei anhand der Daten jedes der Radarsensoren und der Kamera jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt nach zwei weiteren danebenliegenden Reflexionspunkten gesucht wird, wobei die anhand der Daten der Radarsensoren und der Kamera bestimmten L-Shapes miteinander verglichen werden um ein fusioniertes Bild mit fusionierten L-Shapes zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe zwischen fusionierten L-Shapes eines als Brücke oder Durchfahrt erkannten Objekts bestimmt wird. Somit erfolgt eine Höhenkontrolle, welche Unfälle an Brücken aufgrund zu geringer Durchfahrtshöhe vermeiden soll. Dabei wird der Fahrer visuell und akustisch auf die potentielle Gefahr hingewiesen. Aufgrund der Vielzahl von möglichen Gefahrenquellen und Warnhinweise, die durch moderne aktive Sicherheitssysteme entstehen, ergibt sich das Problem, dass der Fahrer die Ursache der Warnmeldung häufig nicht mehr verstehen oder richtig zuordnen kann. Es ist daher möglich, dass der Fahrer durch Warntöne sogar abgelenkt wird oder durch Ähnlichkeit von angezeigten Warnsymbolen die Gefahrenquelle nicht richtig zuordnet und falsch reagiert.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie ein Fahrzeug anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs gemäß Anspruch 1 sowie durch ein Fahrzeug gemäß Anspruch 8.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs werden mittels eines multifunktionalen Windschutzscheiben-Displays Informationen auf einer Windschutzscheibe des Fahrzeugs angezeigt, wobei mittels Umgebungssensoren, umfassend eine Kamera und Radarsensoren, eine vor dem Fahrzeug liegende Umgebung erfasst wird, wobei aus der erfassten Umgebung ermittelt wird, ob ein Objekt in der Umgebung vorliegt. Erfindungsgemäß wird als Information eine Höhe zur Erkennung einer Durchfahrthöhe eines als Brücke oder Durchfahrt erkannten Objekts bestimmt, wobei die Höhe mittels des multifunktionalen Windschutzscheiben-Displays auf der Windschutzscheibe des Fahrzeugs angezeigt wird, wobei im Falle einer zu niedrigen Höhe die Durchfahrt mittels des multifunktionalen Windschutzscheiben-Displays positionsrichtig auf der Windschutzscheibe grafisch hervorgehoben wird.
  • Somit wird der Fahrer auf zuverlässige Weise rechtzeitig vor einer zu niedrigen Höhe gewarnt. Die erfindungsgemäße Darstellung der Höhe auf dem multifunktionalen Windschutzscheiben-Display verhindert, dass der Fahrer durch den Blick auf ein Instrument Cluster, auf welchem eine Warnung bisher angezeigt wurde, abgelenkt wird. Auf diese Weise kann die Unfallgefahr reduziert werden.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors,
    • 2 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung einer L-Shape-Berechnung,
    • 3 schematische Ansichten eines Szenarios mit einem Radarsensor eines Fahrzeugs und einem Objekt im Sichtfeld des Radarsensors zur Verdeutlichung der L-Shape-Berechnung,
    • 4 eine schematische Ansicht eines Szenarios mit einem Radarsensor eines Fahrzeugs und einer Anzahl von Objekten im Sichtfeld des Radarsensors sowie mit erkannten L-Shapes,
    • 5 eine schematische Ansicht eines Fahrzeugs, an dem drei Radarsensoren und eine Kamera angeordnet sind,
    • 6 eine schematische Ansicht einer elektronischen Architektur des Fahrzeugs,
    • 7 eine schematische Ansicht von drei Objekten, von jeweils dazugehörigen L-Shapes, die jeweils anhand der Daten der Radarsensoren und der Kamera zu jedem Objekt ermittelt wurden, sowie durch Sensorfusionierung ermittelter fusionierter L-Shapes,
    • 8 eine schematische Ansicht der Brücke aus 5, wobei mittels des beschriebenen Verfahrens erkannte L-Shapes dargestellt sind, anhand deren eine Höhe der Durchfahrt bestimmt werden kann;
    • 9 eine schematische Ansicht eines Fahrzeugs und einer Durchfahrt.
    • 10 eine schematische Ansicht des Fahrzeugs mit einem multifunktionalen Windschutzscheiben-Display, und
    • 11 eine schematische Ansicht des multifunktionalen Windschutzscheiben-Displays.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • Immer wieder entstehen Unfälle, deren Ursache darin liegt, dass die Höhe von Durchfahrten und Brücken falsch eingeschätzt wird und Fahrzeuge, beispielsweise LKWs, daran verunfallen.
  • Manchmal vergisst der Fahrer, besonders bei häufigen Fahrzeugwechseln, dass er die Durchfahrtshöhe beachten muss. In manchen Fällen ragt der Aufbau über die eigentliche zulässige Höhenbeschränkung heraus, besonders bei Spezialtransporten.
  • Bekannte Radartechnologie und damit mögliche Objekterkennung basiert auf Einstufung eines sogenannten RCS-Wertes. RCS steht für Radar Cross Section und gibt die Reflektionsstärke einer Radarwelle an. Diese ist abhängig von der elektrischen Leitfähigkeit, Form, Distanz und Material eines Objektes. Durch Klassifizierung des RCS-Wertes wird unterschieden, wie reagiert wird. So wird beispielsweise beim Überschreiten des RCS-Wertes einer festgelegten Grenze eine Bremsung durchgeführt.
  • Bei Unterschreitung des RCS-Wertes wird eine Kamera veranlasst, die festgestellte Situation zu überprüfen und zu bestätigen (Sensorfusion), um was für ein Objekt es sich handelt und erst daraufhin wird eine Reaktion, beispielsweise eine Warnmeldung und/oder eine Bremsung, ausgelöst.
  • Darüber hinaus wird das Bewegungsprofil analysiert und klassifiziert und eine Objektklassifizierung vorgenommen, beispielsweise über die Feststellung eines Micro-Doppler-Effekts. Auf diese Weise kann festgestellt werden, ob es sich bei dem Objekt um eine Person, ein Fahrzeug oder etwas anderes handelt.
  • Während sich Distanzen und Geschwindigkeiten von beweglichen Objekten aufgrund von Doppler- und Micro-Doppler-Effekten sehr gut feststellen lassen, ist dies bei stehenden Objekten schwer.
  • Es ist daher mit der bekannten Technik möglich, festzustellen, wo sich Objekte mit einem bestimmten RCS-Wert ungefähr befinden. Eine Distanzmessung der Objekte selbst oder eine Distanzmessung der Objekte zueinander ist jedoch in zuverlässiger Form bisher nicht möglich. Folge ist, dass eine zweifelsfreie Erkennung von Brücken und Durchfahrten, also eine Höhenkontrolle oder auch Weitenkontrolle, bislang nicht möglich ist.
  • 1 ist eine schematische Ansicht eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einer Anzahl von Objekten 2.1 bis 2.6 im Sichtfeld des Radarsensors 1. Der Radarsensor 1 erkennt Reflexionspunkte 3 an einigen der Objekte 2.1 bis 2.6. Das Objekt 2.4 ist vom Objekt 2.3 verdeckt und für den Radarsensor 1 nicht sichtbar und erhält daher beispielsweise den RCS-Wert 1. Das Objekt 2.2 ist für den Radarsensor 1 mit drei Reflexionspunkten 3 sichtbar und erhält beispielsweise den RCS-Wert 2. Die Objekte 2.1 und 2.6 sind beispielsweise Begrenzungen, insbesondere Leitplanken.
  • Durch die limitierte Abtastgenauigkeit und Begrenzung der Anzahl von stehenden Objekten 2.1 bis 2.6 können diese zwar identifiziert und ihre ungefähre Position bestimmt werden. Eine exakte Distanzmessung der Objekte 2.1 bis 2.6 zueinander ist jedoch nicht möglich.
  • Durch den Einsatz von verbesserten Sensoren mit feinerer Abtastung, kombiniert mit einer verbesserten Objekterkennung durch mehrere Sensoren, beispielsweise drei Radarsensoren 1 mit unterschiedlichen Positionen am Fahrzeug und einer hochauflösenden Kamera, sowie einer beispielsweise um das fünfzehnfache erhöhten Rechenleistung, wird dieses Problem gelöst und eröffnet damit neue Anwendungsmöglichkeiten.
  • Einer der Radarsensoren 1 ist als ein Long-Range-Radar ausgebildet, beispielsweise mit einem Messbereich bis etwa 250 m. Die Sichtweite der Kamera kann je nach Lichtverhältnissen bis zu 180 m betragen. Zwei weitere der Radarsensoren sind jeweils als ein Short-Range-Radar ausgebildet, beispielsweise mit einem Messbereich bis etwa 85 m.
  • Damit werden eine höhere Sichtweite, eine bessere Objekterkennung durch höhere Abtastgenauigkeit und verbesserte Auflösung der Kamera und ein größerer Erfassungswinkel erreicht. Somit kann eine höhere Anzahl an Objekten erkannt und verfolgt werden. Durch die zwei zusätzlichen als Short-Range-Radar ausgebildeten Radarsensoren, insbesondere mit extrem feiner Abtastung und überlagernden Messbereich, kann eine zusätzliche Objektprüfung und -bestätigung (Sensorfusion) erfolgen. Somit werden eine verbesserte Kantenerkennung und damit die Distanzmessung durch den Einsatz der L-Shape-Technologie erreicht.
  • 2 zeigt schematische Ansichten eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einem Objekt 2.1 im Sichtfeld des Radarsensors 1 zur Verdeutlichung der L-Shape-Berechnung.
  • Die L-Shape-Berechnung bei der Radarerfassung hilft hier insbesondere eine verbessere Distanzmessung zu realisieren. Bei der L-Shape-Berechnung wird stets nach zwei weiteren Reflexionspunkten 3 neben einem erkannten Reflexionspunkt 3 gesucht. Anschließend wird versucht, die drei Punkte in Relation zu setzen und in ein Koordinatensystem zu setzen. Die Verbindung dieser drei Punkte mittels Linien ergibt die Form eines L. Insbesondere wird so vorgegangen, dass der nächstliegende Punkt zwischen Radarsensor 1 und Objekt 2.1 genutzt und als Referenzpunkt 3Ref definiert wird. Dann wird überprüft, ob nebenliegende Reflexionspunkte 3 zum Objekt 2.1 gehören und diese virtuell mittels einer Linie verbunden sind. Es wird überprüft, ob eine Beziehung zwischen diesen Reflexionspunkten 3 besteht. Endet das Objekt 2.1, dann wird der Reflexionspunkt 3 davor als linkes Extremum 3L bzw. rechtes Extremum 3R definiert. Sollten die drei Reflexionspunkte 3 nicht exakt auf einer Linie liegen, kann eine Kante bestimmt werden auf welche der Knick des L gelegt wird.
  • 3 zeigt schematische Ansichten eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einem Objekt 2.1 im Sichtfeld des Radarsensors 1 zur Verdeutlichung der L-Shape-Berechnung.
  • Wird kein Reflexionspunkt 3 erkannt, der die Tiefe des Objekts 2.1 erkennen lässt, so wird ein Reflexionspunkt 3Le oder 3Re extrapoliert. Die Distanz dazu beträgt beispielsweise 0,3 m. Sollte also, was in der Praxis nicht vorkommt, lediglich ein einzelner Reflexionspunkt 3 sichtbar sein, so hat das extrapolierte L eine Schenkellänge von jeweils 0,3 m.
  • In dem in 1 gezeigten Szenario werden daher L-Shapes 4 ermittelt wie in 3 dargestellt. 4 ist eine schematische Ansicht eines Szenarios mit einem Radarsensor 1 eines Fahrzeugs und einer Anzahl von Objekten 2.1 bis 2.6 im Sichtfeld des Radarsensors 1 sowie mit erkannten L-Shapes 4.
  • Mithilfe des L-Shape-Algorithmus kann die Breite und Höhe eines Objekts 2.1 bis 2.6 und je nach Position auch seine Tiefe wesentlich genauer festgestellt werden.
  • Entsprechend kann auf diese Weise auch die Distanz der Objekte 2.1 bis 2.6 untereinander festgestellt werden.
  • 5 ist eine schematische Ansicht eines Fahrzeugs 5, insbesondere eines Nutzfahrzeugs, an dem drei Radarsensoren 1.1, 1.2, 1.3 und eine Kamera 6 angeordnet sind, wobei der Radarsensor 1.1 als ein Long-Range-Radar ausgebildet ist, das einen Sichtbereich LRR abdeckt und wobei die Radarsensoren 1.2, 1.3 als Short-Range-Radar ausgebildet sind, die jeweils einen Sichtbereich SRR abdecken. Die Kamera 6 deckt einen Sichtbereich MPC ab. Vor dem Fahrzeug 5 in Fahrtrichtung befindet sich eine Brücke 11 mit einer Kante 12. Da am Fahrzeug nicht nur ein Radarsensor 1, sondern drei Radarsensoren 1.1, 1.2, 1.3 eingesetzt werden, die unterschiedlich positioniert und/oder ausgerichtet sind, verbessert sich die Dimensions- und Distanzerkennung erheblich. Darüber erkennt die Kamera 6 die Kanten von Objekten 2.1 bis 2.6 und führt darüber ebenfalls mittels der L-Shape-Berechnung eine Distanzmessung durch.
  • Somit werden von drei Radarsensoren 1.1, 1.2, 1.3, dem Long-Range-Radar und den beiden Short-Range-Radaren, sowie der Kamera 6 mit überdeckenden Sichtbereichen Daten geliefert.
  • 6 ist eine schematische Ansicht einer elektronischen Architektur des Fahrzeugs 5, umfassend die Radarsensoren 1.1, 1.2 und die Kamera 6, eine Video-Radar-Entscheidungs-Einheit 7, ein zentrales Gateway 8, einen Instrument Cluster 9 zur visuellen und akustischen Warnung eines Fahrers sowie eine Steuereinheit 10 des Fahrzeugs 5, die Warnungen an andere Verkehrsteilnehmer ausgeben kann, beispielsweise über eine Warnblinkanlage oder eine Hupe.
  • Eine Video-Radar-Entscheidungs-Einheit 7 sammelt die Daten der Sensoren, das heißt der drei Radarsensoren 1.1, 1.2, 1.3 und der Kamera 6, und vergleicht sie miteinander. Werden von einem Sensor extrapolierte Punkte geliefert, so werden diese mit den Daten eines anderen Sensors verglichen und entsprechend niedriger priorisiert. Auf diese Weise wird aus den gelieferten Daten ein fusioniertes Bild erzeugt. 7 ist eine schematische Ansicht von drei Objekten 2.1 bis 2.3, von jeweils dazugehörigen L-Shapes 4L, 4M und 4S, die jeweils anhand der Daten der Radarsensoren 1.1, 1.2 und der Kamera 6 zu jedem Objekt 2.1 bis 2.3 ermittelt wurden sowie durch die Sensorfusionierung ermittelter fusionierter L-Shapes 4F. Bei dem in 7 gezeigten Objekt 2.1 würden beispielsweise die Daten des als Short-Range-Radar ausgebildeten Radarsensors 1.2 verwendet, da dieser mehr zusammenhängende Reflektionen erkennt, während die Kamera 6 und der als Long-Range-Radar ausgebildete Radarsensor 1.1 im rechten Teil des Objekts 2.1 nur extrapolierte Daten liefern. Bei den Objekten 2.2 und 2.3 ist es umgekehrt.
  • Die höhere Abtastleistung, die höhere Anzahl an Sensoren, die erhöhte Anzahl der zu verfolgenden Objekte 2.1 bis 2.6, die Sensorfusion als Ergebnis von vier unterschiedlichen Messsensoren als auch die Anwendung der beschriebenen L-Shape-Berechnung ermöglicht eine verbesserte Höhen- und Breitenkontrolle von Durchfahrten zur akustischen und/oder optischen Warnung des Fahrers.
  • In einer Ausführungsform kann ein aktiver Eingriff, beispielsweise Bremsen, vorgesehen sein, wenn eine zu geringe Höhe und/oder breite Höhe erkannt wurde.
  • 8 ist eine schematische Ansicht der Brücke 11 aus 5, wobei mittels des beschriebenen Verfahrens erkannte L-Shapes 4 dargestellt sind, anhand deren eine Höhe h der Durchfahrt bestimmt werden kann.
  • In einer Ausführungsform ist ein Abgleich mit einer Verkehrszeichenerkennung möglich, sofern diese beispielsweise eine Baustellensituation oder eine markierte Situation (insbesondere beschränkte Durchfahrtshöhe) anzeigt.
  • 9 ist eine schematische Ansicht eines Fahrzeugs 5 und einer Durchfahrt 30. 10 ist eine schematische Ansicht des Fahrzeugs 5 mit einem multifunktionalen Windschutzscheiben-Display 20. 11 ist eine schematische Ansicht des multifunktionalen Windschutzscheiben-Displays 20.
  • Das multifunktionale Windschutzscheiben-Display 20 ist zur Anzeige von Informationen I aus einer Fahrzeugumgebung des Fahrzeugs 5 konfiguriert, das mit Umgebungssensoren, beispielsweise mindestens einer Kamera 6, mindestens einem Radarsensor 1, 1.1 bis 1.3, LIDAR, etc., ausgestattet sein kann, die zur Erfassung der Fahrzeugumgebung konfiguriert sind. Die Information I wird mittels des multifunktionalen Windschutzscheiben-Displays 20 auf einer Windschutzscheibe des Fahrzeugs 5 dargestellt.
  • Erfindungsgemäß handelt es sich bei der Information I um eine Höhe h einer dem Fahrzeug 5 vorausliegenden Durchfahrt 30, beispielsweise einen Tunnel oder eine Brücke 11, wobei die Höhe h mittels der Umgebungssensoren, beispielsweise mindestens einer Kamera 6 und/oder mindestens einem Radarsensor 1, 1.1 bis 1.3, bestimmt wird, insbesondere mittels des oben beschriebenen Verfahrens mithilfe von L-Shape und Sensorfusion. Ebenso kann die Höhe h auf andere Weise bestimmt werden, beispielsweise aus Kartendaten oder mittels einer anders ausgebildeten Sensorik und/oder eines anderen Verfahrens.
  • Im Falle einer zu niedrigen Höhe h wird die Durchfahrt 30 mittels des multifunktionalen Windschutzscheiben-Displays 20 positionsrichtig auf der Windschutzscheibe grafisch dargestellt und/oder hervorgehoben. Somit wird der Fahrer auf zuverlässige Weise rechtzeitig vor einer zu niedrigen Höhe h gewarnt.
  • Beim multifunktionalen Windschutzscheiben-Display 20 kann die gesamte Windschutzscheibe als durchsichtige Anzeigefläche dienen, auf welche alle möglichen Informationen I projiziert werden können, beispielsweise Texte, Symbole, Bilder, insbesondere auch bewegte Bilder, beispielsweise von einer Rückfahrkamera.
  • Die erfindungsgemäße Darstellung der Höhe h auf dem multifunktionalen Windschutzscheiben-Display 20 verhindert, dass der Fahrer durch den Blick auf ein Instrument Cluster 9, auf welchem eine Warnung bisher angezeigt wurde, abgelenkt wird. Auf diese Weise kann die Unfallgefahr reduziert werden.
  • Die Gefahrenquelle, das heißt die zu niedrige Höhe h, kann durch Einfärben, Umrahmen, Markieren oder Einfügen eines Symbols auf dem multifunktionalen Windschutzscheiben-Display 20 kenntlich gemacht werden. Mithilfe einer Objekt-Erkennung wird die Distanz und Position der Durchfahrt 30 im Verhältnis zum Fahrzeug 5 ständig aktualisiert und entsprechend fließend auf dem multifunktionalen Windschutzscheiben-Display 20 angezeigt.
  • Auf gleiche Weise kann eine Durchfahrbreite bestimmt und mittels des multifunktionalen Windschutzscheiben-Displays 20 auf der Windschutzscheibe des Fahrzeugs 5 angezeigt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102010013401 A1 [0002]
    • DE 1020200007057 A1 [0003]

Claims (8)

  1. Verfahren zur Anzeige von Informationen (I) aus einer Fahrzeugumgebung eines Fahrzeugs (5), wobei mittels eines multifunktionalen Windschutzscheiben-Displays (20) Informationen (I) auf einer Windschutzscheibe des Fahrzeugs (5) angezeigt werden, wobei mittels Umgebungssensoren, umfassend eine Kamera (6) und Radarsensoren (1.1, 1.2, 1.3), eine vor dem Fahrzeug (5) liegende Umgebung erfasst wird, wobei aus der erfassten Umgebung ermittelt wird, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt, dadurch gekennzeichnet, dass als Information (I) eine Höhe (h) zur Erkennung einer Durchfahrthöhe eines als Brücke (11) oder Durchfahrt erkannten Objekts (2.1 bis 2.6) bestimmt wird, wobei die Höhe (h) mittels des multifunktionalen Windschutzscheiben-Displays (20) auf der Windschutzscheibe des Fahrzeugs (5) angezeigt wird, wobei im Falle einer zu niedrigen Höhe (h) die Durchfahrt (30) mittels des multifunktionalen Windschutzscheiben-Displays (20) positionsrichtig auf der Windschutzscheibe grafisch hervorgehoben wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die zu niedrige Höhe (h) durch Einfärben, Umrahmen, Markieren und/oder Einfügen eines Symbols auf dem multifunktionalen Windschutzscheiben-Display (20) kenntlich gemacht wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Höhe (h) bestimmt wird, indem ein als Long-Range-Radar ausgebildeter Radarsensor (1.1) sowie zwei als Short-Range-Radar ausgebildete Radarsensoren (1.2, 1.3) mit unterschiedlichen Positionen und/oder Ausrichtungen am Fahrzeug (5) verwendet werden, um Objekte (2.1 bis 2.6) in der Umgebung zu erkennen, wobei Sichtbereiche (LRR, MPC, SRR) der Radarsensoren (1.1 bis 1.3) und der Kamera (6) einander überlappen, wobei anhand der Daten jedes der Radarsensoren (1.1 bis 1.3) und der Kamera (6) jeweils eine L-Shape-Berechnung vorgenommen wird, bei der neben einem erkannten Reflexionspunkt (3) nach zwei weiteren danebenliegenden Reflexionspunkten (3) gesucht wird, wobei die drei Reflexionspunkte (3) in Relation zueinander und in ein Koordinatensystem gesetzt werden, so dass eine Verbindung dieser drei Punkte mittels Linien ein L-Shape (4) ergibt, wobei ein nächstliegender Punkt zwischen Radarsensor (1.1 bis 1.3) oder Kamera (6) und Objekt (2.1 bis 2.6) als Referenzpunkt (3Ref) definiert und danebenliegende zum gleichen Objekt (2.1) gehörende Reflexionspunkte (3) virtuell mittels einer Linie verbunden werden, wobei an erkannten Enden des Objekts (2.1 bis 2.6) liegende Reflexionspunkte (3) als linkes Extremum (3L) oder rechtes Extremum (3R) definiert werden, wobei dann, wenn kein Reflexionspunkt (3) erkannt wird, der eine Tiefe des Objekts (2.1 bis 2.6) erkennen lässt, ein extrapolierter Reflexionspunkt (3Le, 3Re) bestimmt wird, wobei die anhand der Daten der Radarsensoren (1.1 bis 1.3) und der Kamera (6) bestimmten L-Shapes (4) miteinander verglichen werden, um ein fusioniertes Bild mit fusionierten L-Shapes (4F) zu erzeugen, wobei zur Erkennung der Durchfahrthöhe eine Höhe (h) zwischen fusionierten L-Shapes (4F) eines als Brücke (11) oder Durchfahrt (30) erkannten Objekts (2.1 bis 2.6) bestimmt wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass dann, wenn die drei Reflexionspunkte (3) nicht exakt auf einer Linie liegen, eine Kante bestimmt wird, auf welche ein Knick des L-Shape (4) gelegt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass eine Durchfahrbreite bestimmt und mittels des multifunktionalen Windschutzscheiben-Displays (20) auf der Windschutzscheibe des Fahrzeugs (5) angezeigt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass bei einer für das Fahrzeug (5) zu geringen erkannten Durchfahrhöhe und/oder Durchfahrbreite ein aktiver Fahreingriff erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zusätzlich ein Abgleich mit einer Verkehrszeichenerkennung erfolgt.
  8. Fahrzeug (5), umfassend: - ein multifunktionales Windschutzscheiben-Display (20) zur Darstellung von Informationen (I) aus einer Fahrzeugumgebung eines Fahrzeugs (5) auf einer Windschutzscheibe des Fahrzeugs (5), - Umgebungssensoren, umfassend eine Kamera (6) und Radarsensoren (1.1, 1.2, 1.3) zur Erfassung einer vor dem Fahrzeug (5) liegenden Umgebung, - Mittel zum Ermitteln aus der erfassten Umgebung, ob ein Objekt (2.1 bis 2.6) in der Umgebung vorliegt, dadurch gekennzeichnet, dass Mittel zur Bestimmung einer Höhe (h) zur Erkennung einer Durchfahrthöhe eines als Brücke (11) oder Durchfahrt (30) erkannten Objekts (2.1 bis 2.6) vorgesehen sind, wobei das multifunktionale Windschutzscheiben-Display (20) dazu konfiguriert ist, die Höhe (h) auf der Windschutzscheibe des Fahrzeugs (5) anzuzeigen und im Falle einer zu niedrigen Höhe (h) die Durchfahrt (30) positionsrichtig auf der Windschutzscheibe grafisch hervorzuheben.
DE102021003432.5A 2021-07-02 2021-07-02 Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug Pending DE102021003432A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021003432.5A DE102021003432A1 (de) 2021-07-02 2021-07-02 Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021003432.5A DE102021003432A1 (de) 2021-07-02 2021-07-02 Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug

Publications (1)

Publication Number Publication Date
DE102021003432A1 true DE102021003432A1 (de) 2021-09-02

Family

ID=77271005

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021003432.5A Pending DE102021003432A1 (de) 2021-07-02 2021-07-02 Verfahren zur Anzeige von Informationen aus einer Fahrzeugumgebung eines Fahrzeugs sowie Fahrzeug

Country Status (1)

Country Link
DE (1) DE102021003432A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010013401A1 (de) 2009-04-02 2010-10-21 GM Global Technology Operations, Inc., Detroit Empfohlene Folgedistanz an Head-Up-Anzeige für gesamte Windschutzscheibe

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010013401A1 (de) 2009-04-02 2010-10-21 GM Global Technology Operations, Inc., Detroit Empfohlene Folgedistanz an Head-Up-Anzeige für gesamte Windschutzscheibe

Similar Documents

Publication Publication Date Title
EP3143606B1 (de) System zur fahrerunterstützung
EP3495840A1 (de) Verfahren und vorrichtung zur eigenlokalisierung eines fahrzeugs
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
DE102011009106A1 (de) Verfahren zum Betrieb eines eine auf einen Überholvorgang bezogene Empfehlung ausgebenden Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102011018159A1 (de) Vorrichtung und Verfahren zur Fahrerunterstützung
WO2011157251A1 (de) Verfahren zur fusion eines verkehrszeichenerkennungssystems und eines spurerkennungssystems eines kraftfahrzeugs
DE102013104256A1 (de) Verfahren und Vorrichtung zur Schätzung der Anzahl von Fahrspuren
EP3488607B1 (de) Kameravorrichtung zur aufnahme eines umgebungsbereichs eines eigenen fahrzeugs sowie verfahren zur bereitstellung einer fahrerassistenzfunktion
DE102018219976A1 (de) Vorrichtung und Verfahren zur Warnung eines Fahrers eines Fahrzeugs
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102013005404A1 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
WO2018054523A1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug
DE102007025147B4 (de) System zur Spurverlassenswarnung und/oder Spurhaltefunktion
DE102020007057A1 (de) Fahrzeug und Verfahren zur Bestimmung einer Durchfahrtshöhe
DE102012215014A1 (de) Verfahren zur Überwachung eines toten Winkels und Fahrassistenzsystem
DE102013003219A1 (de) Unterstützung eines Fahrers eines Kraftfahrzeugs beim Fahren auf einer Überholspur einer zumindest zweispurigen Straße
DE102011055441A1 (de) Verfahren und Vorrichtung zur Abstandsermittlung zwischen Fahrzeugen
DE102013214631A1 (de) Effizientes Bereitstellen von Belegungsinformationen für das Umfeld eines Fahrzeugs
DE102020004215A1 (de) Verfahren zur Darstellung einer Verkehrssituation in einem Fahrzeug
DE102017007958A1 (de) Fahrerassistenzsystem für ein Fahrzeug und Fahrzeug mit einem solchen Fahrerassistenzsystem
EP3059607B1 (de) Verfahren zum betrieb eines fahrerinformationssystems in einem kraftfahrzeug und kraftfahrzeug
DE102016214316A1 (de) Verfahren und Vorrichtung zum Erkennen eines durch ein Fahrzeugteil zumindest teilverdeckten Objekts in einer Fahrzeugumgebung eines Kraftfahrzeugs
DE102008018512A1 (de) Fahrzeugführer-Assistenzsystem und dazugehöriges Verfahren
DE102005059415B4 (de) Spurwechselassistenzsystem für ein Fahrzeug
EP3109663A1 (de) Verfahren zum betrieb eines fahrerassistenzsystems eines kraftfahrzeugs und kraftfahrzeug

Legal Events

Date Code Title Description
R230 Request for early publication
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE