DE102019206922B4 - Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen - Google Patents

Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen Download PDF

Info

Publication number
DE102019206922B4
DE102019206922B4 DE102019206922.3A DE102019206922A DE102019206922B4 DE 102019206922 B4 DE102019206922 B4 DE 102019206922B4 DE 102019206922 A DE102019206922 A DE 102019206922A DE 102019206922 B4 DE102019206922 B4 DE 102019206922B4
Authority
DE
Germany
Prior art keywords
vehicle
marking
hud
dangerous
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019206922.3A
Other languages
English (en)
Other versions
DE102019206922A1 (de
Inventor
Mark Bennemann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102019206922.3A priority Critical patent/DE102019206922B4/de
Publication of DE102019206922A1 publication Critical patent/DE102019206922A1/de
Application granted granted Critical
Publication of DE102019206922B4 publication Critical patent/DE102019206922B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/40Indexing codes relating to other road users or special conditions
    • B60Q2300/45Special conditions, e.g. pedestrians, road signs or potential dangers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0167Emergency system, e.g. to prevent injuries

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Verfahren zur Objektmarkierung in Fahrzeugen (200) aufweisend eine Objekterkennung über ein Sensorsystem (102), wobei durch die Objekterkennung ein automatisches computerbasiertes Erkennen und Identifizieren von bekannten Objekten in den Sensorinformationen erfolgt, hochaufgelöste Frontscheinwerfer (108) und ein Augmented Reality Head-Up Display, AR-HUD (110), umfassend die Schritte:
- Erfassung eines Objektes (10) über das Sensorsystem (102),
- Erkennung und Identifizierung des erfassten Objektes (12) mittels der Objekterkennung,
- Feststellung einer vom identifizierten Objekt ausgehenden Gefahr (14) für das Fahrzeug (200) mittels aus der Identifizierung eines bestimmten Objektes ableitbarer Objektinformationen,
- zumindest partielles Ausleuchten (30) des als gefährlich eingestuften Objektes (16) durch die hochaufgelösten Frontscheinwerfer (108),
- Markierung des als gefährlich eingestuften Objektes (18) im AR-HUD (110).

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Objektmarkierung in Fahrzeugen, insbesondere die Doppelmarkierung von Objekten mittels hochaufgelöster Frontscheinwerfer und Augmented Reality Head-Up Display (AR-HUD).
  • Heutige Fahrzeuge verfügen bereits über eine Vielzahl von Assistenzsystemen, die den Fahrer in einer Vielzahl von Fahrsituationen computerbasiert unterstützen. Solche Assistenzsysteme können auf Sensoren zum Erfassen einer Vielzahl von Messdaten zurückgreifen, welche die Sinnesfähigkeiten des Menschen bei weitem übersteigen. Zudem übertrifft die Geschwindigkeit dieser Assistenzsysteme die menschliche Reaktionszeit signifikant. Bekannte Fahrerassistenzsysteme sind beispielsweise Spurhalteassistenten, Bremsassistenten bei Fußgängererkennung und Abstandsregeltempomaten, insbesondere für Stausituationen.
  • Zunehmend kommen jedoch auch Fahrerassistenzsysteme bei einer Vielzahl klassischer Fahrzeugfunktionen zum Einsatz. Erweiterte Lichtfunktionen in den Scheinwerfern können den Fahrer eines Fahrzeugs beispielsweise in der Spurführung (z.B. Kurvenlicht) und bei der Wahrnehmung seiner Umgebung aktiv unterstützen. Derzeit werden hierfür vor allem Matrix LED Scheinwerfer mit geringen Auflösungen von weniger als 100 Pixeln eingesetzt. Zukünftig werden sich jedoch Scheinwerfer mit einer deutlich erhöhten Auflösung von mehr als 500.000 Pixeln durchsetzen. Derartige hochaufgelöste Scheinwerfer erlauben eine gezielte räumliche Ausleuchtung einzelner Bereiche sowohl im Nah- als auch im Fernbereich. Dadurch kann die visuelle Wahrnehmung des Fahrers auf die in einer bestimmten Fahrsituation besonderes relevanten Aspekte gelenkt werden. Insbesondere als Matrix Scanner ausgeführte hochaufgelöste Scheinwerfer erlauben eine weiträumige Ablenkung der Abstrahlung in eine oder zwei Dimensionen und können für eine zielgerichtete Abstrahlung mit hoher Lichtintensität genutzt werden.
  • Als weiteres sicherheitsrelevantes Fahrerassistenzsystem werden sich Augmented Reality Head-Up Displays (AR-HUD) in Fahrzeugen etablieren. Dadurch können dem Fahrer ,vorzugsweise im Bereich der Frontscheibe seines Fahrzeugs, erweiterte Informationen über den momentanen Zustand seines Fahrzeugs und über die Umgebung bereitgestellt werden. Diese Informationen werden vorzugsweise über optische Einblendungen unmittelbar in das Sichtfeld des Fahrers integriert. Beispielsweise lässt sich auf diese Weise die Aufmerksamkeit des Fahrers aktiv auf Verkehrschilder und andere Hinweistafeln sowie auf eventuelle weitere Verkehrsteilnehmer lenken. Neben solchen sicherheitsrelevanten Funktionen kann eine AR-HUD aber auch zusätzliche Informationen aus anderen Bereichen, wie beispielsweise vom Radio oder einem mit dem AR-HUD verbundenen mobilen Endgerät, einblenden.
  • Zukünftige Fahrzeuge werden zudem mit einer Vielzahl von Sensorsystemen zur Umgebungserfassung ausgestattet sein. Hierbei wird es sich neben optischen Kameras im sichtbaren und/oder infraroten Spektralbereich vor allem um LiDAR-basierte 3D-Scanner handeln. Solche Systeme erlauben eine zuverlässige Erfassung der momentanen Verkehrsituation um das Fahrzeug herum und ermöglichen das autonome Fahren des Fahrzeugs als zusätzliches Assistenzsystem. Mit LiDAR lassen sich jedoch insbesondere auch unabhängig von äußeren Lichtverhältnissen Objekte in der Umgebung des Fahrzeugs zuverlässig erfassen.
  • Für den Fahrer eines solchen Fahrzeugs wird es bei der Vielzahl an ständig verfügbaren Informationen jedoch auch zunehmend schwieriger, den Überblick zu behalten und sich auf die wesentlichen Aspekte einer bestimmten Fahrsituation zu konzentrieren. Besonders in Gefahrensituationen sollte seine Aufmerksamkeit jedoch schnell und unmittelbar auf die Abwendung einer erkannten Gefahr gerichtet werden. Bisherige Fahrerassistenzsysteme arbeiten weitgehend unabhängig voneinander und erlauben nur bedingt eine schnelle und fokussierte Aufmerksamkeitslenkung des Fahrers über einzelne Systemgrenzen hinweg. Zudem kann ein Fahrer in einer Gefahrensituation oft nur unzureichend schnell erfassen, welche Gefahr vom jeweiligen Assistenzsystem signalisiert werden soll und auf welchem Wege eine Abwendung der erkannten Gefahrensituation zu erreichen ist.
  • Aus DE 10 2015 004 551 A1 ist ein Verfahren zum Betrieb eines Scheinwerfersystems eines Kraftfahrzeugs bekannt. DE 10 2012 003 158 A1 offenbart ein Verfahren und eine Vorrichtung zum Projizieren eines Lichtbilds in eine Umgebung um ein Fahrzeug. DE 10 2016 215 707 A1 betrifft eine Kraftfahrzeugleuchte mit Wildunfallvermeidungslicht sowie ein Verfahren zum Betrieb eines Wildunfallvermeidungslichts.
  • Der Erfindung liegt nun die Aufgabe zugrunde, die Probleme des Standes der Technik zu überwinden oder zumindest zu verringern und eine Lösung für die bisher unzureichende Aufmerksamkeitslenkung des Fahrers in Gefahrensituationen zur Verfügung zu stellen. Die erfindungsgemäße Aufgabe wird gelöst durch ein Verfahren und eine Vorrichtung zur Objektmarkierung gemäß den unabhängigen Patentansprüchen. Bevorzugte Weiterbildungen sind Gegenstand der jeweils rückbezogenen Unteransprüche.
  • Ein erster Aspekt der Erfindung betrifft ein Verfahren zur Objektmarkierung in Fahrzeugen, sprich zur verbesserten Aufmerksamkeitslenkung bei der Wahrnehmung des Fahrers. Im Rahmen der vorliegenden Erfindung ist ein Fahrzeug mit einem hochaufgelösten Frontscheinwerfer und einem AR-HUD ausgebildet. Weiterhin weist jedes Fahrzeug zumindest einen zum Erfassen von Umgebungsdaten ausgebildeten ersten Sensor und zumindest einen zum Erfassen von Fahrzeugdaten ausgebildeten zweiten Sensor auf. Der zumindest eine erste Sensor erlaubt dabei ein Erfassen von Umgebungs- beziehungsweise Umweltinformationen und der zumindest eine zweite Sensor erlaubt ein Erfassen von fahrzeugeigenen Informationen. Die ersten und zweiten Sensoren werden im Rahmen der vorliegenden Erfindung zusammenfassend als ein Sensorsystem bezeichnet. Die Informationen aus der Umgebungsdatenerfassung des Sensorsystems werden für eine Objekterkennung genutzt. Als Objekterkennung wird dabei das automatische computerbasierte Erkennen und Identifizieren von bekannten Objekten in den Sensorinformationen verstanden. Beispielsweise kann es sich bei den bekannten Objekten um Verkehrszeichen, Fahrbahnmarkierungen, Leitpfosten, Bäume, Tiere, andere Verkehrsteilnehmer, Brücken oder Gebäude handeln. Als Identifizieren wird dabei insbesondere die Zuordnung eines bestimmten Objektes zu einem konkreten Objekttyp verstanden.
  • Bei einem erfindungsgemäßen Verfahren zur Objektmarkierung in Fahrzeugen erfolgt zunächst eine Erfassung eines Objektes in der Umgebung des Fahrzeugs über das Sensorsystem. Bei dem Objekt kann es sich beispielsweise um ein plötzlich auf der Fahrbahn erscheinendes Reh handeln. Vorzugsweise erfolgt eine Erfassung des Objekts mittels 3D-LiDAR.
  • Als nächster Schritt erfolgt eine Erkennung und Identifizierung des erfassten Objektes in den vom Sensorsystem erfassten Objektinformationen mittels der Objekterkennung. In dem oben genannten Beispiel lokalisiert die Objekterkennung somit das Reh in den Sensorinformationen und ordnet dem erkannten Objekt z.B. den Typ „Reh“ zu.
  • In einem weiteren Schritt erfolgt eine automatisierte Feststellung, ob von dem identifizierten Objekt eine Gefahr für das Fahrzeug ausgeht mittels aus der Identifizierung eines bestimmten Objektes ableitbarer Objektinformationen. Dies kann in einfachen Fällen bereits aus der Art des erkannten Objektes und seiner relativen Position innerhalb des über das Sensorsystem erfassten Raumbereichs erfolgen. Während von einer unmittelbar vor dem Fahrzeug befindlichen Wasserpfütze oder einem Kleintier i.d.R. keine Gefahr für das Fahrzeug ausgehen wird, kann von einem Reh oder Wildschwein am Fahrbahnrand stets eine Gefahr für das Fahrzeug ausgehen. Weiterhin kann die Feststellung, ob von dem identifizierten Objekt eine Gefahr für das Fahrzeug ausgeht, auf der Grundlage einer Auswertung von momentanen Fahrzeug- und Umgebungsdaten und/oder Objektdaten erfolgen. Dies bedeutet, dass zur Entscheidungsfindung beispielsweise Fahrzeugdaten wie die momentane Geschwindigkeit, die Fahrrichtung, der Lenkungseinschlag und die Bremskraft mit berücksichtigt werden. Als Umgebungsdaten können beispielsweise die aktuelle Temperatur, die Fahrbahnverhältnisse, die Windrichtung und ähnliches zusätzlich ausgewertet werden. Als momentane Objektdaten können hierbei beispielsweise die momentane Bewegungsrichtung und die Geschwindigkeit eines Objektes, dessen eventuell erfassbaren Vitalzeichen, die Objektgröße und ähnliches zur Auswertung in Betracht kommen. Vorzugsweise werden bei der Auswertung die Informationen aller im Fahrzeug verfügbaren Sensoren zur möglichst umfassenden Informationsbeschaffung ausgewertet.
  • Die Feststellung, ob von dem identifizierten Objekt eine Gefahr für das Fahrzeug ausgeht, kann zusätzlich auf der Grundlage einer Auswertung von prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten erfolgen. Dies bedeutet, dass aus der Fülle der verfügbaren Momentaninformationen und optional zusätzlich aus den aufgrund der Identifizierung eines bestimmten Objektes ableitbaren Objektinformationen (z.B. typische Verhaltensweisen einer bestimmten Tierart oder einer Gruppe von Tieren) eine Abschätzung über eine demnächst zu erwartende Situationsentwicklung zu treffen ist. Es ist beispielsweise bekannt, dass Rehe bei Blendung durch Scheinwerfer in eine Art Schockstarre verfallen. Diese Information kann nach erfolgreicher Identifizierung eines erfassten Objektes dazu genutzt werden, Vorhersagen über das zukünftige weitere Verhalten des Rehs zu treffen. Hinsichtlich der Fahrzeug- und Umgebungsdaten kann beispielsweise aus der momentanen Geschwindigkeit, dem Lenkeinschlag und den sensorisch erfassten Fahrbahnverhältnissen ein möglicher Kontrollverlust über das Fahrzeug abgeschätzt werden. Eine prognostizierte Gefahrenabschätzung hat insbesondere den Vorteil, dass dem Fahrer durch frühzeitige Warnungen ein möglichst frühzeitiges Erkennen einer Gefahrensituation ermöglicht wird und ihm dadurch mehr Zeit zu dessen Vermeidung bleibt. Zudem erlaubt eine Abschätzung zukünftiger Situationsentwicklungen auch die Ermittlung und Bereitstellung geeigneter Lösungsstrategien für den Fahrer.
  • Zur verbesserten Aufmerksamkeitslenkung des Fahrers erfolgt in einem nächsten Schritt zumindest ein partielles Ausleuchten (Anleuchten) des als gefährlich eingestuften Objektes durch die hochaufgelösten Scheinwerfer. Ein vollständiges Ausleuchten eines Objektes ist bei Scheinwerfern technologisch nicht immer möglich, wird jedoch bevorzugt. Durch ein möglichst vollständiges Ausleuchten kann zum einen ein ansonsten eventuell nur schwer für den Fahrer erkennbares Objekt in seinem Sichtbereich wahrnehmbar werden, zum anderen wird durch ein helles Ausleuchten ein belebtes Objekt ebenfalls auf eine drohende Gefahrensituation aufmerksam gemacht. Dies ist insbesondere für am Fahrbahnrand befindliche Fußgänger und Radfahrer sicherheitstechnisch von Vorteil. Durch den Einsatz hochaufgelöster Scheinwerfer kann zudem die Helligkeit der Ausleuchtung gegenüber herkömmlichen adaptiven Scheinwerfersystemen deutlich erhöht werden. Weiterhin verstärkt eine erhöhte Helligkeit eine eventuell gewünschte Blendwirkung bei Tieren, wodurch die mögliche Reaktionszeit des Fahrers verlängert werden kann. Das Ausleuchten des als gefährlich eingestuften Objektes kann zudem in Abhängigkeit von einem erkannten Objekttyp erfolgen. Während bei Tieren eine maximale Blendwirkung im Bereich der Augen gewünscht ist, kann beispielsweise bei Personen oder entgegenkommenden Fahrzeugen eine solche Blendwirkung gerade vermieden werden.
  • Die Idee der Erfindung ist somit insbesondere die Kombination von innovativen Anzeige- und Beleuchtungstechnologien zur gezielten Markierung von Objekten. Eine Kombination aus Sensorsystem, hochaufgelösten Scheinwerfern und AR-HUD stellt eine gelungen Systemfusion dar, um die Sicherheit im Straßenverkehr zu erhöhen. Der Scheinwerfer leuchtet das Objekt an, um beim Fahrer eine erhöhte Aufmerksamkeit bzw. eine Aufmerksamkeitslenkung zu erwirken. Der Fahrer kann zudem im AR-HUD besser auf die gefährliche Situation aufmerksam gemacht und über die genaue Lage informiert werden.
  • In bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass das zumindest partielle Ausleuchten des als gefährlich eingestuften Objektes mit einer Fahrzeugbewegung statisch oder dynamisch nachgeführt wird. Hierbei ist unter einem statischen Nachführen des Ausleuchtens das Festhalten an einem bestimmten Ausleuchtbereich zu verstehen, das Objekt bleibt somit trotz einer eventuellen Fahrzeugannäherung dauerhaft im Lichtkegel der Ausleuchtung. Bei einem dynamischen Nachführen des Ausleuchtens bleibt der Lichtkegel hingegen nicht statisch auf dem Objekt, sondern wird nach einem bestimmten Muster zeitlich variiert. Beispielsweise kann der Scheinwerfer eine oszillatorische Pendelbewegung des Lichtkegels über das Objekt bewirken oder der Öffnungswinkel des Lichtkegels wird in Richtung auf das Objekt zeitlich verändert. Während eine statische Nachführung insbesondere eine Aufmerksamkeitslenkung durch die Helligkeit des dauerhaft ausleuchtenden Lichtkegels bewirkt, hat eine dynamische Ausleuchtung den Vorteil, dass insbesondere eine schnelle Modulation des Lichtkegels die Aufmerksamkeit noch stärker auf die jeweilige Gefahrensituation lenken kann.
  • Weiterhin erfolgt eine zusätzliche Markierung des als gefährlich eingestuften Objektes im AR-HUD. Dadurch wird die Aufmerksamkeit des Fahrers auch im AR-HUD auf das entsprechende Objekt gelenkt. Entscheidend ist hierbei, dass das Ausleuchten und die Markierung im AR-HUD den Fokus des Fahrers jeweils in die gleiche Richtung lenken. Es erfolgt somit eine systemübergreifende Doppelmarkierung des als gefährlich eingestuften Objektes. Durch diese Doppelmarkierung sowohl innerhalb als auch außerhalb des Fahrzeugs wird die Aufmerksamkeit des Fahrers unabhängig von seinem vorherigen Aufmerksamkeitsschwerpunkt im Nah- oder Fernbereich unmittelbar auf die aktuelle Gefahrensituation gelenkt.
  • In bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass die Markierung eines als gefährlich eingestuften Objektes im AR-HUD durch zumindest teilweise Umrandung des Objektes und/oder durch bildliche Darstellung eines Objektrepräsentanten erfolgt. Ein zumindest teilweises Umranden des Objektes hat den Vorteil, dass der Fahrer weiterhin freie Sicht durch die Frontscheibe auf das Objekt behält. Insbesondere durch eine intensive Scheinwerferausleuchtung kann dadurch eine optimale Sichtbarkeit des Objektes erreicht werden. Vorzugsweise erfolgt eine vollständige Umrandung des Objektes. In bestimmten Fällen kann eine rein bildliche Darstellung eines entsprechenden Objektrepräsentanten als Symbol oder Grafik jedoch von Vorteil sein. Insbesondere bei größeren Entfernungen zum Objekt oder bei erschwerten Sichtverhältnissen, z.B. in starkem Regen oder bei Nebel, ist ein als gefährlich eingestuftes Objekt trotz freier Sicht durch die Frontscheibe eventuell trotzdem nicht zu erkennen. In diesem Fall wäre eine Umrandung des Objektes nur unzureichend wahrnehmbar, so dass hierbei eine deutlichere Flächendarstellung durch einen Objektrepräsentanten eine stärkere Aufmerksamkeitslenkung beim Fahrer bewirken kann.
  • In weiterer bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass die Markierung eines als gefährlich eingestuften Objektes im AR-HUD durch schriftliche Darstellung eines Objektbezeichners erfolgt. Wird beispielsweise mittels der Objekterkennung ein Reh erkannt und identifiziert, so kann im AR-HUD auch der Begriff „Reh“ eingeblendet werden. Der Vorteil einer schriftlichen Darstellung liegt in einer schnellen und zuverlässigen Erfassbarkeit durch den Fahrer. Während bei einer einfachen Umrandung oder einer rein symbolhaften Darstellung der Fahrer eventuell Schwierigkeiten mit der genauen Typisierung des Objektes haben könnte, ist eine schriftliche Darstellung deutlich zuverlässiger zu erfassen. Für den Fahrer ist es daher deutlich einfacher möglich, auch bei größerer Entfernung eine zuverlässige Unterscheidung zwischen beispielsweise einem Wildschein und einem Fuchs auf der Fahrbahn zu treffen.
  • Vorzugsweise erfolgt die Markierung des als gefährlich eingestuften Objektes im AR-HUD durch Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Objektdaten ermittelten zu erwartenden Bewegungsverlaufs des Objekts. Insbesondere ist hierunter bei sich bewegenden Objekten eine vom zu erwartenden Bewegungsverlauf abhängige Markierung im AR-HUD zu verstehen. Beispielsweise kann bei sich bewegenden Objekten eine sich in die Bewegungsrichtung verstärkende oder mehrfach ausgeführte Umrandung, vorzugsweise als blinkende, pulsierende oder durchlaufende Einblendung, erfolgen. Der zu erwartende Bewegungsverlauf kann insbesondere auch durch einen in die entsprechende Bewegungsrichtung weisenden Pfeil angezeigt werden.
  • In bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass die Markierung des als gefährlich eingestuften Objektes im AR-HUD durch Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten errechneten Ausweichkurses für das Fahrzeug erfolgt. Die Darstellung eines errechneten Ausweichkurses ermöglicht es dem Fahrer schnell und entschieden auf eine eintretende Gefahrensituation zu reagieren, ohne dass er vorher die Gesamtsituation vollständig erfassen und verarbeiten müsste. Dies ist insbesondere bei Fahrzeugen mit einem Assistenten zum autonomen Fahren von Vorteil, bei denen die Aufmerksamkeit des Fahrers eventuell nicht immer vollständig auf den Straßenverkehr gerichtet ist und ein Eingreifen in Gefahrensituationen eine rasche Aufmerksamkeitslenkung mit unverzüglichem Handeln erfordert. Durch die Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten kann zuverlässig ein unter den gegebenen Umständen optimaler Ausweichkurs unter Berücksichtigung möglichst sämtlicher verfügbarer Informationen aus der sensorischen Erfassung und insbesondere aus objektspezifischen Hintergrundinformationen gewonnen werden. Bei der Darstellung des errechneten Ausweichkurses kann es sich beispielsweise um einen einfachen Hinweis auf einen Fahrspurwechsel oder komplexere Angaben zu einer möglichen Umfahrung über den Straßenrand bzw. einen Fußgänger- oder Radweg handeln.
  • Ein weiter Aspekt der vorliegenden Erfindung betrifft eine Vorrichtung zur Objektmarkierung in Fahrzeugen, umfassend ein Sensorsystem zur Umgebungserfassung, insbesondere ein System zur 3D-Umgebungserfassung, z.B. LiDAR, ein System zur Erkennung und Identifizierung von Objekten in den Sensordaten des Sensorsystems, wobei über eine Objekterkennung ein automatisches computerbasiertes Erkennen und Identifizieren von bekannten Objekten in den Sensorinformationen erfolgt, ein Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr für das Fahrzeug, wobei die Feststellung mittels aus der Identifizierung eines bestimmten Objektes ableitbarer Objektinformationen erfolgt, hochaufgelöste Frontscheinwerfer, eingerichtet zur zumindest partiellen Ausleuchtung einzelner Umgebungsbereiche, und ein Augmented Reality Head-Up Display, AR-HUD, zur Darstellung von Informationen für den Fahrer des Fahrzeugs.
  • In bevorzugter Ausgestaltung der Erfindung ist vorgesehen, dass das Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr für das Fahrzeug dazu ausgebildet ist, die Feststellung auf der Grundlage einer Auswertung von prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten vorzunehmen. Das Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr für das Fahrzeug kann daher aufgrund vorhandener Informationen eine Prognose über die zukünftig zu erwartende Entwicklung einer Situation erstellen. Bei dem Mittel kann es sich vorzugweise um einen entsprechend eingerichteten Computer handeln.
  • Ein noch weiterer Aspekt der vorliegenden Erfindung betrifft ein Fahrzeug, umfassend eine oben beschriebene Vorrichtung zur Objektmarkierung, wobei das Sensorsystem, der hochaufgelöste Frontscheinwerfer und das AR-HUD von der Vorrichtung zur Objektmarkierung unabhängig vorhandene Fahrzeugkomponenten sind. Hierdurch wird der integrative Systemansatz dieser Erfindung deutlich, nämlich dass bereits ins Fahrzeug integrierte Assistenzsysteme stark miteinander vernetzt werden und durch die dadurch gewonnne Fülle an Informationen die Sicherheit im Straßenverkehr erhöht werden kann. Hierbei kommt es beim Fahrer des Fahrzeugs auch zu einem „echten“ Erleben von on-the-fly Objekterkennung, bei dem Informationen über im Sichtfeld des Fahrers erscheinende Objekte automatisch für den Fahrer bewertet und aufbereitet werden. Weiterhin können durch die auch im Außenbereich wirkende Markierung mittels der hochaufgelösten Scheinwerfer auch spezielle Informationen sowohl für den Fahrer selbst als auch für ein belebtes Objekt außerhalb des Fahrzeugs bereitgestellt werden. Insbesondere Fußgänger und Radfahrer können so ebenfalls auf die drohende Gefahrensituation aufmerksam gemacht werden.
  • Weitere bevorzugte Ausgestaltungen der Erfindung ergeben sich aus den übrigen, in den Unteransprüchen genannten Merkmalen.
  • Die verschiedenen in dieser Anmeldung genannten Ausführungsformen der Erfindung sind, sofern im Einzelfall nicht anders ausgeführt, mit Vorteil miteinander kombinierbar.
  • Die Erfindung wird nachfolgend in Ausführungsbeispielen anhand der zugehörigen Zeichnungen erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines erfindungsgemäßen Verfahrens zur Objektmarkierung in Fahrzeugen,
    • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Objektmarkierung in Fahrzeugen,
    • 3 eine Darstellung einer ersten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen,
    • 4 eine Darstellung einer zweiten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen, und
    • 5 eine Darstellung einer dritten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen.
  • 1 zeigt eine schematische Darstellung eines erfindungsgemäßen Verfahrens zur Objektmarkierung in Fahrzeugen 200. Für Fahrzeuge 200, welche eine Objekterkennung über ein Sensorsystem 102, hochaufgelöste Frontscheinwerfer 108 und ein Augmented Reality Head-Up Display, AR-HUD, 110 aufweisen, umfasst das Verfahren die Schritte: Erfassung eines Objektes 10 über das Sensorsystem 102, Erkennung und Identifizierung des erfassten Objektes 12 mittels der Objekterkennung, Feststellung einer vom identifizierten Objekt ausgehenden Gefahr 14 für das Fahrzeug 200, zumindest partielles Ausleuchten 30 des als gefährlich eingestuften Objektes 16 durch die hochaufgelösten Frontscheinwerfer 108, Markierung des als gefährlich eingestuften Objektes 18 im AR-HUD 110. Die letzen beiden Schritte werden dabei vorzugsweise gleichzeitig durchgeführt. Diese Schritte können jedoch auch zeitlich nacheinander in beliebiger Reihenfolge durchgeführt werden, wobei der sich ergebende zeitliche Versatz jedoch für den Fahrer nicht wahrnehmbar sein sollte und bevorzugt unterhalb von 100 ms liegt.
  • 2 zeigt eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Objektmarkierung in Fahrzeugen 200. Die Vorrichtung umfasst ein Sensorsystem 102 zur Umgebungserfassung, insbesondere zur 3D-Umgebungserfassung, z.B. LiDAR, ein System zur Erkennung und Identifizierung 104 von Objekten in den Sensordaten des Sensorsystems 102, ein Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr 106 für das Fahrzeug, hochaufgelöste Frontscheinwerfer 108, eingerichtet zur gesteuerten Ausleuchtung einzelner Umgebungsbereiche, und ein Augmented Reality Head-Up Display, AR-HUD 110, zur Darstellung von Informationen für den Fahrer des Fahrzeugs 200. Vorzugsweise sind das Sensorsystem 102, der hochaufgelöste Frontscheinwerfer 108 und das AR-HUD 110 von der Vorrichtung zur Objektmarkierung 100 unabhängig vorhandene Fahrzeugkomponenten des Fahrzeugs 200. Dies bedeutet, dass bei der Integration einer Vorrichtung zur Objektmarkierung 100 in einem entsprechenden Fahrzeug 200 das Sensorsystem 102, die hochaufgelösten Frontscheinwerfer 108 und das AR-HUD 110 bereits als unabhängige Komponenten des Fahrzeugs 200 vorhanden sind und mit den erforderlichen weiteren Komponenten zu einer erfindungsgemäßen Vorrichtung zur Objektmarkierung 100 kombiniert werden.
  • 3 zeigt eine Darstellung einer ersten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen 200. Bei dem dargestellten Objekt handelt es sich um ein Reh, welches sich unmittelbar vor einem Fahrzeug 200 auf der Straße befindet. Die erfindungsgemäße Vorrichtung zur Objektmarkierung hat das Reh erkannt und identifiziert. Weiterhin wurde eine vom Reh ausgehende Gefahr für das Fahrzeug 200 festgestellt. Durch das Ausleuchten 30 des als gefährlich eingestuften Objektes 16 durch die hochaufgelösten Frontscheinwerfer 108 wird erreicht, dass sowohl beim Reh als auch beim Fahrer der Aufmerksamkeitsschwerpunkt auf die drohende Gefahrensituation gelenkt werden. Zusätzlich erfolgt gemäß der Darstellung im Sichtbereich des Fahrers durch das AR-HUD 110 eine Markierung des als gefährlich eingestuften Objektes 18 sowohl durch Umrandung des Objektes 40 als auch durch schriftliche Darstellung des Objektbezeichners 44 „Reh“. Weiterhin erfolgt eine Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Objektdaten bestimmten zu erwartenden Bewegungsverlaufs 46 des Rehs, im dargestellten Fall einer fortgeführten Bewegung über die Straße hinweg.
  • 4 zeigt eine Darstellung einer zweiten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen 200. Die Darstellung entspricht im Wesentlichen der 3, die jeweiligen Bezugszeichen gelten entsprechend. Im Unterschied zur 3 erfolgt eine Markierung hier jedoch durch bildliche Darstellung eines Objektrepräsentanten 42, d.h. einer schnell zu erfassenden Abbildung oder dem Symbol eines Rehs. Dies hat den Vorteil, dass auch bei extrem schlechten Sichtverhältnissen, bei denen trotz einer möglichst vollständigen Ausleuchtung durch die hochaufgelösten Frontscheinwerfer und einer Umrandung im AR-HUD das eigentliche Objekt für den Fahrer trotzdem nur unzureichend zu erkennen ist.
  • 5 zeigt eine Darstellung einer dritten Ausführungsform einer erfindungsgemäßen Objektmarkierung in Fahrzeugen 200. Die Darstellung entspricht im Wesentlichen der 3, die jeweiligen Bezugszeichen gelten entsprechend. Im Unterschied zur 3 erfolgt eine Markierung des als gefährlich eingestuften Objektes 18 im AR-HUD 110 zusätzlich durch Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten errechneten Ausweichkurses 48 für das Fahrzeug 200. Vorzugsweise werden hierbei auch die für die Wahl eines möglichen Ausweichkurses weiterhin relevanten Informationen im AR-HUD markiert. Hierbei kann es sich insbesondere um die zusätzliche Hervorhebung von Fahrstreifen- und Fahrbahnbegrenzungen, Gegen- oder Parallelverkehr sowie Verkehrszeichen, Leitpfosten, Bordsteinkanten, Steinen und anderen Hindernissen handeln.
  • Bezugszeichenliste
  • 10
    Erfassung eines Objektes
    12
    Erkennung und Identifizierung des erfassten Objektes
    14
    Feststellung einer vom identifizierten Objekt ausgehenden Gefahr
    16
    Ausleuchten des als gefährlich eingestuften Objektes
    18
    Markierung des als gefährlich eingestuften Objektes
    20
    Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten
    30
    ausgeleuchtetes Objekt
    40
    umrandetes Objekt
    42
    bildliche Darstellung eines Objektrepräsentanten
    44
    schriftliche Darstellung eines Objektbezeichners
    46
    Darstellung eines erwarteten Bewegungsverlaufs
    48
    Darstellung eines errechneten Ausweichkurses
    100
    Vorrichtung zur Objektmarkierung
    102
    Sensorsystem
    104
    System zur Erkennung und Identifizierung
    106
    Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr
    108
    hochaufgelöste Frontscheinwerfer
    110
    Augmented Reality Head-Up Display (AR-HUD)
    200
    Fahrzeug

Claims (10)

  1. Verfahren zur Objektmarkierung in Fahrzeugen (200) aufweisend eine Objekterkennung über ein Sensorsystem (102), wobei durch die Objekterkennung ein automatisches computerbasiertes Erkennen und Identifizieren von bekannten Objekten in den Sensorinformationen erfolgt, hochaufgelöste Frontscheinwerfer (108) und ein Augmented Reality Head-Up Display, AR-HUD (110), umfassend die Schritte: - Erfassung eines Objektes (10) über das Sensorsystem (102), - Erkennung und Identifizierung des erfassten Objektes (12) mittels der Objekterkennung, - Feststellung einer vom identifizierten Objekt ausgehenden Gefahr (14) für das Fahrzeug (200) mittels aus der Identifizierung eines bestimmten Objektes ableitbarer Objektinformationen, - zumindest partielles Ausleuchten (30) des als gefährlich eingestuften Objektes (16) durch die hochaufgelösten Frontscheinwerfer (108), - Markierung des als gefährlich eingestuften Objektes (18) im AR-HUD (110).
  2. Verfahren nach Anspruch 1, wobei die Feststellung einer vom Objekt ausgehenden Gefahr für das Fahrzeug (14) auf der Grundlage einer Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten (20) erfolgt.
  3. Verfahren nach Anspruch 1 oder 2, wobei das zumindest partielle Ausleuchten des als gefährlich eingestuften Objektes (16) mit einer Fahrzeugbewegung statisch oder dynamisch nachgeführt wird.
  4. Verfahren zur Objektmarkierung nach einem der vorhergehenden Ansprüche, wobei die Markierung eines als gefährlich eingestuften Objektes (18) im AR-HUD (110) durch zumindest teilweise Umrandung des Objektes (40) und/oder durch bildliche Darstellung eines Objektrepräsentanten (42) erfolgt.
  5. Verfahren zur Objektmarkierung nach einem der vorhergehenden Ansprüche, wobei die Markierung eines als gefährlich eingestuften Objektes (18) im AR-HUD (110) durch schriftliche Darstellung eines Objektbezeichners (44) erfolgt.
  6. Verfahren zur Objektmarkierung nach einem der vorhergehenden Ansprüche, wobei die Markierung des als gefährlich eingestuften Objektes (18) im AR-HUD (110) durch Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Objektdaten ermittelten zu erwartenden Bewegungsverlaufs (46) des Objekts erfolgt.
  7. Verfahren zur Objektmarkierung nach einem der vorhergehenden Ansprüche, wobei die Markierung des als gefährlich eingestuften Objektes (18) im AR-HUD (110) durch Darstellung eines auf der Grundlage einer Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten errechneten Ausweichkurses (48) für das Fahrzeug (200) erfolgt.
  8. Vorrichtung zur Objektmarkierung (100) in Fahrzeugen (200), umfassend: a) ein Sensorsystem (102) zur Umgebungserfassung, b) ein System zur Erkennung und Identifizierung (104) von Objekten in den Sensordaten des Sensorsystems (102), wobei über eine Objekterkennung ein automatisches computerbasiertes Erkennen und Identifizieren von bekannten Objekten in den Sensorinformationen erfolgt, c) ein Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr (106) für das Fahrzeug, wobei die Feststellung mittels aus der Identifizierung eines bestimmten Objektes ableitbarer Objektinformationen erfolgt, d) hochaufgelöste Frontscheinwerfer (108), eingerichtet zur zumindest partiellen Ausleuchtung einzelner Umgebungsbereiche, und e) ein Augmented Reality Head-Up Display, AR-HUD (110), zur Darstellung von Informationen für den Fahrer des Fahrzeugs (200).
  9. Vorrichtung zur Objektmarkierung nach Anspruch 8, wobei das Mittel zur Feststellung einer vom Objekt ausgehenden Gefahr (106) für das Fahrzeug (200) dazu ausgebildet ist, die Feststellung auf der Grundlage einer Auswertung von momentanen und prognostizierten Fahrzeug- und Umgebungsdaten und/oder Objektdaten (30) vorzunehmen.
  10. Fahrzeug (200), umfassend eine Vorrichtung zur Objektmarkierung (100) nach Anspruch 8 oder 9, wobei das Sensorsystem (102), die hochaufgelösten Frontscheinwerfer (108) und das AR-HUD (110) von der Vorrichtung zur Objektmarkierung (100) unabhängig vorhandene Fahrzeugkomponenten sind.
DE102019206922.3A 2019-05-13 2019-05-13 Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen Active DE102019206922B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019206922.3A DE102019206922B4 (de) 2019-05-13 2019-05-13 Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206922.3A DE102019206922B4 (de) 2019-05-13 2019-05-13 Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen

Publications (2)

Publication Number Publication Date
DE102019206922A1 DE102019206922A1 (de) 2020-11-19
DE102019206922B4 true DE102019206922B4 (de) 2024-06-06

Family

ID=73018615

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206922.3A Active DE102019206922B4 (de) 2019-05-13 2019-05-13 Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen

Country Status (1)

Country Link
DE (1) DE102019206922B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114820396B (zh) * 2022-07-01 2022-09-13 泽景(西安)汽车电子有限责任公司 图像处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001113A1 (de) 2004-01-07 2005-07-28 Robert Bosch Gmbh Informationssystem für Fortbewegungsmittel
DE102012003158A1 (de) 2012-02-17 2013-08-22 Daimler Ag Verfahren und Vorrichtung zum Projizieren eines Laserlichtbilds in eine Umgebung um ein Fahrzeug
DE102012215350A1 (de) 2012-08-29 2014-03-06 Continental Automotive Gmbh Multisensuelle Aufmerksamkeitslenkung
DE102015004551A1 (de) 2015-04-08 2016-10-13 Audi Ag Verfahren zum Betrieb eines Scheinwerfersystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102016215707A1 (de) 2016-08-22 2018-02-22 Odelo Gmbh Kraftfahrzeugleuchte mit Wildunfallvermeidungslicht sowie Verfahren zum Betrieb eines Wildunfallvermeidungslichts

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004001113A1 (de) 2004-01-07 2005-07-28 Robert Bosch Gmbh Informationssystem für Fortbewegungsmittel
DE102012003158A1 (de) 2012-02-17 2013-08-22 Daimler Ag Verfahren und Vorrichtung zum Projizieren eines Laserlichtbilds in eine Umgebung um ein Fahrzeug
DE102012215350A1 (de) 2012-08-29 2014-03-06 Continental Automotive Gmbh Multisensuelle Aufmerksamkeitslenkung
DE102015004551A1 (de) 2015-04-08 2016-10-13 Audi Ag Verfahren zum Betrieb eines Scheinwerfersystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102016215707A1 (de) 2016-08-22 2018-02-22 Odelo Gmbh Kraftfahrzeugleuchte mit Wildunfallvermeidungslicht sowie Verfahren zum Betrieb eines Wildunfallvermeidungslichts

Also Published As

Publication number Publication date
DE102019206922A1 (de) 2020-11-19

Similar Documents

Publication Publication Date Title
EP2562039B1 (de) Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
DE102009009472B4 (de) Verfahren zum Unterstützen eines Fahrers eines Fahrzeugs und Fahrerassistenzsystem für ein Fahrzeug
DE102006041857B4 (de) Verfahren und System zur Verbesserung der Verkehrssicherheit
DE102009009473A1 (de) Verfahren zum Unterstützen eines Fahrers eines Fahrzeugs und anderer Verkehrsteilnehmer sowie Fahrerassistenzsystem für ein Fahrzeug und andere Verkehrsteilnehmer
EP3931022B1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102014226254A1 (de) Verfahren zum Betreiben eines insbesondere autonom oder teilautonom fahrenden/fahrbaren Kraftfahrzeugs, Signalisierungsvorrichtung, Kraftfahrzeug
DE102019208663B4 (de) Verfahren zur Unterstützung eines Fahrers hinsichtlich für eine Verkehrssituation relevanter Objekte und Kraftfahrzeug
EP2426543A1 (de) Fahrerassistenzvorrichtung für ein Fahrzeug und Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeuges
EP3931028B1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102019202581B4 (de) Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
EP3592606B1 (de) Kraftfahrzeug mit einem beleuchtungsmodul zur generierung einer symbolik
EP2562044B1 (de) Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
EP3931021B1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102019202588A1 (de) Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
EP3781440A1 (de) Verfahren zur kommunikation eines kraftfahrzeugs mit einem verkehrsteilnehmer sowie kraftfahrzeug zur durchführung des verfahrens
WO2019201553A1 (de) Verfahren zur kommunikation eines kraftfahrzeugs mit einem verkehrsteilnehmer sowie kraftfahrzeug zur durchführung des verfahrens
EP3931033B1 (de) Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102019202576A1 (de) Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem
DE102005042912A1 (de) Fahrerassistenzvorrichtung für ein Fahrzeug und Verfahren zur Sichtbarmachung der Umgebung eines Fahrzeuges
DE102015200131A1 (de) Verfahren und Fahrerassistenzsystem zum Unterstützen eines Fahrers eines Fahrzeugs
DE10227170A1 (de) Verfahren und Vorrichtung zur Steuerung der Lichtverteilung eines Kraftfahrzeugs
DE102019206922B4 (de) Verfahren und Vorrichtung zur Objektmarkierung in Fahrzeugen
WO2017174173A1 (de) Verfahren und vorrichtung zur ausleuchtung einer fahrzeugumgebung
WO2009097883A1 (de) Verfahren zum betrieb einer bildaufnahmevorrichtung und eine bildaufnahmevorrichtung
DE102019202589A1 (de) Verfahren zum Betreiben eines Fahrerinformationssystems in einem Ego-Fahrzeug und Fahrerinformationssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division