DE102022126675A1 - System und verfahren zum anzeigen von infrastrukturinformationen auf einem display mit erweiterter realität - Google Patents

System und verfahren zum anzeigen von infrastrukturinformationen auf einem display mit erweiterter realität Download PDF

Info

Publication number
DE102022126675A1
DE102022126675A1 DE102022126675.3A DE102022126675A DE102022126675A1 DE 102022126675 A1 DE102022126675 A1 DE 102022126675A1 DE 102022126675 A DE102022126675 A DE 102022126675A DE 102022126675 A1 DE102022126675 A1 DE 102022126675A1
Authority
DE
Germany
Prior art keywords
vehicle
infrastructure
location
augmented reality
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022126675.3A
Other languages
English (en)
Inventor
Joseph F. Szczerba
John P. Weiss
Kai-Han Chang
Thomas A. Seder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102022126675A1 publication Critical patent/DE102022126675A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/589Wireless data transfers
    • B60K2360/5899Internet
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/589Wireless data transfers
    • B60K2360/5915Inter vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/592Data transfer involving external databases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Ein Verfahren zum Anzeigen von Infrastrukturinformationen auf einem Multifokalebenen-Display mit erweiterter Realität eines Fahrzeugs umfasst das Empfangen von Infrastrukturdaten. Die Infrastrukturdaten umfassen Informationen über einen Standort von mindestens einer Infrastruktur entlang einer Route des Fahrzeugs. Das Verfahren umfasst ferner das Empfangen von Fahrzeugstandortdaten. Die Fahrzeugstandortdaten umfassen Informationen über einen Standort des Fahrzeugs. Das Verfahren umfasst ferner das Bestimmen einer Position des Fahrzeugs relativ zum Standort der mindestens einen Infrastruktur unter Verwendung der Infrastrukturdaten und der Fahrzeugstandortdaten. Das Verfahren umfasst ferner das Übertragen eines Anweisungssignals an das Multifokalebenen-Display mit erweiterter Realität, um ein virtuelles Bild, das die Infrastrukturinformationen der mindestens einen Infrastruktur darstellt, auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen.

Description

  • EINLEITUNG
  • Die vorliegende Offenbarung betrifft ein System und ein Verfahren zum Anzeigen von Infrastrukturinformationen auf einem Display mit erweiterter Realität.
  • Diese Einleitung stellt allgemein den Kontext der Offenbarung vor. Arbeiten der vorliegend genannten Erfinder, soweit sie in dieser Einleitung beschrieben sind, sowie Aspekte der Beschreibung, die möglicherweise zum Zeitpunkt der Anmeldung anderweitig nicht als Stand der Technik gelten, werden weder ausdrücklich noch stillschweigend als Stand der Technik gegen diese Offenbarung zugelassen.
  • Einige Fahrzeuge umfassen Anzeigen, die dem Fahrzeugbenutzer Informationen bereitstellen. Diese Anzeigen präsentierten jedoch nicht unbedingt Infrastrukturinformationen, wie Straßeninformationen und/oder Informationen zu einem Ort von Interesse (OVI). Das Bereitstellen solcher Infrastrukturinformationen kann dem Fahrzeugbenutzer helfen, diese Infrastruktur während der Fahrt leicht zu finden. Es ist daher wünschenswert, ein System und ein Verfahren zum Anzeigen von Infrastrukturinformationen auf einem Display mit erweiterter Realität zu entwickeln, das auf der Echtzeitpositionierung des Fahrzeugs in der aktuellen Fahrumgebung basiert.
  • KURZDARSTELLUNG
  • Die vorliegende Offenbarung beschreibt ein System und Verfahren, das dem Fahrer auf einem Multifokalebenen-Display mit erweiterter Realität den Standort der Straßenadresse und den Straßennamen anzeigt. Basierend auf der Echtzeitpositionierung des Fahrzeugs in der Fahrumgebung zeigt das Multifokalebenen-Display mit erweiterter Realität dem Fahrzeugbenutzer die Straßenadressen auf einer oder beiden Seiten einer Fahrbahn an. Die vorliegende Offenbarung beschreibt auch ein System und Verfahren, das dem Fahrer OVI-Informationen auf einem Multifokalebenen-Display mit erweiterter Realität anzeigt. Basierend auf den persönlichen Präferenzen des Fahrzeugbenutzers zeigt das Multifokalebenen-Display mit erweiterter Realität dem Fahrzeugbenutzer den Standort von Geschäften, Sehenswürdigkeiten und anderen OVIs entlang der lokalen Fahrtroute an.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst ein Verfahren zum Anzeigen von Infrastrukturinformationen auf einem Multifokalebenen-Display mit erweiterter Realität eines Fahrzeugs das Empfangen von Infrastrukturdaten. Die Infrastrukturdaten umfassen Informationen über einen Standort von mindestens einer Infrastruktur entlang einer Route des Fahrzeugs. Das Verfahren umfasst ferner das Empfangen von Fahrzeugstandortdaten. Die Fahrzeugstandortdaten umfassen Informationen über einen Standort des Fahrzeugs. Das Verfahren umfasst ferner das Bestimmen einer Position des Fahrzeugs relativ zum Standort der Infrastruktur unter Verwendung der Infrastrukturdaten und der Fahrzeugstandortdaten. Das Verfahren umfasst ferner das Übertragen eines Anweisungssignals an das Multifokalebenen-Display mit erweiterter Realität, um ein virtuelles Bild, das die Infrastrukturinformationen der mindestens einen Infrastruktur darstellt, auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen. Das in diesem Absatz beschriebene Verfahren verbessert die Fahrzeugtechnologie, indem sie dem Fahrzeugbenutzer Infrastrukturinformationen bereitstellt, die dem Fahrzeugbenutzer helfen, die Infrastruktur während der Fahrt leicht zu finden und zu identifizieren.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst das Verfahren ferner das Empfangen von Benutzer-Augendaten. Die Benutzer-Augendaten umfassen Informationen über den Standort der Augen eines Benutzers des Fahrzeugs ein. Das Verfahren umfasst ferner das Bestimmen des Standorts der Augen des Benutzers und Bestimmen des Standorts des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf dem Standort der Augen des Benutzers. Der Schritt des Übertragens des Anweisungssignals an das Multifokalebenen-Display mit erweiterter Realität umfasst das Anzeigen des virtuellen Bildes am Standort auf dem Multifokalebenen-Display mit erweiterter Realität, das zuvor basierend auf dem Standort der Augen des Benutzers bestimmt wurde.
  • Bei einem Aspekt der vorliegenden Offenbarung kann die Infrastruktur ein Ort von Interesse (OVI) entlang der Route des Fahrzeugs sein. Bei den Infrastrukturinformationen kann es sich um Informationen über den OVI handeln.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst das Verfahren ferner das Bestimmen, ob sich der OVI entlang der Route des Fahrzeugs befindet, indem die Infrastrukturdaten verwendet werden, und als Reaktion auf das Bestimmen, dass sich der OVI entlang der Route des Fahrzeugs befindet, Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität. Das virtuelle Bild schließt Informationen über den mindestens einen OVI ein, der sich entlang der Route des Fahrzeugs befindet.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst das Verfahren ferner das Bestimmen eines Typs des virtuellen Bildes, das auf dem Multifokalebenen-Display mit erweiterter Realität angezeigt werden soll, unter Verwendung der Infrastrukturdaten. Die Infrastrukturdaten schließen Informationen über den Typ des OVI ein.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst das Verfahren ferner das Bestimmen einer Position des Fahrzeugs relativ zum Standort des OVI und das Bestimmen einer Größe des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf der Position des Fahrzeugs relativ zum Standort des OVI.
  • Bei einem Aspekt der vorliegenden Offenbarung schließt das Verfahren ferner das Bestimmen ein, ob das Fahrzeug den OVI passiert hat, und, als Reaktion auf das Bestimmen, dass das Fahrzeug den OVI passiert hat, Anweisen des Multifokalebenen-Displays mit erweiterter Realität, das Darstellen des virtuellen Bildes zu beenden.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur ein Gebäude. Das Gebäude weist eine Adresse auf. Die Adresse des Gebäudes weist eine Gebäudenummer auf. Das Verfahren schließt ferner das Display des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität ein, wobei das virtuelle Bild die Gebäudenummer der Adresse einschließt.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur eine Straße. Die Straße weist einen Namen auf. Das Verfahren schließt ferner das Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität ein, wobei das virtuelle Bild den Namen der Straße einschließt.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur eine Straße. Die Straße weist eine Regel auf. Das Verfahren schließt ferner das Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität ein, wobei das virtuelle Bild die Regel der Straße angibt.
  • Bei einem Aspekt der vorliegenden Offenbarung umfasst ein System zum Anzeigen von Infrastrukturinformationen in einem Fahrzeug ein Multifokalebenen-Display mit erweiterter Realität, eine Mehrzahl von Sensoren und ein Steuergerät, das mit der Mehrzahl von Sensoren und dem Multifokalebenen-Display mit erweiterter Realität in Kommunikation steht. Das Steuergerät ist so konfiguriert, dass es Infrastrukturdaten von mindestens einem der Sensoren empfängt. Die Infrastrukturdaten umfassen Informationen über einen Standort von mindestens einer Infrastruktur entlang einer Route des Fahrzeugs. Das Steuergerät ist ferner so konfiguriert, dass es Fahrzeugstandortdaten von mindestens einem der Sensoren empfängt. Die Fahrzeugstandortdaten umfassen Informationen über einen Standort des Fahrzeugs. Das Steuergerät ist so konfiguriert, dass es eine Position des Fahrzeugs relativ zum Standort der Infrastruktur unter Verwendung der Infrastrukturdaten und der Fahrzeugstandortdaten bestimmt. Außerdem ist das Steuergerät so konfiguriert, dass es ein Anweisungssignal an das Multifokalebenen-Display mit erweiterter Realität überträgt, um ein virtuelles Bild, das die Infrastrukturinformationen der mindestens einen Infrastruktur darstellt, auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen. Das in diesem Absatz beschriebene System verbessert die Fahrzeugtechnologie, indem es dem Fahrzeugbenutzer Infrastrukturinformationen bereitstellt, die dem Fahrzeugbenutzer helfen, die Infrastruktur während der Fahrt leicht zu finden und zu identifizieren.
  • Bei einem Aspekt der vorliegenden Offenbarung ist das Steuergerät so konfiguriert, dass es Benutzer-Augendaten von einem Benutzer-Tracker empfängt. Die Benutzer-Augendaten umfassen Informationen über den Standort der Augen eines Benutzers des Fahrzeugs. Das Steuergerät ist so konfiguriert, dass es den Standort der Augen des Benutzers unter Verwendung der Benutzer-Augendaten bestimmt, und einen Standort des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf dem Standort der Augen des Benutzers bestimmt. Darüber hinaus ist das Steuergerät so konfiguriert, dass es das Multifokalebenen-Display mit erweiterter Realität anweist, das virtuelle Bild am Standort auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen, der zuvor basierend auf dem Standort der Augen des Benutzers bestimmt wurde.
  • Bei einem Aspekt der vorliegenden Offenbarung kann die Infrastruktur ein OVI entlang der Route des Fahrzeugs sein. Die Infrastrukturinformationen sind Informationen über den OVI.
  • Bei einem Aspekt der vorliegenden Offenbarung ist das Steuergerät ferner so konfiguriert, dass es bestimmt, ob sich der mindestens eine OVI entlang der Route des Fahrzeugs befindet, unter Verwendung der Infrastrukturdaten; und als Reaktion auf das Bestimmen, dass sich der OVI entlang der Route des Fahrzeugs befindet, das Multifokalebenen-Display mit erweiterter Realität anweist, das virtuelle Bild anzuzeigen, wobei das virtuelle Bild Informationen über den mindestens einen OVI einschließt, der sich entlang der Route des Fahrzeugs befindet.
  • Bei einem Aspekt der vorliegenden Offenbarung ist das Steuergerät ferner so konfiguriert, dass er einen Typ des virtuellen Bildes bestimmt, das auf dem Multifokalebenen-Display mit erweiterter Realität angezeigt werden soll, unter Verwendung der Infrastrukturdaten, wobei die Infrastrukturdaten Informationen über einen Typ des OVI einschließen.
  • Bei einem Aspekt der vorliegenden Offenbarung ist das Steuergerät so konfiguriert, dass es eine Position des Fahrzeugs relativ zum Standort des OVI bestimmt und eine Größe des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf der Position des Fahrzeugs relativ zum Standort des OVI bestimmt.
  • Bei einem Aspekt der vorliegenden Offenbarung ist das Steuergerät ferner so konfiguriert, dass es bestimmt, ob das Fahrzeug den OVI passiert hat, und als Reaktion auf das Bestimmen, ob das Fahrzeug den OVI passiert hat, und, als Reaktion auf das Bestimmen, dass das Fahrzeug den OVI passiert hat, Anweisen des Multifokalebenen-Displays mit erweiterter Realität, das Darstellen des virtuellen Bildes zu beenden.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur ein Gebäude. Das Gebäude weist eine Adresse auf. Die Adresse des Gebäudes weist eine Gebäudenummer auf. Das Steuergerät ist ferner so konfiguriert, dass es das Multifokalebenen-Display mit erweiterter Realität anweist, das virtuelle Bild auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen, wobei das virtuelle Bild die Gebäudenummer der Adresse einschließt.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur eine Straße. Die Straße weist einen Namen auf. Das Steuergerät ist ferner so konfiguriert, dass es das Multifokalebenen-Display mit erweiterter Realität anweist, das virtuelle Bild auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen, wobei das virtuelle Bild den Namen der Straße einschließt.
  • Bei einem Aspekt der vorliegenden Offenbarung ist die Infrastruktur eine Straße. Die Straße weist eine Regel auf. Das Steuergerät ist ferner so konfiguriert, dass es das Multifokalebenen-Display mit erweiterter Realität anweist, das virtuelle Bild auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen, wobei das virtuelle Bild die Regel der Straße angibt.
  • Weitere Bereiche der Anwendbarkeit der vorliegenden Offenbarung werden aus der nachstehend bereitgestellten ausführlichen Beschreibung ersichtlich. Es versteht sich, dass die ausführliche Beschreibung und die spezifischen Beispiele nur der Veranschaulichung dienen und nicht dazu bestimmt sind, den Umfang der Offenbarung einzuschränken.
  • Die vorstehenden Merkmale und Vorteile sowie andere Merkmale und Vorteile des vorliegenden offenbarten Systems und Verfahrens sind aus der ausführlichen Beschreibung, einschließlich der Ansprüche und beispielhaften Ausführungsformen, in Verbindung mit den beigefügten Zeichnungen leicht ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Die vorliegende Offenbarung wird anhand der ausführlichen Beschreibung und der beiliegenden Zeichnungen besser verständlich, wobei:
    • 1 ist ein Blockdiagramm, das eine Ausführungsform eines Fahrzeugs darstellt, das ein System zum Anzeigen von Infrastrukturinformationen auf einem Multifokalebenen-Display mit erweiterter Realität einschließt;
    • 2 ist eine schematische Vorderansicht des Multifokalebenen-Displays mit erweiterter Realität von 1, wobei das Multifokalebenen-Display mit erweiterter Realität als Head-up-Display (HUD) konfiguriert ist, und Straßenadressen anzeigt.
    • 3 ist eine schematische Vorderansicht des Multifokalebenen-Displays mit erweiterter Realität von 1, wobei das Multifokalebenen-Display mit erweiterter Realität als HUD konfiguriert ist, und einen Straßennamen und eine Straßenregel darstellt.
    • 4 ist eine schematische Vorderansicht des Multifokalebenen-Displays mit erweiterter Realität von 1, wobei das Multifokalebenen-Display mit erweiterter Realität als HUD konfiguriert ist, und den Standort von Orten von Interesse darstellt.
    • 5 ist eine schematische Vorderansicht des Multifokalebenen-Displays mit erweiterter Realität von 1, Hervorhebung einer zweiten Bildebene des Multifokalebenen-Displays mit erweiterter Realität von 1;
    • 6 ist ein schematisches Diagramm der zweiten Bildebene des Multifokalebenen-Displays mit erweiterter Realität von 1;
    • 7 ist eine schematische Darstellung eines Teils des Systems zum Anzeigen von Infrastrukturinformationen auf dem Multifokalebenen-Display mit erweiterter Realität von 1;
    • 8 ist ein Ablaufdiagramm eines Verfahrens zum Bereitstellen von Stra-ßeninformationen auf einem Multifokalebenen-Display mit erweiterter Realität; und
    • 9 ist ein Ablaufdiagramm für ein Verfahren zum Bereitstellen von OVI-Informationen auf einem Multifokalebenen-Display mit erweiterter Realität.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es wird nun ausführlich Bezug auf mehrere Beispiele der Offenbarung genommen, die in den beigefügten Zeichnungen veranschaulicht sind. Wann immer möglich, werden in den Zeichnungen und der Beschreibung gleiche oder ähnliche Bezugszeichen verwendet, um auf gleiche oder ähnliche Teile oder Schritte zu verweisen.
  • Unter Bezugnahme auf 1 umfasst ein Fahrzeug 10 im Allgemeinen ein Fahrgestell 12, eine Karosserie 14, Vorder- und Hinterräder 17, und kann als Fahrzeugsystem bezeichnet werden. In der dargestellten Ausführungsform umfasst das Fahrzeug 10 zwei Vorderräder 17a und zwei Hinterräder 17b. Die Karosserie 14 ist auf dem Fahrgestell 12 angeordnet und umschließt im Wesentlichen die Komponenten des Fahrzeugs 10. Die Karosserie 14 und das Fahrgestell 12 können zusammen einen Rahmen bilden. Die Räder 17 sind jeweils in der Nähe einer Ecke der Karosserie 14 drehbar mit dem Fahrgestell 12 gekoppelt. Das Fahrzeug 10 schließt eine Vorderachse 19, die mit den Vorderrädern 17a gekoppelt ist, und eine Hinterachse 25 ein, die mit den Hinterrädern 17b gekoppelt ist.
  • In verschiedenen Ausführungsformen kann das Fahrzeug 10 ein autonomes Fahrzeug sein, und ein Steuersystem 98 ist in das Fahrzeug 10 integriert. Das Steuersystem 98 kann als das System oder das System zum Anzeigen von Infrastrukturinformationen auf einem Display 29 bezeichnet werden. Das Fahrzeug 10 ist beispielsweise ein Fahrzeug, das automatisch gesteuert wird, um Fahrgäste von einem Standort zum anderen zu befördern. Das Fahrzeug 10 ist in der veranschaulichten Ausführungsform ein Pickup, aber auch andere Fahrzeuge wie Lastwagen, Limousinen, Coupes, Sport Utility Vehicles (SUVs), Wohnmobile (RVs) usw. können verwendet werden. In einer Ausführungsform kann das Fahrzeug 10 ein sogenanntes Level-Zwei-, Level-Drei-, Level-Vier- oder Level-Fünf-Automatisierungssystem sein. Ein Level-Vier-System kennzeichnet einen „hohen Automatisierungsgrad“ und bezieht sich auf die fahrmodusspezifische Ausführung von Aspekten der dynamischen Fahraufgabe durch ein automatisiertes Fahrsystem, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Aufforderung zum Eingreifen reagiert. Ein Level-Fünf-System kennzeichnet die „Vollautomatisierung“, was sich darauf bezieht, dass ein automatisiertes Fahrsystem von Aspekten der dynamischen Fahraufgabe unter einer Anzahl von Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer bewältigt werden können, alle vollständig ausführt. Bei Level-3-Fahrzeugen führen die Fahrzeugsysteme die gesamte dynamische Fahraufgabe (DDT, dynamic driving task) innerhalb des Bereichs aus, für den sie ausgelegt sind. Vom Fahrzeugführer wird nur dann erwartet, dass er für den DDT-Rückruf verantwortlich ist, wenn das Fahrzeug 10 den Fahrer im Wesentlichen „auffordert“, den Betrieb zu übernehmen, wenn etwas schiefläuft oder das Fahrzeug im Begriff ist, den Bereich, in dem es operieren kann, zu verlassen. Bei Level-2-Fahrzeugen unterstützen die Systeme die Lenkung, das Bremsen/Beschleunigen, die Fahrspurzentrierung und die adaptive Geschwindigkeitsregelung. Aber selbst wenn diese Systeme aktiviert sind, muss der Fahrer am Steuer sitzen und die automatischen Merkmale ständig überwachen.
  • Wie dargestellt, umfasst das Fahrzeug 10 im Allgemeinen ein Antriebssystem 20, ein Getriebesystem 22, ein Lenksystem 24, ein Bremssystem 26, ein Sensorsystem 28, ein Stellgliedsystem 30, mindestens eine Datenspeichervorrichtung 32, mindestens ein Steuergerät 34 und ein Kommunikationssystem 36. Das Antriebssystem 20 kann in verschiedenen Ausführungsformen eine elektrische Maschine, wie einen Fahrmotor und/oder ein Brennstoffzellen-Antriebssystem einschließen. Das Fahrzeug 10 kann ferner eine Batterie (oder einen Batteriesatz) 21 umfassen, die elektrisch mit dem Antriebssystem 20 verbunden ist. Dementsprechend ist die Batterie 21 so konfiguriert, dass sie elektrische Energie speichert und dem Antriebssystem 20 elektrische Energie bereitstellt. In bestimmten Ausführungsformen kann das Antriebssystem 20 einen Verbrennungsmotor einschließen. Das Getriebesystem 22 ist so konfiguriert, dass es Kraft vom Antriebssystem 20 auf die Räder 17 gemäß den wählbaren Übersetzungsverhältnissen überträgt. Gemäß verschiedenen Ausführungsformen kann das Getriebesystem 22 ein stufenloses Automatikgetriebe, ein stufenloses Getriebe oder ein anderes geeignetes Getriebe einschließen. Das Bremssystem 26 ist so konfiguriert, dass es ein Bremsmoment für die Fahrzeugräder 17 bereitstellt. Das Bremssystem 26 kann in verschiedenen Ausführungsformen Reibungsbremsen, drahtgebundene Bremsen, ein regeneratives Bremssystem, wie eine elektrische Maschine, und/oder andere geeignete Bremssysteme einschließen. Das Lenksystem 24 beeinflusst eine Position der Fahrzeugräder 17 und kann ein Lenkrad 33 einschließen. Obwohl es zu veranschaulichenden Zwecken dahingehend dargestellt ist, dass es ein Lenkrad 33 einschließt, kann das Lenksystem 24 bei einigen Ausgestaltungen, die im Rahmen der vorliegenden Offenbarung denkbar sind, möglicherweise kein Lenkrad 33 einschließen.
  • Das Sensorsystem 28 schließt einen oder mehrere Sensoren 40 (d. h. Messgeräte) ein, die beobachtbare Bedingungen der äußeren Umgebung und/oder der inneren Umgebung des Fahrzeugs 10 erfassen. Die Sensoren 40 stehen mit dem Steuergerät 34 in Verbindung und können einschließen, sind jedoch nicht beschränkt auf ein oder mehrere Radargeräte, einen oder mehrere Lidar-Sensoren (Light Detection and Ranging), einen oder mehrere Näherungssensoren, einen oder mehrere Kilometerzähler, einen oder mehrere GPR-Sensoren (Ground Penetrating Radar/In den Boden eindringendes Radar), einen oder mehrere Lenkwinkelsensoren, einen oder mehrere GPS-Sender-Empfänger 45, einen oder mehrere Reifendrucksensoren, eine oder mehrere Kameras 41 (z. B. optische Kameras und/oder Infrarotkameras), ein oder mehrere Gyroskope, einen oder mehrere Beschleunigungsmesser, einen oder mehrere Neigungsmesser, einen oder mehrere Geschwindigkeitssensoren, einen oder mehrere Ultraschallsensoren, einen oder mehrere Reifendrucksensoren, einen (z. B. optische Kameras und/oder Infrarotkameras), ein oder mehrere Gyroskope, ein oder mehrere Beschleunigungsmesser, ein oder mehrere Neigungsmesser, ein oder mehrere Geschwindigkeitssensoren, ein oder mehrere Ultraschallsensoren, eine oder mehrere Trägheitsmessgeräte (IMUs, inertial measurement units) und/oder andere Sensoren. Jeder Sensor 40 ist so konfiguriert, dass er ein Signal erzeugt, das die erfassten beobachtbaren Bedingungen der äußeren Umgebung und/oder der inneren Umgebung des Fahrzeugs 10 angibt. Da das Sensorsystem 28 Daten für das Steuergerät 34 bereitstellt, werden das Sensorsystem 28 und seine Sensoren 40 als Informationsquellen (oder einfach als Quellen) betrachtet.
  • Das Sensorsystem 28 umfasst einen oder mehrere GNSS-Sender-Empfänger (Global Navigation Satellite System/globales Navigationssatellitensystem) 45 (z. B. GPS-Sender-Empfänger), die so konfiguriert sind, dass sie die Routendaten (d. h. die Routeninformationen) detektieren und überwachen. Der GNSS-Sender-Empfänger 45 ist so konfiguriert, dass er mit einem GNSS kommuniziert, um die Position des Fahrzeugs 10 auf dem Globus zu bestimmen. Der GNSS-Sender-Empfänger 45 steht in elektronischer Verbindung mit dem Steuergerät 34.
  • Das Stellgliedsystem 30 umfasst eine oder mehrere Stellgliedvorrichtungen 42, die eine oder mehrere Fahrzeugfunktionen steuern, wie, aber nicht beschränkt auf das Antriebssystem 20, das Getriebesystem 22, das Lenksystem 24 und das Bremssystem 26. In verschiedenen Ausführungsformen können die Fahrzeugmerkmale ferner Innen- und/oder Außenmerkmale des Fahrzeugs einschließen, wie Türen, einen Kofferraum und Innenraummerkmale, wie Luft, Musik und Beleuchtung usw.
  • Der Datenspeicher 32 speichert Daten, die beim automatischen Steuern des Fahrzeugs 10 verwendet werden. In verschiedenen Ausführungsformen speichert das Datenspeichergerät 32 definierte Karten der navigierbaren Umgebung. In verschiedenen Ausführungsformen können die definierten Karten von einem entfernten System vordefiniert und erhalten werden. Beispielsweise können die definierten Karten vom entfernten System zusammengestellt und an das Fahrzeug 10 (drahtlos und/oder drahtgebunden) übermittelt, und im Datenspeicher 32 gespeichert werden. Die Datenspeichervorrichtung 32 kann Teil des Steuergeräts 34, getrennt vom Steuergerät 34 oder Teil des Steuergeräts 34 und Teil eines separaten Systems sein.
  • Das Fahrzeug 10 kann ferner einen oder mehrere Airbags 35 einschließen, die mit dem Steuergerät 34 oder einem anderen Steuergerät des Fahrzeugs 10 kommunizieren. Der Airbag 35 schließt eine aufblasbare Blase ein, und ist so konfiguriert, dass er zwischen einer verstauten und einer entfalteten Konfiguration wechseln kann, um die Auswirkungen einer auf das Fahrzeug 10 einwirkenden äußeren Kraft abzufedern. Die Sensoren 40 können einen Airbag-Sensor, wie eine IMU, einschließen, der so konfiguriert ist, dass er eine externe Kraft detektiert und ein Signal erzeugt, das die Größe dieser externen Kraft angibt. Das Steuergerät 34 ist so konfiguriert, dass es das Entfalten des Airbags 35 basierend auf dem Signal von einem oder mehreren Sensoren 40, wie dem Airbag-Sensor, anweist. Dementsprechend ist das Steuergerät 34 so konfiguriert, dass es bestimmt, wann der Airbag 35 entfaltet worden ist.
  • Das Steuergerät 34 umfasst mindestens einen Prozessor 44 und eine nicht transitorische Speichervorrichtung oder -medien 46. Der Prozessor 44 kann ein beliebiger kundenspezifischer oder handelsüblicher Prozessor, eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Hilfsprozessor unter mehreren Prozessoren, die dem Steuergerät 34 zugeordnet sind, ein halbleiterbasierter Mikroprozessor (in Form eines Mikrochips oder Chipsets), ein Makroprozessor, eine Kombination davon oder im Allgemeinen eine Vorrichtung zum Ausführen von Anweisungen sein. Die computerlesbare Speichervorrichtung oder -medien 46 kann/können flüchtigen und nichtflüchtigen Speicher einschließen, beispielsweise im Festwertspeicher (ROM), Direktzugriffsspeicher (RAM) und Keep-Alive-Speicher (KAM). Ein KAM ist ein persistenter oder nicht flüchtiger Speicher, der zum Speichern verschiedener Betriebsvariablen verwendet werden kann, während der Prozessor 44 ausgeschaltet ist. Die computerlesbare Speichervorrichtung oder -medien kann/können unter Verwendung einer Anzahl von Speichervorrichtungen implementiert werden, wie PROMs (programmierbare Festwertspeicher), EPROMs (löschbare PROMs), EEPROMs (elektrisch löschbare PROMs), Flash-Speicher oder andere elektrische, magnetische, optische oder kombinierte Speichervorrichtungen, die in der Lage sind, Daten zu speichern, von denen einige ausführbare Befehle darstellen, die von der Steuerung 34 bei der Steuerung des Fahrzeugs 10 verwendet werden. Das Steuergerät 34 des Fahrzeugs 10 kann als Fahrzeugsteuergerät bezeichnet werden und kann so programmiert sein, dass es ein Verfahren 100 (8) zum Anzeigen von Straßeninformationen auf dem Display 29 ausführt, wie nachstehend ausführlich beschrieben, und/oder ein Verfahren 200 zum Anzeigen von OVI-Informationen auf dem Display 29, wie nachstehend ausführlich beschrieben.
  • Die Anweisungen können ein oder mehrere separate Programme einschließen, von denen jedes eine geordnete Auflistung von ausführbaren Anweisungen zum Implementieren logischer Funktionen umfasst. Die Anweisungen empfangen und verarbeiten, wenn sie vom Prozessor 44 ausgeführt werden, Signale vom Sensorsystem 28, führen Logik, Berechnungen, Verfahren und/oder Algorithmen zum automatischen Steuern der Komponenten des Fahrzeugs 10 durch und erzeugen Steuersignale für das Stellgliedsystem 30, um eine oder mehrere Komponenten des Fahrzeugs 10 basierend auf der Logik, den Berechnungen, Verfahren und/- oder Algorithmen automatisch zu steuern. Obwohl ein einziges Steuergerät 34 in 1 dargestellt ist, können Ausführungsformen des Fahrzeugs 10 eine Mehrzahl von Steuergeräten 34 einschließen, die über ein geeignetes Kommunikationsmedium oder eine Kombination von Kommunikationsmedien kommunizieren und zusammenarbeiten, um die Sensorsignale zu verarbeiten, Logik, Berechnungen, Verfahren und/oder Algorithmen durchzuführen und Steuersignale zu erzeugen, um Funktionen des Fahrzeugs 10 automatisch zu steuern.
  • In verschiedenen Ausführungsformen sind ein oder mehrere Anweisungen des Steuergeräts 34 im Steuersystem 98 verkörpert. Das Fahrzeug 10 schließt eine Benutzerschnittstelle 23 ein, die ein Touchscreen im Armaturenbrett sein kann. Die Benutzerschnittstelle 23 kann einschließen, ist jedoch nicht beschränkt auf einen Alarm, wie einen oder mehrere Lautsprecher 27, zur Abgabe eines hörbaren Tons, einer haptischen Rückmeldung auf einem Fahrzeugsitz oder einem anderen Gegenstand, ein oder mehrere Displays 29, ein oder mehrere Mikrofone 31 und/- oder andere Vorrichtungen, die geeignet sind, dem Fahrzeugbenutzer des Fahrzeugs 10 eine Benachrichtigung bereitzustellen. Die Benutzerschnittstelle 23 steht in elektronischer Verbindung mit dem Steuergerät 34 und ist so konfiguriert, dass sie Eingaben eines Benutzers (z. B. eines Fahrzeugführers oder eines Fahrzeuginsassen) empfängt. Die Benutzerschnittstelle 23 kann beispielsweise einen Touchscreen und/oder Tasten einschließen, die so konfiguriert sind, dass sie Eingaben von einem Fahrzeugbenutzer empfangen können. Dementsprechend ist das Steuergerät 34 so konfiguriert, dass es Eingaben des Benutzers über die Benutzerschnittstelle 23 empfängt.
  • Das Display 29 ist so konfiguriert, dass es dem Benutzer (z. B. dem Fahrzeugführer oder Beifahrer) Informationen anzeigt und kann ein Display mit erweiterter Realität (AR) sein. In der vorliegenden Offenbarung bezeichnet der Begriff „AR-Display“ ein Display, das dem Benutzer Informationen anzeigt und gleichzeitig die Sicht auf die Außenwelt ermöglicht. In bestimmten Ausführungsformen kann das Display 29 als Head-up-Display (HUD) und/oder als Informationscluster-Display konfiguriert sein. Dementsprechend kann das Display 29 ein AR-HUD oder ein AR-Informationscluster-Display sein. Bei einem AR-HUD werden Bilder auf eine Windschutzscheibe 39 (6) des Fahrzeugs 10 projiziert. Bei einem AR-Informationscluster-Display schließt die Informationscluster-Tafel des Fahrzeugs 10 einen Bildschirm ein, der ein von einer oder mehreren Kameras 41 aufgenommenes Bild der Vorderseite des Fahrzeugs 10 (d. h. ein Vorwärtsbild) und virtuelle Bilder auf diesem Vorwärtsbild darstellt. Wie nachstehend erörtert, kann das Display 29 ein AR-Display mit Multifokalebene sein, um die Manipulation (z. B. Grö-ße, Position und Art) der virtuellen Bilder zu erleichtern.
  • Das Kommunikationssystem 36 steht in Verbindung mit dem Steuergerät 34 und ist so konfiguriert, dass es drahtlos Informationen an und von anderen Einheiten 48 übermittelt, wie, aber nicht beschränkt auf, andere Fahrzeuge („V2V“-Kommunikation), Infrastruktur („V2I“-Kommunikation), entfernte Systeme in einem entfernten Callcenter (z. B. ON-STAR von GENERAL MOTORS) und/oder persönliche Geräte. In bestimmten Ausführungsformen ist das Kommunikationssystem 36 ein drahtloses Kommunikationssystem, das konfiguriert ist, um über ein drahtloses lokales Netz (WLAN) unter Verwendung von IEEE 802.11-Standards oder über zellulare Datenkommunikation zu kommunizieren. Zusätzliche oder alternative Kommunikationsverfahren, wie Dedicated Short Range Communication (DSRC), werden jedoch ebenfalls innerhalb des Umfangs der vorliegenden Offenbarung berücksichtigt. DSRC-Kanäle beziehen sich auf einseitige oder wechselseitige drahtlose Kommunikationskanäle mit kurzer bis mittlerer Reichweite, die speziell für den Einsatz in Fahrzeugen entwickelt wurden, sowie auf einen entsprechenden Satz von Protokollen und Standards. Dementsprechend kann das Kommunikationssystem 36 eine oder mehrere Antennen und/oder Kommunikations-Sende-/Empfangsgeräte 37 zum Empfangen und/oder Senden von Signalen, wie Cooperative Sensing Messages (CSMs), einschließen. Die Kommunikations-Sender-Empfänger 37 können als Sensoren 40 betrachtet werden. Das Kommunikationssystem 36 ist so konfiguriert, dass es drahtlos Informationen zwischen dem Fahrzeug 10 und einem anderen Fahrzeug übermittelt. Ferner ist das Kommunikationssystem 36 so konfiguriert, dass es Informationen zwischen dem Fahrzeug 10 und der Infrastruktur oder anderen Fahrzeugen drahtlos übermittelt.
  • Unter Bezugnahme auf 1, 2 und 3 ist das System 98 so konfiguriert, dass es das Display 29, wie ein AR-HUD oder ein AR-Informationscluster-Display, anweist, Infrastrukturinformationen (z. B. Straßenadressen, Straßenregeln und/oder den Standort eines oder mehrerer OVIs 47) unter Verwendung von Daten, die von den Sensoren 40 im Fahrzeug 10 empfangen werden, Daten, die von anderen Einheiten 48 über das Kommunikationssystem 36 empfangen werden, und/oder Augen-Tracking-Daten anzuzeigen. Dabei zeigt das Display 29 die Infrastrukturinformationen kontextbezogen an, indem es die Straßenszene mit konformen Grafiken anreichert. In der vorliegenden Offenbarung bezeichnet der Begriff „konforme Grafik“ syntenisch generierte Inhalte (d. h. ein virtuelles Bild 50), die als Teil der Außenwelt dargestellt werden. Dementsprechend ist das Display 29 ein konformes Display. In der vorliegenden Offenbarung bezeichnet der Begriff „konformes Display“ ein Display, das in der Lage ist, synthetisch erzeugte Inhalte (d. h. ein oder mehrere virtuelle Bilder 50) als Teil der Außenwelt darzustellen.
  • In 2 stellt das Display 29 virtuelle Bilder 50 mit Infrastrukturinformationen als Teil der Außenwelt dar. In der in 2 dargestellten Ausführungsform zeigen die virtuellen Bilder 50 Straßenadressen von Infrastrukturen 49 entlang der Route des Fahrzeugs 10 an. Insbesondere sind in 2 die virtuellen Bilder 50 Haus- oder Gebäudenummern der Adresse des Gebäudes und/oder der Häuser entlang der Route des Fahrzeugs 10. Da das Display 29 ein AR-Display sein kann, stellt 2 einen Blick auf eine Fahrbahn 63 durch eine Windschutzscheibe 39 (7) zusätzlich zu den virtuellen Bildern 50, oder ein Bild der Fahrbahn 63 mit den virtuellen Bildern 50 dar. In der vorliegenden Offenbarung bezeichnet der Begriff „Fahrbahn“ eine offene Strecke für Fahrzeuge 10. Obwohl 2 die virtuellen Bilder 50 anzeigt, die die Haus- oder Gebäudenummern einer Adresse anzeigen, die den Häusern oder Gebäuden entlang der Route des Fahrzeugs 10 entsprechen; es ist jedoch denkbar, dass die virtuellen Bilder 50 auch andere Arten von Infrastrukturinformationen einschließen können, wie nachstehend erörtert. In 2 kann die Größe jedes virtuellen Bildes 50 umgekehrt proportional zum Abstand zwischen dem Fahrzeug 10 und der Infrastruktur sein. Somit ist das virtuelle Bild 50, das der weiter vom Fahrzeug 10 entfernten Infrastruktur entspricht, kleiner als das virtuelle Bild 50, das der näher am Fahrzeug 10 gelegenen Infrastruktur entspricht.
  • In 3 stellt das Display 29 virtuelle Bilder 50 mit Straßeninformationen als Teil der Außenwelt dar. Als nicht einschränkendes Beispiel stellen in 3 die virtuellen Bilder 50 dem Benutzer Informationen über eine die Fahrbahn 63 kreuzende Straße (d. h. eine Querstraße) und Regeln für diese Querstraße bereit. Das virtuelle Bild 50 kann den Namen der Querstraße (z. B. 28. Straße) und ein Symbol einschließen, das die Regel für diese Querstraße angibt. Ein solches Symbol kann ein Pfeil mit Text (z. B. Einbahnstraße) sein, der angibt, dass es sich bei der Querstraße um eine Einbahnstraße handelt und dass die Fahrzeuge 10 nur in Pfeilrichtung fahren dürfen. Unabhängig von dem Typ des verwendeten virtuellen Bildes 50 wird das virtuelle Bild 50 an einem Standort der Infrastruktur relativ zum Fahrzeug 10 positioniert. Beispielsweise kann das virtuelle Bild 50, das den Namen der Querstraße und die Regel für diese Querstraße angibt, auf dieser bestimmten Querstraße positioniert werden.
  • In 4 gibt das Display 29 virtuelle Bilder 50 mit OVI-Informationen als Teil der Außenwelt an. Als nicht einschränkendes Beispiel ist in 4 schließen die virtuellen Bilder 50 Text oder ein grafisches Element (dargestellt durch ein Quadrat) und einen Pfeil ein. Bei dem grafischen Element kann es sich um eine Zeichnung, wie ein Warenzeichen, handeln, die einen oder mehrere OVIs47 darstellt, und der Pfeil kann auf den Standort des OVI 47 hinweisen. Wie nachstehend erörtert, kann der Fahrzeugbenutzer die Arten von OVI 47 bestimmen, die er oder sie zu identifizieren wünscht. Beispielsweise kann der Fahrzeugbenutzer auswählen, dass er nur Cafes oder Tankstellen identifizieren möchte. Auf dem Display 29 werden dann ausschließlich OVIs 47 angezeigt, die sich auf Cafes oder Tankstellen beziehen. Die virtuellen Bilder 50 werden jeweils an den Standorten der entsprechenden OVIs 47 entlang der Route des Fahrzeugs 10 positioniert. Somit ist das virtuelle Bild 50, das dem weiter vom Fahrzeug 10 entfernten OVI 47 entspricht, kleiner als das virtuelle Bild 50, das dem näher am Fahrzeug 10 gelegenen OVI 47 entspricht.
  • Unter Bezugnahme auf 5 und 6 kann das Display 29 ein AR-Display mit Multifokalebene sein, wie vorstehend erwähnt. In diesem Fall weist das Display 29 eine erste Bildebene 58 und eine zweite Bildebene 60 auf. Die erste Bildebene 58 zeigt die Sicht auf die Außenwelt, und die zweite Bildebene 60 ist für die Darstellung der virtuellen Bilder 50 reserviert (2). Die zweite Bildebene 60 erstreckt sich über mehrere Fahrspuren, und die virtuellen Bilder 50 erscheinen an einem im Vergleich zur ersten Bildebene 58 weiter entfernten Standort auf der Fahrbahnfläche 62. Zum Beispiel, wie in 5 dargestellt, deckt die zweite Bildebene 60 die linke Fahrspur 52, die mittlere Fahrspur 54 und die rechte Fahrspur 56 ab. Als nicht einschränkendes Beispiel beginnt die zweite Bildebene 60 auf der mittleren Fahrspur 54 in einem ersten vorbestimmten Abstand D1 (z. B. fünfundzwanzig Meter) vom Fahrzeug 10 und endet in einem zweiten vorbestimmten Abstand D2 (z. B. neunzig Meter) vom Fahrzeug 10. Unabhängig von den spezifischen Abständen ist der zweite vorbestimmte Abstand D2 größer als der erste vorbestimmte Abstand D1, damit der Fahrzeugbenutzer die virtuellen Bilder 50 besser sehen kann (2). Auf der linken Fahrspur 52 und der rechten Fahrspur 56 wird die zweite Bildebene 60 durch eine schräge Begrenzung begrenzt, die in der ersten vorbestimmten Entfernung D1 vom Fahrzeug 10 beginnt und in einer dritten vorbestimmten Entfernung D3 (z. B. fünfzig Meter) vom Fahrzeug 10 endet. Der dritte vorbestimmte Abstand D3 ist größer als der erste vorbestimmte Abstand D1 und kleiner als der zweite vorbestimmte Abstand D2, um dem Fahrzeugbenutzer zu helfen, die virtuellen Bilder 50 zu sehen (2). Der Begriff „AR-Display mit Multifokalebene“ bezeichnet ein AR-Display, das Bilder in mehr als einer Bildebene darstellt, wobei sich die Bildebenen in unterschiedlichen Abständen und an unterschiedlichen Standorten befinden. Es ist wünschenswert, ein AR-Display mit Multifokalebene im aktuell offenbarten System 98 zu verwenden, um die Größe, Typ und/oder den Standort der virtuellen Bilder 50 in Bezug auf die Sicht auf die Außenwelt einfach zu ändern.
  • Unter Bezugnahme auf 7 schließt das System 98 einen Benutzer-Tracker 43 (z. B. Augen-Tracker und/oder Kopf-Tracker) ein, der so konfiguriert ist, dass er die Position und Bewegung der Augen 66 oder des Kopfes 69 des Fahrzeugbenutzers verfolgt. In der dargestellten Ausführungsform kann der Benutzer-Tracker als eine oder mehrere der Kameras 41 des Fahrzeugs 10 konfiguriert sein. Wie vorstehend erörtert, gelten die Kameras 41 als Sensoren 40 des Fahrzeugs 10. Als Sensor 40 steht der Benutzer-Tracker 43 in Kommunikation mit dem Steuergerät 34, das einen Systemmanager 68 einschließt. Während des Betriebs des Systems 98 empfängt der Systemmanager 68 mindestens eine erste Eingabe 70 und eine zweite Eingabe 72. Die erste Eingabe 70 gibt die Position des Fahrzeugs im Raum (d. h. die Position des Fahrzeugs im Raum) an, und die zweite Eingabe 72 gibt die Position des Fahrzeugbenutzers im Fahrzeug 10 (z. B. die Position der Augen und/oder des Kopfes des Benutzers im Fahrzeug 10) an. Die erste Eingabe 70 kann Daten wie GNSS-Daten (z. B. GPS-Daten), Fahrzeuggeschwindigkeit, Fahrbahnkrümmung und Fahrzeuglenkung einschließen, und diese Daten können von den Sensoren 40 des Fahrzeugs 10 und/oder anderen Einheiten 48 durch das Kommunikationssystem 36 des Fahrzeugs 10 gesammelt werden. Die zweite Eingabe 72 kann vom Benutzer-Tracker (z. B. Augen-Tracker und/oder Kopf-Tracker) empfangen werden. Der Systemmanager 68 ist so konfiguriert, dass er den Typ, die Größe, die Form und die Farbe der konformen Grafiken (d. h. der virtuellen Bilder 50) basierend auf der ersten Eingabe 70 (d. h. der Position des Fahrzeugs im Raum), der zweiten Eingabe 72 (z. B. dem Standort der Augen und/oder des Kopfes des Benutzers im Fahrzeug 10) und der erfassten Fahrumgebung des Fahrzeugs (die über die Sensoren 40 erhalten werden kann) bestimmt (z. B. berechnet). Art, Größe, Form und Farbe der konformen Grafik des virtuellen Bildes 50 können kollektiv als Merkmale des virtuellen Bildes bezeichnet werden.
  • Unter fortgesetzter Bezugnahme auf 7 schließt das System 98 ferner eine Bildmaschine 74 ein, die Teil des Displays 29 ist, und eine integrierte Schaltung sein kann, die zum Erzeugen der virtuellen Bilder 50 konfiguriert ist. Diese erzeugten virtuellen Bilder 50 werden dann auf die Windschutzscheibe 39 projiziert (wenn das Display 29 ein HUD ist), um die virtuellen Bilder 50 auf der zweiten Bildebene 60 entlang der Fahrbahnfläche 62 darzustellen.
  • 8 ist ein Ablaufdiagramm des Verfahrens 100 zum Anzeigen von Infrastrukturinformationen (z.B. Straßenadresse und/oder Regeln) auf dem Display 29 (z. B. einem AR-Display). In der vorliegenden Offenbarung bezeichnet der Begriff „Infrastruktur“ physische Strukturen und Einrichtungen (z. B. Gebäude, Straßen, Wege, Stromversorgung), die für den Betrieb einer Gesellschaft oder eines Unternehmens benötigt werden. Der Begriff „Infrastrukturinformationen“ bezeichnet also Informationen über eine Infrastruktur 49, wie Straßenregeln, Straßenadressen und/oder den Standort eines OVI 47. Das Verfahren 100 beginnt bei Block 102, indem das Steuergerät 34 beispielsweise anhand der von den Sensoren 40 erzeugten Signale bestimmt, dass das Fahrzeug 10 gefahren wird. Beispielsweise kann das Steuergerät 34 Daten von einem der Sensoren 40, wie einem Geschwindigkeitssensor, empfangen, um zu bestimmen, dass das Fahrzeug 10 in Bewegung ist. Dann fährt das Verfahren 100 mit Block 104 fort.
  • Bei Block 104 bestimmt das Steuergerät 34 den Standort des Fahrzeugs 10 und den Standort von mindestens einer Infrastruktur 49 (2). Zu diesem Zweck kann das Steuergerät 34 mindestens ein Signal von einem oder mehreren Sensoren 40, wie Kameras 41, GNSS-Sender-Empfängern 45 (z. B. Global Positioning System (GPS) Sender-Empfängern), Daten aus dem Internet, Straßendatenbanken und/oder Daten von anderen Fahrzeugen 10 (d. h. V2X-Daten) empfangen. Beispielsweise kann das Steuergerät 34 Fahrzeugstandortdaten und/oder Fahrbahndaten von den GNSS-Sender-Empfängern 45 empfangen. In der vorliegenden Offenbarung bezeichnet der Begriff „Fahrzeugstandortdaten“ Daten, die den Standort des Fahrzeugs 10 angeben. Der hierin verwendete Begriff „Fahrbahndaten“ bezeichnet Daten mit Informationen über eine Fahrbahn 63 (2) entlang der Route des Fahrzeugs 10 und kann eine oder mehrere Straßendatenbanken und/oder eine oder mehrere Straßenkarten einschließen. Bei Block 104 kann das Steuergerät 34 auch Infrastrukturdaten von einem oder mehreren Sensoren 40, wie Kameras 41, GNSS-Sender-Empfängern 45 (z. B. Global Positioning System (GPS)-Sender-Empfängern), Daten aus dem Internet, Straßendatenbanken und/- oder Daten von anderen Fahrzeugen 10 (d. h. V2X-Daten) empfangen. In der vorliegenden Offenbarung schließt der Begriff „Infrastrukturdaten“ Daten über mindestens eine Infrastruktur 49 entlang der Route des Fahrzeugs 10 ein, und kann Informationen über mindestens eine Infrastruktur entlang der Route des Fahrzeugs 10 einschließen, wie Name, Standort, Adresse, Typ und/oder Regeln in Bezug auf eine Infrastruktur 49 entlang der Route des Fahrzeugs 10. Dementsprechend kann das Steuergerät 34 den Standort des Fahrzeugs 10 und der Infrastruktur 49 entlang der Route des Fahrzeugs 10 bestimmen, indem es beispielsweise die vom GNSS-Sender-Empfänger 45, einem anderen Sensor 40 oder einer anderen geeigneten Informationsquelle empfangenen Fahrzeugstandortdaten und Infrastrukturdaten verwendet. Das Verfahren 100 geht dann zu Block 106 über.
  • Bei Block 106 bestimmt das Steuergerät 34 die Fahrzeugposition relativ zu einer Straßenkarte. Mit anderen Worten, das Steuergerät 34 bestimmt die Position des Fahrzeugs 10 relativ zur Fahrbahn 63. Dabei kann das Steuergerät 34 die vom GNSS-Sender/Empfänger 45 empfangenen Fahrzeugstandortdaten und/oder Straßendaten, wie Straßendatenbanken, verwenden. Anders ausgedrückt, bestimmt bei Block 110 das Steuergerät 34, wo sich das Fahrzeug 10 auf der Fahrbahn 63 befindet. Anschließend fährt das Verfahren 100 mit Block 108 fort.
  • Bei Block 108 bestimmt das Steuergerät 34 die spezifischen virtuellen Bilder 50, die auf dem Display 29 (z. B. dem Multifokalebenen-Display mit erweiterter Realität) angezeigt werden sollen, basierend auf den Infrastrukturdaten, die zuvor vom Steuergerät 34 empfangen wurden. Wie vorstehend erörtert, können die virtuellen Bilder 50 den Namen, die Adresse, den Standort und/oder die Regeln in Bezug auf mindestens eine Infrastruktur 49 entlang der Route des Fahrzeugs 10 angeben. Beispielsweise, wie in 2 dargestellt, kann das Steuergerät 34 virtuelle Bilder 50 auswählen, die die Haus- oder Gebäudenummern der Adressen der Infrastruktur 49 entlang der Route des Fahrzeugs 10 angeben. Außerdem kann das Steuergerät 34 beispielsweise virtuelle Bilder 50 auswählen, die Straßenregeln mit Pfeilen und/oder Straßennamen angeben. Ferner kann das Steuergerät 34 die Größe der virtuellen Bilder 50 in Echtzeit bestimmen, je nachdem, wie nah oder wie weit die Infrastruktur 49 vom Fahrzeug 10 entfernt ist. Beispielsweise kann die Größe der virtuellen Bilder 50 zunehmen, wenn sich das Fahrzeug 10 der Stra-ßenkreuzung 65 nähert. Danach geht das Verfahren 100 zu Block 110 über.
  • Bei Block 110 bestimmt das Steuergerät 34 die Position der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 unter Verwendung mindestens einer Eingabe vom Benutzer-Tracker 43. Wie vorstehend erörtert, kann der Benutzer-Tracker 43 eine Kamera 41 sein, die so konfiguriert ist, dass sie die Bewegungen des Kopfes 69 und/oder der Augen 66 des Fahrzeugbenutzers verfolgt. Das Steuergerät 34 verwendet dann die Eingaben des Benutzer-Trackers 43, um kontinuierlich in Echtzeit den Standort der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 zu bestimmen. Das Verfahren 100 geht dann zu Block 112 über.
  • Bei Block 112 bestimmt das Steuergerät 34 in Echtzeit die Position, Art, Größe, Form und Farbe der virtuellen Bilder 50 (2), die auf dem Display 29 (z. B. dem Multifokalebenen-Display mit erweiterter Realität) angezeigt werden sollen, basierend auf dem Standort der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 und den Infrastrukturinformationen. Als nicht einschränkendes Beispiel kann sich die Position der virtuellen Bilder 50 auf dem Display 29 ändern, wenn der Benutzer den Kopf 69 und/oder die Augen 66 bewegt. Ferner kann die Größe der virtuellen Bilder 50 zunehmen, wenn sich das Fahrzeug 10 der Infrastruktur 49 nähert. Danach geht das Verfahren 100 zu Block 114 über.
  • Bei Block 114 sendet das Steuergerät 34 ein Anweisungssignal, um das Display 29 anzuweisen, die virtuellen Bilder 50 an den zuvor bestimmten Standorten darzustellen. Wie vorstehend erörtert, schließen die virtuellen Bilder 50 die Infrastrukturinformationen zur Infrastruktur 49 (z. B. Straße und/oder Gebäude) entlang der Route des Fahrzeugs 10 ein. Die Position der virtuellen Bilder 50 kann sich in Echtzeit ändern, je nachdem, wo sich die Augen 66 und/oder der Kopf 69 des Fahrzeugbenutzers befinden. Als Reaktion auf den Empfang des Anweisungssignals vom Steuergerät 34 stellt das Display 29 die virtuellen Bilder 50 an den zuvor bestimmten Standorten dar. Nach Block 114 kehrt das Verfahren 100 zu Block 102 zurück.
  • 9 ist ein Ablaufdiagramm des Verfahrens 200 zum Anzeigen von Infrastrukturinformationen (z. B. Informationen zu OVIs 47) auf dem Display 29 (z. B. einem AR-Display). Wie vorstehend erörtert, können die Infrastrukturinformationen Informationen über den OVI 47 (z. B. den Standort des OVI 47) entlang der Route des Fahrzeugs 10 einschließen. Das Verfahren 200 beginnt bei Block 202, indem das Steuergerät 34 beispielsweise anhand der von den Sensoren 40 erzeugten Signale bestimmt, dass das Fahrzeug 10 gefahren wird. Beispielsweise kann das Steuergerät 34 Daten von einem der Sensoren 40, wie einem Geschwindigkeitssensor, empfangen, um zu bestimmen, dass das Fahrzeug 10 in Bewegung ist. Dann fährt das Verfahren 200 mit Block 204 fort.
  • Bei Block 204 bestimmt das Steuergerät 34 den Standort des Fahrzeugs 10 und den Standort von mindestens einer Infrastruktur 49 (2). Zu diesem Zweck kann das Steuergerät 34 mindestens ein Signal von einem oder mehreren Sensoren 40, wie Kameras 41, GNSS-Sender-Empfängern 45 (z. B. Global Positioning System (GPS) Sender-Empfängern), Daten aus dem Internet, Straßendatenbanken und/oder Daten von anderen Fahrzeugen 10 (d. h. V2X-Daten) empfangen. Beispielsweise kann das Steuergerät 34 Fahrzeugstandortdaten und/oder Fahrbahndaten von einem der Sensoren 40, wie den GNSS-Sender-Empfängern 45, empfangen. In der vorliegenden Offenbarung bezeichnet der Begriff „Fahrzeugstandortdaten“ Daten, die den Standort des Fahrzeugs 10 angeben. Der hierin verwendete Begriff „Fahrbahndaten“ bezeichnet Daten mit Informationen über eine Fahrbahn 63 (2) entlang der Route des Fahrzeugs 10 und kann eine oder mehrere Straßendatenbanken und/oder eine oder mehrere Straßenkarten einschließen. Bei Block 104 kann das Steuergerät 34 auch Infrastrukturdaten von einem oder mehreren Sensoren 40, wie Kameras 41, GNSS-Sender-Empfängern 45 (z. B. Global Positioning System (GPS)-Sender-Empfängern), Daten aus dem Internet, Straßendatenbanken und/oder Daten von anderen Fahrzeugen 10 (d. h. V2X-Daten) empfangen. Der Begriff „Infrastrukturdaten“ schließt Daten über mindestens einen OVI 47 entlang der Route des Fahrzeugs 10 ein, wie Name, Typ, Standort und/oder Adresse und/oder Typ eines oder mehrerer OVIs 47 entlang der Route des Fahrzeugs 10. Dementsprechend kann das Steuergerät 34 den Standort des Fahrzeugs 10 und der OVIs 47 entlang der Route des Fahrzeugs 10 bestimmen, indem es beispielsweise die vom GNSS-Sender-Empfänger 45, einem anderen Sensor 40 oder einer anderen geeigneten Informationsquelle empfangenen Fahrzeugstandortdaten und Infrastrukturdaten verwendet. Das Verfahren 200 geht dann zu Block 206 über.
  • Bei Block 206 bestimmt das Steuergerät 34, ob ein oder mehrere OVIs 47 entlang der Route des Fahrzeugs 10 anstehen. Zu diesem Zweck kann das Steuergerät 34 die Fahrbahndaten, die Fahrzeugstandortdaten und/oder die Infrastrukturdaten verwenden, die von einem oder mehreren Sensoren 40 oder einer anderen Informationsquelle empfangen wurden. Wenn sich das Fahrzeug 10 nicht mindestens einem OVI 47 nähert, dann geht das Verfahren 200 zu Block 208 über. Bei Block 208 wird keine Maßnahme ergriffen und das Verfahren 200 kehrt zu Block 204 zurück. Wenn sich das Fahrzeug 10 einem oder mehreren OVIs 47 nähert, geht das Verfahren 200 zu Block 210 über.
  • Bei Block 210 bestimmt das Steuergerät 34 die Fahrzeugposition relativ zu einem oder mehreren OVIs 47 entlang der Route des Fahrzeugs 10. Mit anderen Worten, das Steuergerät 34 bestimmt die Position des Fahrzeugs 10 relativ zu den OVIs 47. Dabei kann das Steuergerät 34 die vom GNSS-Sender/Empfänger 45 empfangenen Fahrzeugstandortdaten und/oder Straßendaten, wie Straßendatenbanken, und/oder Infrastrukturdaten verwenden. Anders ausgedrückt, bestimmt bei Block 210 das Steuergerät 34, wo sich das Fahrzeug 10 relativ zu den OVIs 47 entlang der Route des Fahrzeugs 10 befindet. Anschließend fährt das Verfahren 200 mit Block 212 fort.
  • Bei Block 212 bestimmt das Steuergerät 34 die spezifischen virtuellen Bilder 50, die auf dem Display 29 (z. B. dem Multifokalebenen-Display mit erweiterter Realität) angezeigt werden sollen, basierend auf den Infrastrukturdaten, die zuvor vom Steuergerät 34 empfangen wurden. Mit anderen Worten, das Steuergerät 34 bestimmt den Typ der virtuellen Bilder 50. Wie vorstehend beschrieben, können die virtuellen Bilder 50 den Namen, die Adresse und/oder den Standort der OVIs 47 entlang der Route des Fahrzeugs 10 angeben. Als nicht einschränkendes Beispiel ist in 4 schließen die virtuellen Bilder 50 Text oder ein grafisches Element (dargestellt durch ein Quadrat) und einen Pfeil ein. Bei dem grafischen Element kann es sich um eine Zeichnung, wie ein Warenzeichen, handeln, die einen oder mehrere OVIs47 darstellt, und der Pfeil kann auf den Standort des OVI 47 hinweisen. Wie nachstehend erörtert, kann der Fahrzeugbenutzer die Arten von OVI bestimmen, die er oder sie zu identifizieren wünscht. Beispielsweise kann der Fahrzeugbenutzer auswählen, dass er nur Cafes oder Tankstellen identifizieren möchte. Auf dem Display 29 werden dann ausschließlich OVIs dargestellt, die etwas mit Cafes oder Tankstellen zu tun haben. Danach geht das Verfahren 200 zu Block 214 über.
  • Bei Block 214 bestimmt das Steuergerät 34 die Position der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 unter Verwendung mindestens einer Eingabe vom Benutzer-Tracker 43. Wie vorstehend erörtert, kann der Benutzer-Tracker 43 eine Kamera 41 sein, die so konfiguriert ist, dass sie die Bewegungen des Kopfes 69 und/oder der Augen 66 des Fahrzeugbenutzers verfolgt. Das Steuergerät 34 verwendet dann die Eingaben des Benutzer-Trackers 43, um kontinuierlich in Echtzeit den Standort der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 zu bestimmen. Das Verfahren 200 geht dann zu Block 216 über.
  • Bei Block 216 bestimmt das Steuergerät 34 in Echtzeit die Position, Art, Größe, Form und Farbe der virtuellen Bilder 50 (2), die auf dem Display 29 (z. B. dem Multifokalebenen-Display mit erweiterter Realität) angezeigt werden sollen, basierend auf dem Standort der Augen 66 und/oder des Kopfes 69 des Benutzers des Fahrzeugs 10 und den Infrastrukturinformationen. Als nicht einschränkendes Beispiel kann sich die Position der virtuellen Bilder 50 auf dem Display 29 ändern, wenn der Benutzer den Kopf 69 und/oder die Augen 66 bewegt. Danach geht das Verfahren 300 zu Block 218 über.
  • Bei Block 218 sendet das Steuergerät 34 ein Anweisungssignal, um das Display 29 anzuweisen, die virtuellen Bilder 50 an den zuvor bestimmten Standorten darzustellen. Als Reaktion auf den Empfang des Anweisungssignals vom Steuergerät 34 stellt das Display 29 die virtuellen Bilder 50 an den zuvor bestimmten Standorten dar. Wie vorstehend erörtert, schließen die virtuellen Bilder 50 die Infrastrukturinformationen zu den OVIs 47(z. B. Marke und Standort) entlang der Route des Fahrzeugs 10 ein. Die Position der virtuellen Bilder 50 kann sich in Echtzeit ändern, je nachdem, wo sich die Augen 66 und/oder der Kopf 69 des Fahrzeugbenutzers befinden. Nach Block 218 geht das Verfahren 100 zu Block 220 über.
  • Bei Block 220 bestimmt das Steuergerät 34, ob das Fahrzeug 10 mindestens einen OVI 47 passiert hat. Zu diesem Zweck verwendet das Steuergerät 34 den Standort des Fahrzeugs 10, der von den GNSS-Sender-Empfängern 45 (z. B. Global Positioning System (GPS)-Sender-Empfängern), den Straßendatenbanken und/oder Infrastrukturdaten erhalten werden kann. Wenn das Fahrzeug 10 nicht mindestens einen OVI 47 passiert hat, dann kehrt das Verfahren 200 zu Block 210 zurück. Wenn das Fahrzeug 10 mindestens einen OVI 47 passiert hat, dann geht das Verfahren 200 zu Block 222 über.
  • Bei Block 222 weist das Steuergerät 34 das Display 29 an, das Darstellen des virtuellen Bildes 50, das dem OVI 47 des Fahrzeugs 10 entspricht, zu beenden.
  • Obwohl vorstehend beispielhafte Ausgestaltungen beschrieben sind, ist damit nicht gemeint, dass diese Ausgestaltungen alle möglichen Formen beschreiben, die von den Ansprüchen umfasst werden. Die in der Patentschrift verwendeten Worte sind eher beschreibende als einschränkende Worte, und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne den Geist und den Umfang der Offenbarung zu verlassen. Wie bereits beschrieben, können die Merkmale verschiedener Ausgestaltungen kombiniert werden, um weitere Ausgestaltungen des gegenwärtig offenbarten Systems und Verfahrens zu bilden, die möglicherweise nicht explizit beschrieben oder veranschaulicht sind. Obwohl verschiedene Ausgestaltungen hinsichtlich einer oder mehrerer gewünschter Eigenschaften möglicherweise so beschrieben worden sind, dass sie Vorteile bieten oder gegenüber anderen Ausgestaltungen oder Ausführungen nach dem Stand der Technik bevorzugt werden, erkennen Durchschnittsfachleute, dass ein oder mehrere Merkmale oder eine oder mehrere Eigenschaften beeinträchtigt werden können, um gewünschte Gesamtsystemattribute zu erreichen, die von der spezifischen Anwendung und Ausführung abhängen. Diese Attribute können unter anderem Kosten, Festigkeit, Haltbarkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Gebrauchstauglichkeit, Gewicht, Herstellbarkeit, Montagefreundlichkeit usw. umfassen. Als solche befinden sich Ausgestaltungen, die in Bezug auf eine oder mehrere Eigenschaften als weniger wünschenswert als andere Ausgestaltungen oder Ausführungen nach dem Stand der Technik beschrieben werden, nicht außerhalb des Umfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.
  • Die Zeichnungen liegen in vereinfachter Form vor und sind nicht maßstabsgetreu. Aus Gründen der Zweckmäßigkeit und Übersichtlichkeit und nur aus diesen Gründen dürfen in Bezug auf die Zeichnungen Richtungsbezeichnungen wie oben, unten, links, rechts, nach oben, über, darüber, darunter, unter, hinten und vorne verwendet werden. Diese und ähnliche Richtungsbezeichnungen sind nicht so auszulegen, dass sie den Umfang der Offenbarung in irgendeiner Weise einschränken.
  • Es sind hierin Ausgestaltungen der vorliegenden Offenbarung beschrieben. Es versteht sich jedoch, dass die offenbarten Ausgestaltungen lediglich Beispiele sind und andere Ausgestaltungen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabsgetreu, einige Merkmale könnten größer oder kleiner sein, um Details bestimmter Komponenten zu anzuzeigen. Daher sind die hier offenbarten spezifischen konstruktiven und funktionellen Details nicht als einschränkend zu verstehen, sondern lediglich als eine repräsentative Grundlage dafür, einen Fachmann zu lehren, das vorliegende offenbarte System und Verfahren auf unterschiedliche Weise anzuwenden. Wie ein Durchschnittsfachmann verstehen wird, können verschiedene Merkmale, die mit Bezug auf eine der Figuren veranschaulicht und beschrieben sind, mit Merkmalen kombiniert werden, die in einer oder mehreren der anderen Figuren veranschaulicht sind, um Ausgestaltungen zu erzeugen, die nicht explizit veranschaulicht oder beschrieben sind. Die veranschaulichten Merkmalskombinationen sehen repräsentative Ausgestaltungen für typische Anwendungen vor. Es könnten jedoch verschiedene Kombinationen und Modifikationen der Merkmale, die den Lehren dieser Offenbarung entsprechen, für bestimmte Anwendungen oder Ausführungen erwünscht sein.
  • Ausführungsformen der vorliegenden Offenbarung können hierin in Form von funktionalen und/oder logischen Blockkomponenten und verschiedenen Verarbeitungsschritten beschrieben werden. Es sei darauf hingewiesen, dass solche Blockkomponenten durch eine Anzahl von Hardware-, Software- und/oder Firmware-Komponenten realisiert werden können, die konfiguriert sind, um die angegebenen Funktionen ausführen. Beispielsweise kann eine Ausführungsform der vorliegenden Offenbarung verschiedene integrierte Schaltungskomponenten verwenden, z. B. Speicherelemente, digitale Signalverarbeitungselemente, Logikelemente, Nachschlagetabellen oder ähnliches, die eine Vielzahl von Funktionen unter der Kontrolle eines oder mehrerer Mikroprozessoren oder anderer Steuergeräte ausführen können. Darüber hinaus wird der Fachmann erkennen, dass Ausführungsformen der vorliegenden Offenbarung in Verbindung mit einer Anzahl von Systemen verwendet werden können und dass die hierin beschriebenen Systeme lediglich Ausführungsformen der vorliegenden Offenbarung sind.
  • Der Kürze halber wird auf eine ausführliche Beschreibung von Techniken der Signalverarbeitung, Datenfusion, Signalisierung, Steuerung und anderer funktionaler Aspekte der Systeme (und der einzelnen Betriebskomponenten der Systeme) verzichtet. Ferner sollen die in den verschiedenen Figuren dargestellten Verbindungslinien beispielhafte funktionale Beziehungen und/oder physische Verbindungen zwischen den verschiedenen Elementen darstellen. Es sollte beachtet werden, dass alternative oder zusätzliche funktionale Beziehungen oder physikalische Verbindungen in einer Ausführungsform der vorliegenden Offenbarung vorhanden sein können.
  • Diese Beschreibung hat lediglich einen veranschaulichenden Charakter und soll in keiner Weise die Offenbarung, ihre Anwendung oder ihren Gebrauch einschränken. Die umfassenden Lehren der Offenbarung können in einer ganzen Reihe von Formen umgesetzt werden. Obwohl diese Offenbarung bestimmte Beispiele umfasst, sollte der wahre Umfang der Offenbarung daher nicht auf dieselben beschränkt werden, da andere Änderungen nach dem Studieren der Zeichnungen, der Patentspezifikation und der folgenden Ansprüche deutlich werden.

Claims (10)

  1. Verfahren zum Anzeigen von Infrastrukturinformationen auf einem Multifokalebenen-Display mit erweiterter Realität eines Fahrzeugs, umfassend: Empfangen von Infrastrukturdaten, wobei die Infrastrukturdaten Informationen über einen Standort von mindestens einer Infrastruktur entlang einer Route des Fahrzeugs einschließen; Empfangen von Fahrzeugstandortdaten, wobei die Fahrzeugstandortdaten Informationen über einen Standort des Fahrzeugs einschließen; Bestimmen einer Position des Fahrzeugs relativ zum Standort der mindestens einen Infrastruktur unter Verwendung der Infrastrukturdaten und der Fahrzeugstandortdaten; und Übertragen eines Anweisungssignals an das Multifokalebenen-Display mit erweiterter Realität, um ein virtuelles Bild, das die Infrastrukturinformationen der mindestens einen Infrastruktur darstellt, auf dem Multifokalebenen-Display mit erweiterter Realität anzuzeigen.
  2. Verfahren nach Anspruch 1, ferner umfassend: Empfangen von Benutzer-Augendaten, wobei die Benutzer-Augendaten Informationen über den Standort der Augen eines Benutzers des Fahrzeugs einschließen; Bestimmen des Standorts der Augen des Benutzers unter Verwendung der Benutzer-Augendaten; und Bestimmen eines Standorts des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf dem Standort der Augen des Benutzers; wobei das Übertragen des Anweisungssignals an das Multifokalebenen-Display mit erweiterter Realität, um das virtuelle Bild anzuzeigen, das den Standort der mindestens einen Infrastruktur auf dem Multifokalebenen-Display mit erweiterter Realität darstellt, das Anzeigen des virtuellen Bildes am zuvor bestimmten Standort auf dem Multifokalebenen-Display mit erweiterter Realität einschließt.
  3. Verfahren nach Anspruch 1, wobei die mindestens eine Infrastruktur mindestens ein Ort von Interesse (OVI) entlang der Route des Fahrzeugs ist, und die Infrastrukturinformationen Informationen über den OVI sind.
  4. Verfahren nach Anspruch 3, ferner umfassend: Bestimmen, ob sich der mindestens eine OVI entlang der Route des Fahrzeugs befindet, unter Verwendung der Infrastrukturdaten; und als Reaktion auf das Bestimmen, dass sich der mindestens eine OVI entlang der Route des Fahrzeugs befindet, Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität; wobei das virtuelle Bild Informationen über den mindestens einen OVI einschließt, der sich entlang der Route des Fahrzeugs befindet.
  5. Verfahren nach Anspruch 4, das ferner das Bestimmen eines Typs des virtuellen Bildes umfasst, das auf dem Multifokalebenen-Display mit erweiterter Realität angezeigt werden soll, unter Verwendung der Infrastrukturdaten, wobei die Infrastrukturdaten Informationen über einen Typ des OVI einschließen.
  6. Verfahren nach Anspruch 5, ferner umfassend: Bestimmen einer Position des Fahrzeugs in Bezug auf den Standort des mindestens einen OVI; und Bestimmen einer Größe des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität basierend auf der Position des Fahrzeugs relativ zum Standort des mindestens einen OVI.
  7. Verfahren nach Anspruch 6, ferner umfassend: Bestimmen, ob das Fahrzeug den OVI passiert hat; und als Reaktion auf das Bestimmen, dass das Fahrzeug den OVI passiert hat, Anweisen des Multifokalebenen-Displays mit erweiterter Realität, das Darstellen des virtuellen Bildes zu beenden.
  8. Verfahren nach Anspruch 1, wobei die Infrastruktur ein Gebäude ist, das Gebäude eine Adresse aufweist, die Adresse des Gebäudes eine Gebäudenummer aufweist, das Verfahren ferner das Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität einschließt, und das virtuelle Bild die Gebäudenummer der Adresse einschließt.
  9. Verfahren nach Anspruch 1, wobei die Infrastruktur eine Straße ist, die Straße einen Namen aufweist, das Verfahren ferner das Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität einschließt, und das virtuelle Bild den Namen der Straße einschließt.
  10. Verfahren nach Anspruch 1, wobei die Infrastruktur eine Straße ist, die Straße eine Regel aufweist, das Verfahren ferner das Anzeigen des virtuellen Bildes auf dem Multifokalebenen-Display mit erweiterter Realität einschließt, und das virtuelle Bild die Regel der Straße anzeigt.
DE102022126675.3A 2022-03-18 2022-10-13 System und verfahren zum anzeigen von infrastrukturinformationen auf einem display mit erweiterter realität Pending DE102022126675A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/698,249 US11935200B2 (en) 2022-03-18 2022-03-18 System and method for displaying infrastructure information on an augmented reality display
US17/698,249 2022-03-18

Publications (1)

Publication Number Publication Date
DE102022126675A1 true DE102022126675A1 (de) 2023-09-21

Family

ID=87849408

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022126675.3A Pending DE102022126675A1 (de) 2022-03-18 2022-10-13 System und verfahren zum anzeigen von infrastrukturinformationen auf einem display mit erweiterter realität

Country Status (3)

Country Link
US (1) US11935200B2 (de)
CN (1) CN116797764A (de)
DE (1) DE102022126675A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978265B2 (en) * 2022-03-11 2024-05-07 GM Global Technology Operations LLC System and method for providing lane identification on an augmented reality display

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9488488B2 (en) * 2010-02-12 2016-11-08 Apple Inc. Augmented reality maps
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US20160054563A9 (en) * 2013-03-14 2016-02-25 Honda Motor Co., Ltd. 3-dimensional (3-d) navigation
KR101515484B1 (ko) * 2013-05-31 2015-04-29 전자부품연구원 증강현실정보 제공 장치 및 그 방법
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6516642B2 (ja) * 2015-09-17 2019-05-22 アルパイン株式会社 電子装置、画像表示方法および画像表示プログラム
US11163157B1 (en) * 2015-09-21 2021-11-02 Apple Inc. Light field head-up display
US20170291543A1 (en) * 2016-04-11 2017-10-12 GM Global Technology Operations LLC Context-aware alert systems and algorithms used therein
US10055867B2 (en) * 2016-04-25 2018-08-21 Qualcomm Incorporated Accelerated light field display
KR102581359B1 (ko) * 2016-09-02 2023-09-20 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
US10347030B2 (en) * 2017-05-15 2019-07-09 Envisics Ltd Adjusting depth of augmented reality content on a heads up display
KR102306790B1 (ko) * 2017-11-08 2021-09-30 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
CN111512120A (zh) * 2017-12-21 2020-08-07 宝马股份公司 用于显示增强现实poi信息的方法、装置和系统
KR20220114336A (ko) * 2021-02-08 2022-08-17 현대자동차주식회사 사용자 단말 및 그 제어 방법

Also Published As

Publication number Publication date
US20230298277A1 (en) 2023-09-21
CN116797764A (zh) 2023-09-22
US11935200B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
DE102012214988B4 (de) Fahrzeug-Spielesystem mit erweiterter Realität für Vorder- und Rück-Sitz zur Unterhaltung und Information von Passagieren
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
DE102017130936A1 (de) Expertenmodus für Fahrzeuge
DE102018106527A1 (de) Elektronische Steuereinheiten, Fahrzeuge und Verfahren zum Umschalten einer Fahrzeugsteuerung aus einem autonomen Fahrmodus
DE102017102133A1 (de) Längsparkhilfe
DE102015118489A1 (de) Fernbedienung eines autonomen Fahrzeugs in einer unerwarteten Umgebung
EP3830522B1 (de) Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm
DE102017116073A1 (de) System und verfahren zur verbesserung der fahrzeugumgebungserfassung
DE102017105225A1 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102019116056A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102023100088A1 (de) System und Verfahren für das Fahren bei schlechter Sicht
DE102021116929A1 (de) Fernsteuerungssystem für ein fahrzeug und einen anhänger
DE102020126975A1 (de) Systeme und verfahren zur kommunikation eines beabsichtigten fahrzeugmanövers
DE102022112349A1 (de) Systeme und verfahren zur kommunikation mit seh- und hörgeschädigten fahrzeuginsassen
DE102022126675A1 (de) System und verfahren zum anzeigen von infrastrukturinformationen auf einem display mit erweiterter realität
DE102022112348A1 (de) Systeme und verfahren zur kommunikation mit seh- und hörgeschädigten fahrzeuginsassen
DE102022114735A1 (de) Unterstützung durch gezogenes fahrzeug
DE102017119449A1 (de) Selbsteinstellende Fahrzeugspiegel
DE102022127569A1 (de) System und verfahren zum bereitstellen von platooning-informationen mittels augmented-reality-display
DE102022127374A1 (de) System und verfahren für social networking unter verwendung eines augmented-reality-displays
DE102020133412A1 (de) System und Verfahren zum Festlegen eines Fahrspurwechselmanövers
DE102022126850A1 (de) System und verfahren zur bereitstellung einer blinderkennungswarnung auf einer augmented-reality-anzeige
DE102021114596A1 (de) Systeme und Verfahren zur Steuerung des automatisierten Fahrens auf Basis der Komplexität von Kreuzungen
DE102020106469A1 (de) Verfahren und systeme für die verwaltung automatisierter fahrfunktionen
DE102022127003A1 (de) Verfahren und system zum validieren der leistung eines autonomen fahrzeugs unter verwendung von nahegelegenen verkehrsmustern

Legal Events

Date Code Title Description
R012 Request for examination validly filed