DE102021125469A1 - Verbesserter Fahrzeugweg durch Augmented Reality - Google Patents

Verbesserter Fahrzeugweg durch Augmented Reality Download PDF

Info

Publication number
DE102021125469A1
DE102021125469A1 DE102021125469.8A DE102021125469A DE102021125469A1 DE 102021125469 A1 DE102021125469 A1 DE 102021125469A1 DE 102021125469 A DE102021125469 A DE 102021125469A DE 102021125469 A1 DE102021125469 A1 DE 102021125469A1
Authority
DE
Germany
Prior art keywords
vehicle
sun glare
glare
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021125469.8A
Other languages
English (en)
Inventor
Kwaku O. Prakah-Asante
Jian Wan
Prayat Hegde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102021125469A1 publication Critical patent/DE102021125469A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/40Instruments specially adapted for improving the visibility thereof to the user, e.g. fogging prevention or anti-reflection arrangements
    • B60K35/415Glare prevention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/167Vehicle dynamics information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/349Adjustment of brightness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • G09G2320/0653Controlling or limiting the speed of brightness adjustment of the illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/066Adjustment of display parameters for control of contrast
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Offenbarung stellt einen verbesserten Fahrzeugweg durch Augmented Reality bereit. Ein benutzerzentriertes verbessertes Wegsystem (UEP-System) kann im Fall einer Sonnenblendung eine Fahrzeugwegführung während des Fahrens unter Verwendung eines Augmented-Reality-Anzeigesystems bereitstellen. Das System verwendet ein Routenbeobachtermodul, das dazu programmiert ist, Sonnenblendung zu prognostizieren, indem Echtzeitinformationen über die Innen- und Außenumgebung des Fahrzeugs, die Fahrtrichtung, die Geschwindigkeit und andere Daten erhalten werden. Das Routenbeobachtermodul kann auch eine nach innen gerichtete Kamera verwenden, um zu bestimmen, wann ein Fahrer blinzelt, was die Wahrscheinlichkeitsfunktion, die prognostiziert, ob der Fahrer eine Sonnenblendung erfährt, erhöhen kann. Wenn Sonnenblendung prognostiziert wird, sendet der Routenbeobachter die gewichtete Prognosefunktion und Eingabesignale an ein Entscheidungsmodul, das die Fahrzeuggeschwindigkeit, den Standort und die Benutzeraktivität verwendet, um eine geeignete Führungsausgabe für einen verbesserten Weg unter Verwendung eines Augmented-Reality (AR)-Moduls zu bestimmen. Das AR-Modul kann die Helligkeit, den Kontrast und die Farbe der AR-Informationen auf Grundlage der beobachteten Sonnenblendung einstellen.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugführungssysteme.
  • ALLGEMEINER STAND DER TECHNIK
  • Sonnenblendung beim Fahren kann für Fahrer eine herausfordernde Situation darstellen, wenn die Blendung eine freie Sicht auf die Fahrbahn verhindert. Sonnenblendung kann Fahrer Zeit kosten, wenn sie den Verkehrsfluss beeinträchtigt und gewöhnliche Arbeitswege für den Fahrer unbequem macht. Sonnenblenden und andere herkömmliche Merkmale, wie etwa partielle Windschutzscheibenfärbung, sind möglicherweise nicht immer wirksam, insbesondere wenn der Sonnenwinkel bei Sonnenaufgang und Sonnenuntergang direkt vor dem Fahrzeug sein kann. Andere herkömmliche Fahrerassistenzsysteme können eine Wegführung unter Verwendung markierter Spuren bereitstellen, die auf einer Ausgabeanzeige gezeigt sind, um während derartiger Blendbedingungen zu unterstützen. Diese „immer angeschalteten“ Systeme sind jedoch möglicherweise nicht hilfreich, wenn die angezeigte Führung kontinuierlich auf der Fahrzeuganzeige dargestellt wird, selbst wenn keine Sonnenblendung vorhanden ist. Die Offenbarung hierin wird in Bezug auf diese und andere Erwägungen dargelegt.
  • KURZDARSTELLUNG
  • Die hierin offenbarten Systeme und Verfahren beinhalten ein benutzerzentriertes verbessertes Wegsystem (User-centric Enhances Pathway - UEP-System), das Fahrzeugführern im Falle von Sonnenblendung eine Wegführung unter Verwendung eines Augmented-Reality (AR)-Anzeigesystems bereitstellt. Das UEP-System kann ein Routenbeobachtermodul beinhalten, das dazu programmiert ist, Sonnenblendung unter Verwendung mehrerer Eingabequellen zu bestimmen und/oder zu prognostizieren, indem Echtzeitinformationen über die Innen- und Außenumgebung des Fahrzeugs erhalten werden und Betriebsaspekte des Fahrzeugs, einschließlich der Fahrtrichtung, der Geschwindigkeit und anderer Faktoren, erhalten werden. Das Routenbeobachtermodul kann auch eine nach innen gerichtete Kamera verwenden, um ein Blinzeln eines Auges des Fahrers zu bestimmen, was die bewertete Wahrscheinlichkeit einer Blendung erhöhen kann.
  • Wenn das UEP-System unter Verwendung einer gewichteten Wahrscheinlichkeitsfunktion bestimmt, dass der Fahrer Sonnenblendung erfährt, sendet der Routenbeobachter die Umgebungs- und Konnektivitätssignale an ein Entscheidungsmodul, das Telematikdaten beinhaltet, die die Fahrzeuggeschwindigkeit und den Standort beinhalten können, um eine geeignete Führungsausgabe eines verbesserten Wegs unter Verwendung eines AR-Moduls zu bestimmen. Der verbesserte Weg kann klare Umrisse für den vorausliegenden Fahrzeugweg zeigen, was den Fahrer dabei unterstützen kann, das Fahrzeug zu lenken, während Sonnenblendung vorhanden ist. Das AR-Modul kann optische Eigenschaften, einschließlich Helligkeit, Kontrast und Farbe der AR-Informationen, unter Verwendung von vom Benutzer auswählbaren Anzeigeoptionen und ferner auf Grundlage der beobachteten Umgebungs- und Betriebsinformationen, automatisch einstellen.
  • Ausführungsformen können ein kundenzentriertes System bereitstellen, das ein intelligentes Entscheidungssystem beinhaltet, das eine Fahrzeugwegführung zur Abschwächung von Sonnenblendung prognostiziert und moduliert. Wenn das System Sonnenblendungssituationen erkennt, aktiviert das UEP-System automatisch das AR-Anzeigesystem, um eine verbesserte Benutzererfahrung bereitzustellen.
  • Diese und andere Vorteile der vorliegenden Offenbarung werden hierin ausführlicher bereitgestellt.
  • Figurenliste
  • Die detaillierte Beschreibung wird unter Bezugnahme auf die beigefügten Zeichnungen dargelegt. Die Verwendung der gleichen Bezugszeichen kann ähnliche oder identische Elemente angeben. Für verschiedene Ausführungsformen können andere Elemente und/oder Komponenten verwendet werden als die in den Zeichnungen veranschaulichten und einige Elemente und/oder Komponenten sind in verschiedenen Ausführungsformen unter Umständen nicht vorhanden. Die Elemente und/oder Komponenten in den Figuren sind nicht zwingend maßstabsgetreu gezeichnet. Für die gesamte Offenbarung gilt, dass Ausdrücke im Singular und Plural je nach Kontext synonym verwendet werden können.
    • 1 stellt eine beispielhafte Rechenumgebung dar, in der Techniken und Strukturen zum Bereitstellen der hierin offenbarten Systeme und Verfahren umgesetzt sein können.
    • 2 stellt eine beispielhafte Engine für einen verbesserten Weg zum Bereitstellen von Wegführung mittels Augmented Reality gemäß der vorliegenden Offenbarung dar.
    • 3 veranschaulicht eine beispielhafte Steuerung für Fahrerassistenztechnologien (Driver Assist Technologies - DAT) gemäß der vorliegenden Offenbarung.
    • 4 stellt ein Ablaufdiagramm gemäß der vorliegenden Offenbarung dar.
  • DETAILLIERTE BESCHREIBUNG
  • Die Offenbarung wird nachfolgend unter Bezugnahme auf die beigefügten Zeichnungen, in denen beispielhafte Ausführungsformen der Offenbarung gezeigt sind, ausführlicher beschrieben und soll nicht einschränkend sein.
  • 1 stellt eine beispielhafte Rechenumgebung 100 dar, die ein Fahrzeug 105, das einen Fahrzeugcomputer 145 umfasst, und eine Fahrzeugsteuereinheit (Vehicle Controls Unit - VCU) 165 beinhalten kann, die typischerweise eine Vielzahl von elektronischen Steuereinheiten (electronic control unit - ECU) 117, die in Kommunikation mit dem Fahrzeugcomputer 145 angeordnet ist, beinhaltet. Eine mobile Vorrichtung 120, die einem Benutzer 140 und dem Fahrzeug 105 zugeordnet sein kann, kann sich unter Verwendung drahtgebundener und/oder drahtloser Kommunikationsprotokolle und -transceiver mit dem Fahrzeugcomputer 145 verbinden. Die mobile Vorrichtung 120 kann über ein oder mehrere Netzwerke 125, die über eine oder mehrere drahtlose Verbindungen 130 kommunizieren können, kommunikativ mit dem Fahrzeug 105 gekoppelt sein und/oder sich unter Verwendung von Protokollen der Nahfeldkommunikation (near field communication - NFC), Bluetooth®-Protokollen, WiFi, Ultrabreitband (ultra-wide band - UWB) und anderen möglichen Techniken der Datenverbindung und -freigabe direkt mit dem Fahrzeug 105 verbinden.
  • Das Fahrzeug 105 kann außerdem ein globales Positionsbestimmungssystem (GPS) 175 empfangen und/oder mit diesem in Kommunikation stehen. Das GPS 175 kann ein Satellitensystem (wie in 1 dargestellt) sein, wie etwa das globale Navigationssatellitensystem (GLNSS), Galileo oder ein Navigationssystem oder ein anderes ähnliches System. In anderen Aspekten kann das GPS 175 ein terrestrisches Navigationsnetzwerk oder eine beliebige andere Art von Positionsbestimmungstechnologie sein, die auf dem Gebiet der drahtlosen Navigationsunterstützung bekannt ist.
  • Der Fahrzeugcomputer 145 kann eine elektronische Fahrzeugsteuerung, die einen oder mehrere Prozessoren 150 und Speicher 155 aufweist, sein oder eine solche beinhalten. Der Fahrzeugcomputer 145 kann in einigen Ausführungsbeispielen in Kommunikation mit der mobilen Vorrichtung 120 und einem oder mehreren Servern 170 angeordnet sein. Der eine oder die mehreren Server 170 können Teil einer Cloud-basierten Recheninfrastruktur sein und können einem Telematik-Dienstbereitstellungsnetz (Service Delivery Network - SDN) zugeordnet sein und/oder dieses beinhalten, das dem Fahrzeug 105 und anderen Fahrzeugen (in 1 nicht dargestellt), die Teil einer Fahrzeugflotte sein können, digitale Datendienste bereitstellt.
  • Wenngleich es als Hochleistungsfahrzeug veranschaulicht ist, kann das Fahrzeug 105 die Form eines anderen Personen- oder Nutzfahrzeugs, wie zum Beispiel eines Autos, eines Lastwagens, eines SUV, eines Crossover-Fahrzeugs, eines Vans, eines Minivans, eines Taxis, eines Busses, eines Boots, eines Traktors, eines Rollers usw., annehmen und dazu konfiguriert und/oder programmiert sein, verschiedene Arten von Kraftfahrzeugantriebssystemen zu beinhalten. Beispielhafte Antriebssysteme können verschiedene Arten von Antriebssträngen einer Brennkraftmaschine (Internal Combustion Engine - ICE) beinhalten, die einen mit Benzin, Diesel oder Erdgas angetriebenen Verbrennungsmotor mit herkömmlichen Antriebskomponenten, wie etwa einem Getriebe, einer Antriebswelle, einem Differential usw., aufweisen. In einer anderen Konfiguration kann das Fahrzeug 105 als Elektrofahrzeug (Electric Vehicle - EV) konfiguriert sein. Insbesondere kann das Fahrzeug 105 ein Batterie-EV(BEV)-Antriebssystem beinhalten oder als Hybrid-EV (HEV) mit einem unabhängigen bordeigenen Triebwerk oder als Plug-in-HEV (PHEV) konfiguriert sein, das einen HEV-Antriebsstrang beinhaltet, der mit einer externen Leistungsquelle verbindbar ist, und/oder beinhaltet es einen parallelen oder seriellen Hybridantriebsstrang mit einem Verbrennungsmotortriebwerk und einem oder mehreren EV-Antriebssystemen. HEV können ferner Batterie- und/oder Superkondensatorbänke zur Leistungsspeicherung, Schwungradleistungsspeichersysteme oder andere Leistungserzeugungs- und -speicherinfrastruktur beinhalten. Das Fahrzeug 105 kann ferner als Brennstoffzellenfahrzeug (fuel cell vehicle - FCV), das unter Verwendung einer Brennstoffzelle flüssigen oder festen Kraftstoff in nutzbare Leistung umwandelt (z. B. Antriebsstrang eines Fahrzeugs mit Wasserstoffbrennstoffzelle (hydrogen fuel cell vehicle - HFCV) usw.) und/oder als eine beliebige Kombination dieser Antriebssysteme und Komponenten konfiguriert sein.
  • Ferner kann das Fahrzeug 105 ein manuell gefahrenes Fahrzeug sein und/oder dazu konfiguriert und/oder programmiert sein, in einem vollständig autonomen (z. B. fahrerlosen) Modus (z. B. Autonomiestufe 5) oder in einem oder mehreren Teilautonomiemodi betrieben zu werden. Beispiele für Teilautonomiemodi sind auf dem Fachgebiet weitgehend als Autonomiestufen 0 bis 5 bekannt. Ein autonomes Fahrzeug mit Autonomiestufe 0 beinhaltet möglicherweise keine autonomen Fahrmerkmale. Ein autonomes Fahrzeug (autonomous vehicle - AV) mit Autonomiestufe 1 kann im Allgemeinen ein einzelnes automatisiertes Fahrerassistenzmerkmal, wie etwa Lenk- oder Beschleunigungsassistenz, beinhalten. Die adaptive Geschwindigkeitsregelung ist ein solches Beispiel für ein System der Autonomiestufe 1, das Aspekte sowohl der Beschleunigung als auch der Lenkung beinhaltet. Autonomiestufe 2 in Fahrzeugen kann eine partielle Automatisierung der Lenk- und Beschleunigungsfunktionalität bereitstellen, wobei das bzw. die automatisierten Systeme von einem menschlichen Fahrer überwacht wird/werden, der nicht automatisierte Vorgänge wie etwa Bremsen und andere Steuerungsvorgänge vornimmt. Autonomiestufe 3 in Fahrzeugen kann im Allgemeinen eine bedingte Automatisierung und Steuerung von Fahrmerkmalen bereitstellen. Beispielsweise beinhaltet eine Fahrzeugautonomie der Stufe 3 in der Regel „Umgebungserkennungs“-Fähigkeiten, bei denen das Fahrzeug unabhängig von einem vorhandenen Fahrer informierte Entscheidungen treffen kann, wie etwa Beschleunigen vorbei an einem sich langsam bewegenden Fahrzeug, während der vorhandene Fahrer jederzeit bereit ist, wieder die Steuerung des Fahrzeugs zu übernehmen, wenn das System nicht in der Lage ist, die Aufgabe auszuführen. Eine Autonomie der Stufe 4 beinhaltet Fahrzeuge, die hohe Autonomiestufen aufweisen und unabhängig von einem menschlichen Fahrer funktionieren können, aber dennoch Bedienelemente für den Menschen für den Übersteuerungsbetrieb beinhalten. Eine Automatisierung der Stufe 4 kann zudem einen Selbstfahrmodus ermöglichen, der als Reaktion auf einen vordefinierten bedingten Auslöser eingreift, wie etwa eine Straßengefahr oder einen Systemausfall. Eine Autonomie der Stufe 5 ist autonomen Fahrzeugsystemen zugeordnet, die keine menschlichen Eingaben für den Betrieb erfordern und im Allgemeinen keine Bedienelemente für menschliche Fahrer beinhalten.
  • Gemäß Ausführungsformen der vorliegenden Offenbarung kann das verbesserte Wegsystem 107 dazu konfiguriert und/oder programmiert sein, mit einem Fahrzeug betrieben zu werden, das eine DAT-Steuerung der Stufe 1 oder Stufe 2 aufweist. Dementsprechend kann das verbesserte Wegsystem 107 dem Fahrzeug 105 einige Aspekte einer Bedienung durch einen Menschen bereitstellen, wenn das Fahrzeug mit Fahrerassistenztechnologien konfiguriert ist. Die mobile Vorrichtung 120 beinhaltet im Allgemeinen einen Speicher 123 zum Speichern von Programmanweisungen, die einer Anwendung 135 zugeordnet sind, die bei Ausführung durch einen Prozessor 121 der mobilen Vorrichtung Aspekte der offenbarten Ausführungsformen durchführt. Die Anwendung (oder „App“) 135 kann Teil des verbesserten Wegsystems 107 sein oder kann dem verbesserten Wegsystem 107 Informationen bereitstellen und/oder Informationen von dem verbesserten Wegsystem 107 empfangen.
  • In einigen Aspekten kann die mobile Vorrichtung 120 mit dem Fahrzeug 105 über die eine oder mehreren Verbindungen 130 kommunizieren, die verschlüsselt und zwischen der mobilen Vorrichtung 120 und einer Telematiksteuereinheit (Telematics Control Unit - TCU) 160 eingerichtet sein können. Die mobile Vorrichtung 120 kann mit der TCU 160 unter Verwendung eines drahtlosen Senders (in 1 nicht gezeigt) kommunizieren, welcher der TCU 160 an dem Fahrzeug 105 zugeordnet ist. Der Sender kann unter Verwendung eines drahtlosen Kommunikationsnetzwerks, wie zum Beispiel des einen oder der mehreren Netzwerke 125, mit der mobilen Vorrichtung 120 kommunizieren. Die eine oder mehreren drahtlosen Verbindungen 130 kommunizieren der Abbildung in 1 nach über das eine oder die mehreren Netzwerke 125 und über eine oder mehrere drahtlose Verbindungen 133, die eine oder mehrere direkte Verbindungen zwischen dem Fahrzeug 105 und der mobilen Vorrichtung 120 und/oder dem Transponder 179 sein können. Die eine oder mehreren drahtlosen Verbindungen 133 können verschiedene Niedrigenergieprotokolle beinhalten, einschließlich zum Beispiel Bluetooth®-, BLE- oder anderer Nahfeldkommunikations (NFC)-Protokolle. Das eine oder die mehreren Netzwerke 125 veranschaulichen eine beispielhafte Kommunikationsinfrastruktur, in der die verbundenen Vorrichtungen, die in verschiedenen Ausführungsformen dieser Offenbarung erörtert werden, kommunizieren können. Das eine oder die mehreren Netzwerke 125 können das Internet, ein privates Netz, ein öffentliches Netz oder eine andere Konfiguration sein und/oder beinhalten, die unter Verwendung eines oder mehrerer bekannter Kommunikationsprotokolle betrieben werden, wie zum Beispiel Transmission Control Protocol/Internet Protocol (TCP/IP), Bluetooth®, Wi-Fi auf Grundlage des Standards 802.11 des Institute of Electrical and Electronics Engineers (IEEE), Ultrabreitband (UWB) und Mobilfunktechnologien, wie etwa Zeitmultiplexverfahren (Time Division Multiple Access - TDMA), Codemultiplexverfahren (Code Division Multiple Access - CDMA), High Speed Packet Access (HSPDA), Long-Term Evolution (LTE), Global System for Mobile Communications (GSM) und Fünfte Generation (5G), um nur einige Beispiele zu nennen.
  • Der Kraftfahrzeugcomputer 145 kann in einem Motorraum des Fahrzeugs 105 (oder an anderer Stelle in dem Fahrzeug 105) installiert sein und als Funktionsbestandteil des verbesserten Wegsystems 107 gemäß der Offenbarung fungieren. Der Fahrzeugcomputer 145 kann einen oder mehrere Prozessoren 150 und einen computerlesbaren Speicher 155 beinhalten.
  • Der eine oder die mehreren Prozessoren 150 können in Kommunikation mit einer oder mehreren Speichervorrichtungen angeordnet sein, welche in Kommunikation mit den entsprechenden Rechensystemen angeordnet sind (z. B. dem Speicher 155 und/oder einer oder mehreren externen Datenbanken, die in 1 nicht gezeigt sind). Der eine oder die mehreren Prozessoren 150 können den Speicher 155 nutzen, um Programme in Code zu speichern und/oder Daten zum Durchführen von Aspekten gemäß der Offenbarung zu speichern. Der Speicher 155 kann ein nichttransitorischer computerlesbarer Speicher zum Speichern von Programmcode für den verbesserten Weg sein. Der Speicher 155 kann ein beliebiges oder eine Kombination von flüchtigen Speicherelementen (z. B. dynamischem Direktzugriffsspeicher (dynamic random access memory - DRAM), synchronem dynamischen Direktzugriffsspeicher (SDRAM) usw.) beinhalten und ein beliebiges oder mehrere beliebige nicht flüchtige Speicherelemente (z. B. löschbaren programmierbaren Festwertspeicher (erasable programmable read-only memory - EPROM), Flash-Speicher, elektronisch löschbaren programmierbaren Festwertspeicher (EEPROM), programmierbaren Festwertspeicher (PROM) usw.) beinhalten.
  • Die VCU 165 kann einen Leistungsbus 178 mit dem Fahrzeugcomputer 145 gemeinsam nutzen und kann dazu konfiguriert und/oder programmiert sein, die Daten zwischen Systemen des Fahrzeugs 105, verbundenen Servern (z. B. dem einen oder den mehreren Servern 170) und anderen Fahrzeugen (in 1 nicht gezeigt), die als Teil einer Fahrzeugflotte betrieben werden, zu koordinieren. Die VCU 165 kann eine beliebige Kombination der ECU 117 beinhalten oder mit diesen kommunizieren, wie zum Beispiel ein Karosseriesteuermodul (Body Control Module - BCM) 193, ein Motorsteuermodul (Engine Control Module - ECM) 185, ein Getriebesteuermodul (Transmission Control Module - TCM) 190, die TCU 160, eine Karosserie- und Netzwerkkommunikationssteuerung (Body and Network Communication Controller - BANCC) 187, eine Steuerung 199 der Fahrerassistenztechnologien (DAT) usw. Die VCU 165 kann ferner ein Fahrzeugwahrnehmungssystem (Vehicle Perception System - VPS) 181 beinhalten und/oder mit diesem kommunizieren, das eine Konnektivität mit und/oder Steuerung eines oder mehrerer Fahrzeugsensorsysteme 182 aufweist. In einigen Aspekten kann die VCU 165 Betriebsaspekte des Fahrzeugs 105 steuern und einen oder mehrere Anweisungssätze umsetzen, die von der Anwendung 135, die auf der mobilen Vorrichtung 120 betrieben wird, von einem oder mehreren Anweisungssätzen, die in dem Computerspeicher 155 des Fahrzeugcomputers 145 gespeichert sind, empfangen werden, einschließlich Anweisungen, die als Teil des verbesserten Wegsystems 107 betriebsfähig sind.
  • Die TCU 160 kann dazu konfiguriert und/oder programmiert sein, drahtlosen Rechensysteme an Bord und außerhalb des Fahrzeugs 105 Fahrzeugkonnektivität bereitzustellen, und kann einen Navigations(NAV)-Empfänger 188 zum Empfangen und Verarbeiten eines GPS-Signals von dem GPS 175, ein Bluetooth® Low Energy (BLE)-Modul (BLEM) 195, einen WiFi-Transceiver, einen Ultrabreitband(UWB)-Transceiver und/oder andere drahtlose Transceiver (in 1 nicht gezeigt) beinhalten, die für drahtlose Kommunikation zwischen dem Fahrzeug 105 und anderen Systemen, Computern und Modulen konfigurierbar sein können. Die TCU 160 kann über einen Bus 180 in Kommunikation mit den ECU 117 angeordnet sein. In einigen Aspekten kann die TCU 160 als Knoten in einem CAN-Bus Daten abrufen und Daten senden. Das BLEM 195 kann eine drahtlose Kommunikation unter Verwendung von Bluetooth® und Bluetooth Low Energy®-Kommunikationsprotokollen einrichten, indem es Übermittlungen von kleinen Werbepaketen übermittelt und/oder auf diese lauscht und Verbindungen mit reagierenden Vorrichtungen einrichtet, die gemäß hierin beschriebenen Ausführungsformen konfiguriert sind. Beispielsweise kann das BLEM 195 eine Vorrichtungskonnektivität eines Generic Attribute Profile (GATT) für Client-Vorrichtungen aufweisen, die auf GATT-Befehle und -Anforderungen reagieren oder diese initiieren, und sich direkt mit der mobilen Vorrichtung 120 verbinden.
  • Der Bus 180 kann als Controller-Area-Network(CAN)-Bus konfiguriert sein, der mit einem seriellen Multimaster-Busstandard zum Verbinden von zwei oder mehreren der ECU 117 als Knoten unter Verwendung eines nachrichtenbasierten Protokolls organisiert ist, das dazu konfiguriert und/oder programmiert sein kann, den ECU 117 zu ermöglichen, miteinander zu kommunizieren. Der Bus 180 kann ein Highspeed-CAN sein (der Bit-Geschwindigkeiten von bis zu 1 Mbit/s auf dem CAN, 5 Mbit/s auf einem CAN mit flexibler Datenrate (CAN-FD) aufweisen kann) oder ein solches beinhalten und kann ein Lowspeed- oder fehlertolerantes CAN (bis zu 125 Kbit/s) beinhalten, das in einigen Konfigurationen eine lineare Buskonfiguration verwenden kann. In einigen Aspekten können die ECU 117 mit einem Host-Computer (z. B. dem Fahrzeugcomputer 145, dem verbesserten Wegsystem 107 und/oder dem/den Server(n) 170 usw.) kommunizieren und können auch ohne die Notwendigkeit eines Host-Computers miteinander kommunizieren. Der Bus 180 kann die ECU 117 derart mit dem Fahrzeugcomputer 145 verbinden, dass der Fahrzeugcomputer 145 Informationen aus den ECU 117 abrufen, Informationen an diese senden und anderweitig mit diesen interagieren kann, um gemäß Ausführungsformen der vorliegenden Offenbarung beschriebene Schritte durchzuführen. Der Bus 180 kann CAN-Busknoten (z. B. die ECU 117) über einen zweidrahtigen Bus miteinander verbinden, bei dem es sich um ein verdrilltes Paar mit einer charakteristischen Nennimpedanz handeln kann. Der Bus 180 kann zudem unter Verwendung anderer Kommunikationsprotokolllösungen umgesetzt werden, wie etwa Media Oriented Systems Transport (MOST) oder Ethernet. In anderen Aspekten kann der Bus 180 ein drahtloser Bus innerhalb des Fahrzeugs sein.
  • Die VCU 165 kann verschiedene Verbraucher direkt über die Kommunikation über den Bus 180 steuern oder eine derartige Steuerung in Verbindung mit dem BCM 193 umsetzen. Die ECU 117, die in Bezug auf die VCU 165 beschrieben wurden, werden nur für beispielhafte Zwecke beschrieben und sollen nicht einschränkend oder ausschließend sein. Eine Steuerung und/oder Kommunikation mit anderen in 1 nicht gezeigten Steuermodulen ist möglich und eine derartige Steuerung wird in Betracht gezogen.
  • In einem Ausführungsbeispiel können die ECU 117 Aspekte des Fahrzeugbetriebs und der Kommunikation unter Verwendung von Eingaben durch menschliche Fahrer, Eingaben von einer Steuerung des autonomen Fahrzeugs, dem verbesserten Wegsystem 107 und/oder über drahtlose Signaleingaben, die über die eine oder mehreren drahtlosen Verbindungen 133 von anderen verbundenen Vorrichtungen, wie etwa unter anderem der mobilen Vorrichtung 120 und dem Transponder 179, empfangen werden, steuern. Die ECU 117 können, wenn sie als Knoten in dem CAN-Bus 180 konfiguriert sind, jeweils eine zentrale Verarbeitungseinheit (CPU), eine CAN-Steuerung und/oder einen Transceiver (in 1 nicht gezeigt) beinhalten. Auch wenn die mobile Vorrichtung 120 in 1 der Darstellung nach über das BLEM 195 mit dem Fahrzeug 105 verbunden ist, ist es zum Beispiel möglich und wird in Betracht gezogen, dass die drahtlose Verbindung 133 auch oder alternativ zwischen der mobilen Vorrichtung 120 und einer oder mehreren der ECU 117 über den einen bzw. die Transceiver, die jeweils dem bzw. den Modulen zugeordnet sind, eingerichtet werden kann.
  • Das BCM 193 beinhaltet im Allgemeinen die Integration von Sensoren, Fahrzeugleistungsindikatoren und variablen Drosseln, die den Fahrzeugsystemen zugeordnet sind, und kann prozessorbasierte Leistungsverteilungsschaltungen beinhalten, die Funktionen steuern können, die der Fahrzeugkarosserie zugeordnet sind, wie etwa Lichter, Fenster, Sicherheit, Türverriegelungen und Zugangskontrolle und verschiedene Komfortsteuerungen. Das BCM 193 kann auch als Gateway für Bus- und Netzwerkschnittstellen betrieben werden, um mit entfernten ECU (in 1 nicht gezeigt) zu interagieren.
  • Das BCM 193 kann eine beliebige oder mehrere Funktionen aus einer breiten Palette von Fahrzeugfunktionen koordinieren, einschließlich Energieverwaltungssystemen, Alarmen, Wegfahrsperren, Fahrer- und Fahrerzugangsberechtigungssystemen, Phone-as-a-Key(PaaK)-Systemen, Fahrerassistenzsystemen, AV-Steuersystemen, elektrischen Fensterhebern, Türen, Aktoren und anderen Funktionen usw. Das BCM 193 kann für das Fahrzeugenergiemanagement, die Außenbeleuchtungssteuerung, Scheibenwischerfunktionalität, elektrische Fensterheber- und Türfunktionalität, Heizungs-, Lüftungs- und Klimatisierungssysteme und Fahrerintegrationssysteme konfiguriert sein. In anderen Aspekten kann das BCM 193 die Funktionalität von Zusatzausrüstung steuern und/oder für die Integration einer derartigen Funktionalität zuständig sein.
  • In einigen Aspekten kann das Fahrzeug 105 eine oder mehrere Türzugangsblenden (Door Access Panel - DAP) 191 beinhalten, die an einer oder mehreren Türaußenflächen von Fahrzeugtür(en) 198 angeordnet und mit einer DAP-Steuerung (in 1 nicht gezeigt) verbunden sind. In einigen Aspekten kann ein Benutzer 140 die Option haben, in ein Fahrzeug einzusteigen, indem er eine persönliche Identifikationsnummer (Personal Identification Number - PIN) auf einer einem Fahrzeug zugeordneten Außenschnittstelle eingibt. Die Benutzerschnittstelle kann als Teil der Türzugangsblende (DAP) 191, eines drahtlosen Tastenfelds, als Teil der mobilen Vorrichtung 120 oder als Teil einer anderen Schnittstelle beinhaltet sein. Die DAP 191, die mit der BANCC 187 oder einer anderen der ECU 117 betrieben werden und/oder kommunizieren kann, kann eine Schnittstelle beinhalten und/oder mit dieser verbunden sein, mit der ein Mitfahrer einer Fahrgemeinschaft, ein Benutzer (oder ein anderer Benutzer, wie etwa der Benutzer 140) Berechtigungsnachweise zur Identifikation eingeben und Informationen von dem System empfangen kann. In einem Aspekt kann die Schnittstelle eine an einer Fahrzeugtür 198 angeordnete DAP 191 sein oder beinhalten, die eine Schnittstellenvorrichtung beinhaltet, von der aus der Benutzer mit dem System interagieren kann, indem er seine eindeutige Kennung aus einer Liste auswählt und persönliche Identifikationsnummern (PINs) und andere nicht persönlich identifizierende Informationen eingibt. In einigen Ausführungsformen kann die Schnittstelle eine mobile Vorrichtung, ein Tastenfeld, eine drahtlose oder drahtgebundene Eingabevorrichtung, ein Fahrzeug-Infotainmentsystem und/oder dergleichen sein. Dementsprechend versteht es sich, dass, obwohl eine DAP in Bezug auf Ausführungsformen hierin beschrieben ist, die Schnittstelle alternativ eine oder mehrere andere Arten von Schnittstellen sein kann, die vorstehend beschrieben sind.
  • Die BANCC 187 kann Sensor- und Prozessorfunktionalität und -hardware beinhalten, um die Benutzer- und Vorrichtungsauthentifizierung zu erleichtern und Insassenanpassungen und - unterstützung bereitzustellen, die maßgeschneiderte Erfahrungen für Fahrzeuginsassen bereitstellen. Die BANCC 187 kann sich mit der Steuerung 199 für Fahrerassistenztechnologien (DAT) verbinden, die konfiguriert und/oder programmiert ist, um biometrische Authentifizierungssteuerungen bereitzustellen, einschließlich zum Beispiel Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung und/oder anderer Informationen, die Charakterisierung, Identifizierung und/oder Verifizierung für andere menschliche Faktoren, wie etwa Gangerkennung, Körperwärme-Signaturen, Augenachverfolgung usw. zugeordnet sind.
  • Die DAT-Steuerung 199 kann automatisierte Fahr- und Fahrerassistenzfunktionen der Stufe 1 bis Stufe 3 bereitstellen, die zum Beispiel unter anderem aktive Einparkhilfe, Anhängerrückfahrassistenz, adaptive Geschwindigkeitsregelung, Spurhaltung und/oder Fahrerstatusüberwachung beinhalten können. Die DAT-Steuerung 199 kann auch Aspekte von Benutzer- und Umgebungseingaben bereitstellen, die zur Benutzerauthentifizierung verwendet werden können. Authentifizierungsmerkmale können zum Beispiel biometrische Authentifizierung und Erkennung beinhalten.
  • Die DAT-Steuerung 199 kann Eingabeinformationen über das eine oder die mehreren Sensorsysteme 182 erhalten, die Sensoren beinhalten können, die an der Innenseite und/oder Außenseite des Fahrzeugs angeordnet sind (Sensoren in 1 nicht gezeigt). Die DAT-Steuerung 199 kann die Sensorinformationen, die Fahrerfunktionen, Fahrzeugfunktionen und Umgebungseingaben zugeordnet sind, und andere Informationen empfangen. Die DAT-Steuerung 199 kann die Sensorinformationen zur Identifizierung von biometrischen Markern, die in einem sicheren Datenspeicher für biometrische Daten (in 1 nicht gezeigt) an Bord des Fahrzeugs 105 und/oder über den bzw. die Server 170 gespeichert sind, charakterisieren. In anderen Aspekten kann die DAT-Steuerung 199 auch dazu konfiguriert und/oder programmiert sein, Fahrerassistenz der Stufe 1 und/oder Stufe 2 zu steuern, wenn das Fahrzeug 105 Fahrmerkmale für autonome Fahrzeuge der Stufe 1 oder Stufe 2 beinhaltet. Die DAT-Steuerung 199 kann mit einem Fahrzeugwahrnehmungssystem (VPS) 181 verbunden sein und/oder dieses beinhalten, das interne und externe sensorische Systeme beinhalten kann (gemeinsam als Sensorsysteme 182 bezeichnet). Die Sensorsysteme 182 können dazu konfiguriert und/oder programmiert sein, Sensordaten zu erhalten, die zur biometrischen Authentifizierung und zum Durchführen von Fahrerassistenzvorgängen verwendbar sind, wie zum Beispiel aktives Parken, Anhängerrückfahrassistenten, adaptive Geschwindigkeitsregelung und Spurhaltung, Fahrerstatusüberwachung, und/oder andere Merkmale.
  • Die Rechensystemarchitektur des Fahrzeugcomputers 145, der VCU 165 und/oder verbesserten Wegsystems 107 kann gewisse Rechenmodule weglassen. Es versteht sich ohne Weiteres, dass die in 1 abgebildete Rechenumgebung ein Beispiel für eine mögliche Umsetzung gemäß der vorliegenden Offenbarung ist, und daher nicht als einschränkend oder ausschließend betrachtet werden sollte.
  • Ansicht A zeigt eine Fahreransicht (der Fahrer ist der Übersichtlichkeit halber in Ansicht A nicht gezeigt) einer Fahrbahn durch eine Windschutzscheibe 113, die mit einer Heads-up-Anzeige (HUD) 147 konfiguriert ist. Die HUD 147 kann einen verbesserten Weg 119 in einem HUD-Betrachtungsbereich 143 projizieren. Das verbesserte Wegsystem 107 kann bestimmen, ob es dem Benutzer 140 aufgrund von Sonnenblendung wahrscheinlich unangenehm ist, zu fahren. Das verbesserte Wegsystem 107 nimmt diese Bestimmung unter Verwendung verschiedener Datenquellen vor, die beinhalten können, ob der Benutzer 140 blinzelt, und durch Erkennen des beobachteten Lichteinfalls über einen oder mehrere Sonnenblendungserkennungssensoren, die als Teil des Sensorsystems 182 betrieben werden. Zum Beispiel kann das VPS 181 eine Bewegungsbahn des Lichteinfalls bestimmen, was Lichtreflexion von der Windschutzscheibe 113 und/oder Außenobjekten, wie etwa anderen Fahrzeugen, Gebäuden usw. (in 1 nicht gezeigt) beinhalten kann. Der eine oder die mehreren Prozessoren 150, die die UEP-Engine 108 ausführen, können ein Einzelbild (in 1 nicht gezeigt) des Benutzers 140 empfangen, wenn der Benutzer das Fahrzeug 105 fährt. Der eine oder die mehreren Prozessoren 150 können das Einzelbild über einen oder mehrere Kamerasensoren erhalten, die als Teil des Sensorsystems 182 betrieben werden. Der eine oder die mehreren Prozessoren können einen Augensblinzelstatus des Benutzers auf Grundlage des Einzelbilds bestimmen und eine Wahrscheinlichkeit bestimmen, dass der Benutzer 140 Sonnenblendung erfährt.
  • Das Bewerten der Wahrscheinlichkeit von Sonnenblendung kann das Erhalten mehrerer Datenquellen von dem VPS 181, von Indizes (in 1 nicht gezeigt), die in dem Speicher 155 und/oder über den bzw. die Server 170 gespeichert sind, und das Bewerten der verschiedenen Quellen unter Verwendung einer gewichteten Prädiktoranalyse (in den folgenden Abschnitten ausführlicher erörtert) beinhalten. Beispiele für Eingabedaten können eine aktuelle Tageszeit, einen aktuellen Standort, eine aktuelle Fahrtrichtung, eine Fahrzeuggeschwindigkeit und andere sich dynamisch ändernde Informationen beinhalten. Die Eingabedaten können ferner einen Index beinhalten, der eine Historie eines Einfalls von Sonnenblendung beinhaltet, der durch das verbesserte Wegsystem 107 identifiziert und protokolliert wurde, der Standortinformationen beinhalten kann, die Tage und Zeiten angeben, die der Sonnenblendung zugeordnet sind, die während eines oder mehrerer vorheriger Fahrereignisse, bei einer vorherigen Fahrzeugbewegungsbahn, vorherigen Standorten des Einfalls usw. aufgetreten sind.
  • Insbesondere kann das verbesserte Wegsystem 107 ein Routenbeobachtermodul (nachstehend in Bezug auf 2 erörtert) ausführen und unter Verwendung eines oder mehrerer Datenpunkte, die durch den VPS 181 erhalten werden, bestimmen, ob die Sonnenblendung von der Sonne 139 einen Mindestschwellenwert für die Lichteingabe überschreitet.
  • Als Reaktion auf das Bestimmen, dass die Sonnenblendung den Mindestschwellenwert für die Lichteingabe überschreitet, kann das verbesserte Wegsystem 107 zu dem Schluss kommen, dass der Benutzer 140 während der Fahrt Sonnenblendung erfährt, und eine AR-Anzeige eines Fahrzeugwegs generieren (in 1 als der verbesserte Weg 119 dargestellt).
  • 2 stellt ein beispielhaftes Funktionsschema der Engine für den benutzerzentrierten verbesserten Weg (UEP-Engine) 108 dar, die zum Bereitstellen von Wegführung mittels Augmented Reality gemäß der vorliegenden Offenbarung konfiguriert und/oder programmiert ist. Die UEP-Engine 108 kann Dateneingaben empfangen, die Fahrer- und Umgebungsdaten 205 und die Telematikdaten 210 beinhalten können, und die sich dynamisch ändernde Fahrumgebung auf Grundlage der Umgebungsdaten 205 und Telematikdaten 210 beurteilen. Die UEP-Engine 208 trifft funktionelle Entscheidungen für die AR-Ausgabe auf Grundlage der beurteilten Dateneingaben, wobei die funktionalen Entscheidungen das Rendering des Augmented-Reality-Wegs auf einer AR-Anzeige anweisen können. In einer Ausführungsform kann die AR-Anzeige eine Heads-up-Anzeige (HUD) sein, die eine freie Sicht auf den Fahrzeugweg bereitstellt, auf der die UEP-Engine 108 den AR-Weg überlagert, oder eine andere AR-Vorrichtung, wie etwa eine intelligente Brille (in 1 nicht gezeigt), sein. Die UEP-Engine 108 kann zudem eine kontinuierliche Rückmeldung von dem Benutzer 140 empfangen, wodurch die UEP-Engine 108 informiert wird.
  • Die UEP-Engine 108 kann eine Situationsbeurteilung 215 unter Verwendung eines Routenbeobachtermoduls 230 bereitstellen. Das Routenbeobachtermodul 230 kann Fahrer- und Umgebungsdaten 205 von dem einen oder den mehreren Sensorsystemen 182, von dem einen oder den mehreren Servern 170 und anderen Online-Ressourcen empfangen, die über das eine oder die mehreren Netzwerke 125 verfügbar sind. Die Fahrer- und Umgebungsdaten können Umgebungsfaktoren außerhalb des Fahrzeugs 105, Umgebungsinformationen innerhalb des Fahrzeugs und Fahrereingaben in Form von Sensorinformationen von dem einen oder den mehreren Sensorsystemen 182 beinhalten.
  • Zum Beispiel kann das Routenbeobachtermodul 230 in Bezug auf die Umgebungsfaktoren ein oder mehrere Signale, die direkte Sonneneinstrahlung angeben, von einem Blendungssensor (in 2 nicht gezeigt) empfangen, der den direkten Einfall von Sonnenlicht in einem Winkel erkennt, der den Benutzer 140 beeinträchtigen könnte. In einem Aspekt kann der Blendungssensor angeben, wann die Sonnenblendung an einer oder mehreren Positionen an dem Fahrzeug 105 erkannt wird. In anderen Aspekten kann das Routenbeobachtermodul 230 Tageszeitinformationen, Himmelsinformationen, die die Sonnenposition in Bezug die Fahrtrichtung des Fahrzeug beinhalten, Zeit und Tag, atmosphärische Bedingungen und andere Informationen empfangen und die Himmelsinformationen in Verbindung mit der Fahrzeugposition, der Fahrtrichtung des Fahrzeug, Zeit- und Datumsinformationen, neben anderen möglichen Eingaben, verwenden und bestimmen, dass der Benutzer 140 wahrscheinlich Sonnenblendung erfährt. In anderen Aspekten kann das Routenbeobachtermodul 230 ferner Telematikdaten 210 von der TCU 160 empfangen, die Navigationsinformationen beinhalten können, die die Fahrzeugbewegungsbahn, die Fahrzeuggeschwindigkeit, den geografischen Standort usw. angeben.
  • In Bezug auf die Fahrerinformationen gibt es eine hohe Wahrscheinlichkeit, dass der Benutzer 140 während des Fahrens des Fahrzeugs 105 Sonnenblendung erfährt, wenn das Routenbeobachtermodul 230 bestimmt, dass der Benutzer gerade blinzelt. Jedoch kann ein Indikator allein (z. B. dass der Benutzer 140 blinzelt) möglicherweise keinen angemessenen Indikator für Sonnenblendung bereitstellen. Dementsprechend kann das Routenbeobachtermodul 230 unter Verwendung einer gewichteten Reihe von Prognoseindikatoren bestimmen, ob eine aktuelle Wahrscheinlichkeit einer Sonnenblendung einen Mindestschwellenwert überschreitet, wobei der Routenbeobachter-Prädiktorwert eine gewichtete Ausgabe der folgenden Form ist:
    • Routenbeobachter Prognosewert = β 1 * v _ index + β 2 * t _ index + β 3 * l _ index ,
      Figure DE102021125469A1_0001
      sodass:
    • v_index eine Komponente zur Erkennung von Sichtblendung ist, die von dem Sensorsystem 182 erhalten wird;
    • t_index eine Tageszeitindexkomponente ist, die angibt, wenn ein aktuelles Datum und/oder eine aktuelle Uhrzeit ähnlich einem Datum und/oder einer Uhrzeit ist, die einem oder mehreren früheren Einfällen von erfahrener Sonnenblendung zugeordnet sind, und/oder wenn die aktuelle Zeit einem wahrscheinlichen Einfall einer Sonnenblendung (z. B. während der Morgen- und Abendstunden) zugeordnet ist; und
    • I_index eine Standortindexkomponente ist, die angibt, wenn eine aktuelle Fahrzeugposition ähnlich einem Standort ist, der einem oder mehreren früheren Einfällen von erfahrener Sonnenblendung zugeordnet ist.
  • Die Werte β1, β2 und β3 sind abstimmbare Gewichtungen zum Zuweisen eines Konfidenz- und Beitragsgrads zu einer aggregierten Ausgabe (die aggregierte Ausgabe wird hierin als die Wahrscheinlichkeit der Sonnenblendung bezeichnet). Dementsprechend kann das Routenbeobachtermodul 230 die abstimmbaren Gewichtungen einem jeweiligen oder mehreren von β1, β2 und β3 zuweisen, gemäß variierenden Graden oder Beträgen, die jede jeweilige Indexkomponente durch das verbesserte Wegsystem 107 beobachtet wird. Obwohl die konkreten zugewiesenen Gewichtungen je nach Systemauslegung variieren können, versteht es sich, dass eine relativ geringe Gewichtung 0,0 oder 0,1 betragen kann, wobei 1,0 die maximale Gewichtung ist und die abstimmbaren Gewichtungen insgesamt 1,0 ergeben. Andere Gewichtungen werden in Erwägung gezogen und sind möglich.
  • Zum Beispiel kann das Routenbeobachtermodul 230 in Bezug auf β1 der Komponente zur Erkennung von Sichtblendung eine relativ geringe Gewichtung zuweisen, wenn der Benutzer 140 mit seinen Augen leicht und für einen kurzen Zeitraum (z. B. 4 Sekunden, 10 Sekunden usw.) blinzelt. Man stelle sich jedoch vor, dass, wenn man aus einem dunklen Innengebäude in das helle Sonnenlicht tritt, die Anordnung der Augen wahrscheinlich fest zugedrückt ist, was durch einen relativ kleinen Abstand zwischen einem unteren Augenlid und einem oberen Augenlid im Vergleich zu einer entspannten Augenhaltung, bei der es zu keinem Blinzeln aufgrund von Sonnenblendung kommt, gemessen werden kann. Eine Messung zwischen dem unteren Augenlid und dem oberen Augenlid wäre ein vergleichsweise starker Indikator für das Vorhandensein von Sonnenblendung. In einem derartigen Fall kann das Routenbeobachtermodul 230, wenn dies beobachtet wird, β1 eine relativ höhere abstimmbare Gewichtung zuweisen. Das Routenbeobachtermodul 230 kann ein Einzelbild des Benutzers 140 empfangen und eine Messung des vertikalen Abstands zwischen den Augenlidern des Benutzers durchführen. In einer beispielhaften Ausführungsform kann das Routenbeobachtermodul 230 ein Bild des Benutzers 140 mit einer entspannten Augenhaltung abrufen, wenn kein Blinzeln vorhanden ist, und eine Messung des Abstands zwischen dem oberen und dem unteren Augenlid mit einer ähnlichen Messung des erhaltenen Einzelbilds vergleichen, um ein Blinzeln zu identifizieren. Der Fachmann auf dem Gebiet der Gesichtserkennung wird verstehen, dass es mehrere Möglichkeiten gibt, derartige Informationen zu erhalten. Andere Verfahren zum Bestimmen, ob der Benutzer 140 während des Betriebs des Fahrzeugs 105 blinzelt, werden in Betracht gezogen und derartige Verfahren sind möglich.
  • In Bezug auf β2 kann das Routenbeobachtermodul 230 dem Tageszeitindex eine relativ geringere Gewichtung zuweisen, wenn sich die gegenwärtige Tageszeit von einer Tageszeit unterscheidet, zu der zuvor beobachtete Fälle von Sonnenblendung aufgetreten sind. Eine andere Zeit kann angeben, dass sich eine gegenwärtige Zeit um einen Schwellenwert für die Zeit von einer beobachteten Zeit unterscheidet (z. B. 20 Minuten Zeitunterschied, 45 Minuten Zeitunterschied, eine Stunde Zeitunterschied usw.). Wenn eine gegenwärtige Zeit eine geringere Differenz (z. B. in Minuten gemessen) zu früheren Fällen beobachteter Sonnenblendung aufweist, kann dies im vorliegenden Fall ein relativ stärkerer Indikator für Sonnenblendung sein. Dementsprechend kann das Routenbeobachtermodul 230, wenn dies beobachtet wird, β2 eine relativ höhere abstimmbare Gewichtung zuweisen. Andererseits kann eine größere Zeitwertdifferenz im vorliegenden Fall auf eine relativ schwächere Wahrscheinlichkeit von Sonnenblendung hinweisen.
  • In Bezug auf β3 kann das Routenbeobachtermodul 230 dem Standortindex eine relativ geringere Gewichtung zuweisen, wenn sich der Abstand zwischen dem derzeitigen Standort von Standorten unterscheidet, an denen zuvor beobachtete Fälle von Sonnenblendung aufgetreten sind. Eine andere Zeit der Standortzone kann angeben, dass sich ein gegenwärtiger Standort von einem beobachteten Standort um einen Schwellenwert für den Abstand unterscheidet (z. B. 0,5 km Abstandsdifferenz, 1 km Abstandsdifferenz, 1,5 km Abstandsdifferenz usw.). Wenn ein gegenwärtiger Standort eine geringere Differenz (z. B. in km gemessen) zu früheren Standorten mit Fällen beobachteter Sonnenblendung aufweist, kann dies am gegenwärtigen Standort ein relativ stärkerer Indikator für Sonnenblendung sein.
  • Dementsprechend kann das Routenbeobachtermodul 230, wenn dies beobachtet wird, β3 eine relativ höhere abstimmbare Gewichtung zuweisen. Andererseits kann eine größere Abstandswertdifferenz im vorliegenden Fall auf eine relativ schwächere Wahrscheinlichkeit von Sonnenblendung hinweisen.
  • Das Routenbeobachtermodul 230 kann die Eingabeelemente selektiv kombinieren, den Routenbeobachterprognosewert (Route Observer Prediction Value - ROPV) bewerten und den ROPV dem Entscheidungsmodul 235 für den Abschnitt des Funktionsschemas für Aufmerksamkeit und funktionelle Entscheidungsfindung 220 bereitstellen.
  • Das Entscheidungsmodul 235 kann die Telematikdaten 210, einschließlich Fahrzeuggeschwindigkeit, Fahrzeugstandort und Benutzeraktivität, erhalten, um optische Eigenschaften zum Anzeigen der AR-Ausgabe unter Verwendung des AR-Weg-Rendering-Moduls 225 festzulegen. In einigen Aspekten kann das AR-Weg-Rendering-Modul 225 die optischen Eigenschaften auf Grundlage von durch den Benutzer auswählbaren Optionen festlegen, die ein automatisches AR-Rendering des verbesserten Wegs 119 (siehe 1) oder keine Aktion (was das Deaktivieren der automatischen Rendering-Option bedeutet) beinhalten können. In einer Ausführungsform kann das Entscheidungsmodul 235 eine vom Benutzer auswählbare Option für die verbesserte Ausgabe über die AR-Anzeige 240 ausgeben, die den verbesserten Weg 119 beinhalten kann (wie in 1 gezeigt). Alternativ kann das Entscheidungsmodul 235 die vom Benutzer auswählbare Option unter Verwendung eines Fahrzeug-Infotainmentsystems (in 2 nicht gezeigt) ausgeben und die vom Benutzer auswählbare Option auf Grundlage einer von dem Benutzer 140 empfangenen Auswahl festlegen. Das Entscheidungsmodul 235 kann auf Grundlage des folgenden Ausdrucks bestimmen, ob der verbesserte Weg 119 gezeigt werden soll:
    • Wenn (ROPV > xi, und Vspd >= yi, und ui < UA < zi,
    • dann AFM_Ausgabe = mi; sodass,
    • ROPV der Routenbeobachterprognosewert (zwischen 0 und 1) ist;
    • UA ein Benutzeraktivitätswert ist, der den Fahrzeugfahrstatus als eine Summe von drei unabhängigen nicht gewichteten Werten angibt, deren Summe ein Wert zwischen 0 und 1 auf Grundlage eines Beschleunigungsmesserwerts, eines Lenkwerts und eines Bremsaktionswerts ist; und
    • AFM_Ausgabe: mi = (1, 2 oder 0) vom Benutzer auswählbare Aktionen sind, wobei Folgendes gilt:
      • 2: Das System empfiehlt eine Aktion, wenn Sonnenblendung erkannt wird;
      • 1: AR-Rendering wird automatisch aktiviert; und
      • 0: keine Aktion.
  • In anderen Aspekten kann das Entscheidungsmodul 235 eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs auf Grundlage von beobachteten Umgebungsaspekten, wie etwa dem Winkel der Sonnenblendung, und ferner auf Grundlage von statischen Aspekten, wie etwa dem festen Winkel der Windschutzscheibe, bestimmen. Die optischen Einstellungen können Anzeigeeigenschaften für die Ausgabe der mittels AR verbesserten Fahrbahn beinhalten, einschließlich zum Beispiel einer Helligkeitseinstellung, einer Kontrasteinstellung und einer Farbeinstellung. Dementsprechend kann das verbesserte Wegsystem 107 eine benutzerzentrierte verbesserte Fahrzeugführung bereitstellen, wenn Sonnenblendung erkannt wird, auf Grundlage von durch den Benutzer auswählbaren und automatischen Merkmalen, die eine Führung nur dann bereitstellen können, wenn sie benötigt wird, nur wenn der Benutzer eine derartige Führung wünscht, und in einem optimierter Ausgabemodus, sodass die Führung bequem durch den Benutzer 140 in verschiedenen Betriebsszenarien, Tageslichtpositionen usw. betrachtet werden kann.
  • 3 stellt eine beispielhafte DAT-Steuerung 199 gemäß einer Ausführungsform dar. Wie in den vorigen Figuren erläutert, kann die DAT-Steuerung 199 automatisierte Fahr- und Fahrerassistenzfunktionen bereitstellen und Aspekte der Benutzer- und Umgebungsunterstützung bereitstellen. Die DAT-Steuerung 199 kann eine Benutzerauthentifizierung erleichtern, wie etwa eine biometrische Authentifizierung, die Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung, Gangerkennung und andere eindeutige und nicht eindeutige biometrische Aspekte beinhalten kann. Die DAT-Steuerung 199 kann ferner Fahrzeugüberwachung und Multimediaintegration mit Fahrunterstützung bereitstellen.
  • In einer beispielhaften Ausführungsform kann die DAT-Steuerung 199 ein Sensor-E/A-Modul 305, ein Fahrgestell-E/A-Modul 307, ein Biometrieerkennungsmodul (Biometrie Recognition Module - BRM) 310, ein Gangerkennungsmodul 315, ein aktives Einparkhilfemodul 320, ein Modul 325 eines Totwinkelinformationssystems (Blind Spot Information System - BLIS), ein Anhängerrückfahrassistenzmodul 330, ein Spurhaltesteuermodul 335, ein Fahrzeugsichtsystemmodul 340 (einschließlich zum Beispiel einer oder mehrerer Kameras), ein adaptives Geschwindigkeitsregelungsmodul 345, ein Fahrerstatusüberwachungssystem 350 und ein Augmented-Reality-Integrationsmodul 355 neben anderen Systemen beinhalten. Es versteht sich, dass das in 3 dargestellte Funktionsschema als Überblick über die Funktionsfähigkeiten für die DAT-Steuerung 199 bereitgestellt ist und nicht einschränkend sein soll. In einigen Ausführungsformen kann das Fahrzeug 105 mehr oder weniger Module und Steuersysteme beinhalten.
  • Die DAT-Steuerung 199 kann Eingabeinformationen über das eine oder die mehreren Sensorsysteme 182, die das externe Sensorsystem 381 und Sensoren des internen Sensorsystems 383 beinhalten können, die an der Innenseite und/oder Außenseite des Fahrzeugs 105 angeordnet sind, und über das Fahrgestell-E/A-Modul 307, das mit den ECU 117 in Kommunikation stehen kann, erhalten. Die DAT-Steuerung 199 kann die Sensorinformationen, die Fahrerfunktionen und biometrischen Eingaben, wie etwa Augenblinzelstatus, Umgebungseingaben und andere Informationen, von dem einen oder den mehreren Sensorsystemen 182 empfangen.
  • In anderen Aspekten kann die DAT-Steuerung 199 auch dazu konfiguriert und/oder programmiert sein, Fahrerassistenz der Stufe 1 und/oder Stufe 2 zu ermöglichen, wenn das Fahrzeug 105 diese Merkmale für automatisiertes Fahren beinhaltet. Die DAT-Steuerung 199 kann mit einem Fahrzeugwahrnehmungssystem (VPS) 181, wie in 1 gezeigt, verbunden sein und/oder dieses beinhalten, das interne und externe Sensorsysteme beinhalten kann (gemeinsam als Sensorsysteme 182 bezeichnet). Die Sensorsysteme 182 können dazu konfiguriert und/oder programmiert sein, Sensordaten zu erhalten, die zur biometrischen Authentifizierung und zum Durchführen von Fahrerassistenzvorgängen verwendbar sind, wie zum Beispiel aktives Parken, Anhängerrückfahrassistenz, adaptive Geschwindigkeitsregelung und Spurhaltung, Fahrerstatusüberwachung, und/oder andere Merkmale.
  • Die DAT-Steuerung 199 kann dazu konfiguriert und/oder programmiert sein, biometrische Authentifizierungssteuerungen für das Fahrzeug 105 bereitzustellen, einschließlich zum Beispiel Gesichtserkennung, Fingerabdruckerkennung, Spracherkennung, und/oder um andere Informationen bereitstellen, die Charakterisierung, Identifizierung, Insassenerscheinungsbild, Insassenstatus und/oder Verifizierung für andere menschliche Faktoren zugeordnet sind, wie etwa Gangerkennung, Körperwärmesignaturen, Augennachverfolgung usw. Die DAT-Steuerung 199 kann die Sensorinformationen von einem externen Sensorsystem 381 erhalten, das Sensoren beinhalten kann, die an einer Fahrzeugaußenseite oder in Vorrichtungen angeordnet sind, die mit dem Fahrzeug 105 verbindbar sind, wie etwa die mobile Vorrichtung 120 und/oder der Transponder 179.
  • Die DAT-Steuerung 199 kann sich ferner mit dem Sensorsystem 182 verbinden, das das interne Sensorsystem 383 beinhalten kann, das eine beliebige Anzahl von Sensoren beinhalten kann, die in dem Fahrzeuginnenraum (z. B. der Fahrzeugkabine, die in 3 nicht dargestellt ist) konfiguriert sind. Das externe Sensorsystem 381 und das interne Sensorsystem 383 können mit einer oder mehreren Trägheitsmesseinheiten (IMU) 384, einem oder mehreren Kamerasensoren 385, Fingerabdrucksensoren 387 und/oder anderen Sensor(en) 389 verbunden sein und/oder diese beinhalten und biometrische Daten erhalten, die zur Charakterisierung der Sensorinformationen zur Identifizierung von biometrischen Markern, die in einem sicheren Datenspeicher für biometrische Daten (in 3 nicht gezeigt) an Bord des Fahrzeugs 105 gespeichert sind, verwendbar sind, und Umgebungsdaten zum Bereitstellen von Fahrerassistenzmerkmalen erhalten. Die DAT-Steuerung 199 kann von den Sensorsystemen 182 Sensordaten erhalten, die ein oder mehrere Antwortsignale des externen Sensors beinhalten können.
  • 4 ist ein Ablaufdiagramm eines beispielhaften Verfahrens 400 zum Bereitstellen von Fahrzeugführung mittels Augmented-Reality (AR) zur Abschwächung von Sonnenblendung in einem Fahrzeug gemäß der vorliegenden Offenbarung. 4 kann unter weiterer Bezugnahme auf die vorherigen Figuren, einschließlich der 1-3, beschrieben werden. Der folgende Prozess ist beispielhaft und nicht auf die nachfolgend beschriebenen Schritte beschränkt. Darüber hinaus können alternative Ausführungsformen mehr oder weniger Schritte beinhalten, die hierin gezeigt oder beschrieben sind, und können diese Schritte in einer anderen Reihenfolge als die in den folgenden beispielhaften Ausführungsformen beschriebene Reihenfolge beinhalten.
  • Unter Bezugnahme auf 4 kann das Verfahren 400 bei Schritt 405 mit dem Empfangen eines Einzelbilds eines Benutzers, der ein Fahrzeug fährt, über einen Kamerasensor beginnen. Bei Schritt 410 kann das Verfahren 400 ferner Bestimmen eines Augenblinzelstatus des Benutzers auf Grundlage des Einzelbilds und über einen Prozessor beinhalten. Dieser Schritt kann das Empfangen eines Video-Feeds oder eines einzelnen Einzelbilds des Benutzers und das Bewerten der Anordnung der Augen des Benutzers beinhalten, um zu bestimmen, ob der Benutzer blinzelt, was auf das Vorhandensein von Sonnenblendung hinweisen kann.
  • Bei Schritt 415 kann das Verfahren 400 ferner Bestimmen einer Wahrscheinlichkeit, dass Sonnenblendung einen Mindestschwellenwert überschreitet, auf Grundlage des Augenblinzelstatus des Benutzers beinhalten. Dieser Schritt kann Bestimmen einer Fahrzeuggeschwindigkeit, Bestimmen eines Standorts des Fahrzeugs und einer Fahrzeugbewegungsbahn und Auswählen eines visuellen Komfortmodus auf Grundlage der Fahrzeuggeschwindigkeit und der Fahrzeugbewegungsbahn beinhalten.
  • Bei Schritt 420 kann das Verfahren 400 ferner das Generieren einer AR-Anzeige eines Fahrzeugwegs auf Grundlage der Wahrscheinlichkeit der Sonnenblendung und des Augenblinzelstatus beinhalten. Dieser Schritt kann das Generieren der AR-Anzeige des Fahrzeugwegs auf Grundlage des visuellen Komfortmodus beinhalten, der eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs beinhalten kann, die eine Helligkeitseinstellung, eine Kontrasteinstellung und eine Farbeinstellung umfasst. Der Fahrzeugweg kann eine Animation oder Grafik beinhalten, die auf einer der Windschutzscheibe des Fahrzeugs zugeordneten HUD-Vorrichtung über eine oder mehrere AR-Anzeigevorrichtungen (Wearables), wie etwa AR-Brillen, oder über eine andere AR-Vorrichtung angezeigt wird.
  • In der vorstehenden Offenbarung wurde auf die beigefügten Zeichnungen Bezug genommen, die einen Teil hiervon bilden und konkrete Umsetzungen veranschaulichen, in denen die vorliegende Offenbarung angewandt werden kann. Es versteht sich, dass auch andere Umsetzungen genutzt und strukturelle Änderungen vorgenommen werden können, ohne vom Umfang der vorliegenden Offenbarung abzuweichen. Bezugnahmen in der Beschreibung auf „eine Ausführungsform“, „eine beispielhafte Ausführungsform“ usw. geben an, dass die beschriebene Ausführungsform ein(e) bestimmte(s) Merkmal, Struktur oder Eigenschaft beinhalten kann, doch nicht notwendigerweise jede Ausführungsform diese(s) bestimmte Merkmal, Struktur oder Eigenschaft beinhalten muss. Darüber hinaus beziehen sich derartige Formulierungen nicht unbedingt auf dieselbe Ausführungsform. Ferner wird, wenn ein(e) Merkmal, Struktur oder Eigenschaft in Verbindung mit einer Ausführungsform beschrieben ist, der Fachmann ein(e) derartige(s) Merkmal, Struktur oder Eigenschaft in Verbindung mit anderen Ausführungsformen erkennen, ob dies nun ausdrücklich beschrieben ist oder nicht. Ferner können gegebenenfalls die hierin beschriebenen Funktionen in einem oder mehreren von Hardware, Software, Firmware, digitalen Komponenten oder analogen Komponenten durchgeführt werden.Zum Beispiel können eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) dazu programmiert sein, eine(s) oder mehrere der hierin beschriebenen Systeme und Prozesse auszuführen. Bestimmte Ausdrücke, die in der gesamten Beschreibung und den Patentansprüchen verwendet werden, beziehen sich auf konkrete Systemkomponenten.Für den Fachmann liegt auf der Hand, dass die Komponenten mit anderen Benennungen bezeichnet werden können, hierin soll nicht zwischen Komponenten unterschieden werden, die sich der Benennung nach unterscheiden, nicht jedoch hinsichtlich ihrer Funktion.
  • Es versteht sich zudem, dass das Wort „Beispiel“, wie es hierin verwendet wird, nicht ausschließender und nicht einschränkender Natur sein soll. Insbesondere gibt das Wort „Beispiel“ im vorliegenden Zusammenhang eines von mehreren Beispielen an, und es versteht sich, dass keine übermäßige Betonung oder Bevorzugung auf das konkrete beschriebene Beispiel gerichtet ist.
  • Ein computerlesbares Medium (auch als prozessorlesbares Medium bezeichnet) beinhaltet ein beliebiges nicht flüchtiges (z. B. physisches) Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer (z. B. durch einen Prozessor eines Computers) ausgelesen werden können. Ein derartiges Medium kann viele Formen annehmen, die unter anderem nichtflüchtige Medien und flüchtige Medien beinhalten. Rechenvorrichtungen können computerausführbare Anweisungen beinhalten, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen, wie etwa durch die vorstehend aufgeführten, ausführbar sein können und auf einem computerlesbaren Medium gespeichert sein können.
  • Hinsichtlich der hierin beschriebenen Prozesse, Systeme, Verfahren, Heuristiken usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Reihenfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch praktisch so umgesetzt werden könnten, dass die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, die von der hierin beschriebenen Reihenfolge abweicht. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte hierin beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt, dienen die Beschreibungen von Prozessen hierin dem Zwecke der Veranschaulichung verschiedener Ausführungsformen und sollten keinesfalls dahingehend ausgelegt werden, dass sie die Patentansprüche einschränken.
  • Dementsprechend versteht es sich, dass die vorstehende Beschreibung veranschaulichend und nicht einschränkend sein soll. Aus der Lektüre der vorangehenden Beschreibung ergeben sich viele andere Ausführungsformen und Anwendungen als die aufgeführten Beispiele. Der Umfang sollte nicht unter Bezugnahme auf die vorstehende Beschreibung, sondern stattdessen unter Bezugnahme auf die beigefügten Patentansprüche bestimmt werden, zusammen mit der gesamten Bandbreite an Äquivalenten, zu denen diese Patentansprüche berechtigen. Es wird erwartet und ist beabsichtigt, dass zukünftige Entwicklungen in den hierin beschriebenen Techniken eintreten werden und dass die offenbarten Systeme und Verfahren in derartige zukünftige Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass die Anmeldung modifiziert und verändert werden kann.
  • Sofern hierin kein ausdrücklicher Hinweis auf das Gegenteil erfolgt, soll allen in den Patentansprüchen verwendeten Ausdrücken deren allgemeine Bedeutung zugeordnet werden, wie sie Fachleuten auf dem Gebiet der hierin beschriebenen Technologien bekannt ist. Insbesondere ist die Verwendung der Singularartikel wie etwa „ein“, „eine“, „der“, „die“, „das“ usw. dahingehend auszulegen, dass ein oder mehrere der aufgeführten Elemente genannt werden, sofern ein Anspruch nicht eine ausdrückliche gegenteilige Einschränkung enthält. Mit Formulierungen, die konditionale Zusammenhänge ausdrücken, wie unter anderem „kann“, „könnte“, „können“ oder „könnten“, soll im Allgemeinen vermittelt werden, dass gewisse Ausführungsformen gewisse Merkmale, Elemente und/oder Schritte beinhalten könnten, wohingegen andere Ausführungsformen diese unter Umständen nicht beinhalten, es sei denn, es ist konkret etwas anderes angegeben oder es ergibt sich etwas anderes aus dem jeweils verwendeten Kontext. Somit sollen derartige Formulierungen, die konditionale Zusammenhänge ausdrücken, nicht implizieren, dass Merkmale, Elemente und/oder Schritte für eine oder mehrere Ausführungsformen in irgendeiner Weise erforderlich sind.
  • Gemäß einer Ausführungsform der Erfindung basiert die Wahrscheinlichkeit der Sonnenblendung auf einer Historie, die Standortinformationen umfasst, die ein Datum und eine Zeit angeben, die der Sonnenblendung zugeordnet sind.
  • Gemäß der vorliegenden Erfindung wird ein nichttransitorisches computerlesbares Speichermedium in einem Fahrzeugsteuermodul bereitgestellt, auf dem Anweisungen gespeichert sind, die bei Ausführung durch einen Prozessor den Prozessor zu Folgendem veranlassen: Empfangen eines Einzelbilds eines Benutzers, der ein Fahrzeug fährt, über einen Kamerasensor; Bestimmen eines Augenblinzelstatus des Benutzers auf Grundlage des Einzelbilds; Bestimmen einer Wahrscheinlichkeit, dass Sonnenblendung einen Mindestschwellenwert überschreitet, auf Grundlage des Augenblinzelstatus des Benutzers; und Generieren einer AR-Anzeige eines Fahrzeugwegs auf Grundlage der Wahrscheinlichkeit der Sonnenblendung und des Augenblinzelstatus.
  • Gemäß einer Ausführungsform ist die Erfindung ferner gekennzeichnet durch darauf gespeicherte Anweisungen zum Bestimmen einer Fahrzeuggeschwindigkeit; Bestimmen eines Standorts des Fahrzeugs und einer Fahrzeugbewegungsbahn; Auswählen eines visuellen Komfortmodus auf Grundlage der Fahrzeuggeschwindigkeit und der Fahrzeugbewegungsbahn; und Generieren der AR-Anzeige des Fahrzeugwegs auf Grundlage des visuellen Komfortmodus.
  • Gemäß einer Ausführungsform umfasst der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs, die eine Helligkeitseinstellung, eine Farbeinstellung und/oder eine Kontrasteinstellung umfasst.
  • Gemäß einer Ausführungsform der Erfindung basiert die Wahrscheinlichkeit der Sonnenblendung auf einem Blendungsindikatorsignal von einem Fahrzeugsichtsystem, einem Zeitindex, der eine Tageszeit angibt, und/oder einer Historie, die Standortinformationen umfasst, die ein Datum und eine Zeit angeben, die der Sonnenblendung zugeordnet sind.

Claims (15)

  1. Verfahren zum Bereitstellen von Fahrzeugführung mittels Augmented-Reality (AR) zur Abschwächung von Sonnenblendung in einem Fahrzeug, das Folgendes umfasst: Empfangen eines Einzelbilds eines Benutzers, der das Fahrzeug fährt, über einen Kamerasensor; Bestimmen eines Augenblinzelstatus des Benutzers auf Grundlage des Einzelbilds; Bestimmen einer Wahrscheinlichkeit, dass Sonnenblendung einen Mindestschwellenwert überschreitet, auf Grundlage des Augenblinzelstatus des Benutzers; und Generieren einer AR-Anzeige eines Fahrzeugwegs auf Grundlage der Wahrscheinlichkeit der Sonnenblendung und des Augenblinzelstatus.
  2. Verfahren nach Anspruch 1, das ferner Folgendes umfasst: Bestimmen einer Fahrzeuggeschwindigkeit; Bestimmen eines Standorts des Fahrzeugs und einer Fahrzeugbewegungsbahn; Auswählen eines visuellen Komfortmodus auf Grundlage der Fahrzeuggeschwindigkeit und der Fahrzeugbewegungsbahn; und Generieren der AR-Anzeige des Fahrzeugwegs auf Grundlage des visuellen Komfortmodus.
  3. Verfahren nach Anspruch 2, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Helligkeitseinstellung umfasst.
  4. Verfahren nach Anspruch 2, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Kontrasteinstellung umfasst.
  5. Verfahren nach Anspruch 2, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Farbeinstellung umfasst.
  6. Verfahren nach Anspruch 1, wobei die Wahrscheinlichkeit der Sonnenblendung auf einem Blendungsindikatorsignal von einem Fahrzeugsichtsystem basiert.
  7. Verfahren nach Anspruch 1, wobei die Wahrscheinlichkeit der Sonnenblendung auf einem Zeitindex, der eine Tageszeit angibt, basiert.
  8. Verfahren nach Anspruch 1, wobei die Wahrscheinlichkeit der Sonnenblendung auf einer Historie basiert, die Standortinformationen umfasst, die ein Datum und eine Zeit angeben, die der Sonnenblendung zugeordnet sind.
  9. System zum Bereitstellen von Fahrzeugführung mittels Augmented-Reality (AR) zur Abschwächung von Sonnenblendung in einem Fahrzeug, das Folgendes umfasst: einen Prozessor; und einen Speicher zum Speichern von ausführbaren Anweisungen, wobei der Prozessor dazu programmiert ist, die Anweisungen zu Folgendem auszuführen: Empfangen eines Einzelbilds eines Benutzers, der das Fahrzeug fährt, über einen Kamerasensor; Bestimmen eines Augenblinzelstatus des Benutzers auf Grundlage des Einzelbilds; Bestimmen einer Wahrscheinlichkeit, dass Sonnenblendung einen Mindestschwellenwert überschreitet, auf Grundlage des Augenblinzelstatus des Benutzers; und Generieren einer AR-Anzeige eines Fahrzeugwegs auf Grundlage der Wahrscheinlichkeit der Sonnenblendung und des Augenblinzelstatus.
  10. System nach Anspruch 9, wobei der Prozessor ferner dazu konfiguriert ist, die Anweisungen zu Folgendem auszuführen: Bestimmen einer Fahrzeuggeschwindigkeit; Bestimmen eines Standorts des Fahrzeugs und einer Fahrzeugbewegungsbahn; Auswählen eines visuellen Komfortmodus auf Grundlage der Fahrzeuggeschwindigkeit und der Fahrzeugbewegungsbahn; und Generieren der AR-Anzeige des Fahrzeugwegs auf Grundlage des visuellen Komfortmodus.
  11. System nach Anspruch 10, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Helligkeitseinstellung umfasst.
  12. System nach Anspruch 10, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Kontrasteinstellung umfasst.
  13. System nach Anspruch 10, wobei der visuelle Komfortmodus eine optische Einstellung für die AR-Anzeige des Fahrzeugwegs umfasst, die eine Farbeinstellung umfasst.
  14. System nach Anspruch 9, wobei die Wahrscheinlichkeit der Sonnenblendung auf einem Blendungsindikatorsignal von einem Fahrzeugsichtsystem basiert.
  15. System nach Anspruch 9, wobei die Wahrscheinlichkeit der Sonnenblendung auf einem Zeitindex, der eine Tageszeit angibt, basiert.
DE102021125469.8A 2020-10-08 2021-09-30 Verbesserter Fahrzeugweg durch Augmented Reality Pending DE102021125469A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/065,714 US11482191B2 (en) 2020-10-08 2020-10-08 Enhanced augmented reality vehicle pathway
US17/065,714 2020-10-08

Publications (1)

Publication Number Publication Date
DE102021125469A1 true DE102021125469A1 (de) 2022-04-14

Family

ID=80818490

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021125469.8A Pending DE102021125469A1 (de) 2020-10-08 2021-09-30 Verbesserter Fahrzeugweg durch Augmented Reality

Country Status (3)

Country Link
US (1) US11482191B2 (de)
CN (1) CN114394106A (de)
DE (1) DE102021125469A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11794766B2 (en) * 2021-10-14 2023-10-24 Huawei Technologies Co., Ltd. Systems and methods for prediction-based driver assistance

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010040386A1 (en) 2008-10-07 2010-04-15 Tomtom International B.V. Navigation apparatus and method of determining a route therefor
US9279693B2 (en) 2012-02-17 2016-03-08 Blackberry Limited Navigation system and method for determining a route based on sun position and weather
KR102071693B1 (ko) * 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
US10109110B2 (en) * 2015-06-29 2018-10-23 International Business Machines Corporation Reality augmentation to eliminate, or de-emphasize, selected portions of base image
US10181266B2 (en) * 2015-09-11 2019-01-15 Sony Corporation System and method to provide driving assistance
WO2017222997A1 (en) * 2016-06-20 2017-12-28 Magic Leap, Inc. Augmented reality display system for evaluation and modification of neurological conditions, including visual processing and perception conditions
US10527440B2 (en) 2016-07-27 2020-01-07 Faraday&Future Inc. Vehicle routing to avoid regions with glare
CN109690634A (zh) * 2016-09-23 2019-04-26 苹果公司 增强现实显示器
KR20210006893A (ko) * 2018-05-04 2021-01-19 하만인터내셔날인더스트리스인코포레이티드 다중 평면 헤드업 디스플레이를 위한 재구성 가능한 광학 기기
US11726324B2 (en) * 2018-08-31 2023-08-15 Apple Inc. Display system

Also Published As

Publication number Publication date
US11482191B2 (en) 2022-10-25
US20220114988A1 (en) 2022-04-14
CN114394106A (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
DE102017114049B4 (de) Systeme zum auswählen und durchführen von routen für autonome fahrzeuge
DE112018001422T5 (de) Anzeigesteuersystem und verfahren zum erzeugen einer virtuellen umgebung in einem fahrzeug
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
DE102019104485A1 (de) Fenstertönungssystem und -verfahren für ein fahrzeug
DE102019115652A1 (de) Fahrzeugroutensteuerung auf basis von vom benutzer bereitgestellten fahrteinschränkungen
DE102012223304A1 (de) System zum selektiven Öffnen eines Fahrzeuges
DE112016007472B4 (de) Vorwarnungen für fahrer von fahrzeugen vor bevorstehenden schildern
DE102021116929A1 (de) Fernsteuerungssystem für ein fahrzeug und einen anhänger
DE102022105584A1 (de) Dynamische verkehrsgeschwindigkeitssteuerung in echtzeit
DE102022122847A1 (de) Einparkassistent mit augmented-reality- und berührungsbasiertem benutzereingriff
DE102018115264B4 (de) Kontaktsensorverfahren für ein fahrzeug sowie autonomes fahrzeug zur ausführung des verfahrens
DE102022121073A1 (de) Sensorsysteme und -verfahren für autonome fahrzeuge zum absetzen von mitfahrern
DE112019001883T5 (de) Verfahren, Systeme und Medien zur Steuerung des Zugriffs auf Fahrzeugeigenschaften
DE102021122404A1 (de) Fernsteuerungssystem für ein fahrzeug und einen anhänger
DE102022103197A1 (de) Authentifizierung von sowie Einsteige- und Absetzbestätigung für Mitfahrer in einem autonomen Fahrzeug
DE102022101237A1 (de) Autonome fahrzeugkameraschnittstelle für drahtloses anbinden
DE102022111037A1 (de) Verfahren und systeme zur optimierung von fahrzeugereignisprozessen
DE102021125469A1 (de) Verbesserter Fahrzeugweg durch Augmented Reality
DE102018219103A1 (de) Vorrichtung und Verfahren zum Ermitteln eines Aufmerksamkeitserforderlichkeitsgrades eines Fahrers eines Fahrzeugs
DE102021102159A1 (de) Kapazitive sensorsysteme für eine pickup-ladefläche und verfahren
DE102020133412A1 (de) System und Verfahren zum Festlegen eines Fahrspurwechselmanövers
DE102022130219A1 (de) Überwachungssysteme und -Verfahren für Batterieelektrofahrzeuge zur Streckennutzung und zum Fahren im Gelände
DE102022130763A1 (de) Aktivierung einer adaptiven geschwindigkeitsregelung
DE102022125732A1 (de) Frühreaktionssystem für angehaltenen verkehr
DE102021132749A1 (de) Systeme und verfahren zur kopfpositionsinterpolation zur benutzerverfolgung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: LORENZ SEIDLER GOSSEL RECHTSANWAELTE PATENTANW, DE