DE102015117381A1 - Systeme und Verfahren zum Anpassen von Merkmalen in einer Head-Up-Anzeige - Google Patents

Systeme und Verfahren zum Anpassen von Merkmalen in einer Head-Up-Anzeige Download PDF

Info

Publication number
DE102015117381A1
DE102015117381A1 DE102015117381.6A DE102015117381A DE102015117381A1 DE 102015117381 A1 DE102015117381 A1 DE 102015117381A1 DE 102015117381 A DE102015117381 A DE 102015117381A DE 102015117381 A1 DE102015117381 A1 DE 102015117381A1
Authority
DE
Germany
Prior art keywords
context
feature
user
property
storage device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102015117381.6A
Other languages
English (en)
Inventor
Claudia V. Goldman-Shenhar
Thomas A. Seder
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015117381A1 publication Critical patent/DE102015117381A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

Die vorliegende Offenbarung bezieht sich auf Systeme, die eine Information, die an einer Head-Up-Anzeige (HUD) angezeigt wird, auf der Grundlage von Kontext anpassen. Die vorliegende Offenbarung bezieht sich im Allgemeinen auch auf Verfahren für eine Kontextsensitivität und Verfahren für eine HUD-Bildkompensation. Bei einer Ausführungsform umfassen die Systeme einen Prozessor und eine von einem Computer lesbare Speichereinrichtung mit Anweisungen, die bewirken, dass der Prozessor Operationen durchführt, um eine kontextbasierte Unterstützung für einen Fahrzeugbenutzer bereitzustellen. Die Operationen umfassen teilweise, dass das System eine Information analysiert, die an der HUD projiziert werden kann, und daraus eine Information auswählt, die für einen aktuellen Kontext relevant ist und eine Umgebungsbedingung und/oder eine die Physiologie des Benutzers betreffende Bedingung angibt. Beispielsweise passen Operationen des Systems basierend auf einer Kontextinformation dynamisch optische Attribute der HUD an.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Technologie betrifft das Anpassen von Merkmalen an einer Head-Up-Anzeige. Genauer gesagt betrifft die Technologie das Anpassen von Merkmalen an einer Head-Up-Anzeige auf der Grundlage von kontextabhängigen Eingängen, um ein verbessertes Benutzererlebnis zu ermöglichen.
  • HINTERGRUND
  • Eine Head-Up-Anzeige, oder HUD, ist eine Anzeige, die Daten in einer teilweise lichtdurchlässigen Art und Weise und an einer Position darstellt, die es einem Benutzer ermöglicht, sie zu sehen, ohne von seinem üblichen Sichtpunkt (z. B. direkt vor ihm) wegschauen zu müssen. Obwohl HUDs für militärische Zwecke entwickelt wurden, werden sie nun bei kommerziellen Flugzeugen, Kraftfahrzeugen, Computerspielen und anderen Anwendungen eingesetzt.
  • HUD-Bilder, die von virtuellen Bilderzeugungssystemen dargestellt werden, befinden sich typischerweise vor einer Windschutzscheibe des Fahrzeugs, z. B. 1 bis 3 Meter von dem Auge des Fahrers entfernt. Alternativ erscheinen HUD-Bilder, die von einer Technologie einer lichtdurchlässigen Anzeige dargestellt werden, an dem Ort der lichtdurchlässigen Anzeige, typischerweise an der Windschutzscheibe.
  • In Fahrzeugen können HUDs verwendet werden, um virtuelle Bilder oder Fahrzeugparameterdaten vor der Windschutzscheibe oder Oberfläche des Fahrzeugs zu projizieren, so dass sich das Bild in der Sichtlinie des Bedieners oder unmittelbar benachbart zu dieser befindet. Fahrzeug-HUD-Systeme können Daten auf der Grundlage einer Information projizieren, die von operativen Komponenten (z. B. Sensoren) in dem Fahrzeug empfangen wird, um beispielsweise Benutzer hinsichtlich Spurmarkierungen zu benachrichtigen, die Nähe eines anderen Fahrzeugs zu identifizieren oder eine Information eines nahegelegenen Orientierungspunkts bereitzustellen.
  • HUDs können auch eine Information von Informationssystemen außerhalb des Fahrzeugs, wie zum Beispiel einem Navigationssystem an einem Smartphone, empfangen und projizieren. Eine Navigationsinformation, die durch die HUD dargestellt wird, kann beispielsweise das Projizieren einer Distanz zu einem nächsten Abbiegen und der aktuellen Geschwindigkeit des Fahrzeugs im Vergleich zu einer Geschwindigkeitsbegrenzung einschließlich eines Alarms bei Überschreiten der Geschwindigkeitsbegrenzung umfassen. Eine Information eines externen Systems, die empfiehlt, auf welcher Spur sich der Benutzer für ein bevorstehendes Manöver befinden sollte, oder diesen vor potentiellen Verkehrsbehinderungen warnt, kann ebenfalls an der HUD dargestellt werden.
  • Ein Problem bei der aktuellen HUD-Technologie für Fahrzeuge ist, dass die HUD-Systeme typischerweise feste Systemparameter enthalten. Diese Systemparameter sind fast immer voreingestellt (z. B. ab Werk). Zusätzlich sind die HUD-Systemparameter typischerweise fest, was dem Benutzer wenige, wenn überhaupt, Optionen einer Anpassung an sich ändernde Bedingungen bietet.
  • Einige HUDs passen ein der Anzeige zugehöriges Helligkeitsniveau automatisch an, sodass Projektionen in direktem Sonnenlicht oder in der Nacht deutlich sichtbar sind. Das Vermögen einer Anpassung der Helligkeit basiert typischerweise nur auf dem Vorhandensein eines Umgebungslichtsensors, der hinsichtlich Quellen diffusen Lichts empfindlich ist. Andere Formen von Licht, z. B. von räumlich ausgerichteten Quellen im vorderen Bereich, veranlassen jedoch möglicherweise keine Änderung des Helligkeitsniveaus der HUD, und das angezeigte Bild ist möglicherweise nicht deutlich sichtbar.
  • Ferner ermöglicht die aktuelle HUD-Technologie keine Anpassung anderer voreingestellter Systemparameter außer spezifischer Anpassungen des Helligkeitsniveaus. Im Speziellen können die voreingestellten Systemparameter nicht basierend auf sich ändernden Bedingungen innerhalb oder außerhalb des Fahrzeugs angepasst werden.
  • ZUSAMMENFASSUNG
  • Es besteht ein Bedarf an Systemen und Verfahren zum Anpassen einer HUD basierend auf die Umgebung und die Physiologie des Benutzers betreffenden Eingängen. Die vorgeschlagenen Systeme und Verfahren identifizieren Merkmale der HUD, die angepasst werden können, um ein verbessertes Benutzererlebnis bereitzustellen.
  • Es ist ein Ziel der vorliegenden Technologie, individuell angepasste Projektionen für den Benutzer basierend auf sich ändernden Umgebungsbedingungen und Benutzerverhaltensbedingungen zu erzeugen. Es werden Benutzerattribute (z. B. Größe oder Augenhöhe), vorherige Benutzeraktionen und Vorlieben des Benutzers beim individuellen Anpassen der Anzeige in Betracht gezogen. Individuell angepasste Projektionen können somit ein Erlebnis erzeugen, das für Umgebungsbedingungen geeignet und für den Benutzer in dem Fahrzeug personalisiert ist, und zwar auf der Grundlage einer vorherigen Benutzerinteraktion mit dem Fahrzeug.
  • Die vorliegende Offenbarung bezieht sich auf Systeme, die sich an eine vorliegende Information angleichen und anpassen, zum Beispiel wie sie an der HUD angezeigt (z. B. projiziert) wird, und zwar basierend auf einem Kontext, z. B. Fahrerattributen (z. B. Größe), einem Fahrerzustand, einer äußeren Umgebung, einem Fahrzeugzustand. Die Systeme können z. B. anpassen, wie eine Information auf der Grundlage von Attributen des HUD-Hintergrundbilds, wie beispielsweise Chromatizität, Luminanz, angezeigt wird. Ein Ausgang oder Ausgangsmerkmalseigenschaften für eine Anpassung umfassen z. B. Anzeigehelligkeit, Struktur, Kontrast, Farbton oder beispielsweise lichtqualitätsbezogene Eigenschaften, Größe und Positionierung oder Ort innerhalb eines Anzeigebereichs.
  • Die Systeme umfassen einen Prozessor zur Realisierung einer von einem Computer lesbaren Speichereinrichtung mit Anweisungen, die bewirken, dass der Prozessor Operationen durchführt, um eine Unterstützung für einen Fahrzeugbenutzer bereitzustellen.
  • Die Operationen umfassen teilweise, dass das System eine große Vielzahl von Informationen von Fahrzeugsystemen und Subsystemen, die an der HUD projiziert werden können, analysiert und eine Information auswählt, die für den aktuellen Fahrkontext relevant ist (z. B. Umgebungs- und/oder Benutzerverhaltensbedingungen). Die aus den Analyse- und Auswahloperationen abgeleiteten Daten werden als Kontextdaten bezeichnet.
  • Ferner passen oder gleichen Operationen des Systems basierend auf den Kontextdaten dynamisch optische Attribute (z. B. optische Attribute eines Bildhintergrunds, wie beispielsweise Chromatizität und Luminanz der vorderen Szene) der HUD an.
  • Schließlich werden die Kontextdaten bei einigen Ausführungsformen an einer geeigneten Position in einem Sichtfeld des Benutzers dargestellt.
  • Die vorliegende Offenbarung bezieht sich auch auf Verfahren und Systeme für eine Kontextsensitivität und für eine HUD-Bildkompensation. Die Verfahren sind den oben beschriebenen Operationen des Systems ähnlich.
  • Andere Aspekte der vorliegenden Erfindung werden teilweise ersichtlich und teilweise hierin nachfolgend hervorgehoben.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt schematisch ein anpassbares Head-Up-Anzeigesystem gemäß einer beispielhaften Ausführungsform.
  • 2 ist ein Blockdiagramm eines Controllers des HUD-Systems in 1.
  • 3 ist ein Flussdiagramm, das eine beispielhafte Sequenz des Controllers von 2 darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • Falls erforderlich, werden detaillierte Ausführungsformen der vorliegenden Offenbarung hierin offenbart. Die offenbarten Ausführungsformen sind lediglich Beispiele, die in verschiedenen und alternativen Formen und Kombinationen davon ausgeführt werden können. Wie hierin verwendet beziehen sich zum Beispiel, beispielhaft, erläuternd und ähnliche Begriffe weitreichend auf Ausführungsformen, die als Darstellung, Exemplar, Modell oder Muster dienen.
  • Beschreibungen sind innerhalb des Gedankens der Beschreibung als umfassend zu betrachten. Beispielsweise sollen Bezugnahmen auf Verbindungen zwischen beliebigen zwei Teilen hierin die beiden Teile direkt oder indirekt miteinander verbunden umfassen. Als ein weiteres Beispiel soll eine einzelne Komponente, die hierin beschrieben wird, beispielsweise in Verbindung mit einer oder mehreren Funktionen, als Ausführungsformen abdeckend, bei denen anstatt einer Durchführung der Funktion(en) mehr als eine Komponente verwendet werden, interpretiert werden. Und umgekehrt – d. h. Beschreibungen mehrerer Komponenten in Verbindung mit einer oder mehreren Funktionen hierin sollen als Ausführungsformen abdeckend, bei denen eine einzelne Komponente die Funktion(en) durchführt, interpretiert werden.
  • In einigen Fällen wurden weithin bekannte Komponenten, Systeme, Materialien oder Verfahren nicht im Detail beschrieben, um ein Unklarmachen der vorliegenden Offenbarung zu vermeiden. Spezifische konstruktive und funktionale Details, die hierin offenbart sind, sollen daher nicht als einschränkend, sondern lediglich als Grundlage für die Ansprüche und als repräsentative Grundlage, um einen Fachmann zu lehren, die vorliegende Offenbarung einzusetzen, interpretiert werden.
  • Während die vorliegende Technologie primär in Verbindung mit einem Fahrzeug in Form eines Kraftfahrzeugs beschrieben ist, wird in Betracht gezogen, dass die Technologie in Verbindung mit anderen Fahrzeugen realisiert werden kann, wie beispielsweise, aber nicht beschränkt auf, Wasserfahrzeuge, Luftfahrzeuge, Maschinen und kommerzielle Fahrzeuge (z. B. Busse und Lastkraftwagen).
  • I. Übersicht über die Offenbarung – Fig. 1 und Fig. 2
  • Nun auf die Figuren und insbesondere auf die erste Figur Bezug nehmend zeigt 1 ein anpassbares Head-Up-Anzeigesystem (HUD-System von head-up display system) 100, das eine Kontexterkennungseinrichtung 150 und einen Controller 200 umfasst. Bei einigen Ausführungsformen kann die Kontexterkennungseinrichtung 150 als Teil des Controllers 200 aufgebaut sein.
  • In der Kontexterkennungseinrichtung 150 wird eine Vielzahl von Eingängen 105 empfangen. Basierend auf seiner Programmierung und einem oder mehreren Eingängen erzeugt oder steuert das HUD-System 100 ein darzustellendes Bild (z. B. passt es dieses an), das auf eine Ausgabeanzeige 90 projiziert wird.
  • Die Eingänge 105 können Daten umfassen, die von Sensoren wahrgenommen werden, die eine Information über Bedingungen innerhalb des Fahrzeugs und außerhalb des Fahrzeugs liefern. Bedingungen, die innerhalb des Fahrzeugs wahrgenommen werden, umfassen unter anderem die Psychologie des Benutzers betreffende Bedingungen (z. B. Benutzerzustand 10). Umgebungsbedingungen außerhalb des Fahrzeugs umfassen unter anderem z. B. Wetterbedingungen 20, Luminanzbedingungen 30, Chromatizitätsbedingungen 40, Verkehrsbedingungen 50 und Navigationsbedingungen 60. Das System 100 kann die Eingänge 105 in Betracht ziehen, um Merkmale an der Ausgabeanzeige 90 anzupassen, die letztendlich für den Benutzer dargestellt wird.
  • Die Benutzerzustandsbedingungen 10 stellen bei einer Ausführungsform eine Information dar, die durch eine oder mehrere Mensch-Maschine-Schnittstellen in dem Fahrzeug empfangen wird. Die Benutzerzustandsbedingungen 10 könnten auch Benutzereinstellungen oder -vorlieben, wie beispielsweise bevorzugte Sitzposition, Lenkwinkel oder Radiosender, umfassen. Die Sensoren im Fahrzeug können Benutzerattribute erfassen, wie zum Beispiel Fahrergröße oder [engl.: ”of”] Augenhöhe und/oder physiologisches Verhalten des Benutzers, während er sich im Fahrzeug befindet. Zum Beispiel können Sensoren eine Blinzelfrequenz des Fahrers überwachen, was eine Müdigkeit angeben kann. Als ein anderes Beispiel können Sensoren eine Fahrzeugpositionierung in Bezug auf Straßenspuren oder in Bezug auf Fahrzeuge in der Umgebung erfassen, um einen unkontrollierten Spurwechsel des Fahrers zu überwachen. Das System 100 kann Benutzereinstellungen, Attribute und Informationen von den Benutzer-Fahrzeug-Schnittstellen, wie beispielsweise physiologisches Verhalten, beim Anpassen von Benutzerzustandsmerkmalen, die letztendlich für den Benutzer dargestellt werden, in Betracht ziehen.
  • Die Wetterbedingungen 20 stellen eine Information dar, die den Bedingungen außerhalb des Fahrzeugs zugehörig ist. Sensoren innerhalb und/oder außerhalb des Fahrzeugs können Wetterbedingungen wahrnehmen, die den Betrieb des Fahrzeugs beeinflussen, wie beispielsweise unter anderem Temperatur, Feuchtigkeit, Eis. Das System 100 kann diese Eigenschaften in Betracht ziehen, wenn HUD-Anzeige-Wetterbedingungsmerkmale angepasst werden, um für den Benutzer dargestellt zu werden.
  • Die Luminanzbedingungen 30 stellen eine Information dar, die Beleuchtungseigenschaften zugehörig ist, die die Anzeige beeinflussen würden, wie beispielsweise eine Helligkeit (z. B. Umfang an Hintergrund- oder vorderer Beleuchtung) in dem Fahrzeug und/oder in der Umgebung dieses. Anpassungen der HUD-Bildluminanz können durchgeführt werden, um Änderungen der Umgebungsbeleuchtung (z. B. reduziertes Umgebungslicht bei Einfahrt in einen Tunnel, verstärktes Umgebungslicht, wenn es eine Blendung aufgrund von hellen Wolken gibt) zu berücksichtigen. Es können auch Anpassungen der Luminanz durchgeführt werden, um andere Formen der Beleuchtung, wie beispielsweise fluoreszierend oder weißglühend (z. B. in einem Parkhaus oder Gebäude), zu berücksichtigen. Wenn sich zum Beispiel die Beleuchtungsbedingungen im Fahrzeug ändern, z. B. eine Innenbeleuchtung aktiviert wird, kann die HUD-Bildluminanz entsprechend angepasst werden.
  • Die Chromatizitätsbedingungen 40 stellen eine Information dar, die Eigenschaften des Hintergrunds zugehörig ist, wie er z. B. durch die Fahrzeugwindschutzscheibe gesehen wird. Die Chromatizität bewertet Attribute einer Farbe, unabhängig von der Luminanz der Farbe, auf der Grundlage von Farbton und Buntheit (Sättigung). Die Chromatizitätseigenschaften können unter anderem Farbe, Struktur, Helligkeit, Kontrast und Größe eines bestimmten Objekts umfassen. Das System 100 kann diese Eigenschaften in Betracht ziehen, wenn HUD-Anzeige-Chromatizitätsmerkmale angepasst werden, um für den Benutzer dargestellt zu werden.
  • Die Verkehrsbedingungen 50 stellen eine Information dar, die der Bewegung von Fahrzeugen und/oder Fußgängern in einem Bereich zugehörig ist. Im Speziellen nehmen die Verkehrsbedingungen eine Anhäufung von Fahrzeugen in dem Bereich wahr. Zum Beispiel kann das System 100 eine Information, dass sich der Verkehr auf der Straße zukünftig wahrscheinlich erhöhen wird (z. B. in der Hauptverkehrszeit oder bei einem massenhaften Verlassen von einer Sportveranstaltung), empfangen. Das System 100 kann den Verkehr in Betracht ziehen, wenn Verkehrsbedingungsmerkmale angepasst werden, um für den Benutzer dargestellt zu werden.
  • Die Navigationsbedingungen 60 stellen eine Information dar, die einem Prozess zur genauen Feststellung der Positionierung des Fahrzeugs zugehörig ist. Die Navigationsbedingungen 60 stellen auch eine Information dar, die dem Planen und Folgen einer bestimmten Route für das Fahrzeug zugehörig ist. Zum Beispiel können einem Fahrzeug Turn-by-Turn-Anweisungen zu einer Touristenattraktion bereitgestellt werden. Das System 100 kann ein GPS in Betracht ziehen, wenn Navigationsmerkmale angepasst werden, um für den Benutzer dargestellt zu werden.
  • Zusätzlich zu die Psychologie des Benutzers betreffenden Bedingungen und Umgebungsbedingungen können die Eingänge 105 Fahrzeugbedingungen (nicht dargestellt) umfassen. Fahrzeugbedingungen unterscheiden sich von Umgebungsbedingungen und können Sensorauslesungen in Bezug auf Fahrzeugdaten, unter anderem beispielsweise Füllstandsindikatoren (z. B. Kraftstoff, Öl, Bremse und Getriebe) und Raddrehzahl, umfassen. Auslesungen, die Fahrzeugbedingungen zugehörig sind, stellen typischerweise Warnungen (z. B. Beleuchtung eines Indikators für wenig Kraftstoff) oder einen möglichen Ausfall eines Fahrzeugsystems (z. B. Beleuchtung eines ”Motor prüfen”-Indikators) für den Benutzer für eine zukünftige Reaktion (z. B. das Fahrzeug auftanken oder eine Wartung des Motors erhalten) bereit.
  • In einigen Situationen können Fahrzeugbedingungen mit die Psychologie des Benutzers betreffenden Bedingungen, Umgebungsbedingungen oder beiden kombiniert werden und als Information für die Kontexterkennungseinrichtung 150 dargestellt werden. Als ein Beispiel existieren eine Fahrzeugbedingung und eine Umgebungsbedingung gleichzeitig, wenn ein Fahrzeug einen niedrigen Kraftstoffstand aufweist (wie er z. B. durch eine Kraftstoffanzeige erkannt wird) und sich der Benutzer in der Nähe einer Tankstelle befindet (wie es z. B. aus einer Information an einem GPS erkannt wird). In dieser Situation kann das System 100 als Reaktion eine Änderung der Farbe der Kraftstoffanzeige (z. B. von gelb nach rot) darstellen, um den Benutzer hinsichtlich des niedrigen Kraftstoffstands und der Nähe der Tankstelle zu informieren.
  • Bei einer Ausführungsform kann das System 100 eine oder mehrere Fahrzeugbedingungen, die Psychologie des Benutzers betreffende Bedingungen und/oder Umgebungsbedingungen verwenden, um eine andere die Psychologie des Benutzers betreffende Bedingung oder eine Umgebungsbedingung zu ermitteln. Zum Beispiel könnte das System 100 einen Koordinatenort und/oder eine Fahrtrichtung (z. B. von einem GPS) kombiniert mit einer Tageszeit (z. B. von einer Anzeige einer fahrzeuginternen Uhr) verwenden, um eine mögliche Luminanzbedingung zu ermitteln. Somit kann, wenn ein Fahrzeug während des Sonnenaufgangs in östlicher Richtung fährt, die HUD-Bildluminanz entsprechend angepasst werden.
  • Die Kontexterkennungseinrichtung 150 umfasst eine adaptive Vermittlungssoftware, die ausgestaltet ist, um, wenn sie durch einen Prozessor ausgeführt wird, Erkennungs- und Anpassungsfunktionen durchzuführen, die den Eingängen 105 zugehörig sind. Die Kontexterkennungseinrichtung 150 dient als Vermittlungseinrichtung für die Ausgabeanzeige 90 und ermittelt, wie und wo die durch die Eingänge 105 empfangene Information angezeigt werden soll.
  • Die Kontexterkennungseinrichtung 150 kann einen Benutzereingang, wie beispielsweise eine Information, die durch eine oder mehrere Mensch-Maschine-Schnittstellen in dem Fahrzeug empfangen wird, erkennen, welcher spezifische Eingänge in eine Mittelkonsole des Fahrzeugs, die durch den Benutzer vorgenommen werden, eine Häufigkeit, wie oft der Benutzer eine spezifische Aufgabe ausführt, wie oft es dem Benutzer nicht gelingt, eine spezifische Aufgabe auszuführen, oder eine beliebige andere Sequenz von Aktionen, die durch das System in Bezug auf die Benutzerinteraktion mit einem fahrzeuginternen System erfasst werden, umfasst. Beispielsweise kann die Kontexterkennungseinrichtung 150 erkennen, dass der Benutzer die Pixilation von Text und/oder Graphiken, die an der Ausgabeanzeige 90 angezeigt werden, auf eine bestimmte Farbe eingestellt hat. Wie es später in Verbindung mit 3 beschrieben wird, kann das System 100 den Text und/oder die Graphiken anpassen (z. B. konturieren, Helligkeit hiervon erhöhen, Farbe hiervon ändern), um Merkmale hervorzuheben.
  • Die Kontexterkennungseinrichtung 150 kann auch externe Eingänge verarbeiten, die durch Sensoren innerhalb und außerhalb des Fahrzeugs empfangen werden. Durch die Kontexterkennungseinrichtung 150 empfangene Daten können Fahrzeugsystem- und -subsystemdaten umfassen, z. B. Daten, die eine Tempomatfunktion angeben. Als Beispiel kann die Kontexterkennungseinrichtung 150 erkennen, wenn sich die Luminanz des Hintergrunds geändert hat (z. B. Sonnenuntergang). Wie es später in Verbindung mit 3 beschrieben wird, kann das System 100 zum Beispiel die Luminanz der Ausgabeanzeige 90 anpassen, um durch den Benutzer unter dämmrigen Bedingungen deutlicher gesehen zu werden.
  • Bei einigen Ausführungsformen werden sowohl interne als auch externe Eingänge gemäß einem Code der Kontexterkennungseinrichtung 150 verarbeitet, um einen Satz von Kontextdaten zu erzeugen, der beim Einstellen oder Anpassen der HUD verwendet wird.
  • Die Kontextdaten, die durch die Kontexterkennungseinrichtung 150 erzeugt werden, können durch das System 100 konstruiert werden und optional in einer Speichereinrichtung 70, z. B. einer entfernten Datenbank, entfernt von dem Fahrzeug und System 100 gespeichert werden. Die in der Kontexterkennungseinrichtung 150 empfangenen Kontextdaten können durch Übertragen eines Kontexterkennungseinrichtungssignals 115 in der Speichereinrichtung 70 gespeichert werden. Die Speichereinrichtung 70 kann sich innerhalb oder außerhalb des Systems 100 befinden.
  • Die in der Speichereinrichtung 70 gespeicherten Daten können verwendet werden, um personalisierte Dienste und Empfehlungen auf der Grundlage des spezifischen Verhaltens des Benutzers bereitzustellen (z. B. Informieren des Benutzers über Straßenbauarbeiten). Die gespeicherten Daten können unter anderem das tatsächliche Verhalten eines spezifischen Benutzers, Sequenzen des Verhaltens des spezifischen Benutzers und die Bedeutung der Sequenzen für den spezifischen Benutzer umfassen.
  • Die Daten werden in der Speichereinrichtung 70 als von einem Computer lesbarer Code durch ein beliebiges bekanntes von einem Computer verwendbares Medium gespeichert, welches einen Halbleiter, eine magnetische Platte, eine optische Platte (wie beispielsweise CD-ROM, DVD-ROM) umfasst, und können durch ein beliebiges Computerdatensignal übertragen werden, welches in einem von einem Computer verwendbaren (z. B. lesbaren) Übertragungsmedium (wie beispielsweise eine Trägerwelle oder ein beliebiges anderes Medium, das ein digitales, ein optisches oder ein Medium auf analoger Basis umfasst) umfasst ist.
  • Die Speichereinrichtung 70 kann die gespeicherten Daten auch durch ein Controllerübertragungssignal 125 an den und von dem Controller 200 übertragen. Zusätzlich kann die Speichereinrichtung 70 verwendet werden, um die Wiederverwendung von geprüften Codefragmenten zu ermöglichen, die auf einen Bereich von Anwendungen innerhalb und außerhalb der Überwachung 100 anwendbar sein könnten.
  • Bei Ausführungsformen, bei denen die Kontexterkennungseinrichtung 150 als Teil des Controllers 200 konstruiert ist, kann das Controllerübertragungssignal 125 Daten übertragen, die sowohl der Kontexterkennungseinrichtung 150 als auch dem Controller 200 zugehörig sind, was das Kontexterkennungseinrichtungssignal 115 unnötig macht.
  • Bei einigen Ausführungsformen trägt die Speichereinrichtung 70 Daten über mehrere Benutzer zusammen. Die zusammengetragenen Daten können von einer Gemeinschaft von Benutzern, deren Verhalten durch das System 100 überwacht werden, abgeleitet werden und können in der Speichereinrichtung 70 gespeichert werden. Das Vorhandensein einer Gemeinschaft von Benutzern ermöglicht der Speichereinrichtung 70, hinsichtlich der zusammengetragenen Anfragen, die über das Signal 125 an den Controller 200 übermittelt werden können, konstant aktualisiert zu werden. Die in der Speichereinrichtung 70 gespeicherten Anfragen können verwendet werden, um personalisierte Dienste und Empfehlungen auf der Grundlage einer großen Menge von Daten, die von mehreren Benutzern protokolliert werden, bereitzustellen.
  • 2 zeigt den Controller 200, der eine anpassbare Hardware ist. Der Controller 200 kann ein Mikrocontroller, ein Mikroprozessor, eine speicherprogrammierbare Steuerung (PLC von programmable logic controller), eine Einrichtung einer komplexen programmierbaren Logik (CPLD von complex programmable logic device), ein feldprogrammierbares Gate-Array (FPGA von field-programmable gate array) oder dergleichen sein. Der Controller kann durch die Verwendung von Codebibliotheken, statischen Analysewerkzeugen, Software, Hardware, Firmware oder dergleichen entwickelt werden. Jede Verwendung von Hardware oder Firmware umfasst einen Grad an Flexibilität und Hochleistungsvermögen, die von einem FPGA zur Verfügung stehen, wobei die Vorteile von speziellen und universalen Systemen kombiniert werden.
  • Der Controller 200 umfasst einen Speicher 210. Der Speicher 210 kann mehrere Kategorien von Software und Daten umfassen, die in dem Controller 200 verwendet werden und Anwendungen 220, eine Datenbank 230, ein Betriebssystem (OS von operating system) 240 und I/O-Einrichtungstreiber 250 umfassen.
  • Wie es Fachleute erkennen werden, kann das OS 240 ein beliebiges Betriebssystem zur Verwendung mit einem Datenverarbeitungssystem sein. Die I/O-Einrichtungstreiber 250 können verschiedene Routinen umfassen, auf die über das OS 240 durch die Anwendungen 220 zugegriffen werden kann, um mit Einrichtungen und bestimmten Speicherkomponenten zu kommunizieren.
  • Die Anwendungen 220 können in dem Speicher 210 und/oder in einer Firmware (nicht gezeigt) als ausführbare Anweisungen gespeichert werden und können durch einen Prozessor 260 ausgeführt werden.
  • Die Anwendungen 220 umfassen verschiedene Programme, wie beispielsweise eine Kontexterkennungseinrichtungssequenz 300 (in 3 gezeigt), die nachstehend beschrieben wird und, wenn sie durch den Prozessor 260 ausgeführt wird, in der Kontexterkennungseinrichtung 150 empfangene Daten verarbeitet.
  • Die Anwendungen 220 können auf Daten, die in der Datenbank 230 gespeichert sind, wie beispielsweise die spezifizierten Parameter, zusammen mit Daten, die z. B. über die I/O-Datenports 270 empfangen werden, angewandt werden. Die Datenbank 230 stellt die statischen und dynamischen Daten dar, die durch die Anwendungen 220, das OS 240, die I/O-Einrichtungstreiber 250 und andere Softwareprogramme, die sich im Speicher 210 befinden können, verwendet werden.
  • Während der Speicher 210 als sich in der Nähe des Prozessors 260 befindend dargestellt ist, sei angemerkt, dass zumindest ein Teil des Speichers 210 ein aus der Ferne zugängliches Speichersystem sein kann, beispielsweise ein Server an einem Kommunikationsnetz, ein entferntes Festplattenlaufwerk, ein entfernbares Speichermedium, Kombinationen hiervon und dergleichen. Somit können beliebige der Daten, Anwendungen und/oder Software, die oben beschrieben sind, in dem Speicher 210 gespeichert sein und/oder kann auf diese über Netzverbindungen mit anderen Datenverarbeitungssystemen (nicht gezeigt) zugegriffen werden, die beispielsweise ein lokales Netz (LAN von local area network), ein Stadtbereichsnetz (MAN von metropolitan area network) oder ein Fernnetz (WAN von wide area network) umfassen können.
  • Es sei angemerkt, dass 2 und die obige Beschreibung eine kurze, allgemeine Beschreibung einer geeigneten Umgebung bereitstellen sollen, in welcher die verschiedenen Aspekte einiger Ausführungsformen der vorliegenden Offenbarung realisiert werden können. Während sich die Beschreibung auf von einem Computer lesbare Anweisungen bezieht, können Ausführungsformen der vorliegenden Offenbarung auch in Kombination mit anderen Programmmodulen und/oder als Kombination aus Hardware und Software zusätzlich zu oder anstatt von von einem Computer lesbaren Anweisungen realisiert sein.
  • Der Begriff ”Anwendung” oder Varianten hiervon wird hierin ausdehnend verwendet, um Routinen, Programmmodule, Programme, Komponenten, Datenstrukturen, Algorithmen und dergleichen zu umfassen. Anwendungen können an verschiedenen Systemkonfigurationen realisiert sein, die Einzelprozessor- oder Multiprozessorsysteme, Minicomputer, Zentralrechner, Personal Computer, in der Hand gehaltene Recheneinrichtungen, mikroprozessorbasierte programmierbare Unterhaltungselektronik, Kombinationen hiervon und dergleichen umfassen.
  • Es werden eine oder mehrere Ausgabeanzeigen 90 verwendet, um dem Benutzer das angepasste Merkmal mitzuteilen. Beispielsweise kann die Ausgabeanzeige 90 eine in das Fahrzeug eingebaute HUD oder ein HUD-Nachrüstsystem sein, wobei die Anzeige auf einen Glaskombinator projiziert wird, der an der Windschutzscheibe angebracht ist.
  • Die Ausgabeanzeige 90 liefert einem Fahrzeuginsassen eine visuelle Information hinsichtlich sich ändernder Merkmale (z. B. Änderung der Position von Objekten, die in einer Umgebung detektiert werden). Beispielsweise kann die Ausgabeanzeige 90 Text, Bilder oder Video in dem Fahrzeug (z. B. Frontscheibe) anzeigen.
  • Die Ausgabeanzeige 90 kann mit auditiven oder taktilen Schnittstellen kombiniert werden, um eine zusätzliche Information für den Benutzer bereitzustellen. Als weiteres Beispiel kann die Ausgabekomponente Audiosprache von Komponenten in dem Fahrzeug (z. B. Lautsprecher) bereitstellen.
  • Das System 100 kann eine oder mehrere andere Einrichtungen und Komponenten in dem System 100 oder zur Unterstützung des Systems 100 umfassen. Zum Beispiel können mehrere Controller verwendet werden, um einen Kontext zu erkennen und Anpassungssequenzen zu erzeugen.
  • Das System 100 wurde im Kontext einer visuellen HUD beschrieben. Jedoch können die Prinzipien des Systems 100 zusätzlich oder alternativ zu dem visuellen Modus auf einen oder mehrere andere Sensormodi (z. B. haptisch und auditiv) angewandt werden. Zum Beispiel kann die Software des Systems 100 ausgestaltet sein, um Übermittlungen an einen Benutzer (z. B. haptische oder auditive Übermittlungen) auf eine Weise oder durch Eigenschaften, die auf den Kontext, wie beispielsweise den Benutzer (z. B. Benutzerattribute, Aktionen oder Zustand) und/oder Umgebungsbedingungen, zugeschnitten sind, zu erzeugen oder zu steuern.
  • Merkmale eines auditiven Ausgangs umfassen z. B. Töne oder verbale Benachrichtigungen. Anpassbare Ausgangsmerkmalseigenschaften hinsichtlich auditiver Merkmale umfassen z. B. Ton, Lautstärke, Muster und Ort (z. B. von welchen Lautsprechern ausgegeben werden soll oder mit welcher Lautstärke Lautsprecher ausgeben sollen).
  • Anpassbare haptische Ausgangsmerkmale umfassen z. B. Vibration, Temperatur und andere geeignete haptische Rückmeldungen. Anpassbare Ausgangsmerkmalseigenschaften hinsichtlich haptischer Merkmale, wie beispielsweise Vibration und Temperatur, umfassen einen Ort (z. B. Lenkrad und/oder Sitz), einen Zeitpunkt oder ein Muster (z. B. Richtung) für den Ausgang an dem/den entsprechenden Teil(en) oder Ort(en), eine Stärke eines haptischen Ausgangs oder andere geeignete haptische oder auditive Eigenschaften).
  • II. Betriebsverfahren – Fig. 3
  • 3 ist ein Flussdiagramm, das Verfahren zur Durchführung einer Kontexterkennungseinrichtungssequenz 300 darstellt.
  • Es ist zu verstehen, dass die Schritte der Verfahren nicht notwendigerweise in einer bestimmten Reihenfolge dargestellt werden müssen, und dass die Durchführung einiger oder aller Schritte in einer alternativen Reihenfolge, auch in diesen Figuren, möglich ist und in Betracht gezogen wird.
  • Zur Vereinfachung der Beschreibung und Darstellung wurden die Schritte in der erläuterten Reihenfolge dargestellt. Es können Schritte hinzugefügt, weggelassen und/oder gleichzeitig durchgeführt werden, ohne von dem Schutzumfang der beigefügten Ansprüche abzuweichen. Es ist auch zu verstehen, dass das dargestellte Verfahren oder die dargestellten Unterverfahren zu jedem Zeitpunkt enden kann/können.
  • Bei bestimmten Ausführungsformen werden einige oder alle Schritte dieses Prozesses, und/oder im Wesentlichen äquivalente Schritte, durch einen Prozessor, z. B. einen Computerprozessor, durchgeführt, wobei von einem Computer ausführbare Anweisungen ausgeführt werden, die einem oder mehreren entsprechenden Algorithmen entsprechen, und zugehörige unterstützende Daten an einem von einem Computer lesbaren Medium, wie beispielsweise einem beliebigen der oben beschriebenen von einem Computer lesbaren Speicher einschließlich des entfernten Servers und Fahrzeugen, gespeichert oder umfasst sind.
  • Die Sequenz 300 beginnt mit dem Empfangen der Eingänge 105 durch das System 100 in Schritt 310. Die Software kann über den Controller 200 initiiert werden. Die Eingänge 105 können in dem System 100 gemäß einem beliebigen verschiedener Zeitprotokolle, beispielsweise kontinuierlich oder nahezu kontinuierlich, oder zum Beispiel in spezifischen Zeitintervallen (z. B. alle zehn Sekunden), empfangen werden. Die Eingänge 105 können alternativ auf der Grundlage eines vorbestimmten Auftretens von Ereignissen (z. B. Aktivierung der Ausgabeanzeige 90, oder einer vorbestimmten Bedingung, wie beispielsweise, dass ein Schwellenwertniveau einer Helligkeit zusätzlich zum Fahrzeug erfasst wird, empfangen werden.
  • Als nächstes empfängt das System 100 in Schritt 320 einen oder mehrere der Eingänge 105 in der Kontextempfangseinrichtung 150. Bei einigen Ausführungsformen können die Eingänge 105 ein ursprüngliches Merkmal enthalten, das dem Benutzer an der Ausgabeanzeige 90 angezeigt werden kann. Bei anderen Ausführungsformen kann das ursprüngliche Merkmal in der Kontextempfangseinrichtung 150 erzeugt werden. Die Eingänge 105 werden bei einigen Ausführungsformen basierend auf dem Typ des Eingangs verarbeitet (z. B. gespeichert und verwendet).
  • Beispielsweise können Daten von Fahrzeugbewegungssensoren (z. B. Geschwindigkeit, Beschleunigung und GPS-Sensoren) in einem Abschnitt der Kontexterkennungseinrichtung 150, der Fahrzeugzustandsdaten erkennt, empfangen werden. Spezielle Sensoren (z. B. Radarsensoren) würden in einem Abschnitt der Kontexterkennungseinrichtung, der die spezifische Eigenschaft der Kamera erkennt, empfangen werden. Zum Beispiel könnte eine Radarsensorinformation in einem System wie beispielsweise einem Fahrerassistenzsystem (ADAS von advanced driver assistance system) empfangen werden.
  • Physiologische Sensoren (z. B. Blinzelfrequenzsensoren) würden in einem Abschnitt der Kontexterkennungseinrichtung 150, der Benutzerzustandsdaten erkennt, empfangen werden.
  • Eine Information von externen Fahrzeugsensoren (z. B. Verkehrssensoren, Wettersensoren, Sensoren eines visuellen Editors) würden in einem Abschnitt der Kontexterkennungseinrichtung 150, der Daten der äußeren Umgebung erkennt, empfangen werden.
  • Eine Information von Szenenkameras (z. B. vorne und/oder hinten angebrachte Kameras) würde in einem Abschnitt der Kontexterkennungseinrichtung 150, der Daten der äußeren Umgebung, Bilddaten und/oder Szenendaten erkennt, empfangen werden. Eine Information von speziellen Kameras (z. B. Infrarotkameras) würde in einem Abschnitt der Kontexterkennungseinrichtung 150, der die spezifische Eigenschaft der Kamera erkennt, empfangen werden. Zum Beispiel kann eine Infrarotkamera eine Information aufweisen, die in einem Nachtsicht-Bildgebungssystem (NVIS von night vision imaging system) empfangen wird.
  • Als nächstes ermittelt das System 100 in Schritt 330 gemäß der Sequenz 300, ob das ursprüngliche Merkmal, das in der Kontextempfangseinrichtung 150 empfangen und/oder durch diese erzeugt wurde, auf der Grundlage der Kontextdaten angepasst werden sollte. Das ursprüngliche Merkmal muss möglicherweise auf der Grundlage eines der Eingänge 105 angepasst werden. Zum Beispiel muss das ursprüngliche Merkmal möglicherweise auf der Grundlage der Benutzerzustandsbedingungen 10 angepasst werden.
  • Wenn eine Anpassung des ursprünglichen Merkmals nicht notwendig ist (z. B. Pfad 332), ist die Unterstützung des Systems 100 nicht erforderlich. Wenn der Benutzer beispielsweise die Geschwindigkeit verringert, um zu einer Tankstelle abzubiegen (wie es z. B. aus einer Information an einem GPS erkannt wird), ist es möglicherweise nicht notwendig, dass das System 100 für den Benutzer einen Alarm bezüglich eines niedrigen Kraftstoffstands darstellt.
  • Wenn die Anpassung des ursprünglichen Merkmals nicht notwendig ist (z. B. Pfad 332), wird das ursprüngliche Merkmal für den Benutzer ohne Bearbeitung dargestellt. Bei einer Ausführungsform ermittelt das System 100 jedoch zuerst in Schritt 350 oder an einer anderen Stelle in der Sequenz 300, ob ein beabsichtigter Anzeigeort (z. B. eine Position auf der Fahrerseite einer Windschutzscheibe) beeinträchtigt ist. Der Anzeigeort kann beeinträchtigt sein, wenn der Benutzer die Information nicht leicht sehen kann. Zum Beispiel kann die vordere Fahrerseite der Windschutzscheibe beeinträchtigt sein, wenn während des Sonnenaufgangs in eine östliche Richtung gefahren wird.
  • Falls eine Anpassung des ursprünglichen Merkmals als notwendig ermittelt wird (z. B. Pfad 334), wird das ursprüngliche Merkmal auf der Grundlage der Kontextdaten in Schritt 340 angepasst. Eine Anpassung des ursprünglichen Merkmals kann durch den Controller 200 erfolgen, der einen Satz von Codeanweisungen ausführt, die beispielsweise in dem Controller 200 oder der Speichereinrichtung 70 gespeichert sind.
  • Die Codeanweisungen sind ein Satz von vorbestimmten Regeln, die, wenn sie durch den Controller 200 ausgeführt werden, ein angepasstes Merkmal erzeugen, das für den Benutzer dargestellt werden kann. Das angepasste Merkmal kann auf Kontextdaten von den Benutzerzustandsbedingungen 10, den Wetterbedingungen 20, den Luminanzbedingungen 30, den Chromatizitätsbedingungen 40, den Verkehrsbedingungen 50 und den Navigationsbedingungen 60 basieren.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Benutzerzustandsbedingungen 10 erzeugen. Als Beispiel kann das System 100, wenn der Benutzer den linken Blinker des Fahrzeugs setzt, Unternehmen (z. B. Restaurants, Tankstellen) hervorheben (z. B. visuell markieren, akustisch sprechen), die erscheinen werden, wenn das Abbiegen ausgeführt wird. Als ein anderes Beispiel kann das System 100, wenn der Benutzer durch eine sekundäre Aufgabe (z. B. Telefonanruf, Radioeinstellung, Durchsehen des Menüs, Gespräch mit einem Fahrgast) abgelenkt wird, Schriften vergrößern oder die Anzeige ändern, um die Aufmerksamkeit des Benutzers zu erhalten.
  • Ferner bewertet das System 100 die Benutzerzustandsbedingungen 10 in der vorderen Szene hinsichtlich Gefahren und markiert es diese Gefahren, wenn das System 100 ermittelt, dass der Benutzer nicht in der gleichen Weise wie ein automatisiertes System die Gefahren wahrgenommen und darauf reagiert hat. Als Beispiel kann das System 100, wenn der Benutzer nicht beginnt, die Bremsen zu betätigen, wenn ein Ball auf die Straße rollt, den Ball markieren, um das Objekt in ein Wahrnehmungsfeld des Benutzers zu bringen, wenn es durch die Ausgabeanzeige 90 angezeigt wird.
  • Die HUD kann bei einigen Ausführungsformen Komponenten umfassen, die mit virtueller oder erweiterter Realität (AR von augmented reality) in Verbindung stehen. Wenn das System 100 Benutzerzustandsbedingungen 10 wahrnimmt, kann das System 100 die AR verändern, um angepasste Merkmale für den Benutzer bereitzustellen. Wenn zum Beispiel der Benutzer nicht die Geschwindigkeit verringert (z. B. nahe 0 Meilen pro Stunde), wenn er sich einem Stoppschild nähert, kann das System 100 das Stoppschild markieren, um es für den Fahrer erkennbar zu machen. Umgekehrt entscheidet sich das System 100, wenn der Benutzer die Geschwindigkeit des Fahrzeugs verringert, möglicherweise nicht dazu, das Stoppschild nicht zu markieren. Als weiteres Beispiel kann das System 100, wenn der Benutzer den linken Blinker des Fahrzeugs setzt, Unternehmen (z. B. Restaurants, Tankstellen) hervorheben, die erscheinen werden, wenn das Abbiegen ausgeführt wird. Die HUD kann einen Pfeil umfassen, der nach links zeigt, wobei die Pfeilspitze tatsächlich auf das tatsächliche Gebäude aus der Fahrerperspektive zeigt.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Wetterbedingungen 20 erzeugen. Als ein Beispiel kann auf nassen Straßen ein Indikator für sichere Geschwindigkeiten, Radschlupf und Nichtnutzung von Tempomatsystemen in dem System 100 angepasst und an der Ausgabeanzeige 90 angezeigt werden.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Luminanzbedingungen 30 erzeugen. Zum Beispiel können bei der Einfahrt in einen Tunnel die Luminanz der Ausgabeanzeige 90 gedimmt werden und eine Tunnelsicherheitsinformation angegeben werden. Eine Sicherheitsinformation, wie beispielsweise eine geeignete Distanz, um einem vorausfahrenden Fahrzeug zu folgen, kein Hupen und keine Spurwechsel, kann in dem System 100 angepasst und als Indikatoren an der Ausgabeanzeige 90 angezeigt werden. Außerdem kann das System 100, wenn der übliche Ort der Ausgangsinformation beeinträchtigt ist (z. B. Fahren in einen Sonnenuntergang), die Information an einer alternativen Position darstellen.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Chromatizitätsbedingungen 40 erzeugen. Eine angezeigte Information (z. B. Text und/oder Graphik) kann mit einer Chromatizität angepasst und/oder skizziert werden, die von der Chromatizität des Umgebungshintergrunds unterscheidbar ist. Als ein erläuterndes Beispiel, bei dem Schnee die Straße bedeckt, kann eine angezeigte Information (z. B. Text und/oder Graphik) an der Ausgabeanzeige 90, die normalerweise weiß dargestellt wird, in eine sichtbarere Farbe (z. B. grün) angepasst werden. Auf ähnliche Weise kann eine angezeigte Information, die normalerweise grün dargestellt wird, in weiß oder eine andere sichtbarere Farbe angepasst werden, wenn grüne Bäume im Hintergrund erscheinen.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Verkehrsbedingungen 50 erzeugen. Wenn zum Beispiel das System 100 ermittelt, dass der Straßenverkehr wahrscheinlich zunimmt (z. B. in der Hauptverkehrszeit oder bei einem massenhaften Verlassen von einer Sportveranstaltung), kann das [engl.: ”they”] System 100 einen Verkehrsänderungsstrategieindikator anpassen und den Indikator an der Ausgabeanzeige 90 anzeigen, um dem Fahrer zu ermöglichen, Maßnahmen zu treffen, um einem plötzlichen Auftreten von Verkehr auszuweichen.
  • Bei einigen Ausführungsformen kann der Satz von Codeanweisungen, der durch den Controller 200 ausgeführt wird, das angepasste Merkmal basierend auf den Navigationsbedingungen 60 erzeugen. Zum Beispiel kann einem Bus eine Touristenattraktion dargestellt werden, wenn der Bus in eine bestimmte Entfernung zu der Attraktion gelangt. An dieser Stelle können die Codeanweisungen, die durch den Controller 200 ausgeführt werden, auch das angepasste Merkmal basierend auf dem Zeitpunkt oder Auftreten einer bestimmten Aufgabe, wie beispielsweise die Nähe zu der Attraktion, erzeugen.
  • Der Satz von Codeanweisungen in dem System 100 kann durch einen relevanten Bereich ermittelt werden. Wenn das System 100 zum Beispiel einer Schiffsumgebung zugehörig ist, kann der relevante Bereich angepasste Merkmale umfassen, die z. B. maximalen Kurssteuerparametern zugehörig sind. Als weiteres Beispiel, bei dem das System 100 Baumaschinen zugehörig ist, kann der relevante Bereich angepasste Merkmale umfassen, die z. B. Geräten und/oder Markierungen von Versorgungsdienstleistungsunternehmen zugehörig sind.
  • Sobald ein Anpassen erfolgt ist, ist das angepasste Merkmal dann bereit, für den Benutzer dargestellt zu werden. Wie oben erwähnt ermittelt das System 100 in Schritt 350, ob ein beabsichtigter Anzeigeort (z. B. Fahrerseite einer Windschutzscheibe) beeinträchtigt ist.
  • Wenn keine Beeinträchtigung vorliegt (z. B. Pfad 352), wird das ursprüngliche Merkmal oder das angepasste Merkmal, wenn erforderlich, in Schritt 360 an dem ursprünglichen Anzeigeort angezeigt.
  • Wenn eine Beeinträchtigung vorliegt (z. B. Pfad 354), wird das ursprüngliche Merkmal oder das angepasste Merkmal in Schritt 370 an einem alternativen Anzeigeort angezeigt. Der alternative Anzeigeort kann ein Ort sein, der für den Fahrer leicht zu sehen ist. Der alternative Anzeigeort sollte ermöglichen, dass der Inhalt der dargestellten Information ohne weiteres für den Benutzer zu sehen ist. Beispielsweise kann das System 100 bei einer lichtdurchlässigen Anzeige-HUD, wenn die Fahrerseite der Windschutzscheibe beeinträchtigt ist, wenn bei Sonnenaufgang in östliche Richtung gefahren wird, wählen, die Projektion auf der Beifahrerseite der Windschutzscheibe erfolgen zu lassen.
  • Ein Anzeigen an dem alternativen Ort kann auch Änderungen der Eigenschaften der Projektion umfassen, die unter anderem Schriftart der Anzeige, bei der Anzeige verwendete Farben, umfassen.
  • Die Darstellung des ursprünglichen Merkmals oder des angepassten Merkmals kann an einer oder mehreren Ausgabeeinrichtungen (z. B. Ausgabeanzeige 90 für eine HUD) erfolgen.
  • Bei einer Ausführungsform ist die Ermittlung des beabsichtigten Anzeigeorts (z. B. Schritt 350) nicht vorhanden. Bei einer anderen Ausführungsform ist der Anzeigeort eine anpassbare Eigenschaft des Merkmals (z. B. Farbe und/oder Helligkeit) und umfasst die Operation der Ermittlung, ob das ursprüngliche Merkmal modifiziert werden sollte (z. B. Schritt 330), das Ermitteln, ob ein Anzeigeort für das Merkmal modifiziert werden sollte. Bei dieser Realisierung würde das Anpassen des Merkmals in Schritt 340 das Ändern eines Anzeigeorts für. das Merkmal umfassen, wenn dies in Schritt 330 als geeignet oder notwendig ermittelt wird. Sobald das ursprüngliche Merkmal in Schritt 340 angepasst wurde, wenn erforderlich, wird das angepasste Merkmal für den Benutzer wie oben erläutert an einem Ausgabeort dargestellt.
  • III. Ausgewählte Merkmale
  • Viele Merkmale der vorliegenden Technologie wurden hierin oben beschrieben. Der vorliegende Teilabschnitt stellt zusammenfassend einige ausgewählte Merkmale der vorliegenden Technologie dar. Es ist zu verstehen, dass der vorliegende Teilabschnitt nur einige der vielen Merkmale der Technologie hervorhebt, und dass die folgenden Absätze nicht einschränkend zu verstehen sind.
  • Ein Vorteil der vorliegenden Technologie ist, dass das System eine Information darstellt, die für den aktuellen Fahrkontext relevant ist. In früheren Systemen sind Bildprojektionen eines statischen Formats möglich, nicht jedoch eine kontextbasierte Information. Das Darstellen einer Kontextinformation (z. B. Kontextdaten) kann dem HUD-System einen erheblichen Nutzen (z. B. Relevanz, reduzierte Störung) hinzufügen.
  • Ein weiterer Vorteil der vorliegenden Technologie ist, dass das System optische Attribute der HUD dynamisch anpasst/angleicht. Eine Anpassung/Angleichung kompensiert eine Kontextinformation und kann das visuelle Verständnis der dargestellten Bilder durch den Benutzer erhöhen, was zu einer optimierten HUD-Nutzbarkeit führt.
  • IV. Schlussbemerkung
  • Hierin werden verschiedene Ausführungsformen der vorliegenden Offenbarung offenbart. Die offenbarten Ausführungsformen sind lediglich Beispiele, die in verschiedenen und alternativen Formen und Kombinationen hiervon ausgeführt sein können.
  • Die oben beschriebenen Ausführungsformen sind lediglich beispielhafte Erläuterungen von Realisierungen, die für ein deutliches Verständnis der Prinzipien der Offenbarung ausgeführt werden.
  • An den oben beschriebenen Ausführungsformen können Änderungen, Modifikationen und Kombinationen vorgenommen werden, ohne von dem Schutzumfang der Ansprüche abzuweichen. Alle solchen Änderungen, Modifikationen und Kombinationen sind hierin durch den Schutzumfang dieser Offenbarung und die folgenden Ansprüche umfasst.

Claims (10)

  1. Von einem Computer lesbare Speichereinrichtung, die Anweisungen umfasst, die, wenn sie durch einen Prozessor ausgeführt werden, bewirken, dass der Prozessor Operationen durchführt, die einem Bereitstellen eines kontextbasierten Ausgangsmerkmals für einen Fahrzeugbenutzer zugehörig sind, umfassend: Empfangen von Eingangsdaten, die eine Kontextdatenkomponente umfassen, die eine Umgebungsbedingung und/oder eine die Physiologie des Benutzers betreffende Bedingung angibt; Ermitteln, basierend auf den Eingangsdaten, einer Art und Weise, auf die eine Eigenschaft eines Benachrichtigungsmerkmals anzupassen ist, um das Benachrichtigungsmerkmal hervorzuheben; und Anpassen der Eigenschaft gemäß der Art und Weise, die ermittelt wurde, um das Benachrichtigungsmerkmal hervorzuheben, wodurch das kontextbasierte Ausgangsmerkmal geliefert wird.
  2. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei: die Operationen ferner umfassen, dass die Eigenschaft des anzupassenden Benachrichtigungsmerkmals basierend auf den Eingangsdaten identifiziert wird; und die Ermittlungsoperation in Ansprechen auf die Identifizierungsoperation durchgeführt wird.
  3. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei: die Ermittlungsoperation eine zweite Ermittlungsoperation ist; die Operationen ferner umfassen, dass bei einer ersten Ermittlungsoperation ermittelt wird, ob das Ausgangsmerkmal angepasst werden sollte; und die zweite Ermittlungs- und Anpassungsoperation in Ansprechen auf das Ermitteln bei der ersten Ermittlungsoperation, dass das Benachrichtigungsmerkmal angepasst werden sollte, durchgeführt werden.
  4. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei: die Eigenschaft eine Anzeigeposition umfasst; die Ermittlungsoperation umfasst, dass ermittelt wird, wie die Anzeigeposition des Benachrichtigungsmerkmals anzupassen ist, um das Benachrichtigungsmerkmal hervorzuheben; und die Anpassungsoperation umfasst, dass die Anzeigeposition angepasst wird, um das kontextbasierte Ausgangsmerkmal zu liefern.
  5. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei die Operationen ferner umfassen, dass eine Anzeigeposition für das kontextbasierte Ausgangsmerkmal ermittelt wird.
  6. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei die Eigenschaft zumindest eine visuelle Eigenschaft umfasst, die aus einer Gruppe ausgewählt wird, die aus Farbe, Gewicht, Anzeigeposition, Helligkeit, Struktur und Kontrast besteht.
  7. Von einem Computer lesbare Speichereinrichtung nach Anspruch 1, wobei die Eigenschaft (i) zumindest eine haptische Eigenschaft aus einer Gruppe bestehend aus Vibration, Temperatur, Muster und Ort oder (ii) zumindest eine auditive Eigenschaft, die aus einer Gruppe ausgewählt wird, die aus Ton, Lautstärke, Muster und Ort besteht, umfasst.
  8. System, umfassend: einen Prozessor; und eine von einem Computer lesbare Speichereinrichtung, die Anweisungen umfasst, die, wenn sie durch den Prozessor ausgeführt werden, bewirken, dass der Prozessor Operationen durchführt, um ein kontextbasiertes Ausgangsmerkmal für einen Fahrzeugbenutzer bereitzustellen, umfassend: Empfangen von Eingangsdaten, die eine Kontextdatenkomponente umfassen, die eine Umgebungsbedingung und/oder eine die Physiologie des Benutzers betreffende Bedingung angibt; Ermitteln, basierend auf den Eingangsdaten, einer Art und Weise, auf die eine Eigenschaft eines Benachrichtigungsmerkmals anzupassen ist, um das Benachrichtigungsmerkmal hervorzuheben; und Anpassen der Eigenschaft gemäß der Art und Weise, die ermittelt wurde, um das Benachrichtigungsmerkmal hervorzuheben, wodurch das kontextbasierte Ausgangsmerkmal geliefert wird.
  9. System nach Anspruch 8, wobei: die Operationen ferner umfassen, dass die Eigenschaft des anzupassenden Benachrichtigungsmerkmals basierend auf den Eingangsdaten identifiziert wird; und die Ermittlungsoperation in Ansprechen auf die Identifizierungsoperation durchgeführt wird.
  10. Verfahren zum Bereitstellen eines kontextbasierten Ausgangsmerkmals für einen Fahrzeugbenutzer unter Verwendung von Anweisungen, umfassend: Empfangen, durch ein System, das einen Prozessor umfasst, von Eingangsdaten, die eine Kontextdatenkomponente umfassen, die eine Umgebungsbedingung und/oder eine die Physiologie des Benutzers betreffende Bedingung angibt; und Ermitteln, basierend auf den Eingangsdaten, einer Art und Weise, auf die eine Eigenschaft eines Benachrichtigungsmerkmals anzupassen ist, um das Benachrichtigungsmerkmal hervorzuheben; und Anpassen, durch das System, der Eigenschaft gemäß der Art und Weise, die ermittelt wurde, um das Benachrichtigungsmerkmal hervorzuheben, wodurch das kontextbasierte Ausgangsmerkmal geliefert wird.
DE102015117381.6A 2014-10-15 2015-10-13 Systeme und Verfahren zum Anpassen von Merkmalen in einer Head-Up-Anzeige Withdrawn DE102015117381A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/514,664 2014-10-15
US14/514,664 US20160109701A1 (en) 2014-10-15 2014-10-15 Systems and methods for adjusting features within a head-up display

Publications (1)

Publication Number Publication Date
DE102015117381A1 true DE102015117381A1 (de) 2016-04-21

Family

ID=55638104

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015117381.6A Withdrawn DE102015117381A1 (de) 2014-10-15 2015-10-13 Systeme und Verfahren zum Anpassen von Merkmalen in einer Head-Up-Anzeige

Country Status (3)

Country Link
US (1) US20160109701A1 (de)
CN (1) CN105527709B (de)
DE (1) DE102015117381A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018203121A1 (de) 2018-03-02 2019-09-05 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019170387A1 (de) 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102018108200B4 (de) 2017-05-04 2023-01-19 Toyota Research Institute, Inc. Systeme und Verfahren zur Verringerung von Aufmerksamkeitsverminderung während die Bereitschaft beibehalten wird mittels Augmented Reality in einem Fahrzeug

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105324268A (zh) * 2013-04-25 2016-02-10 通用汽车环球科技运作有限责任公司 处境获知系统和方法
US10520724B2 (en) * 2016-01-29 2019-12-31 Automotive Visual Technologies, Llc Multi-wavelength head up display systems and methods
US10451435B2 (en) * 2016-06-03 2019-10-22 Panasonic Automotive Systems Company of America, Division of Panasonic of North American Method of using GPS map information to highlight road markings on a head up display that otherwise may be non-visible due to inclement weather
CN106200918B (zh) * 2016-06-28 2019-10-01 Oppo广东移动通信有限公司 一种基于ar的信息显示方法、装置和移动终端
CN109416733B (zh) 2016-07-07 2023-04-18 哈曼国际工业有限公司 便携式个性化
CN107784864A (zh) * 2016-08-26 2018-03-09 奥迪股份公司 车辆辅助驾驶方法及系统
DE102016011354A1 (de) 2016-09-20 2018-03-22 Liebherr-Werk Biberach Gmbh Steuerstand für einen Kran, Bagger und dergleichen
TW201836890A (zh) * 2017-03-31 2018-10-16 育全 李 透過複數第一圖案顯示行動載具之一內部狀況之方法
US10377212B2 (en) * 2017-08-11 2019-08-13 The Boeing Company Dynamic anti-glare system for a windshield of a vehicle
US10235122B1 (en) 2017-09-21 2019-03-19 Qualcomm Incorporated Transitioning displays in autonomous vehicles to increase driver attentiveness
DE102017221488A1 (de) 2017-11-30 2019-06-06 Volkswagen Aktiengesellschaft Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
CN109074685B (zh) * 2017-12-14 2021-02-26 深圳市大疆创新科技有限公司 用于调整图像的方法、设备、系统和计算机可读存储介质
JP6991905B2 (ja) * 2018-03-19 2022-01-13 矢崎総業株式会社 ヘッドアップディスプレイ装置
CN108829364A (zh) * 2018-06-19 2018-11-16 浙江水晶光电科技股份有限公司 平视显示器的调节方法、移动终端及服务器
US11227366B2 (en) * 2018-06-22 2022-01-18 Volkswagen Ag Heads up display (HUD) content control system and methodologies
US10562539B2 (en) 2018-07-10 2020-02-18 Ford Global Technologies, Llc Systems and methods for control of vehicle functions via driver and passenger HUDs
CN112384400B (zh) * 2018-07-10 2024-02-06 三菱电机株式会社 车载显示控制装置以及计算机可读记录介质
US11427216B2 (en) * 2019-06-06 2022-08-30 GM Global Technology Operations LLC User activity-based customization of vehicle prompts
DE102019122632A1 (de) * 2019-08-22 2021-02-25 Bayerische Motoren Werke Aktiengesellschaft Anzeigesystem für ein Kraftfahrzeug
US11454813B2 (en) 2019-11-07 2022-09-27 GM Global Technology Operations LLC Holographic display systems with polarization correction and distortion reduction providing enhanced image quality
US11016308B1 (en) 2019-12-11 2021-05-25 GM Global Technology Operations LLC Nanoparticle doped liquid crystal device for laser speckle reduction
US11243408B2 (en) 2020-02-05 2022-02-08 GM Global Technology Operations LLC Speckle contrast reduction including high-speed generation of images having different speckle patterns
JPWO2021187461A1 (de) * 2020-03-17 2021-09-23
US11480789B2 (en) 2020-08-27 2022-10-25 GM Global Technology Operations LLC Speckle-reduced direct-retina holographic projector including multiple spatial light modulators
US11833901B2 (en) * 2020-10-12 2023-12-05 GM Global Technology Operations LLC System and method for adjusting a location and distortion of an image projected onto a windshield of a vehicle by a head-up display
CN114339171B (zh) * 2021-04-19 2023-08-11 阿波罗智联(北京)科技有限公司 控制方法、装置、设备和存储介质
US11880036B2 (en) 2021-07-19 2024-01-23 GM Global Technology Operations LLC Control of ambient light reflected from pupil replicator

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004108466A1 (en) * 2003-06-06 2004-12-16 Volvo Technology Corporation Method and arrangement for controlling vehicular subsystems based on interpreted driver activity
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
US8912978B2 (en) * 2009-04-02 2014-12-16 GM Global Technology Operations LLC Dynamic vehicle system information on full windshield head-up display
JP5646923B2 (ja) * 2010-09-03 2014-12-24 矢崎総業株式会社 車両用表示装置及び車両用表示システム
JP2014531662A (ja) * 2011-09-19 2014-11-27 アイサイト モバイル テクノロジーズ リミテッド 拡張現実システムのためのタッチフリーインターフェース
US20160054563A9 (en) * 2013-03-14 2016-02-25 Honda Motor Co., Ltd. 3-dimensional (3-d) navigation
US9223135B2 (en) * 2013-08-20 2015-12-29 Denso International America, Inc. Head-up display and method with light intensity output monitoring
KR101534700B1 (ko) * 2013-10-10 2015-07-07 현대자동차 주식회사 자동차의 경고 상황 알림 방법 및 시스템

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108200B4 (de) 2017-05-04 2023-01-19 Toyota Research Institute, Inc. Systeme und Verfahren zur Verringerung von Aufmerksamkeitsverminderung während die Bereitschaft beibehalten wird mittels Augmented Reality in einem Fahrzeug
DE102018203121A1 (de) 2018-03-02 2019-09-05 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
WO2019166222A1 (de) 2018-03-02 2019-09-06 Volkswagen Aktiengesellschaft Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102018203121B4 (de) 2018-03-02 2023-06-22 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
US11904688B2 (en) 2018-03-02 2024-02-20 Volkswagen Aktiengesellschaft Method for calculating an AR-overlay of additional information for a display on a display unit, device for carrying out the method, as well as motor vehicle and computer program
WO2019170387A1 (de) 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Einblendung von zusatzinformationen auf einer anzeigeeinheit
DE102018203462A1 (de) 2018-03-07 2019-09-12 Volkswagen Aktiengesellschaft Verfahren zur Berechnung einer Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
US11486726B2 (en) 2018-03-07 2022-11-01 Volkswagen Aktiengesellschaft Overlaying additional information on a display unit

Also Published As

Publication number Publication date
CN105527709A (zh) 2016-04-27
US20160109701A1 (en) 2016-04-21
CN105527709B (zh) 2019-08-27

Similar Documents

Publication Publication Date Title
DE102015117381A1 (de) Systeme und Verfahren zum Anpassen von Merkmalen in einer Head-Up-Anzeige
DE102015214744B4 (de) Head-up-Display-System und Verfahren zum Kalibrieren eines Head-up-Display-Systems
DE102017221191B4 (de) Verfahren zur Anzeige des Verlaufs einer Sicherheitszone vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm
DE112014003145B4 (de) Head-Up-Anzeige und Programm
EP3717954B1 (de) Verfahren zur anzeige des verlaufs einer trajektorie vor einem fahrzeug oder einem objekt mit einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens
DE102019115783A1 (de) Kollisionsverhinderung für ein verbundenes fahrzeug auf der grundlage eines digitalen verhaltenszwillings
EP3762684A1 (de) Einblendung von zusatzinformationen auf einer anzeigeeinheit
EP3425442B1 (de) Verfahren und vorrichtung zum anreichern eines sichtfeldes eines fahrers eines fahrzeuges mit zusatzinformationen, vorrichtung zur verwendung in einem beobachter-fahrzeug sowie kraftfahrzeug
DE102011083770A1 (de) Verfahren zur rechnergestützten Verarbeitung des Nahfeldes eines Fahrzeugs
DE102015117224A1 (de) Systeme und Verfahren zur Verwendung bei einem Fahrzeug, das eine Augenverfolgungsvorrichtung enthält
DE102015117623A1 (de) Systeme und Verfahren zur Verwendung bei einem Fahrzeug, das eine Augenverfolgungsvorrichtung enthält
EP3543059A1 (de) Verfahren zur berechnung einer einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102017212367B4 (de) Vorrichtung zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit sowie Kraftfahrzeug
DE102012210128A1 (de) Verfahren und Anzeigeeinrichtung zum Anzeigen eines Fahrzustands eines Fahrzeugs
DE102011121763B4 (de) Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeugs und Anzeigevorrichtung
DE102013000131A1 (de) Feedbacksystem für ein Kraftfahrzeug und Verfahren zum Bereitstellen eines Feedbacks
EP3759694A1 (de) Verfahren zur berechnung einer ar-einblendung von zusatzinformationen für eine anzeige auf einer anzeigeeinheit, vorrichtung zur durchführung des verfahrens sowie kraftfahrzeug und computerprogramm
DE102015210780A1 (de) Verfahren und Steuereinheit zur Kommunikation zwischen einem autonomen Fahrzeug und einem Insassen
DE102014217473A1 (de) Verfahren und system zur reduzierung des bremsens für verkehrsampeln
EP2888623B1 (de) Betreiben eines head-up-displays eines fahrzeugs und bildermittlungssystem für das head-up-display
DE102012220100A1 (de) Verfahren und Informationsgerät zum Darstellen von einer Fahrerinformation auf einer Blickfeldanzeige für ein Fahrzeug
DE102005037288A1 (de) Verfahren zur kontextbasierten Auswahl von Informationen sowie Verfahren zu deren Darstellung
DE102017101342A1 (de) Fahrzeugautomatisierung und vorhersage für einen bediener-eingriffspegel
EP3959647B1 (de) Lagerichtige einblendung einer zusatzinformation auf einer anzeigeeinheit eines fahrzeugs
DE102019111759A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee