DE102011050942A1 - Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking - Google Patents

Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking Download PDF

Info

Publication number
DE102011050942A1
DE102011050942A1 DE102011050942A DE102011050942A DE102011050942A1 DE 102011050942 A1 DE102011050942 A1 DE 102011050942A1 DE 102011050942 A DE102011050942 A DE 102011050942A DE 102011050942 A DE102011050942 A DE 102011050942A DE 102011050942 A1 DE102011050942 A1 DE 102011050942A1
Authority
DE
Germany
Prior art keywords
user
visual
interface
sensor
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011050942A
Other languages
English (en)
Inventor
Dinu Petre Madau
Jill Baty
John Robert III Balint
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Visteon Global Technologies Inc
Original Assignee
Visteon Global Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Visteon Global Technologies Inc filed Critical Visteon Global Technologies Inc
Publication of DE102011050942A1 publication Critical patent/DE102011050942A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/213Virtual instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Ein adaptives Schnittstellensystem weist eine Benutzerschnittstelle auf, die einen visuellen Ausgang bereitstellt, sowie einen Sensor zur Erfassung des Sichtmerkmals eines Benutzers und die ein Sensorsignal erzeugt, das das Sichtmerkmal abbildet, sowie einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und das dadurch gekennzeichnet ist, dass der Prozessor das Sensorsignal empfängt und das Sensorsignal basierend auf dem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal des Benutzers rekonfiguriert und zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorhebt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich allgemein auf eine rekonfigurierbare Anzeige. Insbesondere bezieht sich die Erfindung auf ein adaptives Schnittstellensystem und ein Verfahren zur Rekonfigurierung einer Anzeige basierend auf einem Tracking des Benutzers.
  • ALLGEMEINER STAND DER TECHNIK
  • Derzeit kommen Eyetracker und Eyetracking-Verfahren in Kraftfahrzeugen zur Anwendung, um müdigkeitsbedingtes und fehlerhaftes Fahrerverhalten zu erfassen sowie um eine handlose Steuerung gewisser Fahrzeugsysteme zu ermöglichen.
  • Jedoch umfassen konventionelle bordeigene Benutzerschnittstellen und Kombi-Instrumente komplexe Anzeigen mit mehreren visuellen Ausgängen, die hierauf abgebildet werden. Weiter enthalten konventionelle bordeigene Benutzerschnittstellen eine Vielzahl benutzeraktivierbarer Funktionen in der Form visueller Ausgänge, wie beispielsweise Schaltflächen, Symbole und Menüs. Die verschiedenen visuellen Ausgänge, die einem Fahrzeugführer angezeigt werden, können ablenkend sein und die Aufmerksamkeit des Fahrers häufig von der primären zu verrichtenden Aufgabe ablenken (beispielsweise dem Führen des Fahrzeugs).
  • Es wäre daher wünschenswert, eine adaptive Benutzerschnittstelle zu entwickeln, die dadurch gekennzeichnet ist, dass ein visueller Ausgang einer Benutzerschnittstelle automatisch jeweils basierend auf einem Sichtmerkmal eines Benutzers konfiguriert wird, um den visuellen Ausgang innerhalb eines Fokusfelds des Benutzers hervorzuheben.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Überraschenderweise wurde übereinstimmend und in Einklang mit der vorliegenden Erfindung eine adaptive Benutzerschnittstelle gefunden, die dadurch gekennzeichnet ist, dass ein visueller Ausgang der Benutzerschnittstelle basierend auf einem Sichtmerkmal des Benutzers automatisch konfiguriert wird, um den visuellen Ausgang innerhalb des Fokusfelds des Benutzers hervorzuheben.
  • In einem Ausführungsbeispiel umfasst ein adaptives Schnittstellensystem: eine Benutzerschnittstelle zur Bereitstellung eines visuellen Ausgangs; einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtsignal abbildet; und einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kontakt ist und wobei der Prozessor das Sensorsignal empfängt und basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal konfiguriert, um mindestens einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
  • Bei einem weiteren Ausführungsbeispiel umfasst ein adaptives Schnittstellensystem für ein Kraftfahrzeug: eine Benutzerschnittstelle, die im Innenbereich des Kraftfahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zur Kommunikation von Informationen an den Benutzer aufweist, die einen Zustand des Kraftfahrzeugsystems abbilden; einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und wobei der Prozessor das Sensorsignal empfängt und das Signal basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und die Anzeige basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um einen besonderen auf der Anzeige abgebildeten visuellen Ausgang hervorzuheben.
  • Die Erfindung sieht ferner Verfahren zur Konfiguration der Anzeige vor.
  • Ein Verfahren umfasst diese Schritte: die Bereitstellung einer Anzeige zur Erzeugung eines visuellen Ausgangs; die Bereitstellung eines Sensors zur Erfassung eines Sichtmerkmals eines Benutzers; und die Konfiguration des visuellen Ausgangs der Anzeige basierend auf dem Sichtmerkmal des Benutzers, um zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Das vorausstehend Beschriebene sowie weitere Vorteile der vorliegenden Erfindung sind für den Fachmann aufgrund der nachstehenden detaillierten Beschreibung des bevorzugten Ausführungsbeispiels und unter Berücksichtigung der Begleitzeichnungen rasch nachvollziehbar. Im Einzelnen sind dies folgende:
  • 1 ist eine perspektivische Teilansicht eines Innenraums eines Kraftfahrzeugs, einschließlich eines adaptiven Schnittstellensystems nach einem erfindungsgemäßen Ausführungsbeispiel;
  • 2 ist ein schematisches Blockdiagramm des Schnittstellensystems aus 1; und
  • 3A3B sind teilweise Stirnansichten einer angehobenen Kombi-Instrumentenanzeige des Schnittstellensystems aus 1.
  • DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER ERFINDUNGSGEMÄSSER AUSFÜHRUNGSBEISPIELE
  • Die nachfolgende detaillierte Beschreibung und angehängten Zeichnungen beschreiben und veranschaulichen verschiedene erfindungsgemäße Ausführungsbeispiele. Die Beschreibung und die Figuren dienen dazu, einen Fachmann zu befähigen, die Erfindung auszuführen und zu benutzen, und dienen nicht dazu, den Umfang der Erfindung in irgendeiner Weise einzuschränken. Mit Bezug auf die offengelegten Verfahrensschritte gilt, dass diese beispielhaften Wesens sind und deren Reihenfolge von daher weder notwendig oder kritisch ist.
  • 12 veranschaulichen ein adaptives Schnittstellensystem 10 für ein Kraftfahrzeug 11 gemäß einem Ausführungsbeispiel dieser Erfindung. Wie dargestellt umfasst das Schnittstellensystem 10 einen Sensor 12, einen Prozessor 14 und eine Benutzerschnittstelle 16. Das Schnittstellensystem 10 kann je nach Wunsch eine beliebige Anzahl von Bauteilen umfassen und in eine beliebige Benutzerumgebung integriert werden.
  • Der Sensor 12 ist ein Trackinginstrument für den Benutzer, das in der Lage ist, ein Sichtmerkmal des Gesichtes oder Kopfes des Benutzers zu erfassen (beispielsweise eine Kopfhaltung, einen Blickvektor oder eine Blickrichtung, ein Gesichtsmerkmal usw.). Bei gewissen Ausführungsbeispielen ist der Sensor 12 eine Kamera mit einem komplementären Metalloxid-Halbleiter (complementary metal oxide semiconductor, CMOS) zur Erfassung einer Bildes zumindest eines Kopfteils (beispielsweise Gesicht oder Augen) des Benutzers und zur Erzeugung eines das Bild abbildenden Sensorsignals. Andere Kameras und Bilderfassungsinstrumente können jedoch auch verwendet werden. Als den Schutzrahmen nicht einschränkendes Beispiel ist eine Strahlungsenergiequelle 18 vorgesehen, die derart angeordnet ist, dass sie mindestens einen Teil des Kopfes des Benutzers erleuchtet. Als weiteres nicht einschränkendes Beispiel sei darauf hingewiesen, dass es sich bei der Strahlungsenergiequelle 18 um eine IR-LED handeln kann. Andere Strahlungsenergiequellen sind jedoch auch möglich.
  • Der Prozessor 14 kann ein beliebiges Instrument oder System sein, das für den Empfang eines Eingangssignals adaptiert ist (beispielsweise das Sensorsignal), das Eingangssignal analysiert und die Benutzerschnittstelle 16 als Reaktion auf das Eingangssignal konfiguriert. Bei gewissen Ausführungsbeispielen handelt es sich bei dem Prozessor 14 um einen Kleinstrechner. Bei dem dargestellten Ausführungsbeispiel empfängt der Prozessor 14 über die Benutzerschnittstelle 16 das Eingangssignal von mindestens einem der Sensoren 12 und einem vom Benutzer bereitgestellten Eingang.
  • Wie dargestellt analysiert der Prozessor 14 das Eingangssignal auf der Grundlage eines Befehlssatzes 20. Der Befehlssatz 20, der im Rahmen eines beliebigen computerlesbaren Mediums enthalten sein kann, umfasst Befehle, die von dem Prozessor ausführbar sind und der Konfigurierung des Prozessors 14 zur Durchführung einer Vielzahl von Aufgaben dienen. Der Prozessor 14 kann verschiedene Funktionen durchführen, wie beispielsweise die operative Steuerung des Sensors 12 und der Benutzerschnittstelle 16. Es versteht sich, dass verschiedene Algorithmen und Software verwendet werden können, um ein Bild eines Kopfes, Gesichts oder Auges eines Benutzers zu analysieren, um die Sichtsmerkmale hiervon zu ermitteln (beispielsweise mit Hilfe der „Smart Eye”-Software der schwedischen Firma Smart Eye AB). Es versteht sich ferner, dass eine beliebige Software oder ein beliebiger Algorithmus verwendet werden kann, um die Sichtmerkmale vom Kopf/Gesicht des Benutzers zu ermitteln, wie beispielsweise mit den technischen Lösungen, die in den US-Patentschriften Nr. 4,648,052 , 4,720,189 , 4,836,670 , 4,950,069 , 5,008,946 und 5,305,012 offengelegt werden.
  • Als nicht einschränkendes Beispiel handelt es sich bei dem Befehlssatz 20 um einen Lernalgorithmus, der entsprechend adaptiert ist, um basierend auf den Informationen, die von dem Prozessor 14 empfangen werden, mindestens eine Kopfhaltung, einen Blickvektor und ein Augenlidtracking des Benutzers zu ermitteln (beispielsweise über das Sensorsignal). Als weiteres nicht einschränkendes Beispiel ermittelt der Prozessor 14 ein Fokusfeld mindestens eines der Augen des Benutzers, wobei das Fokusfeld ein vorab festgelegter Anteil eines vollständigen Sichtfelds des Benutzers ist. Bei gewissen Ausführungsbeispielen wird das Fokusfeld durch einen vorab festgelegten Gradbereich (beispielsweise +/–5 Grad) eines in Reaktion auf den Befehlssatz 20 berechneten Blickvektors bestimmt. Es versteht sich, dass ein beliebiger Gradbereich mit Bezug auf den berechneten Blickvektor verwendet werden kann, um das Fokusfeld zu definieren.
  • Bei gewissen Ausführungsbeispielen umfasst der Prozessor 14 eine Speichervorrichtung 22. Die Speichervorrichtung 22 kann ein einzelner Speicher oder mehrere Speichervorrichtungen sein. Weiter kann es sich bei der Speichervorrichtung 22 um ein Festkörpersystem, ein magnetisches, ein optisches oder ein beliebiges anderes geeignetes Speichersystem oder Instrument handeln. Es versteht sich, dass die Speichervorrichtung 22 zur Speicherung des Befehlssatzes 20 entsprechend adaptiert werden kann. Andere Daten und Informationen können in der Speichervorrichtung 22 gespeichert und katalogisiert werden, wie beispielsweise von dem Sensor 12 und der Benutzerschnittstelle 16 erhobene Daten.
  • Der Prozessor 14 kann weiter ein programmierbares Bauteil 24 umfassen. Es versteht sich, dass das programmierbare Bauteil 24 mit jedem beliebigen anderen Bauteil des Schnittstellensystems in Kommunikation sein kann, wie beispielsweise dem Sensor 12 und der Benutzerschnittstelle 16. Bei gewissen Ausführungsbeispielen ist das programmierbare Bauteil 24 entsprechend zur Verwaltung und Steuerung der Verarbeitungsfunktionen des Prozessors 14 adaptiert. Insbesondere ist das programmierbare Bauteil 24 dazu adaptiert, den Befehlssatz 20 zu modifizieren und die Analyse der vom Prozessor 14 empfangenen Signale and Informationen zu steuern. Es versteht sich, dass das programmierbare Bauteil 24 entsprechend adaptiert werden kann, um den Sensor 12 und die Benutzerschnittstelle 16 zu verwalten und zu steuern. Es versteht sich ferner, dass das programmierbare Bauteil 24 entsprechend adaptiert werden kann, um Daten und Informationen in der Speichervorrichtung 22 zu speichern und Daten und Informationen aus der Speichervorrichtung 22 abzurufen.
  • Wie dargestellt umfasst die Benutzerschnittstelle 16 eine Mehrzahl von Anzeigen 26, 28 zur Abbildung eines sichtbaren Ausgangs für den Benutzer. Es versteht sich, dass eine beliebige Anzahl von Anzeigen 26, 28 verwendet werden kann, so auch nur eine Anzeige. Es versteht sich ferner, dass jede beliebige Art von Anzeige verwendet werden kann, wie beispielsweise ein zweidimensionales Display, ein dreidimensionales Display, ein Touchscreen usw.
  • Bei dem dargestellten Ausführungsbeispiel ist die Anzeige 26 ein berührungsempfindliches Display (beispielsweise ein Touchscreen), auf der eine durch den Benutzer aktivierbare Schaltfläche 30 angeordnet ist. Die Schaltfläche 30 ist mit einer ausführbaren Funktion eines Fahrzeugsystems 32 assoziiert, wie beispielsweise einem Navigationssystem, einem Radio bzw. einer Kommunikationsvorrichtung, die zur Herstellung einer Internetverbindung adaptiert ist sowie einer Klimaautomatik. Jedoch kann jedes Fahrzeugsystem mit der durch den Benutzer aktivierbaren Schaltfläche 30 assoziiert sein. Es versteht sich ferner, dass eine beliebige Anzahl von Schaltflächen aufgenommen und an verschiedenen Orten innerhalb des Kraftfahrzeugs 11 angeordnet werden kann, wie beispielsweise an einem Lenkrad.
  • Die Anzeige 28 ist ein digitales Kombi-Instrument, auf dem eine digitale Darstellung einer Mehrzahl von Messinstrumenten 34 zur Anzeige kommt, wie beispielsweise ein Kraftstofffüllmesser, ein Geschwindigkeitsmesser bzw. ein Tachometer. Bei gewissen Ausführungsbeispielen umfasst die Benutzerschnittstelle 16 visuelle Elemente, die in einem Armaturenbrett, einer Mittelkonsole und anderen Bauteilen des Kraftfahrzeugs 11 integriert sind.
  • Während des Betriebs tritt der Benutzer auf herkömmliche Art und Weise mit dem Schnittstellensystem 10 in eine Wechselbeziehung. Der Prozessor 14 empfängt kontinuierlich die Eingangssignale (beispielsweise das Sensorsignal) und Informationen mit Bezug auf die Sichtmerkmale des Benutzers. Der Prozessor 14 analysiert das Eingangssignal und die Informationen auf der Grundlage des Befehlssatzes 20, um die Sichtmerkmale des Benutzers zu ermitteln. Die Benutzerschnittstelle 16 wird basierend auf den Sichtmerkmalen des Benutzers automatisch von dem Prozessor 14 konfiguriert. Als nicht einschränkendes Beispiel konfiguriert der Prozessor 14 die Sichteingänge, die auf mindestens einer der Anzeigen 26, 28 in Reaktion auf die erkannten Sichtmerkmale des Benutzers abgebildet sind, automatisch. Als ein weiteres nicht einschränkendes Beispiel konfiguriert der Prozessor eine ausführbare Funktion, die mit dem visuellen Ausgang assoziiert ist (beispielsweise die Schaltfläche 30) und basierend auf den Sichtmerkmalen des Benutzers auf der Anzeige 26 abgebildet ist.
  • Bei gewissen Ausführungsbeispielen analysiert der Prozessor 14 das Eingangssignal, um eine Augenlidposition des Benutzers zu ermitteln, wobei eine vorab festgelegte Position (beispielsweise ,geschlossen') die benutzeraktivierbare Schaltfläche 30 aktiviert, die auf der Anzeige 26 abgebildet ist. Es versteht sich, dass eine Schwellenblickzeit, wie vom Stand der Technik her bekannt, verwendet werden kann, um die Schaltfläche 30 zu aktivieren.
  • Bei gewissen Ausführungsbeispielen ist der visuelle Ausgang mindestens einer der Anzeigen 26, 28 derart konfiguriert, dass ein realistisches Erscheinungsbild mit einer dreidimensionalen Perspektive bereitgestellt wird, wie beispielsweise eine Änderung der Perspektive in der Grafik, um eine Kopfposition des Benutzers nachzuverfolgen. Es versteht sich, dass eine beliebige vom Stand der Technik her bekannte dreidimensionale Technologie verwendet werden kann, um die dreidimensionale Perspektive zu erzeugen.
  • Es versteht sich, dass der Benutzer die Konfiguration der Anzeigen 26, 28 und der hiermit assoziierten ausführbaren Funktionen manuell modifizieren kann. Es versteht sich ferner, dass die Benutzerschnittstelle 16 vorrangig vor der automatischen Konfigurierung der Anzeigen 26, 28 eine selektive Steuerung bereitstellen kann. Beispielsweise können die Anzeigen 26, 28 immer zur Standardkonfiguration zurückkehren, es sei denn, der Benutzer initiiert eine Sichtbetriebsart, bei der die Benutzerschnittstelle 16 automatisch auf die personalisierte Konfigurierung, die mit den Sichtmerkmalen des Benutzers assoziiert ist, konfiguriert wird.
  • Ein Beispiel einer personalisierten Konfigurierung ist in 3A und 3B abgebildet. Wie in 3A gezeigt wird, richtet der Benutzer den Blick auf ein rechter Hand angeordnetes Messinstrument 34, wobei das rechter Hand angeordnete Messinstrument 34 sich innerhalb des Fokusfelds des Benutzers befindet. Entsprechend wird das rechter Hand angeordnete der Messinstrumente 34 zum Fokus-Messinstrument 34' und der andere visuelle Ausgang (beispielsweise das Nicht-Fokus-Messinstrument 34'') abgeschwächt. Beispielsweise kann das Fokus-Messinstrument 34' stärker beleuchtet sein als das Nicht-Fokus-Messinstrument 34''. Als weiteres Beispiel sei angeführt, dass das Fokusmessinstrument 34' mit Bezug auf die Größe des Nicht-Fokus-Messinstruments 34'' auf der Anzeige 28 vergrößert sein kann.
  • Wie in 3B abgebildet ist, richtet sich der Blick des Benutzers auf ein linker Hand angeordnetes Messinstrument 34, wobei das linker Hand angeordnete der Messinstrumente 34 sich innerhalb des Fokusfeld des Benutzers befindet. Entsprechend wird das linker Hand angeordnete Messinstrument 34 das Fokus-Messinstrument 34' und das Nicht-Fokus-Messinstrument 34'' wird abgeschwächt. Beispielsweise kann das Fokus-Messinstrument stärker beleuchtet sein als das Nicht-Fokus-Messinstrument 34''. Als weiteres Beispiel sei angeführt, dass das Fokusmessinstrument 34' mit Bezug auf die Größe des Nicht-Fokus-Messinstruments 34'' auf der Anzeige 28 vergrößert sein kann.
  • Bei gewissen Ausführungsbeispielen ist nur der visuelle Ausgang innerhalb des Fokusfeldes des Benutzers vollständig erleuchtet, während der visuelle Ausgang außerhalb des Fokusfelds des Benutzers unterdrückt oder ausgeblendet wird. Im Zuge einer Änderung der Sichtmerkmale des Benutzers wird die Benutzerschnittstelle 16 automatisch dazu konfiguriert, den visuellen Ausgang auf den Anzeigen 26, 28 innerhalb des Fokusfeldes des Benutzers hervorzuheben oder zu betonen. Es versteht sich, dass jeder beliebige visuelle Ausgang der Benutzerschnittstelle 16 auf ähnliche Art und Weise konfiguriert werden kann wie die Messinstrumente 34', 34'' in dem vorstehenden Beispiel, beispielsweise als Schaltfläche 30. Es versteht sich ferner, dass verschiedene Konfigurierungen der Benutzerschnittstelle 16 jeweils basierend auf dem Maß der Änderung an den Sichtmerkmalen des Benutzers verwendbar sind.
  • Das Schnittstellensystem 10 und Verfahren zur Konfigurierung der Benutzerschnittstelle 16 bieten eine Personalisierung der Benutzerschnittstelle 16 in Echtzeit jeweils auf der Grundlage der Sichtmerkmale des Benutzers, wodurch die Aufmerksamkeit des Benutzers auf die jeweilige visuelle Ausgabe gelenkt wird, die von Interesse ist (sprich: innerhalb des Fokusfelds) und Ablenkungen aufgrund von Ausgängen, die außerhalb des Fokusfeldes abgebildet werden, auf ein Minimum reduziert werden.
  • Der Fachmann kann der vorstehenden Beschreibung die wesentlichen erfindungsgemäßen Charakteristiken problemlos entnehmen und verschiedene Änderungen und Modifizierungen an der Erfindung vornehmen, um sie unterschiedlichen Gebrauchsweisen und Bedingungen anzupassen, ohne dabei den Geist oder Schutzbereich der Erfindung zu verlassen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2288430 [0002]
    • US 2445787 [0002]
    • US 3462604 [0002]
    • US 3514193 [0002]
    • US 3534273 [0002]
    • US 3583794 [0002]
    • US 3806725 [0002]
    • US 3864030 [0002]
    • US 3992087 [0002]
    • US 4003642 [0002]
    • US 4034401 [0002]
    • US 4075657 [0002]
    • US 4102564 [0002]
    • US 4145122 [0002]
    • US 4169663 [0002]
    • US 4303394 [0002]
    • US 4648052 [0019]
    • US 4720189 [0019]
    • US 4836670 [0019]
    • US 4950069 [0019]
    • US 5008946 [0019]
    • US 5305012 [0019]

Claims (20)

  1. Ein adaptives Schnittstellensystem umfassend: Eine Benutzerschnittstelle, die einen visuellen Ausgang bereitstellt; Einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und Einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und dadurch gekennzeichnet, dass der Prozessor das Sensorsignal empfängt, das Sensorsignal basierend auf dem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
  2. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle ein Touchscreen ist.
  3. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
  4. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle im Innenraum eines Kraftfahrzeugs angeordnet ist.
  5. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle ein digitales Kombi-Instrument mit einem Messinstrument ist.
  6. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass der Sensor ein Registrierungsgerät zur Erfassung eines Bildes des Benutzers ist.
  7. Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus, zur Festlegung mindestens einer Kopfhaltung, einer Blickrichtung und einer Augenlidposition des Benutzers ist.
  8. Das Schnittstellensystem gemäß Anspruch 1 umfasst weiter eine elektromagnetische Strahlungsquelle, um einen Teil des Benutzers zur Vereinfachung der Erfassung des Sichtmerkmals des Benutzers zu erleuchten.
  9. Ein adaptives Schnittstellensystem für ein Kraftfahrzeug umfassend: Eine Benutzerschnittstelle, die im Innenraum eines Kraftfahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zur Kommunikation von Informationen an den Benutzer aufweist, die einen Zustand des Fahrzeugsystems abbilden; Einen Sensor zur Erfassung eines Sichtmerkmals des Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und Einen Prozessor, der in Kommunikation mit dem Sensor und der Benutzerschnittstelle ist und dadurch gekennzeichnet, dass der Prozessor das Sensorsignal empfängt, das Sensorsignal basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und die Anzeige basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um einen bestimmten visuellen Ausgang, der auf der Anzeige abgebildet ist, hervorzuheben.
  10. Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass die Anzeige der Benutzerschnittstelle ein Touchscreen ist.
  11. Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass die Anzeige eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
  12. Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Sensor ein Instrument zur Benutzerregistrierung ist, das in der Lage ist, ein Bild des Benutzers zu erfassen.
  13. Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus ist, um zumindest eine Kopfposition, eine Blickrichtung und eine Augenlidposition des Benutzers zu ermitteln.
  14. Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Prozessor die Anzeige aufgrund des Sichtmerkmals des Benutzers konfiguriert, um einen Anteil des visuellen Ausgangs innerhalb des Fokusfeldes des Benutzers hervorzuheben.
  15. Ein Verfahren zur Konfigurierung einer Anzeige, wobei das Verfahren die folgenden Schritte umfasst: Die Bereitstellung einer Anzeige für das Erzeugen eines visuellen Ausgangs; Die Bereitstellung eines Sensors zur Erfassung eines Sichtmerkmals des Benutzers; und Die Konfigurierung des visuellen Ausgangs der Anzeige basierend auf dem Sichtmerkmal des Benutzers, um zumindest einen Anteil des visuellen Ausgangs innerhalb des visuellen Fokusfeldes des Benutzers hervorzuheben.
  16. Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige ein Touchscreen ist.
  17. Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
  18. Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige im Innenraum eines Kraftfahrzeugs vorgesehen ist.
  19. Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass der Sensor ein Instrument zur Benutzerregistrierung ist, das in der Lage ist, ein Bild des Benutzers zu erfassen.
  20. Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus zu Ermittlung zumindest einer Kopfposition, Richtung des Blickwinkels und Position des Augenlids des Benutzers ist.
DE102011050942A 2010-06-16 2011-06-09 Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking Ceased DE102011050942A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/816,748 2010-06-16
US12/816,748 US20110310001A1 (en) 2010-06-16 2010-06-16 Display reconfiguration based on face/eye tracking

Publications (1)

Publication Number Publication Date
DE102011050942A1 true DE102011050942A1 (de) 2012-03-08

Family

ID=45328158

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011050942A Ceased DE102011050942A1 (de) 2010-06-16 2011-06-09 Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking

Country Status (3)

Country Link
US (1) US20110310001A1 (de)
JP (1) JP2012003764A (de)
DE (1) DE102011050942A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012213466A1 (de) 2012-07-31 2014-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens
DE102015011365A1 (de) 2015-08-28 2017-03-02 Audi Ag Blickwinkelkorrigierte Anzeige
DE102020213770A1 (de) 2020-11-02 2022-05-05 Continental Automotive Gmbh Anzeigevorrichtung für ein Fahrzeug

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902156B2 (en) * 2011-01-14 2014-12-02 International Business Machines Corporation Intelligent real-time display selection in a multi-display computer system
US8766936B2 (en) 2011-03-25 2014-07-01 Honeywell International Inc. Touch screen and method for providing stable touches
US20130152002A1 (en) * 2011-12-11 2013-06-13 Memphis Technologies Inc. Data collection and analysis for adaptive user interfaces
US9733707B2 (en) 2012-03-22 2017-08-15 Honeywell International Inc. Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system
EP2836889A4 (de) * 2012-04-12 2015-11-18 Intel Corp Selektive rückseitige beleuchtung einer anzeige auf augenverfolgungsbasis
JP6001758B2 (ja) * 2012-04-27 2016-10-05 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. ユーザからのオーディオ入力
US9423871B2 (en) 2012-08-07 2016-08-23 Honeywell International Inc. System and method for reducing the effects of inadvertent touch on a touch screen controller
FR2995120B1 (fr) * 2012-09-05 2015-09-18 Dassault Aviat Systeme et procede de commande de la position d'un objet deplacable sur un dispositif de visualisation
US20140092006A1 (en) * 2012-09-28 2014-04-03 Joshua Boelter Device and method for modifying rendering based on viewer focus area from eye tracking
US9128580B2 (en) 2012-12-07 2015-09-08 Honeywell International Inc. System and method for interacting with a touch screen interface utilizing an intelligent stencil mask
KR101382772B1 (ko) * 2012-12-11 2014-04-08 현대자동차주식회사 디스플레이 시스템 및 방법
WO2015019122A1 (en) * 2013-08-07 2015-02-12 Audi Ag Visualization system,vehicle and method for operating a visualization system
JP6265713B2 (ja) * 2013-12-02 2018-01-24 矢崎総業株式会社 グラフィックメータ装置
US9530065B2 (en) * 2014-10-15 2016-12-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US9904362B2 (en) 2014-10-24 2018-02-27 GM Global Technology Operations LLC Systems and methods for use at a vehicle including an eye tracking device
US10434878B2 (en) * 2015-07-02 2019-10-08 Volvo Truck Corporation Information system for a vehicle with virtual control of a secondary in-vehicle display unit
US10775882B2 (en) * 2016-01-21 2020-09-15 Microsoft Technology Licensing, Llc Implicitly adaptive eye-tracking user interface
WO2018020368A1 (en) * 2016-07-29 2018-02-01 Semiconductor Energy Laboratory Co., Ltd. Display method, display device, electronic device, non-temporary memory medium, and program
US10503529B2 (en) 2016-11-22 2019-12-10 Sap Se Localized and personalized application logic
GB2567164A (en) * 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
KR102562285B1 (ko) * 2020-09-25 2023-08-02 애플 인크. 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기 위한 방법
US11995230B2 (en) 2021-02-11 2024-05-28 Apple Inc. Methods for presenting and sharing content in an environment

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2288430A (en) 1940-07-26 1942-06-30 Sterling Getchell Inc J Scanning apparatus
US2445787A (en) 1945-12-18 1948-07-27 Lilienfeld Julius Edgar Method of and apparatus for plotting an ordered set of quantities
US3462604A (en) 1967-08-23 1969-08-19 Honeywell Inc Control apparatus sensitive to eye movement
US3514193A (en) 1968-09-30 1970-05-26 Siegfried Himmelmann Device for recording eye movement
US3534273A (en) 1967-12-18 1970-10-13 Bell Telephone Labor Inc Automatic threshold level selection and eye tracking in digital transmission systems
US3583794A (en) 1969-03-10 1971-06-08 Biometrics Inc Direct reading eye movement monitor
US3806725A (en) 1972-01-18 1974-04-23 Leitz Ernst Gmbh Apparatus for automatic tracking of pupil of eye
US3864030A (en) 1972-07-11 1975-02-04 Acuity Syst Eye position measuring technique
US3992087A (en) 1975-09-03 1976-11-16 Optical Sciences Group, Inc. Visual acuity tester
US4003642A (en) 1975-04-22 1977-01-18 Bio-Systems Research Inc. Optically integrating oculometer
US4034401A (en) 1975-04-22 1977-07-05 Smiths Industries Limited Observer-identification of a target or other point of interest in a viewing field
US4075657A (en) 1977-03-03 1978-02-21 Weinblatt Lee S Eye movement monitoring apparatus
US4102564A (en) 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4145122A (en) 1977-05-31 1979-03-20 Colorado Seminary Method and apparatus for monitoring the position of the eye
US4169663A (en) 1978-02-27 1979-10-02 Synemed, Inc. Eye attention monitor
US4303394A (en) 1980-07-10 1981-12-01 The United States Of America As Represented By The Secretary Of The Navy Computer generated image simulator
US4648052A (en) 1983-11-14 1987-03-03 Sentient Systems Technology, Inc. Eye-tracker communication system
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
US4836670A (en) 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5008946A (en) 1987-09-09 1991-04-16 Aisin Seiki K.K. System for recognizing image
US5305012A (en) 1992-04-15 1994-04-19 Reveo, Inc. Intelligent electro-optical system and method for automatic glare reduction

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4897715A (en) * 1988-10-31 1990-01-30 General Electric Company Helmet display
GB9420578D0 (en) * 1994-10-12 1994-11-30 Secr Defence Position sensing of a remote target
JP2000020196A (ja) * 1998-07-01 2000-01-21 Shimadzu Corp 視線入力装置
JP2002166787A (ja) * 2000-11-29 2002-06-11 Nissan Motor Co Ltd 車両用表示装置
JP2002169637A (ja) * 2000-12-04 2002-06-14 Fuji Xerox Co Ltd ドキュメント表示態様変換装置、ドキュメント表示態様変換方法、記録媒体
US7013258B1 (en) * 2001-03-07 2006-03-14 Lenovo (Singapore) Pte. Ltd. System and method for accelerating Chinese text input
US6668221B2 (en) * 2002-05-23 2003-12-23 Delphi Technologies, Inc. User discrimination control of vehicle infotainment system
JP4349350B2 (ja) * 2005-09-05 2009-10-21 トヨタ自動車株式会社 顔画像撮影カメラの搭載構造
JP2007102360A (ja) * 2005-09-30 2007-04-19 Sharp Corp 電子書籍装置
JP2007249477A (ja) * 2006-03-15 2007-09-27 Denso Corp 車載用情報伝達装置
US8700332B2 (en) * 2008-11-10 2014-04-15 Volkswagen Ag Operating device for a motor vehicle
US9108513B2 (en) * 2008-11-10 2015-08-18 Volkswagen Ag Viewing direction and acoustic command based operating device for a motor vehicle
US9039419B2 (en) * 2009-11-06 2015-05-26 International Business Machines Corporation Method and system for controlling skill acquisition interfaces

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2288430A (en) 1940-07-26 1942-06-30 Sterling Getchell Inc J Scanning apparatus
US2445787A (en) 1945-12-18 1948-07-27 Lilienfeld Julius Edgar Method of and apparatus for plotting an ordered set of quantities
US3462604A (en) 1967-08-23 1969-08-19 Honeywell Inc Control apparatus sensitive to eye movement
US3534273A (en) 1967-12-18 1970-10-13 Bell Telephone Labor Inc Automatic threshold level selection and eye tracking in digital transmission systems
US3514193A (en) 1968-09-30 1970-05-26 Siegfried Himmelmann Device for recording eye movement
US3583794A (en) 1969-03-10 1971-06-08 Biometrics Inc Direct reading eye movement monitor
US3806725A (en) 1972-01-18 1974-04-23 Leitz Ernst Gmbh Apparatus for automatic tracking of pupil of eye
US3864030A (en) 1972-07-11 1975-02-04 Acuity Syst Eye position measuring technique
US4102564A (en) 1975-04-18 1978-07-25 Michael Henry L Portable device for the accurate measurement of eye movements both in light and obscurity
US4034401A (en) 1975-04-22 1977-07-05 Smiths Industries Limited Observer-identification of a target or other point of interest in a viewing field
US4003642A (en) 1975-04-22 1977-01-18 Bio-Systems Research Inc. Optically integrating oculometer
US3992087A (en) 1975-09-03 1976-11-16 Optical Sciences Group, Inc. Visual acuity tester
US4075657A (en) 1977-03-03 1978-02-21 Weinblatt Lee S Eye movement monitoring apparatus
US4145122A (en) 1977-05-31 1979-03-20 Colorado Seminary Method and apparatus for monitoring the position of the eye
US4169663A (en) 1978-02-27 1979-10-02 Synemed, Inc. Eye attention monitor
US4303394A (en) 1980-07-10 1981-12-01 The United States Of America As Represented By The Secretary Of The Navy Computer generated image simulator
US4648052A (en) 1983-11-14 1987-03-03 Sentient Systems Technology, Inc. Eye-tracker communication system
US4720189A (en) 1986-01-07 1988-01-19 Northern Telecom Limited Eye-position sensor
US4836670A (en) 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
US5008946A (en) 1987-09-09 1991-04-16 Aisin Seiki K.K. System for recognizing image
US4950069A (en) 1988-11-04 1990-08-21 University Of Virginia Eye movement detector with improved calibration and speed
US5305012A (en) 1992-04-15 1994-04-19 Reveo, Inc. Intelligent electro-optical system and method for automatic glare reduction

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012213466A1 (de) 2012-07-31 2014-02-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens
US8958978B2 (en) 2012-07-31 2015-02-17 Robert Bosch Gmbh Method and device for monitoring a vehicle occupant
DE102015011365A1 (de) 2015-08-28 2017-03-02 Audi Ag Blickwinkelkorrigierte Anzeige
DE102020213770A1 (de) 2020-11-02 2022-05-05 Continental Automotive Gmbh Anzeigevorrichtung für ein Fahrzeug

Also Published As

Publication number Publication date
US20110310001A1 (en) 2011-12-22
JP2012003764A (ja) 2012-01-05

Similar Documents

Publication Publication Date Title
DE102011050942A1 (de) Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking
DE102011053449A1 (de) Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge
DE102012109622A1 (de) Verfahren zur Steuerung einer Anzeigekomponente eines adaptiven Anzeigesystems
EP3084564B1 (de) Vorrichtung und verfahren zum navigieren innerhalb eines menüs zur fahrzeugsteuerung sowie auswählen eines menüeintrags aus dem menü
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
EP2987057B1 (de) Verfahren zum auswählen einer informationsquelle aus einer mehrzahl von informationsquellen zur anzeige auf einer anzeige einer datenbrille
EP3191919B1 (de) Bestimmung der pose eines hmd
DE102012219280A1 (de) Fahrerassistenzsystem und Verfahren
DE102011056714A1 (de) Systembereitschaftsschalter für ein Mensch-Maschine-Interaktionssteuerungssystem mit Augenverfolgung
WO2017211817A1 (de) Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung
DE102016224246B4 (de) Verfahren und Vorrichtung zur Interaktion mit einer grafischen Benutzerschnittstelle
DE102012206247A1 (de) Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs
DE102013100328A1 (de) Adaptives Schnittstellensystem
DE102014006776A1 (de) Bedienvorrichtung für ein elektronisches Gerät
EP3642695A1 (de) Verfahren zum betreiben einer anzeigevorrichtung für ein kraftfahrzeug sowie kraftfahrzeug
DE102012221647A1 (de) Testen der Sehfähigkeit eines Fahrers eines Kraftfahrzeugs
DE102016225261A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
DE102015012720A1 (de) Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem
WO2014067798A1 (de) Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays
DE102013210354A1 (de) Blickgesteuerte Interaktion für Datenbrillen
DE102020211859A1 (de) Verfahren und Anzeigesystem zum Anzeigen von Informationen für einen Fahrer
WO2014114428A1 (de) Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system
DE102015226153A1 (de) Anzeigevorrichtung und Bedieneinrichtung
DE102014222752A1 (de) Bedienung über Kopfrichtung als Ersatz zur Blickrichtung
DE102017209798A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20130817

R082 Change of representative

Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE