DE102011050942A1 - Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking - Google Patents
Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking Download PDFInfo
- Publication number
- DE102011050942A1 DE102011050942A1 DE102011050942A DE102011050942A DE102011050942A1 DE 102011050942 A1 DE102011050942 A1 DE 102011050942A1 DE 102011050942 A DE102011050942 A DE 102011050942A DE 102011050942 A DE102011050942 A DE 102011050942A DE 102011050942 A1 DE102011050942 A1 DE 102011050942A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- visual
- interface
- sensor
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 68
- 230000003044 adaptive effect Effects 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 12
- 210000003128 head Anatomy 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 9
- 210000000744 eyelid Anatomy 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims 1
- 230000005670 electromagnetic radiation Effects 0.000 claims 1
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/213—Virtual instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/60—Instruments characterised by their location or relative disposition in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/186—Displaying information according to relevancy
- B60K2360/1868—Displaying information according to relevancy according to driving situations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Ein adaptives Schnittstellensystem weist eine Benutzerschnittstelle auf, die einen visuellen Ausgang bereitstellt, sowie einen Sensor zur Erfassung des Sichtmerkmals eines Benutzers und die ein Sensorsignal erzeugt, das das Sichtmerkmal abbildet, sowie einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und das dadurch gekennzeichnet ist, dass der Prozessor das Sensorsignal empfängt und das Sensorsignal basierend auf dem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal des Benutzers rekonfiguriert und zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorhebt.
Description
- TECHNISCHES GEBIET
- Die vorliegende Erfindung bezieht sich allgemein auf eine rekonfigurierbare Anzeige. Insbesondere bezieht sich die Erfindung auf ein adaptives Schnittstellensystem und ein Verfahren zur Rekonfigurierung einer Anzeige basierend auf einem Tracking des Benutzers.
- ALLGEMEINER STAND DER TECHNIK
- Eyetracker erfassen die Position und Bewegung eines Auges. In den
US-Patentschriften Nr. 2,288,430 ;2,445,787 ;3,462,604 ;3,514,193 ;3,534,273 ;3,583,794 ;3,806,725 ;3,864,030 ;3,992,087 ;4,003,642 ;4,034,401 ;4,075,657 ;4,102,564 ;4,145,122 ;4,169,663 und4,303,394 sind mehrere Arten von Eyetrackern offengelegt. - Derzeit kommen Eyetracker und Eyetracking-Verfahren in Kraftfahrzeugen zur Anwendung, um müdigkeitsbedingtes und fehlerhaftes Fahrerverhalten zu erfassen sowie um eine handlose Steuerung gewisser Fahrzeugsysteme zu ermöglichen.
- Jedoch umfassen konventionelle bordeigene Benutzerschnittstellen und Kombi-Instrumente komplexe Anzeigen mit mehreren visuellen Ausgängen, die hierauf abgebildet werden. Weiter enthalten konventionelle bordeigene Benutzerschnittstellen eine Vielzahl benutzeraktivierbarer Funktionen in der Form visueller Ausgänge, wie beispielsweise Schaltflächen, Symbole und Menüs. Die verschiedenen visuellen Ausgänge, die einem Fahrzeugführer angezeigt werden, können ablenkend sein und die Aufmerksamkeit des Fahrers häufig von der primären zu verrichtenden Aufgabe ablenken (beispielsweise dem Führen des Fahrzeugs).
- Es wäre daher wünschenswert, eine adaptive Benutzerschnittstelle zu entwickeln, die dadurch gekennzeichnet ist, dass ein visueller Ausgang einer Benutzerschnittstelle automatisch jeweils basierend auf einem Sichtmerkmal eines Benutzers konfiguriert wird, um den visuellen Ausgang innerhalb eines Fokusfelds des Benutzers hervorzuheben.
- KURZDARSTELLUNG DER ERFINDUNG
- Überraschenderweise wurde übereinstimmend und in Einklang mit der vorliegenden Erfindung eine adaptive Benutzerschnittstelle gefunden, die dadurch gekennzeichnet ist, dass ein visueller Ausgang der Benutzerschnittstelle basierend auf einem Sichtmerkmal des Benutzers automatisch konfiguriert wird, um den visuellen Ausgang innerhalb des Fokusfelds des Benutzers hervorzuheben.
- In einem Ausführungsbeispiel umfasst ein adaptives Schnittstellensystem: eine Benutzerschnittstelle zur Bereitstellung eines visuellen Ausgangs; einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtsignal abbildet; und einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kontakt ist und wobei der Prozessor das Sensorsignal empfängt und basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal konfiguriert, um mindestens einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
- Bei einem weiteren Ausführungsbeispiel umfasst ein adaptives Schnittstellensystem für ein Kraftfahrzeug: eine Benutzerschnittstelle, die im Innenbereich des Kraftfahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zur Kommunikation von Informationen an den Benutzer aufweist, die einen Zustand des Kraftfahrzeugsystems abbilden; einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und wobei der Prozessor das Sensorsignal empfängt und das Signal basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und die Anzeige basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um einen besonderen auf der Anzeige abgebildeten visuellen Ausgang hervorzuheben.
- Die Erfindung sieht ferner Verfahren zur Konfiguration der Anzeige vor.
- Ein Verfahren umfasst diese Schritte: die Bereitstellung einer Anzeige zur Erzeugung eines visuellen Ausgangs; die Bereitstellung eines Sensors zur Erfassung eines Sichtmerkmals eines Benutzers; und die Konfiguration des visuellen Ausgangs der Anzeige basierend auf dem Sichtmerkmal des Benutzers, um zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- Das vorausstehend Beschriebene sowie weitere Vorteile der vorliegenden Erfindung sind für den Fachmann aufgrund der nachstehenden detaillierten Beschreibung des bevorzugten Ausführungsbeispiels und unter Berücksichtigung der Begleitzeichnungen rasch nachvollziehbar. Im Einzelnen sind dies folgende:
-
1 ist eine perspektivische Teilansicht eines Innenraums eines Kraftfahrzeugs, einschließlich eines adaptiven Schnittstellensystems nach einem erfindungsgemäßen Ausführungsbeispiel; -
2 ist ein schematisches Blockdiagramm des Schnittstellensystems aus1 ; und -
3A –3B sind teilweise Stirnansichten einer angehobenen Kombi-Instrumentenanzeige des Schnittstellensystems aus1 . - DETAILLIERTE BESCHREIBUNG BEISPIELHAFTER ERFINDUNGSGEMÄSSER AUSFÜHRUNGSBEISPIELE
- Die nachfolgende detaillierte Beschreibung und angehängten Zeichnungen beschreiben und veranschaulichen verschiedene erfindungsgemäße Ausführungsbeispiele. Die Beschreibung und die Figuren dienen dazu, einen Fachmann zu befähigen, die Erfindung auszuführen und zu benutzen, und dienen nicht dazu, den Umfang der Erfindung in irgendeiner Weise einzuschränken. Mit Bezug auf die offengelegten Verfahrensschritte gilt, dass diese beispielhaften Wesens sind und deren Reihenfolge von daher weder notwendig oder kritisch ist.
-
1 –2 veranschaulichen ein adaptives Schnittstellensystem10 für ein Kraftfahrzeug11 gemäß einem Ausführungsbeispiel dieser Erfindung. Wie dargestellt umfasst das Schnittstellensystem10 einen Sensor12 , einen Prozessor14 und eine Benutzerschnittstelle16 . Das Schnittstellensystem10 kann je nach Wunsch eine beliebige Anzahl von Bauteilen umfassen und in eine beliebige Benutzerumgebung integriert werden. - Der Sensor
12 ist ein Trackinginstrument für den Benutzer, das in der Lage ist, ein Sichtmerkmal des Gesichtes oder Kopfes des Benutzers zu erfassen (beispielsweise eine Kopfhaltung, einen Blickvektor oder eine Blickrichtung, ein Gesichtsmerkmal usw.). Bei gewissen Ausführungsbeispielen ist der Sensor12 eine Kamera mit einem komplementären Metalloxid-Halbleiter (complementary metal oxide semiconductor, CMOS) zur Erfassung einer Bildes zumindest eines Kopfteils (beispielsweise Gesicht oder Augen) des Benutzers und zur Erzeugung eines das Bild abbildenden Sensorsignals. Andere Kameras und Bilderfassungsinstrumente können jedoch auch verwendet werden. Als den Schutzrahmen nicht einschränkendes Beispiel ist eine Strahlungsenergiequelle18 vorgesehen, die derart angeordnet ist, dass sie mindestens einen Teil des Kopfes des Benutzers erleuchtet. Als weiteres nicht einschränkendes Beispiel sei darauf hingewiesen, dass es sich bei der Strahlungsenergiequelle18 um eine IR-LED handeln kann. Andere Strahlungsenergiequellen sind jedoch auch möglich. - Der Prozessor
14 kann ein beliebiges Instrument oder System sein, das für den Empfang eines Eingangssignals adaptiert ist (beispielsweise das Sensorsignal), das Eingangssignal analysiert und die Benutzerschnittstelle16 als Reaktion auf das Eingangssignal konfiguriert. Bei gewissen Ausführungsbeispielen handelt es sich bei dem Prozessor14 um einen Kleinstrechner. Bei dem dargestellten Ausführungsbeispiel empfängt der Prozessor14 über die Benutzerschnittstelle16 das Eingangssignal von mindestens einem der Sensoren12 und einem vom Benutzer bereitgestellten Eingang. - Wie dargestellt analysiert der Prozessor
14 das Eingangssignal auf der Grundlage eines Befehlssatzes20 . Der Befehlssatz20 , der im Rahmen eines beliebigen computerlesbaren Mediums enthalten sein kann, umfasst Befehle, die von dem Prozessor ausführbar sind und der Konfigurierung des Prozessors14 zur Durchführung einer Vielzahl von Aufgaben dienen. Der Prozessor14 kann verschiedene Funktionen durchführen, wie beispielsweise die operative Steuerung des Sensors12 und der Benutzerschnittstelle16 . Es versteht sich, dass verschiedene Algorithmen und Software verwendet werden können, um ein Bild eines Kopfes, Gesichts oder Auges eines Benutzers zu analysieren, um die Sichtsmerkmale hiervon zu ermitteln (beispielsweise mit Hilfe der „Smart Eye”-Software der schwedischen Firma Smart Eye AB). Es versteht sich ferner, dass eine beliebige Software oder ein beliebiger Algorithmus verwendet werden kann, um die Sichtmerkmale vom Kopf/Gesicht des Benutzers zu ermitteln, wie beispielsweise mit den technischen Lösungen, die in denUS-Patentschriften Nr. 4,648,052 ,4,720,189 ,4,836,670 ,4,950,069 ,5,008,946 und5,305,012 offengelegt werden. - Als nicht einschränkendes Beispiel handelt es sich bei dem Befehlssatz
20 um einen Lernalgorithmus, der entsprechend adaptiert ist, um basierend auf den Informationen, die von dem Prozessor14 empfangen werden, mindestens eine Kopfhaltung, einen Blickvektor und ein Augenlidtracking des Benutzers zu ermitteln (beispielsweise über das Sensorsignal). Als weiteres nicht einschränkendes Beispiel ermittelt der Prozessor14 ein Fokusfeld mindestens eines der Augen des Benutzers, wobei das Fokusfeld ein vorab festgelegter Anteil eines vollständigen Sichtfelds des Benutzers ist. Bei gewissen Ausführungsbeispielen wird das Fokusfeld durch einen vorab festgelegten Gradbereich (beispielsweise +/–5 Grad) eines in Reaktion auf den Befehlssatz20 berechneten Blickvektors bestimmt. Es versteht sich, dass ein beliebiger Gradbereich mit Bezug auf den berechneten Blickvektor verwendet werden kann, um das Fokusfeld zu definieren. - Bei gewissen Ausführungsbeispielen umfasst der Prozessor
14 eine Speichervorrichtung22 . Die Speichervorrichtung22 kann ein einzelner Speicher oder mehrere Speichervorrichtungen sein. Weiter kann es sich bei der Speichervorrichtung22 um ein Festkörpersystem, ein magnetisches, ein optisches oder ein beliebiges anderes geeignetes Speichersystem oder Instrument handeln. Es versteht sich, dass die Speichervorrichtung22 zur Speicherung des Befehlssatzes20 entsprechend adaptiert werden kann. Andere Daten und Informationen können in der Speichervorrichtung22 gespeichert und katalogisiert werden, wie beispielsweise von dem Sensor12 und der Benutzerschnittstelle16 erhobene Daten. - Der Prozessor
14 kann weiter ein programmierbares Bauteil24 umfassen. Es versteht sich, dass das programmierbare Bauteil24 mit jedem beliebigen anderen Bauteil des Schnittstellensystems in Kommunikation sein kann, wie beispielsweise dem Sensor12 und der Benutzerschnittstelle16 . Bei gewissen Ausführungsbeispielen ist das programmierbare Bauteil24 entsprechend zur Verwaltung und Steuerung der Verarbeitungsfunktionen des Prozessors14 adaptiert. Insbesondere ist das programmierbare Bauteil24 dazu adaptiert, den Befehlssatz20 zu modifizieren und die Analyse der vom Prozessor14 empfangenen Signale and Informationen zu steuern. Es versteht sich, dass das programmierbare Bauteil24 entsprechend adaptiert werden kann, um den Sensor12 und die Benutzerschnittstelle16 zu verwalten und zu steuern. Es versteht sich ferner, dass das programmierbare Bauteil24 entsprechend adaptiert werden kann, um Daten und Informationen in der Speichervorrichtung22 zu speichern und Daten und Informationen aus der Speichervorrichtung22 abzurufen. - Wie dargestellt umfasst die Benutzerschnittstelle
16 eine Mehrzahl von Anzeigen26 ,28 zur Abbildung eines sichtbaren Ausgangs für den Benutzer. Es versteht sich, dass eine beliebige Anzahl von Anzeigen26 ,28 verwendet werden kann, so auch nur eine Anzeige. Es versteht sich ferner, dass jede beliebige Art von Anzeige verwendet werden kann, wie beispielsweise ein zweidimensionales Display, ein dreidimensionales Display, ein Touchscreen usw. - Bei dem dargestellten Ausführungsbeispiel ist die Anzeige
26 ein berührungsempfindliches Display (beispielsweise ein Touchscreen), auf der eine durch den Benutzer aktivierbare Schaltfläche30 angeordnet ist. Die Schaltfläche30 ist mit einer ausführbaren Funktion eines Fahrzeugsystems32 assoziiert, wie beispielsweise einem Navigationssystem, einem Radio bzw. einer Kommunikationsvorrichtung, die zur Herstellung einer Internetverbindung adaptiert ist sowie einer Klimaautomatik. Jedoch kann jedes Fahrzeugsystem mit der durch den Benutzer aktivierbaren Schaltfläche30 assoziiert sein. Es versteht sich ferner, dass eine beliebige Anzahl von Schaltflächen aufgenommen und an verschiedenen Orten innerhalb des Kraftfahrzeugs11 angeordnet werden kann, wie beispielsweise an einem Lenkrad. - Die Anzeige
28 ist ein digitales Kombi-Instrument, auf dem eine digitale Darstellung einer Mehrzahl von Messinstrumenten34 zur Anzeige kommt, wie beispielsweise ein Kraftstofffüllmesser, ein Geschwindigkeitsmesser bzw. ein Tachometer. Bei gewissen Ausführungsbeispielen umfasst die Benutzerschnittstelle16 visuelle Elemente, die in einem Armaturenbrett, einer Mittelkonsole und anderen Bauteilen des Kraftfahrzeugs11 integriert sind. - Während des Betriebs tritt der Benutzer auf herkömmliche Art und Weise mit dem Schnittstellensystem
10 in eine Wechselbeziehung. Der Prozessor14 empfängt kontinuierlich die Eingangssignale (beispielsweise das Sensorsignal) und Informationen mit Bezug auf die Sichtmerkmale des Benutzers. Der Prozessor14 analysiert das Eingangssignal und die Informationen auf der Grundlage des Befehlssatzes20 , um die Sichtmerkmale des Benutzers zu ermitteln. Die Benutzerschnittstelle16 wird basierend auf den Sichtmerkmalen des Benutzers automatisch von dem Prozessor14 konfiguriert. Als nicht einschränkendes Beispiel konfiguriert der Prozessor14 die Sichteingänge, die auf mindestens einer der Anzeigen26 ,28 in Reaktion auf die erkannten Sichtmerkmale des Benutzers abgebildet sind, automatisch. Als ein weiteres nicht einschränkendes Beispiel konfiguriert der Prozessor eine ausführbare Funktion, die mit dem visuellen Ausgang assoziiert ist (beispielsweise die Schaltfläche30 ) und basierend auf den Sichtmerkmalen des Benutzers auf der Anzeige26 abgebildet ist. - Bei gewissen Ausführungsbeispielen analysiert der Prozessor
14 das Eingangssignal, um eine Augenlidposition des Benutzers zu ermitteln, wobei eine vorab festgelegte Position (beispielsweise ,geschlossen') die benutzeraktivierbare Schaltfläche30 aktiviert, die auf der Anzeige26 abgebildet ist. Es versteht sich, dass eine Schwellenblickzeit, wie vom Stand der Technik her bekannt, verwendet werden kann, um die Schaltfläche30 zu aktivieren. - Bei gewissen Ausführungsbeispielen ist der visuelle Ausgang mindestens einer der Anzeigen
26 ,28 derart konfiguriert, dass ein realistisches Erscheinungsbild mit einer dreidimensionalen Perspektive bereitgestellt wird, wie beispielsweise eine Änderung der Perspektive in der Grafik, um eine Kopfposition des Benutzers nachzuverfolgen. Es versteht sich, dass eine beliebige vom Stand der Technik her bekannte dreidimensionale Technologie verwendet werden kann, um die dreidimensionale Perspektive zu erzeugen. - Es versteht sich, dass der Benutzer die Konfiguration der Anzeigen
26 ,28 und der hiermit assoziierten ausführbaren Funktionen manuell modifizieren kann. Es versteht sich ferner, dass die Benutzerschnittstelle16 vorrangig vor der automatischen Konfigurierung der Anzeigen26 ,28 eine selektive Steuerung bereitstellen kann. Beispielsweise können die Anzeigen26 ,28 immer zur Standardkonfiguration zurückkehren, es sei denn, der Benutzer initiiert eine Sichtbetriebsart, bei der die Benutzerschnittstelle16 automatisch auf die personalisierte Konfigurierung, die mit den Sichtmerkmalen des Benutzers assoziiert ist, konfiguriert wird. - Ein Beispiel einer personalisierten Konfigurierung ist in
3A und3B abgebildet. Wie in3A gezeigt wird, richtet der Benutzer den Blick auf ein rechter Hand angeordnetes Messinstrument34 , wobei das rechter Hand angeordnete Messinstrument34 sich innerhalb des Fokusfelds des Benutzers befindet. Entsprechend wird das rechter Hand angeordnete der Messinstrumente34 zum Fokus-Messinstrument34' und der andere visuelle Ausgang (beispielsweise das Nicht-Fokus-Messinstrument34'' ) abgeschwächt. Beispielsweise kann das Fokus-Messinstrument34' stärker beleuchtet sein als das Nicht-Fokus-Messinstrument34'' . Als weiteres Beispiel sei angeführt, dass das Fokusmessinstrument34' mit Bezug auf die Größe des Nicht-Fokus-Messinstruments34'' auf der Anzeige28 vergrößert sein kann. - Wie in
3B abgebildet ist, richtet sich der Blick des Benutzers auf ein linker Hand angeordnetes Messinstrument34 , wobei das linker Hand angeordnete der Messinstrumente34 sich innerhalb des Fokusfeld des Benutzers befindet. Entsprechend wird das linker Hand angeordnete Messinstrument34 das Fokus-Messinstrument34' und das Nicht-Fokus-Messinstrument34'' wird abgeschwächt. Beispielsweise kann das Fokus-Messinstrument stärker beleuchtet sein als das Nicht-Fokus-Messinstrument34'' . Als weiteres Beispiel sei angeführt, dass das Fokusmessinstrument34' mit Bezug auf die Größe des Nicht-Fokus-Messinstruments34'' auf der Anzeige28 vergrößert sein kann. - Bei gewissen Ausführungsbeispielen ist nur der visuelle Ausgang innerhalb des Fokusfeldes des Benutzers vollständig erleuchtet, während der visuelle Ausgang außerhalb des Fokusfelds des Benutzers unterdrückt oder ausgeblendet wird. Im Zuge einer Änderung der Sichtmerkmale des Benutzers wird die Benutzerschnittstelle
16 automatisch dazu konfiguriert, den visuellen Ausgang auf den Anzeigen26 ,28 innerhalb des Fokusfeldes des Benutzers hervorzuheben oder zu betonen. Es versteht sich, dass jeder beliebige visuelle Ausgang der Benutzerschnittstelle16 auf ähnliche Art und Weise konfiguriert werden kann wie die Messinstrumente34' ,34'' in dem vorstehenden Beispiel, beispielsweise als Schaltfläche30 . Es versteht sich ferner, dass verschiedene Konfigurierungen der Benutzerschnittstelle16 jeweils basierend auf dem Maß der Änderung an den Sichtmerkmalen des Benutzers verwendbar sind. - Das Schnittstellensystem
10 und Verfahren zur Konfigurierung der Benutzerschnittstelle16 bieten eine Personalisierung der Benutzerschnittstelle16 in Echtzeit jeweils auf der Grundlage der Sichtmerkmale des Benutzers, wodurch die Aufmerksamkeit des Benutzers auf die jeweilige visuelle Ausgabe gelenkt wird, die von Interesse ist (sprich: innerhalb des Fokusfelds) und Ablenkungen aufgrund von Ausgängen, die außerhalb des Fokusfeldes abgebildet werden, auf ein Minimum reduziert werden. - Der Fachmann kann der vorstehenden Beschreibung die wesentlichen erfindungsgemäßen Charakteristiken problemlos entnehmen und verschiedene Änderungen und Modifizierungen an der Erfindung vornehmen, um sie unterschiedlichen Gebrauchsweisen und Bedingungen anzupassen, ohne dabei den Geist oder Schutzbereich der Erfindung zu verlassen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 2288430 [0002]
- US 2445787 [0002]
- US 3462604 [0002]
- US 3514193 [0002]
- US 3534273 [0002]
- US 3583794 [0002]
- US 3806725 [0002]
- US 3864030 [0002]
- US 3992087 [0002]
- US 4003642 [0002]
- US 4034401 [0002]
- US 4075657 [0002]
- US 4102564 [0002]
- US 4145122 [0002]
- US 4169663 [0002]
- US 4303394 [0002]
- US 4648052 [0019]
- US 4720189 [0019]
- US 4836670 [0019]
- US 4950069 [0019]
- US 5008946 [0019]
- US 5305012 [0019]
Claims (20)
- Ein adaptives Schnittstellensystem umfassend: Eine Benutzerschnittstelle, die einen visuellen Ausgang bereitstellt; Einen Sensor zur Erfassung eines Sichtmerkmals eines Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und Einen Prozessor, der mit dem Sensor und der Benutzerschnittstelle in Kommunikation ist und dadurch gekennzeichnet, dass der Prozessor das Sensorsignal empfängt, das Sensorsignal basierend auf dem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und den visuellen Ausgang der Benutzerschnittstelle basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um zumindest einen Anteil des visuellen Ausgangs innerhalb des Fokusfelds des Benutzers hervorzuheben.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle ein Touchscreen ist.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle im Innenraum eines Kraftfahrzeugs angeordnet ist.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass die Benutzerschnittstelle ein digitales Kombi-Instrument mit einem Messinstrument ist.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass der Sensor ein Registrierungsgerät zur Erfassung eines Bildes des Benutzers ist.
- Das Schnittstellensystem gemäß Anspruch 1 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus, zur Festlegung mindestens einer Kopfhaltung, einer Blickrichtung und einer Augenlidposition des Benutzers ist.
- Das Schnittstellensystem gemäß Anspruch 1 umfasst weiter eine elektromagnetische Strahlungsquelle, um einen Teil des Benutzers zur Vereinfachung der Erfassung des Sichtmerkmals des Benutzers zu erleuchten.
- Ein adaptives Schnittstellensystem für ein Kraftfahrzeug umfassend: Eine Benutzerschnittstelle, die im Innenraum eines Kraftfahrzeugs angeordnet ist, wobei die Benutzerschnittstelle eine Anzeige zur Kommunikation von Informationen an den Benutzer aufweist, die einen Zustand des Fahrzeugsystems abbilden; Einen Sensor zur Erfassung eines Sichtmerkmals des Benutzers und zur Erzeugung eines Sensorsignals, das das Sichtmerkmal abbildet; und Einen Prozessor, der in Kommunikation mit dem Sensor und der Benutzerschnittstelle ist und dadurch gekennzeichnet, dass der Prozessor das Sensorsignal empfängt, das Sensorsignal basierend auf einem Befehlssatz analysiert, um das Sichtmerkmal des Benutzers zu ermitteln und die Anzeige basierend auf dem Sichtmerkmal des Benutzers konfiguriert, um einen bestimmten visuellen Ausgang, der auf der Anzeige abgebildet ist, hervorzuheben.
- Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass die Anzeige der Benutzerschnittstelle ein Touchscreen ist.
- Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass die Anzeige eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
- Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Sensor ein Instrument zur Benutzerregistrierung ist, das in der Lage ist, ein Bild des Benutzers zu erfassen.
- Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus ist, um zumindest eine Kopfposition, eine Blickrichtung und eine Augenlidposition des Benutzers zu ermitteln.
- Das Schnittstellensystem gemäß Anspruch 9 ist dadurch gekennzeichnet, dass der Prozessor die Anzeige aufgrund des Sichtmerkmals des Benutzers konfiguriert, um einen Anteil des visuellen Ausgangs innerhalb des Fokusfeldes des Benutzers hervorzuheben.
- Ein Verfahren zur Konfigurierung einer Anzeige, wobei das Verfahren die folgenden Schritte umfasst: Die Bereitstellung einer Anzeige für das Erzeugen eines visuellen Ausgangs; Die Bereitstellung eines Sensors zur Erfassung eines Sichtmerkmals des Benutzers; und Die Konfigurierung des visuellen Ausgangs der Anzeige basierend auf dem Sichtmerkmal des Benutzers, um zumindest einen Anteil des visuellen Ausgangs innerhalb des visuellen Fokusfeldes des Benutzers hervorzuheben.
- Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige ein Touchscreen ist.
- Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige eine benutzeraktivierbare Schaltfläche umfasst, die mit einer ausführbaren Funktion assoziiert ist.
- Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass die Anzeige im Innenraum eines Kraftfahrzeugs vorgesehen ist.
- Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass der Sensor ein Instrument zur Benutzerregistrierung ist, das in der Lage ist, ein Bild des Benutzers zu erfassen.
- Das Verfahren gemäß Anspruch 15 ist dadurch gekennzeichnet, dass der Befehlssatz ein Lernalgorithmus zu Ermittlung zumindest einer Kopfposition, Richtung des Blickwinkels und Position des Augenlids des Benutzers ist.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/816,748 | 2010-06-16 | ||
US12/816,748 US20110310001A1 (en) | 2010-06-16 | 2010-06-16 | Display reconfiguration based on face/eye tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102011050942A1 true DE102011050942A1 (de) | 2012-03-08 |
Family
ID=45328158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011050942A Ceased DE102011050942A1 (de) | 2010-06-16 | 2011-06-09 | Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking |
Country Status (3)
Country | Link |
---|---|
US (1) | US20110310001A1 (de) |
JP (1) | JP2012003764A (de) |
DE (1) | DE102011050942A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012213466A1 (de) | 2012-07-31 | 2014-02-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens |
DE102015011365A1 (de) | 2015-08-28 | 2017-03-02 | Audi Ag | Blickwinkelkorrigierte Anzeige |
DE102020213770A1 (de) | 2020-11-02 | 2022-05-05 | Continental Automotive Gmbh | Anzeigevorrichtung für ein Fahrzeug |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8902156B2 (en) * | 2011-01-14 | 2014-12-02 | International Business Machines Corporation | Intelligent real-time display selection in a multi-display computer system |
US8766936B2 (en) | 2011-03-25 | 2014-07-01 | Honeywell International Inc. | Touch screen and method for providing stable touches |
US20130152002A1 (en) * | 2011-12-11 | 2013-06-13 | Memphis Technologies Inc. | Data collection and analysis for adaptive user interfaces |
US9733707B2 (en) | 2012-03-22 | 2017-08-15 | Honeywell International Inc. | Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system |
EP2836889A4 (de) * | 2012-04-12 | 2015-11-18 | Intel Corp | Selektive rückseitige beleuchtung einer anzeige auf augenverfolgungsbasis |
JP6001758B2 (ja) * | 2012-04-27 | 2016-10-05 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. | ユーザからのオーディオ入力 |
US9423871B2 (en) | 2012-08-07 | 2016-08-23 | Honeywell International Inc. | System and method for reducing the effects of inadvertent touch on a touch screen controller |
FR2995120B1 (fr) * | 2012-09-05 | 2015-09-18 | Dassault Aviat | Systeme et procede de commande de la position d'un objet deplacable sur un dispositif de visualisation |
US20140092006A1 (en) * | 2012-09-28 | 2014-04-03 | Joshua Boelter | Device and method for modifying rendering based on viewer focus area from eye tracking |
US9128580B2 (en) | 2012-12-07 | 2015-09-08 | Honeywell International Inc. | System and method for interacting with a touch screen interface utilizing an intelligent stencil mask |
KR101382772B1 (ko) * | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | 디스플레이 시스템 및 방법 |
WO2015019122A1 (en) * | 2013-08-07 | 2015-02-12 | Audi Ag | Visualization system,vehicle and method for operating a visualization system |
JP6265713B2 (ja) * | 2013-12-02 | 2018-01-24 | 矢崎総業株式会社 | グラフィックメータ装置 |
US9530065B2 (en) * | 2014-10-15 | 2016-12-27 | GM Global Technology Operations LLC | Systems and methods for use at a vehicle including an eye tracking device |
US9904362B2 (en) | 2014-10-24 | 2018-02-27 | GM Global Technology Operations LLC | Systems and methods for use at a vehicle including an eye tracking device |
US10434878B2 (en) * | 2015-07-02 | 2019-10-08 | Volvo Truck Corporation | Information system for a vehicle with virtual control of a secondary in-vehicle display unit |
US10775882B2 (en) * | 2016-01-21 | 2020-09-15 | Microsoft Technology Licensing, Llc | Implicitly adaptive eye-tracking user interface |
WO2018020368A1 (en) * | 2016-07-29 | 2018-02-01 | Semiconductor Energy Laboratory Co., Ltd. | Display method, display device, electronic device, non-temporary memory medium, and program |
US10503529B2 (en) | 2016-11-22 | 2019-12-10 | Sap Se | Localized and personalized application logic |
GB2567164A (en) * | 2017-10-04 | 2019-04-10 | Continental Automotive Gmbh | Display system in a vehicle |
KR102562285B1 (ko) * | 2020-09-25 | 2023-08-02 | 애플 인크. | 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기 위한 방법 |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2288430A (en) | 1940-07-26 | 1942-06-30 | Sterling Getchell Inc J | Scanning apparatus |
US2445787A (en) | 1945-12-18 | 1948-07-27 | Lilienfeld Julius Edgar | Method of and apparatus for plotting an ordered set of quantities |
US3462604A (en) | 1967-08-23 | 1969-08-19 | Honeywell Inc | Control apparatus sensitive to eye movement |
US3514193A (en) | 1968-09-30 | 1970-05-26 | Siegfried Himmelmann | Device for recording eye movement |
US3534273A (en) | 1967-12-18 | 1970-10-13 | Bell Telephone Labor Inc | Automatic threshold level selection and eye tracking in digital transmission systems |
US3583794A (en) | 1969-03-10 | 1971-06-08 | Biometrics Inc | Direct reading eye movement monitor |
US3806725A (en) | 1972-01-18 | 1974-04-23 | Leitz Ernst Gmbh | Apparatus for automatic tracking of pupil of eye |
US3864030A (en) | 1972-07-11 | 1975-02-04 | Acuity Syst | Eye position measuring technique |
US3992087A (en) | 1975-09-03 | 1976-11-16 | Optical Sciences Group, Inc. | Visual acuity tester |
US4003642A (en) | 1975-04-22 | 1977-01-18 | Bio-Systems Research Inc. | Optically integrating oculometer |
US4034401A (en) | 1975-04-22 | 1977-07-05 | Smiths Industries Limited | Observer-identification of a target or other point of interest in a viewing field |
US4075657A (en) | 1977-03-03 | 1978-02-21 | Weinblatt Lee S | Eye movement monitoring apparatus |
US4102564A (en) | 1975-04-18 | 1978-07-25 | Michael Henry L | Portable device for the accurate measurement of eye movements both in light and obscurity |
US4145122A (en) | 1977-05-31 | 1979-03-20 | Colorado Seminary | Method and apparatus for monitoring the position of the eye |
US4169663A (en) | 1978-02-27 | 1979-10-02 | Synemed, Inc. | Eye attention monitor |
US4303394A (en) | 1980-07-10 | 1981-12-01 | The United States Of America As Represented By The Secretary Of The Navy | Computer generated image simulator |
US4648052A (en) | 1983-11-14 | 1987-03-03 | Sentient Systems Technology, Inc. | Eye-tracker communication system |
US4720189A (en) | 1986-01-07 | 1988-01-19 | Northern Telecom Limited | Eye-position sensor |
US4836670A (en) | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
US4950069A (en) | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
US5008946A (en) | 1987-09-09 | 1991-04-16 | Aisin Seiki K.K. | System for recognizing image |
US5305012A (en) | 1992-04-15 | 1994-04-19 | Reveo, Inc. | Intelligent electro-optical system and method for automatic glare reduction |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4897715A (en) * | 1988-10-31 | 1990-01-30 | General Electric Company | Helmet display |
GB9420578D0 (en) * | 1994-10-12 | 1994-11-30 | Secr Defence | Position sensing of a remote target |
JP2000020196A (ja) * | 1998-07-01 | 2000-01-21 | Shimadzu Corp | 視線入力装置 |
JP2002166787A (ja) * | 2000-11-29 | 2002-06-11 | Nissan Motor Co Ltd | 車両用表示装置 |
JP2002169637A (ja) * | 2000-12-04 | 2002-06-14 | Fuji Xerox Co Ltd | ドキュメント表示態様変換装置、ドキュメント表示態様変換方法、記録媒体 |
US7013258B1 (en) * | 2001-03-07 | 2006-03-14 | Lenovo (Singapore) Pte. Ltd. | System and method for accelerating Chinese text input |
US6668221B2 (en) * | 2002-05-23 | 2003-12-23 | Delphi Technologies, Inc. | User discrimination control of vehicle infotainment system |
JP4349350B2 (ja) * | 2005-09-05 | 2009-10-21 | トヨタ自動車株式会社 | 顔画像撮影カメラの搭載構造 |
JP2007102360A (ja) * | 2005-09-30 | 2007-04-19 | Sharp Corp | 電子書籍装置 |
JP2007249477A (ja) * | 2006-03-15 | 2007-09-27 | Denso Corp | 車載用情報伝達装置 |
US8700332B2 (en) * | 2008-11-10 | 2014-04-15 | Volkswagen Ag | Operating device for a motor vehicle |
US9108513B2 (en) * | 2008-11-10 | 2015-08-18 | Volkswagen Ag | Viewing direction and acoustic command based operating device for a motor vehicle |
US9039419B2 (en) * | 2009-11-06 | 2015-05-26 | International Business Machines Corporation | Method and system for controlling skill acquisition interfaces |
-
2010
- 2010-06-16 US US12/816,748 patent/US20110310001A1/en not_active Abandoned
-
2011
- 2011-06-09 DE DE102011050942A patent/DE102011050942A1/de not_active Ceased
- 2011-06-14 JP JP2011132407A patent/JP2012003764A/ja active Pending
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2288430A (en) | 1940-07-26 | 1942-06-30 | Sterling Getchell Inc J | Scanning apparatus |
US2445787A (en) | 1945-12-18 | 1948-07-27 | Lilienfeld Julius Edgar | Method of and apparatus for plotting an ordered set of quantities |
US3462604A (en) | 1967-08-23 | 1969-08-19 | Honeywell Inc | Control apparatus sensitive to eye movement |
US3534273A (en) | 1967-12-18 | 1970-10-13 | Bell Telephone Labor Inc | Automatic threshold level selection and eye tracking in digital transmission systems |
US3514193A (en) | 1968-09-30 | 1970-05-26 | Siegfried Himmelmann | Device for recording eye movement |
US3583794A (en) | 1969-03-10 | 1971-06-08 | Biometrics Inc | Direct reading eye movement monitor |
US3806725A (en) | 1972-01-18 | 1974-04-23 | Leitz Ernst Gmbh | Apparatus for automatic tracking of pupil of eye |
US3864030A (en) | 1972-07-11 | 1975-02-04 | Acuity Syst | Eye position measuring technique |
US4102564A (en) | 1975-04-18 | 1978-07-25 | Michael Henry L | Portable device for the accurate measurement of eye movements both in light and obscurity |
US4034401A (en) | 1975-04-22 | 1977-07-05 | Smiths Industries Limited | Observer-identification of a target or other point of interest in a viewing field |
US4003642A (en) | 1975-04-22 | 1977-01-18 | Bio-Systems Research Inc. | Optically integrating oculometer |
US3992087A (en) | 1975-09-03 | 1976-11-16 | Optical Sciences Group, Inc. | Visual acuity tester |
US4075657A (en) | 1977-03-03 | 1978-02-21 | Weinblatt Lee S | Eye movement monitoring apparatus |
US4145122A (en) | 1977-05-31 | 1979-03-20 | Colorado Seminary | Method and apparatus for monitoring the position of the eye |
US4169663A (en) | 1978-02-27 | 1979-10-02 | Synemed, Inc. | Eye attention monitor |
US4303394A (en) | 1980-07-10 | 1981-12-01 | The United States Of America As Represented By The Secretary Of The Navy | Computer generated image simulator |
US4648052A (en) | 1983-11-14 | 1987-03-03 | Sentient Systems Technology, Inc. | Eye-tracker communication system |
US4720189A (en) | 1986-01-07 | 1988-01-19 | Northern Telecom Limited | Eye-position sensor |
US4836670A (en) | 1987-08-19 | 1989-06-06 | Center For Innovative Technology | Eye movement detector |
US5008946A (en) | 1987-09-09 | 1991-04-16 | Aisin Seiki K.K. | System for recognizing image |
US4950069A (en) | 1988-11-04 | 1990-08-21 | University Of Virginia | Eye movement detector with improved calibration and speed |
US5305012A (en) | 1992-04-15 | 1994-04-19 | Reveo, Inc. | Intelligent electro-optical system and method for automatic glare reduction |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012213466A1 (de) | 2012-07-31 | 2014-02-06 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Überwachen eines Fahrzeuginsassens |
US8958978B2 (en) | 2012-07-31 | 2015-02-17 | Robert Bosch Gmbh | Method and device for monitoring a vehicle occupant |
DE102015011365A1 (de) | 2015-08-28 | 2017-03-02 | Audi Ag | Blickwinkelkorrigierte Anzeige |
DE102020213770A1 (de) | 2020-11-02 | 2022-05-05 | Continental Automotive Gmbh | Anzeigevorrichtung für ein Fahrzeug |
Also Published As
Publication number | Publication date |
---|---|
US20110310001A1 (en) | 2011-12-22 |
JP2012003764A (ja) | 2012-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011050942A1 (de) | Rekonfigurierung einer Anzeige basierend auf Gesichts-/Eyetracking | |
DE102011053449A1 (de) | Mensch-Maschine-Schnittstelle auf Fingerzeige- und Gestenbasis für Fahrzeuge | |
DE102012109622A1 (de) | Verfahren zur Steuerung einer Anzeigekomponente eines adaptiven Anzeigesystems | |
EP3084564B1 (de) | Vorrichtung und verfahren zum navigieren innerhalb eines menüs zur fahrzeugsteuerung sowie auswählen eines menüeintrags aus dem menü | |
EP1998996B1 (de) | Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung | |
EP2987057B1 (de) | Verfahren zum auswählen einer informationsquelle aus einer mehrzahl von informationsquellen zur anzeige auf einer anzeige einer datenbrille | |
EP3191919B1 (de) | Bestimmung der pose eines hmd | |
DE102012219280A1 (de) | Fahrerassistenzsystem und Verfahren | |
DE102011056714A1 (de) | Systembereitschaftsschalter für ein Mensch-Maschine-Interaktionssteuerungssystem mit Augenverfolgung | |
WO2017211817A1 (de) | Bedienvorrichtung mit eyetrackereinheit und verfahren zum kalibrieren einer eyetrackereinheit einer bedienvorrichtung | |
DE102016224246B4 (de) | Verfahren und Vorrichtung zur Interaktion mit einer grafischen Benutzerschnittstelle | |
DE102012206247A1 (de) | Verfahren und Vorrichtung zur Anzeige einer Hand eines Bedieners eines Bedienelements eines Fahrzeugs | |
DE102013100328A1 (de) | Adaptives Schnittstellensystem | |
DE102014006776A1 (de) | Bedienvorrichtung für ein elektronisches Gerät | |
EP3642695A1 (de) | Verfahren zum betreiben einer anzeigevorrichtung für ein kraftfahrzeug sowie kraftfahrzeug | |
DE102012221647A1 (de) | Testen der Sehfähigkeit eines Fahrers eines Kraftfahrzeugs | |
DE102016225261A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille | |
DE102015012720A1 (de) | Interaktives Bediensystem und Verfahren zum Durchführen einer Bedienhandlung bei einem interaktiven Bediensystem | |
WO2014067798A1 (de) | Bereitstellen einer bedienungseingabe unter verwendung eines head-mounted displays | |
DE102013210354A1 (de) | Blickgesteuerte Interaktion für Datenbrillen | |
DE102020211859A1 (de) | Verfahren und Anzeigesystem zum Anzeigen von Informationen für einen Fahrer | |
WO2014114428A1 (de) | Verfahren und system zum blickrichtungsabhängigen steuern einer mehrzahl von funktionseinheiten sowie kraftwagen und mobiles endgerät mit einem solchen system | |
DE102015226153A1 (de) | Anzeigevorrichtung und Bedieneinrichtung | |
DE102014222752A1 (de) | Bedienung über Kopfrichtung als Ersatz zur Blickrichtung | |
DE102017209798A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems in einem Kraftfahrzeug |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |
Effective date: 20130817 |
|
R082 | Change of representative |
Representative=s name: MERH-IP MATIAS ERNY REICHL HOFFMANN PATENTANWA, DE |