DE102017120697A1 - Eye-Tracking Auswahlvalidierung - Google Patents

Eye-Tracking Auswahlvalidierung Download PDF

Info

Publication number
DE102017120697A1
DE102017120697A1 DE102017120697.3A DE102017120697A DE102017120697A1 DE 102017120697 A1 DE102017120697 A1 DE 102017120697A1 DE 102017120697 A DE102017120697 A DE 102017120697A DE 102017120697 A1 DE102017120697 A1 DE 102017120697A1
Authority
DE
Germany
Prior art keywords
electronic device
user
actionable
user input
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017120697.3A
Other languages
English (en)
Inventor
Nathan J. Peterson
Russell Speight VanBlon
Arnold S. Weksler
John Carl Mese
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102017120697A1 publication Critical patent/DE102017120697A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Ausführungsform stellt ein Verfahren bereit, umfassend: Aufnehmen von Bilddaten, unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes; Identifizieren, unter Verwenden des Eye-Tracking Systems, eines Ortes eines Nutzerblickes; Erfassen einer Nutzereingabe, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist, unter Verwenden eines Eingabegerätes des elektronischen Gerätes; Bestimmen, unter Verwenden eines Prozessors, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht mit im Wesentlichen dem gleichen Ort des elektronischen Gerätes assoziiert sind; und in Reaktion auf das Bestimmen, Ignorieren der Nutzereingabe auf der aktionsfähigen Fläche. Andere Aspekte werden beschrieben und beansprucht.

Description

  • HINTERGRUND
  • Elektronische Geräte, wie Desktopcomputer, Laptopcomputer, Tablets, Smartphones usw., werden zum Ausführen verschiedener Aufgaben verwendet. Als ein Teil dieser Funktionalität werden Nutzereingabegeräte, wie Zeigergeräte, Touch Screens, Digitalisierer, Spracheingabesysteme, Gestenerfassungssysteme usw., bereitgestellt, um Nutzereingaben zu empfangen und auf diese zu agieren.
  • Um einige Aufgaben auszuführen, kann es sein, dass ein Nutzer mit einem elektronischen Gerät interagiert oder dieses handhabt und dabei versehentlich unbeabsichtigte Funktionen über eine versehentliche Eingabe triggert, die durch ein Nutzereingabegerät erfasst wird. Zum Beispiel ist es für einen Nutzer üblich, Schwierigkeiten mit dem Bereitstellen einer unbeabsichtigten Eingabe auf einem Touch Screen zu haben, z.B. während er ein Video betrachtet und das elektronische Gerät an oder nahe dem Touch Screen hält.
  • Verschiedene Filteralgorithmen wurden eingeführt in dem Versuch, unbeabsichtigte Eingaben zu adressieren. Zum Beispiel werden Handflächenprüffilter verwendet, um eine versehentliche Eingabe in einen Touch Screen zu reduzieren.
  • KURZE ZUSAMMENFASSUNG
  • Zusammenfassend stellt ein Aspekt ein Verfahren bereit, umfassend: Aufnehmen von Bilddaten, unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes; Identifizieren eines Ortes eines Nutzerblickes, unter Verwenden des Eye-Tracking Systems; Erfassen einer Nutzereingabe, unter Verwenden eines Eingabegerätes des elektronischen Gerätes, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist; Bestimmen, unter Verwenden eines Prozessors, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht mit im Wesentlichen dem gleichen Ort des elektronischen Gerätes assoziiert sind; und in Reaktion auf das Bestimmen, Ignorieren der Nutzereingabe auf der aktionsfähigen Fläche.
  • Ein anderer Aspekt stellt ein elektronisches Gerät bereit, umfassend: ein Eingabegerät; ein Eye-Tracking System; einen Prozessor; und einen Speicher, der Instruktionen speichert, die durch den Prozessor ausführbar sind zum: Aufnehmen, unter Verwenden des Eye-Tracking Systems, von Bilddaten; Identifizieren, unter Verwenden des Eye-Tracking Systems, von einem Ort eines Nutzerblickes; Erfassen, unter Verwenden eines Eingabegerätes, einer Nutzereingabe, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist; Bestimmen, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht im Wesentlichen ähnlich sind; und danach Ignorieren der Nutzereingabe auf der aktionsfähigen Fläche.
  • Ein weiterer Aspekt stellt ein Produkt bereit, umfassend: ein Speichergerät, das einen Code speichert, wobei der Code durch einen Prozessor ausführbar ist und umfasst: einen Code, der, unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes, Bilddaten aufnimmt; einen Code, der, unter Verwenden des Eye-Tracking Systems, einen Ort eines Nutzerblickes identifiziert; einen Code, der, unter Verwenden eines Eingabegerätes des elektronischen Gerätes, eine Nutzereingabe erfasst, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist; einen Code, der, unter Verwenden des Prozessors, bestimmt, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht im Wesentlichen ähnlich sind; und einen Code, der danach die Nutzereingabe auf der aktionsfähigen Fläche ignoriert.
  • Das Vorhergehende ist eine Zusammenfassung und kann somit Vereinfachungen, Verallgemeinerungen und Auslassungen von Details enthalten; konsequenterweise werden diejenigen, die mit der Technik vertraut sind, erkennen, dass die Zusammenfassung nur darstellend ist und diese nicht darauf abzielt, in irgendeiner Weise begrenzend zu sein.
  • Für ein besseres Verständnis der Ausführungsformen, zusammen mit anderen und weiteren Merkmalen und Vorteilen davon, wird auf die nachfolgende Beschreibung Bezug genommen in Zusammenhang mit den begleitenden Zeichnungen. Der Rahmen der Erfindung wird in den anhängenden Ansprüchen aufgezeigt.
  • KURZE BESCHREIBUNG MEHRERER ANSICHTEN DER ZEICHNUNGEN
  • 1 zeigt ein Beispiel einer Informationshandhabungs-Geräteschaltung.
  • 2 zeigt ein anderes Beispiel einer Informationshandhabungs-Geräteschaltung.
  • 3 zeigt ein Beispiel eines Verfahrens einer auf Eye-Tracking basierenden Auswahlvalidierung.
  • DETAILLIERTE BESCHREIBUNG
  • Es ist ohne weiteres verständlich, dass die Komponenten der Ausführungsformen, wie sie hierin im Allgemeinen beschrieben und in den Figuren gezeigt werden, zusätzlich zu den beschriebenen beispielhaften Ausführungsformen in einer weiten Vielfältigkeit von unterschiedlichen Konfigurationen angeordnet und konstruiert sein können. Somit ist die nachfolgende detaillierte Beschreibung von beispielhaften Ausführungsformen, wie sie in den Figuren repräsentiert werden, nicht geeignet, den Rahmen der Ausführungsformen wie beansprucht zu begrenzen, sondern stellt diese nur beispielhafte Ausführungsformen dar.
  • Eine Bezugnahme in dieser gesamten Spezifikation auf “eine einzelne Ausführungsform” oder “eine Ausführungsform” (oder ähnliches) bedeutet, dass ein bestimmtes Merkmal, eine Struktur oder ein Zeichen, das in Verbindung mit der Ausführungsform beschrieben wird, wenigstens in einer Ausführungsform enthalten ist. Somit bezieht sich das Auftreten der Phrasen “in einer einzelnen Ausführungsform” oder “in einer Ausführungsform” oder dergleichen an unterschiedlichen Stellen in dieser Spezifikation nicht notwendigerweise auf die gleiche Ausführungsform.
  • Weiterhin können die beschriebenen Merkmale, Strukturen oder Zeichen in irgendeiner geeigneten Weise in einer oder mehreren Ausführungsformen kombiniert werden. In der nachfolgenden Beschreibung wird eine Vielzahl spezieller Details bereitgestellt, um ein gründliches Verständnis der Ausführungsformen zu geben. Ein Fachmann des relevanten Standes der Technik wird jedoch erkennen, dass die unterschiedlichen Ausführungsformen ohne ein oder mehrere der spezifischen Details, oder mit oder ohne Verfahren, Komponenten, Materialien, usw., ausgeführt werden können. In anderen Beispielen werden bekannte Strukturen, Materialien oder Verfahren nicht im Detail gezeigt oder beschrieben, um eine Verwirrung zu vermeiden.
  • Es ist für einen Nutzer üblich, Schwierigkeiten mit dem Bereitstellen einer unbeabsichtigten Eingabe zu haben. Selbst nach vielen Jahren des Vorhandenseins eines Berührungsgerätes tendieren Nutzer zum Beispiel immer noch dazu, Probleme mit zufälligen Tastaktionen zu haben. Dies passiert leicht, wenn das Handhabungsgerät einem anderen zum Ansehen eines Fotos gegeben wird, wenn Kinder die Geräte gerademal entlang der Ränder halten können, wenn diese ein Video beobachten, usw.
  • Es gibt viele Verfahren, um versehentliche Eingaben herauszufiltern. Jedes Verfahren tendiert dazu, sich auf ein Analysieren der Natur der Eingabe selbst zu verlassen. Zum Beispiel können Handflächenzurückweisungsfilter verwendet werden, um große Flächen der Eingabe, die während des Schreibens auf einem Gerät mit einem Stylus oder Stift erfasst werden, zurückzuweisen. Darüber hinaus gibt es nicht sehr viele Filteralgorithmen für allgemeines zufälliges Anklicken, z.B. auf einem aktionsfähigen Element, wie einer Hyperverbindung, die auf einem Bildschirm angezeigt wird, eines Soft-Buttons, der auf einem Bildschirm angezeigt wird, usw.
  • Eine Ausführungsform verwendet eine Kombination von Eye-Tracking und Berührungsort, um zu bestimmen, ob eine Person aktuell beabsichtigt, eine Auswahl zu treffen, z.B. eines aktionsfähigen Elements oder einer Fläche auf dem Bildschirm.
  • Wenn ein Nutzer nicht auf den oder nahe zu dem Gegenstand oder der Fläche, einschließlich des aktionsfähigen Gegenstands oder Elements, das z.B. auf dem Bildschirm gezeigt wird, schaut, während oder kurz bevor oder kurz nachdem der Bildschirm berührt wird, versucht der Nutzer wahrscheinlich nicht dieses auszuwählen.
  • Das Verarbeiten der Eye-Tracking-Daten und der Nutzereingabedaten kann auf viele verschiedene Arten von aktionsfähigen Elementen oder Flächen des elektronischen Gerätes angewandt werden und folglich auf viele verschiedene Eingabemoden. Zum Beispiel kann eine Ausführungsform wirken, um unerwünschte Berührungseingaben, die z.B. einer Verbindung bzw. einem Link oder einem anderen aktionsfähigen Element zur Verfügung gestellt werden, welche(s) auf einem Berührungsbildschirm angezeigt wird, basierend auf Eye-Tracking-Daten herauszufiltern. Eine Ausführungsform kann basierend auf Eye-Tracking-Daten auch andere Berührungsereignisse herausfiltern, z.B. Wischaktionen, die auf einem Berührungsbildschirm bereitgestellt werden. Eine Ausführungsform kann basierend auf Eye-Tracking-Daten Berührungsereignisse an Orten des elektronischen Gerätes, z.B. physischen Tasten, usw., herausfiltern. Darüber hinaus kann eine Ausführungsform basierend auf Eye-Tracking-Daten nicht-berührungsbasierte Ereignisse, die z.B. mit einem Zeigegerät wie einer physischen Maus bereitgestellt werden, herausfiltern.
  • Einige nicht-begrenzende Beispiele lauten wie folgt. Eine Ausführungsform kann, auf der Basis von Eye-Tracking-Daten agieren, um unerwünschte Berührungsereignisse während des Betrachtens eines Videos auf einem Tablet im Breitbild-Modus herauszufiltern. Wenn ein Nutzer zum Beispiel das elektronische Geräte mit seinem oder ihrem Daumen hält, der die Oberseite des Bildschirms berührt, wodurch er unbeabsichtigt Optionen in dem Videoplayer auswählt, kann eine Ausführungsform diese Eingaben ignorieren, falls die Eye-Tracking-Daten nicht anzeigen, dass der Nutzer seine oder ihre Daumen/die Fläche nahe zu den Optionen in dem Videoplayer betrachtet.
  • Wenn bei einem anderen Beispiel, ein Ereignis auf einem Nutzertelefon hereinkommt, z.B. eine Textmitteilung empfangen wird, wird dies manchmal den Touch Screen anschalten. Wenn der Nutzer einfach das Telefon hält, während dies auftritt, kann eine unbeabsichtigte Eingabe (z.B. eine Finger- oder Handflächeneingabe) zufällig Dinge auf dem Bildschirm auswählen. Jedoch bewirkt eine Ausführungsform, diese versehentlichen Eingaben mit Eye-Tracking-Daten abzugleichen, z.B. um zu bestimmen, dass der Nutzer nicht auf das Telefon schaut und somit diese Eingaben ignoriert werden sollten.
  • Bei einem anderen Beispiel, kann ein Nutzer versehentlich auflegen, wenn ein Smartphone klingelt, während er versucht, das Smartphone aus einer Tasche herauszuholen. Eine Ausführungsform wird jedoch diese gegebenen Eingaben ignorieren, da Eye-Tracking-Daten nicht verfügbar sind, um zu bestätigen, dass sich der Nutzer auf das Smartphone oder einen bestimmten Teil des Smartphones, z.B. einen Soft-Button, eine physische Taste usw., fokussiert.
  • Bei einem weiteren Beispiel verstehen oft bestimmte Nutzer, z.B. Kinder, nicht, warum, wenn sie nur ein Gerät mit einem Touch SCreen halten, sich der Bildschirm in Reaktion auf die Berührungseingaben, welche durch das Halten des Gerätes bereitgestellt werden, ändert. Eine Ausführungsform kann derartigen Nutzern durch Herausfiltern/Ignorieren derartiger Berührungseingaben assistieren, es sei denn, dass Eye-Tracking-Daten bestätigen, dass sich der Nutzer auf die Fläche fokussiert/auf die Fläche blickt, auf der die Eingabe bereitgestellt wird.
  • Die dargestellten beispielhaften Ausführungsformen werden am Besten durch Bezugnahme auf die Figuren verstanden. Die nachfolgende Beschreibung ist nur als ein Beispiel gedacht und illustriert lediglich bestimmte beispielhafte Ausführungsformen.
  • Während verschiedene andere Schaltkreise, Schaltungen oder Komponenten in Informationshandhabungsgeräten in Bezug auf eine Smartphone und/oder Tablet-Schaltung 100 verwendet werden, umfasst ein in 1 gezeigtes Beispiel, ein Systemon-Chip Design, das zum Beispiel in einem Tablet oder anderen mobilen Computer-Plattformen zu finden ist. Software und Prozessor(en) sind in einem einzigen Chip 110 kombiniert. Prozessoren umfassen interne arithmetische Einheiten, Register, Cache-Speicher, Busse, EIN/AUS-Ports, usw., wie sie in der Technik gut bekannt sind. Interne Busse und dergleichen hängen von unterschiedlichen Händlern ab, aber im Wesentlichen können all diese peripheren Geräte (120) an einem einzigen Chip 110 angebracht sein. Die Schaltung 100 kombiniert den Prozessor, die Speichersteuerung und einen EIN/AUS-Steuerknoten zusammen in einem einzigen Chip 110. Auch verwenden Systeme 100 dieses Typs typischerweise nicht SATA oder PCI oder LPC. Gemeinsame Schnittstellen schließen zum Beispiel SDIO und I2C ein.
  • Es gibt Strommanagementchips 130, z.B. eine Batteriemanagementeinheit, BMU, welche den Strom zum Beispiel über eine wiederaufladbare Batterie 140 liefert, die durch eine Verbindung mit einer Stromquelle (nicht gezeigt) wieder aufgeladen wird. In wenigstens einem Design wird ein einziger Chip 110 verwendet, um eine BIOS-ähnliche Funktionalität und einen DRAM-Speicher bereitzustellen.
  • Das System 100 umfasst typischerweise einen oder mehrere eines WWAN-Transceivers 150 und eines WLAN-Transceivers 160 zum Verbinden mit verschiedenen Netzwerken, wie Telekommunikationsnetzwerken und drahtlosen Internetgeräten, beispielsweise Zugriffspunkten. Zusätzlich sind für gewöhnlich Geräte 120 eingeschlossen, z.B. ein Mikrofon zum Empfangen von Sprachkommandos, eine Kamera zum Empfangen von Bilddaten, einschließlich Gesten, usw. Das System 100 umfasst häufig einen Touch Screen 170 für die Dateneingabe und für eine Anzeige/Wiedergabe. Das System 100 umfasst typischerweise auch verschiedene Speichergeräte, z.B. Flash-Speicher 180 und SDRAM 190.
  • 2 zeigt ein Blockdiagramm eines anderen Beispiels von Informationshandhabungsgeräte-Schaltkreisen, Schaltungen oder Komponenten. Das Beispiel, das in 2 gezeigt wird, kann Computersystemen, wie denen der THINKPAD-Serien von Personalcomputern, die von Lenovo (US) Inc. of Morrisville, NC, verkauft werden, oder anderen Geräten entsprechen. Wie es durch die Beschreibung hierin ersichtlich ist, können Ausführungsformen andere Merkmale oder nur einige Merkmale des Beispiels, das in 2 dargestellt wird, einschließen.
  • Das Beispiel der 2 umfasst einen sogenannten Chipsatz 210 (eine Gruppe integrierter Schaltungen oder Chips, die zusammenarbeiten, Chipsätze) mit einer Architektur, die abhängig von dem Hersteller variieren kann (zum Beispiel INTEL, AMD, ARM, usw.). INTEL ist eine registrierte Handelsmarke der Intel Corporation in den Vereinigten Staaten und anderen Ländern. AMD ist eine registrierte Handelsmarke der Advanced Micro Devices Inc. in den Vereinigten Staaten und anderen Ländern. ARM ist eine nicht registrierte Handelsmarke der ARM Holding plc in den Vereinigten Staaten und anderen Ländern. Die Architektur des Chipsatzes 210 umfasst einen Kern und eine Speichersteuergruppe 220 und einen EIN/AUS-Steuerknoten 250, der Informationen (zum Beispiel Daten, Signale, Anweisungen, usw.) über eine Direct Management Interface (DMI) 242 oder ein Verbindungssteuergerät 244 austauscht. In 2 ist die DMI 242 eine Chip-zu-Chip-Schnittstelle (auf die manchmal auch als eine Verbindung zwischen einer “northbridge” und einer “southbridge” Bezug genommen wird). Der Kern und die Speichersteuergruppe 220 umfassen einen oder mehrere Prozessoren 222 (zum Beispiel Einzel- oder Mehrkern) und einen Speichersteuerknoten 226, die Informationen über einen Front-Side-Bus (FSB) 224 austauschen; es ist anzumerken, dass die Komponenten der Gruppe 220 auf einem Chip integriert sein können, der die konventionelle “northbridge”-artige Struktur ersetzt. Ein oder mehrere Prozessoren 222 umfassen interne arithmetische Einheiten, Register, Cache-Speicher, Busse, EIN/AUS-Ports, usw., wie sie in der Technik gut bekannt sind.
  • In 2 bildet der Speichersteuerknoten 226 Schnittstellen mit dem Speicher 240 (zum Beispiel um eine Unterstützung für eine Art RAM-Speicher bereitzustellen, auf den als einen “Systemspeicher” oder “Speicher” Bezug genommen werden kann). Der Speichersteuerknoten 226 schließt weiterhin eine Low Voltage Differential Signaling-(LVDS) Interface 232 für ein Anzeigegerät 292 ein (zum Beispiel einen CRT, einen Flachbildschirm, einen Touchscreen, usw.). Ein Block 238 umfasst einige Technologien, die über die LVDS-Schnittstelle 232 unterstützt werden können (zum Beispiel serielles digitales Video, HDMI/DVI, Anzeigeanschluss). Der Speichersteuerknoten 226 schließt auch eine PCI-Express-Schnittstelle (PCI-E) 234 ein, die diskrete Grafiken 236 unterstützen kann.
  • In 2 umfasst der EIN/AUS-Steuerknoten 250 eine SATA-Schnittstelle 251 (zum Beispiel für HDDs, SDDs, usw. 280), eine PCI-E-Schnittstelle 252 (zum Beispiel für drahtlose Verbindungen 282), eine USB-Schnittstelle 253 (zum Beispiel für Geräte 284 wie einen Digitalisierer, eine Tastatur, eine Maus, Kameras, Telefone, Mikrofone, einen Speicher, ein biometrisches Datenaufnahmegerät, andere verbundene Geräte, usw.), eine Netzwerkschnittstelle 254 (zum Beispiel LAN), eine GPIO-Schnittstelle 255, eine LPC-Schnittstelle 270 (für ASICs 271, eine TPM 272, einen Super-Ein/Aus-Steuerknoten 273, einen Firmenware-Knoten 274, eine BIOS-Unterstützung 275 sowie unterschiedliche Arten von Speichern 276 wie ROM 277, Flash 278 und NVRAM 279), eine Strommanagementschnittstelle 261, eine Taktgeneratorschnittstelle 262, eine Audioschnittstelle 263 (zum Beispiel für Lautsprecher 294), eine TCO-Schnittstelle 264, eine Systemmanagementbus-Schnittstelle 265 und einen SPI-Flash 266, der eine BIOS 268 und einen Boot Code 290 beinhalten kann. Der EIN/AUS-Steuerknoten 250 kann eine Gigabit-Ethernet-Unterstützung aufweisen.
  • Sobald das System eingeschaltet ist, kann es konfiguriert sein, um einen Boot Code 290 für die BIOS-Schnittstelle 268 auszuführen, wie in dem SPI-Flash 266 gespeichert ist, und verarbeitet danach Daten unter der Steuerung von einem oder mehreren Betriebssystemen und Applikationssoftware (die zum Beispiel in dem Systemspeicher 240 gespeichert ist). Ein Betriebssystem kann an irgendeiner von unterschiedlichen Stellen gespeichert sein und zum Beispiel gemäß den Instruktionen der BIOS 268 auf dieses zugegriffen werden. Wie hierin beschrieben, kann ein Gerät weniger oder mehr Merkmale, als die, welche in dem System der 2 gezeigt werden, enthalten.
  • Eine Informationshandhabungsgeräteschaltung, wie sie beispielsweise in 1 oder 2 gezeigt wird, kann in elektronischen Geräten verwendet werden, die auf Nutzereingaben, welche durch verschiedene Eingabegeräte eingegeben werden, reagieren. In einer Ausführungsform werden die Nutzereingaben mit Daten von einem Eye-Tracking-System abgeglichen, welche z.B. den Ort eines Nutzerblickes basierend auf Bilddaten, die über eine Kamera oder andere Bildgeräte aufgenommen werden, auflösen. Dies erlaubt es, eine Assoziation zwischen einer Nutzereingabe, die z.B. auf einem Berührungsbildschirm bereitgestellt wird, die unter Verwenden einer Maus bereitgestellt wird usw., und dem Ort des Nutzerblickes herzustellen.
  • Wie beispielsweise in 3 dargestellt wird, nimmt eine Ausführungsform, unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes, Bilddaten eines Nutzers auf. Diese Bilddaten können auf einer fortlaufenden Basis aufgenommen werden, z.B. durch eine integrierte Kamera des elektronischen Gerätes, die einem Blick- oder Eye-Tracking-Hilfssystem Bilddaten bereitstellt. Eine Ausführungsform verwendet das Eye-Tracking System um bei 301 einen Ort eines Nutzerblickes zu identifizieren. Zum Beispiel kann das Eye-Tracking System zweidimensionale (x, y) Koordinaten mit einem Ort, der mit dem Fokus des Nutzers assoziiert ist, bereitstellen. Somit kann eine Ausführungsform erfassen, dass der Nutzer bei 301 auf einen bestimmten Teil des elektronischen Gerätes blickt, z.B. auf das Zentrum des Anzeigebildschirms schaut.
  • Bei 302 erfasst eine Ausführungsform, z.B. unter Verwenden eines Eingabegerätes des elektronischen Gerätes, eine Nutzereingabe, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist. Zum Beispiel kann ein Nutzer das elektronische Gerät unter Verwenden einer Hand greifen und eine Berührungseingabe an einem seitlichen Rand des Berührungsbildschirms bereitstellen. Diese Fläche, die mit der Nutzereingabe assoziiert ist, kann wahrscheinlich mit zweidimensionalen (x, y) Koordinaten assoziiert sein.
  • Andere Beispiele des Empfangens einer Nutzereingabe bei 302 umfassen, sind aber nicht begrenzt auf, ein Erfassen eines Mausklicks auf einem aktionsfähigen Element, wie einem Hyperlink, einem Soft-Button oder Steuergerät, usw., ein Erfassen einer Spracheingabe, die mit einem aktionsfähigen Gegenstand oder einer Funktion assoziiert ist, wie ein Erfassen der Worte “Scrollen”, “Pause” oder “Stop”, usw., ein Erfassen eines Kontaktes mit einer in einer Umrandung des Bildschirms angeordneten physischen Taste, usw.
  • Eine Ausführungsform bestimmt bei 303, dass der Ort des Nutzerblickes, der bei 301 identifiziert wurde, und die aktionsfähige Fläche des elektronischen Gerätes, z.B. der physische oder virtuelle Ort der mit der Nutzereingabe assoziiert ist, im Wesentlichen nicht mit demselben Ort des elektronischen Gerätes assoziiert sind. Zum Beispiel kann eine Ausführungsform bei 303 bestimmen, dass der Nutzer auf den zentralen Bereich des Anzeigebildschirms blickt, jedoch eine Berührungseingabe an einem Rand- oder einem Eckenbereich des Touch Screens bereitgestellt hat.
  • Wenn der Ort des Nutzerblickes und der Ort der aktionsfähigen Fläche, die mit der Nutzereingabe assoziiert ist, korreliert sind, z.B. im Wesentlichen der gleiche Ort sind, kann eine Ausführungsform die Nutzereingabe, wie es bei 304 dargestellt wird, zulassen.
  • Wenn jedoch bei 303 bestimmt wird, dass der Ort des Nutzerblickes und der Ort des aktionsfähigen Elements, das mit der Nutzereingabe assoziiert ist, nicht im Wesentlichen gleich sind, kann eine Ausführungsform die Nutzereingabe ignorieren oder ausfiltern, wie es bei 305 dargestellt wird. Somit kann, falls ein Nutzer den Touch Screen an einem Rand (z.B. einem Scrollbalken, einem Ort eines Soft-Buttons eines Medienwiedergabegerätes, usw.) berührt, aber nicht auf diesen Bereich oder nahe zu dem Bereich blickt, eine Ausführungsform diese Eingaben als versehentlich ignorieren.
  • Eine Ausführungsform kann bei 306 mit dem Nutzer kommunizieren, dass die Nutzereingabe ignoriert wird. Zum Beispiel kann eine Ausführungsform bei 306 eine Benachrichtigung anzeigen, dass die Nutzereingabe ignoriert wird. Dies ermöglicht es dem Nutzer nachfolgend eine weitere Eingabe bereitzustellen, wie es bei 307 dargestellt wird, welche z.B. verwendet werden kann, um zu bestätigen, dass die ursprüngliche Eingabe versehentlich war, wie es bei 308 dargestellt wird. Zum Beispiel kann ein Nutzer die gleiche oder im Wesentlichen gleiche Eingabe innerhalb eines vorbestimmten Zeitfensters (z.B. innerhalb 10 Sekunden) bereitstellen, was als Bestätigung dafür, dass die Eingabe versehentlich war, gewertet wird.
  • Deshalb kann eine Ausführungsform das Ignorieren, das bei 305 ausgeübt wird, revidieren, z.B. durch Zurückgewinnen der Nutzereingabedaten, die bei 303 eingegeben wurden, aus einem Speicher und danach die Nutzereingabe ausführen durch nachfolgendes Betätigen oder direkte weitere Eingabe, usw. Andererseits kann eine Ausführungsform das Ausfiltern der Nutzereingabe, welche bei 303 bereitgestellt wird, aufrechterhalten.
  • Es ist anzumerken, dass eine funktionsfähige Fläche auf einem Bildschirm des elektronischen Gerätes angeordnet sein kann, z.B. die aktionsfähige Fläche ein angezeigtes Element umfassen kann, wie einen Soft-Button, einen Scrollbalken, einen Hyperlink, usw.
  • Die Nutzereingabe, die bei 302 empfangen wird, kann in ähnlicher Weise von einer Vielfalt von Quellen bereitgestellt sein. Zum Beispiel könnte die Nutzereingabe, die bei 304 empfangen wird, eine Berührungseingabe sein, die auf einem Anzeigebildschirm, einer physischen Taste, einem Digitalisierer, einer Maus, einem Touchpad, usw. bereitgestellt wird.
  • Um bei 303 zu bestimmen, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes mit im Wesentlichen dem gleichen Ort des elektronischen Gerätes assoziiert sind oder nicht, kann eine Ausführungsform eine Fläche zu jeder Eingabe (nämlich einen Ort des Nutzerblickes und den Ort (physischen oder virtuellen Ort) des aktionsfähigen Elements oder der Fläche) angeben. Zum Beispiel assoziiert eine Ausführungsform zweidimensionale (x, y) Koordinaten, die von Bilddaten abgeleitet werden, nämlich solche des Nutzerblickortes, mit einem ersten Oberflächenbereich des elektronischen Gerätes. Auf ähnliche Weise assoziiert eine Ausführungsform zweidimensionale (x, y) Koordinaten, die von der Nutzereingabe abgeleitet werden, mit einer zweiten Oberfläche des elektronischen Elements, nämlich dem Ort des aktionsfähigen Elements oder der Fläche des elektronischen Gerätes. Es ist verständlich, dass in einigen Fällen, z.B. bei einer berührungsbasierten Nutzereingabe eines Elements, das auf einem Touch Screen dargestellt wird, der Ort ein physischer Flächenbereich sein wird, der direkt mit der Berührungseingabe assoziiert ist. In anderen Fällen, z.B. bei einem Mausklick auf einen Hyperlink, einer Gesten- oder Spracheingabe, die einen Hyperlink auswählt, wird der Ort ein virtueller Oberflächenflächenbereich sein, der der Nutzereingabe, beispielsweise dem Mausklick, der Geste, usw., indirekt entspricht.
  • Dies ermöglicht es einer Ausführungsform bei 303 zu bestimmen, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich überlappen oder nicht überlappen. Die Bestimmung, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich überlappen oder nicht überlappen, kann ein Bestimmen einschließen, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich wenigstens um eine vorbestimmte Größe überlappen oder nicht überlappen (getrennt voneinander sind). Die vorbestimmte Größe kann durch den Nutzer ausgewählt oder standardmäßig eingestellt werden mit der Absicht, das Filtern der Eingabe passend abzustimmen. Die vorbestimmte Größe kann geändert werden, genauso wie der Oberflächenbereich, der mit der Nutzereingabe und/oder dem Ort des Nutzerblickes assoziiert ist, beispielsweise um mehr oder weniger Nutzereingaben zu filtern.
  • Deshalb wird eine Ausführungsform für ein verbessertes Nutzereingabefiltern basierend auf den Daten eines Eye-Tracking Systems bereitgestellt. Der Nutzer ist deshalb in der Lage, das Gerät zuverlässiger zu handhaben, z.B. es ohne Bezug auf einen Flächenkontakt zu ergreifen, bei gleichzeitigem Vermeiden einer Erfassung von ungewünschten Eingaben.
  • Wie es für einen Fachmann der Technik ersichtlich ist, können unterschiedliche Aspekte in einem System, einem Verfahren oder einem Geräteprogrammprodukt verkörpert sein. Demgemäß können Aspekte die Form einer vollständigen Hardwareausführungsform oder eine Ausführungsform, die Software einschließt, einnehmen, auf die hierin alle allgemein als “Schaltkreis”, “Modul” oder “System” Bezug genommen wird. Weiterhin können Aspekte die Form eines Geräteprogrammprodukts einnehmen, welches in einem oder mehreren gerätelesbaren Medien enthalten sind, die darin verkörperte gerätelesbare Programmcodes aufweisen.
  • Es ist anzumerken, dass verschiedene Funktionen, die hierin beschrieben werden, unter Verwenden von Instruktionen ausgeführt werden können, die auf einem gerätelesbaren Speichermedium, wie einem Nichtsignal-Speichergerät, gespeichert werden, welche durch einen Prozessor ausgeführt werden. Ein Speichergerät kann zum Beispiel ein elektronisches, magnetisches, optisches oder elektromagnetisches, infrarotes oder Halbleiter-System, -Vorrichtung, oder -Gerät, oder irgendeine geeignete Kombination der Vorhergehenden sein. Noch spezifischere Beispiele für ein Speichermedium umfassen die Folgenden: eine tragbare Computerdiskette, eine Festplatte, einen Direktzugriffsspeicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Festwertspeicher (EPROM oder Flash-Speicher), eine optische Faser, einen tragbaren Compact Disk Festwertspeicher (CD-ROM), ein optisches Speichergerät, ein magnetisches Speichergerät, oder irgendeine geeignete Kombination der Vorhergehenden. In dem Kontext dieses Dokuments ist ein Speichergerät kein Signal und umfasst „nichttransitorisch“ alle Medien außer Signalmedien.
  • Ein Programmcode, der auf deinem Speichermedium vorhanden ist, kann unter Verwenden eines geeigneten Mediums übertragen werden, welches einschließt aber nicht begrenzt ist auf drahtlos, drahtgebunden, optische Faserkabel, HF, usw., oder irgendeine geeignete Kombination von den Vorhergehenden.
  • Ein Programmcode kann Operationen ausführen, die in irgendeiner Kombination einer oder mehreren Programmsprachen geschrieben sind. Der Programmcode kann vollständig auf einem einzigen Gerät, teilweise auf einem einzigen Gerät, als alleinstehendes Softwarepaket, teilweise auf einem einzigen Gerät und teilweise auf einem anderen Gerät, oder vollständig auf einem anderen Gerät ausgeführt werden. In einigen Fällen können die Geräte durch irgendeine Verbindung oder ein Netzwerk verbunden sein, einschließlich eines lokalen Netzwerks (LAN) oder eines Weitverkehrsnetzes (WAN) oder kann die Verbindung durch andere Geräte (zum Beispiel durch das Internet unter Verwenden eines Internet Service Providers), durch drahtlose Verbindung, z.B. Nahfeldkommunikation oder durch eine festverdrahtete Verbindung, beispielsweise eine USB-Verbindung, verbunden sein.
  • Hierin werden beispielhafte Ausführungsformen mit Bezug auf die Figuren beschrieben, welche beispielhafte Verfahren, Geräte und Programmprodukte gemäß unterschiedlicher beispielhafter Ausführungsformen darstellen. Es ist verständlich, dass die Aktionen und die Funktionalität wenigstens zum Teil durch Programminstruktionen implementiert sein können. Diese Programminstruktionen können durch einen Prozessor eines Gerätes, eines Informationsverarbeitungsgerätes für spezielle Zwecke, oder durch anderer programmierbare Datenverarbeitungsgeräte zum Erzeugen einer Maschine bereitgestellt werden, so dass die Instruktionen, welche über einen Prozessor des Gerätes ausgeführt werden, die spezifizierten Funktionen/Aktionen ausführen.
  • Es ist sinnvoll anzumerken, dass, während bestimmte Blöcke in den Figuren verwendet werden und eine bestimmte Anordnung der Blöcke dargestellt wird, dieses keine begrenzenden Beispiele sind. In bestimmten Kontexten können zwei oder mehr Blöcke kombiniert werden, kann ein Block in zwei oder mehr Blöcke aufgeteilt werden oder können bestimmte Blöcke neu geordnet oder neu geeignet organisiert werden, da die ausdrücklich dargestellten Beispiele nur für beschreibende Zwecke verwendet werden und nicht als begrenzend auszulegen sind.
  • Wie hierin verwendet, kann die Einzahl “ein” und “eine” ausgelegt werden, als wenn diese eine Mehrzahl wie “eines oder mehrere” einschließt, außer es ist ausdrücklich in anderer Weise dargestellt.
  • Diese Offenbarung wurde zu Zwecken der Darstellung und Beschreibung vorgestellt, jedoch ist es nicht beabsichtigt, dass dieses erschöpfend oder begrenzend sein soll. Viele Modifikationen und Variationen werden für den Fachmann in der Technik naheliegend sein. Die beispielhaften Ausführungsformen sind ausgewählt, um die Prinzipien und die praktischen Applikationen zu beschreiben, und um andere mit fachmännischem Wissen des Standes der Technik in die Lage zu versetzen, die Offenbarung der unterschiedlichen Ausführungsformen mit unterschiedlichen Modifikationen, wie sie für den besonders betrachteten Gebrauch geeignet sind, zu verstehen.
  • Somit ist es verständlich, dass diese Beschreibung, obgleich dargestellte beispielhafte Ausführungsformen hierin mit Bezug auf die begleitenden Zeichnungen beschrieben wurden, nicht-begrenzend ist und dass unterschiedliche andere Änderungen und Modifikationen hieran durch einen Fachmann der Technik eingesetzt werden können, ohne von dem Schutzumfang und dem Geist der Offenbarung abzuweichen.

Claims (20)

  1. Verfahren, umfassend: – Aufnehmen von Bilddaten, unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes; – Identifizieren eines Ortes eines Nutzerblickes, unter Verwenden des Eye-Tracking Systems; – Erfassen einer Nutzereingabe, unter Verwenden eines Eingabegerätes des elektronischen Gerätes, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist; – Bestimmen unter Verwenden eines Prozessors, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes im Wesentlichen nicht mit dem gleichen Ort des elektronischen Gerätes assoziiert sind; und – in Reaktion auf das Bestimmen, Ignorieren der Nutzereingabe auf der aktionsfähigen Fläche.
  2. Verfahren nach Anspruch 1, wobei die aktionsfähige Fläche auf einem Bildschirm des elektronischen Gerätes angeordnet ist.
  3. Verfahren nach Anspruch 1, wobei die aktionsfähige Fläche ein angezeigtes Element aufweist.
  4. Verfahren nach Anspruch 1, wobei die Nutzereingabe eine Berührungseingabe umfasst.
  5. Verfahren nach Anspruch 1, wobei das Bestimmen, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht mit im Wesentlichen dem gleichen Ort des elektronischen Gerätes assoziiert sind, umfasst: – ein Assoziieren von zweidimensionalen Koordinaten, die von Bilddaten abgeleitet werden, mit einem ersten Oberflächenbereich des elektronischen Gerätes; – Assoziieren von zweidimensionalen Koordinaten, die von der Nutzereingabe abgeleitet werden, mit einer zweiten Oberfläche des elektronischen Gerätes; und – Bestimmen, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich nicht überlappen.
  6. Verfahren nach Anspruch 5, wobei das Erfassen, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich nicht überlappen, ein Bestimmen umfasst, dass der erste Oberflächenbereich und der zweite Oberflächenbereich sich zumindest nicht in einer vorbestimmten Größe überlappen.
  7. Verfahren nach Anspruch 1, weiterhin ein Kommunizieren, dass die Nutzereingabe ignoriert wird, an einen Nutzer umfassend.
  8. Verfahren nach Anspruch 7, weiterhin ein Speichern der Nutzereingabe umfassend.
  9. Verfahren nach Anspruch 8, weiterhin umfassend: – Empfangen einer weiteren Nutzereingabe; und Aufheben des Ignorierens.
  10. Verfahren nach Anspruch 9, wobei das Aufheben ein Agieren auf die Nutzereingabe umfasst.
  11. Elektronisches Gerät umfassend: – ein Eingabegerät; – ein Eye-Tracking System; – einen Prozessor; und – einen Speicher, der Instruktionen speichert, die durch den Prozessor ausführbar sind zum: – Aufnehmen von Bilddaten, unter Verwenden des Eye-Tracking Systems; – Identifizieren eines Ortes eines Nutzerblickes, unter Verwenden des Eye-Tracking Systems; – Erfassen einer Nutzereingabe, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist, unter Verwenden des Eingabegerätes; – Bestimmen, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht im Wesentlichen ähnlich sind; und – anschließend Ignorieren der Nutzereingabe auf der aktionsfähigen Fläche.
  12. Elektronisches Gerät nach Anspruch 11, ferner einen Bildschirm aufweisend, wobei die aktionsfähige Fläche auf dem Bildschirm des elektronischen Gerätes angeordnet ist.
  13. Elektronisches Gerät nach Anspruch 11, wobei die aktionsfähige Fläche ein angezeigtes Element aufweist.
  14. Elektronisches Gerät nach Anspruch 11, wobei das Eingabegerät einen Touch Screen umfasst, und wobei ferner die Nutzereingabe eine Berührungseingabe umfasst.
  15. Elektronisches Gerät nach Anspruch 11, wobei der Prozessor bestimmt, dass der Ort des Nutzerblickes und die aktionsfähigen Fläche des elektronischen Gerätes nicht mit im Wesentlichen dem gleichen Ort des elektronischen Gerätes assoziiert sind, durch: – ein Assoziieren von zweidimensionalen Koordinaten, die von Bilddaten abgeleitet werden, mit einem ersten Oberflächenbereich des elektronischen Gerätes; – Assoziieren von zweidimensionalen Koordinaten, die von der Nutzereingabe abgeleitet werden, mit einer zweiten Oberfläche des elektronischen Gerätes; und – Bestimmen, dass sich der erste Oberflächenbereich und der zweite Oberflächenbereich nicht überlappen.
  16. Elektronisches Gerät nach Anspruch 15, wobei der Prozessor bestimmt, dass der erste Oberflächenbereich und der zweite Oberflächenbereich sich zumindest nicht in einer vorbestimmten Größe überlappen.
  17. Elektronisches Gerät nach Anspruch 16, wobei die Instruktionen ferner durch den Prozessor ausführbar sind, um dem Nutzer zu kommunizieren, dass die Nutzereingabe ignoriert wird.
  18. Elektronisches Gerät nach Anspruch 11, wobei sich der Ort des Nutzerblickes und die aktionsfähige Fläche auf dem elektronischen Gerät im Wesentlichen entsprechen, wenn der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes im Wesentlichen mit dem gleichen Ort des elektronischen Gerätes assoziiert sind.
  19. Elektronisches Gerät nach Anspruch 17, wobei die Instruktionen ferner durch den Prozessor ausführbar sind, um die Nutzereingabe zu speichern; – weitere Nutzereingaben zu empfangen; und – das Ignorieren aufzuheben.
  20. Produkt umfassend: – ein Speichergerät, das einen Code speichert, wobei der Code durch einen Prozessor ausführbar ist und umfasst: – einen Code, der unter Verwenden eines Eye-Tracking Systems eines elektronischen Gerätes, Bilddaten aufnimmt; – einen Code, der unter Verwenden des Eye-Tracking Systems, einen Ort eines Nutzerblickes identifiziert; – einen Code, der unter Verwenden eines Eingabegerätes des elektronischen Gerätes, eine Nutzereingabe erfasst, die mit einer aktionsfähigen Fläche des elektronischen Gerätes assoziiert ist; – einen Code, der unter Verwenden des Prozessors bestimmt, dass der Ort des Nutzerblickes und die aktionsfähige Fläche des elektronischen Gerätes nicht im Wesentlichen ähnlich sind; und – einen Code, der anschließend die Nutzereingabe auf der aktionsfähigen Fläche ignoriert.
DE102017120697.3A 2016-09-26 2017-09-07 Eye-Tracking Auswahlvalidierung Pending DE102017120697A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/276,130 US20180088665A1 (en) 2016-09-26 2016-09-26 Eye tracking selection validation
US15/276,130 2016-09-26

Publications (1)

Publication Number Publication Date
DE102017120697A1 true DE102017120697A1 (de) 2018-03-29

Family

ID=61564460

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017120697.3A Pending DE102017120697A1 (de) 2016-09-26 2017-09-07 Eye-Tracking Auswahlvalidierung

Country Status (3)

Country Link
US (1) US20180088665A1 (de)
CN (1) CN107870667A (de)
DE (1) DE102017120697A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977677B2 (en) 2013-06-20 2024-05-07 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572007B2 (en) 2017-12-15 2020-02-25 International Business Machines Corporation Preventing unintended input
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US10761648B2 (en) * 2019-01-16 2020-09-01 Michael D. Marra Gaze detection interlock feature for touch screen devices
CN110929672B (zh) * 2019-11-28 2024-03-01 联想(北京)有限公司 瞳孔定位方法和电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9250703B2 (en) * 2006-03-06 2016-02-02 Sony Computer Entertainment Inc. Interface with gaze detection and voice input
US20130145304A1 (en) * 2011-12-02 2013-06-06 International Business Machines Corporation Confirming input intent using eye tracking
US20130342672A1 (en) * 2012-06-25 2013-12-26 Amazon Technologies, Inc. Using gaze determination with device input
US20140368442A1 (en) * 2013-06-13 2014-12-18 Nokia Corporation Apparatus and associated methods for touch user input
US10048748B2 (en) * 2013-11-12 2018-08-14 Excalibur Ip, Llc Audio-visual interaction with user devices
US9966079B2 (en) * 2014-03-24 2018-05-08 Lenovo (Singapore) Pte. Ltd. Directing voice input based on eye tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977677B2 (en) 2013-06-20 2024-05-07 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions

Also Published As

Publication number Publication date
US20180088665A1 (en) 2018-03-29
CN107870667A (zh) 2018-04-03

Similar Documents

Publication Publication Date Title
DE102017120697A1 (de) Eye-Tracking Auswahlvalidierung
DE102015119592A1 (de) Durch einen Blick veranlasste Spracherkennung
DE102014106579A1 (de) Besondere Gesten für Kamerasteuerungs- und Bildverarbeitungsverfahren
DE102014118223A1 (de) Multitouch-Authentifizierung durch lokales Gerät
CN107247538B (zh) 触摸操作处理方法及终端设备
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102012109959B4 (de) Automatische Vergrößerungs- und Auswahlbestätigung
DE112015006391T5 (de) Authentifizierung eines Benutzers und Aufruf einer Anwendung durch eine einzelne bewusste Benutzergeste
DE102016103216A1 (de) Serielle visuelle Präsentation für tragbare Anzeigen
US20060280375A1 (en) Red-eye correction method and apparatus with user-adjustable threshold
DE102016122716A1 (de) Arbeitsbereichsübergänge in einer erweiterten Realität, basierend auf einem kontextuellen Umfeld
DE102016103218A1 (de) Blickbasierte Benachrichtigungsantwort
DE102019104950A1 (de) Inhalt übertragen
DE102015100470A1 (de) Interaktive Benutzergesteneingaben
DE102015110708A1 (de) Kontextbasierte Auswahl eines Kameramodus
DE102015121873A1 (de) Unterscheiden zwischen Berührungsgesten und Handschrift
DE102015108004A1 (de) Darstellen einer Nutzerschnittstelle auf einem ersten Gerät basierend auf der Erfassung eines zweiten Gerätes in einer Umgebung des ersten Geräts
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102012107810A1 (de) Dynamische Benutzerschnittstelle basierend auf verbundenen Geräten
DE102015122760A1 (de) Aufnahme von handschriftzügen
US11099660B2 (en) User interface for digital ink modification
DE102017126306A1 (de) Kontextabhängiger Koversionsmodus für digitalen Assistenten
US10671795B2 (en) Handwriting preview window
CN110210195A (zh) 一种指纹操作控制方法、装置、存储介质及移动终端
DE102014116544A1 (de) Erweiterung einer Benutzeroberfläche eines am Körper tragbaren Informationshandhabungsgeräts

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE