DE102016103218A1 - Blickbasierte Benachrichtigungsantwort - Google Patents

Blickbasierte Benachrichtigungsantwort Download PDF

Info

Publication number
DE102016103218A1
DE102016103218A1 DE102016103218.2A DE102016103218A DE102016103218A1 DE 102016103218 A1 DE102016103218 A1 DE 102016103218A1 DE 102016103218 A DE102016103218 A DE 102016103218A DE 102016103218 A1 DE102016103218 A1 DE 102016103218A1
Authority
DE
Germany
Prior art keywords
notification
user
detection
gaze
information handling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016103218.2A
Other languages
English (en)
Inventor
Antoine Roland Raux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102016103218A1 publication Critical patent/DE102016103218A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Abstract

Eine Ausführungsform stellt ein Verfahren bereit, das folgende Schritte umfasst: Anzeigen mindestens einer Benachrichtigung auf einem Anzeigegerät; Detektieren einer Position des Benutzerblicks, die mit der Position der mindestens einen Benachrichtigung verknüpft ist, auf einem elektronischen Gerät; Bestimmen unter Verwendung einer sekundären Detektion, ob eine sekundäre Eingabe detektiert wird; Ausführen mindestens einer Aktion, basierend auf der Bestimmung. Es werden weitere Aspekte beschrieben und beansprucht.

Description

  • HINTERGRUND
  • Da Geräte und Technologie immer mehr Teil unseres täglichen Lebens geworden sind, sind wir als Benutzer der Geräte sehr abhängig von ihren Fähigkeiten geworden. Einige ihrer nützlichsten Fähigkeiten umfassen das Organisieren unserer Terminkalender, das Ermöglichen der Kommunikation mit anderen Leuten, das uns über aktuelle Ereignisse auf dem Laufenden halten. Da die Geräte immer weiter entwickelt werden, haben sie die Möglichkeit erlangt, darauf personalisiert zu werden, welche Arten von Informationen wir wünschen. Intelligente Geräte (z.B. Computer, Smartphones, Tablets, intelligente Armbanduhren usw.) sind in der Lage, uns über die Dinge zu informieren, die wir als wichtig identifizieren (z.B. Geburtstage von Freunden, Sportergebnisse, Sondermeldungen, ankommende Anrufe usw.).
  • Diese Benachrichtigungen über wichtige Ereignisse können jedoch überhand nehmen und lästig werden. Insbesondere wenn man versucht, auf eine bestimmte Tätigkeit konzentriert zu bleiben. Beispielsweise kann die Tatsache, dass ständige Benachrichtigungen auf einem Computerbildschirm erscheinen, während man sich auf eine Aufgabe bei der Arbeit konzentriert, zu Ablenkung führen. Somit wird eine Lösung benötigt, die es einem Benutzer ermöglicht, auf seine gegenwärtige Aufgabe konzentriert zu bleiben und dabei das Übermaß an Benachrichtigungen, die er empfängt, abzuweisen oder gegebenenfalls zu beantworten.
  • KURZDARSTELLUNG
  • Kurz gesagt stellt ein Aspekt ein Verfahren bereit, das folgende Schritte umfasst: Anzeigen mindestens einer Benachrichtigung auf einem Anzeigegerät; Detektieren einer Position des Benutzerblicks, die mit der Position der mindestens einen Benachrichtigung verknüpft ist, auf einem elektronischen Gerät; Bestimmen unter Verwendung einer sekundären Detektion, ob eine sekundäre Eingabe detektiert wird; Ausführen mindestens einer Aktion, basierend auf der Bestimmung.
  • Ein anderer Aspekt stellt ein Informationshandhabungsgerät bereit, die Folgendes umfasst: ein Anzeigegerät; einen Sensor; einen Prozessor; ein Speichergerät, das Anweisungen speichert, die durch den Prozessor ausführbar sind, zum: Anzeigen mindestens einer Benachrichtigung auf dem Anzeigegerät; Detektieren einer Position des Benutzerblicks, die mit der Position der mindestens einen Benachrichtigung verknüpft ist, unter Verwendung des Sensors; Bestimmen unter Verwendung einer sekundären Detektion, ob eine sekundäre Eingabe detektiert wird; Ausführen mindestens einer Aktion, basierend auf der Bestimmung.
  • Ein weiterer Aspekt stellt ein Produkt bereit, das Folgendes umfasst: ein Speichergerät, auf dem Code gespeichert ist, wobei der Code von dem Prozessor ausführbar ist und Folgendes umfasst: Code, der auf einem Anzeigegerät mindestens eine Benachrichtigung anzeigt; Code, der auf einem elektronischen Gerät eine Position des Benutzerblicks detektiert, die mit der Position der mindestens einen Benachrichtigung verknüpft ist; Code, der unter Verwendung einer sekundären Detektion bestimmt, ob eine sekundäre Eingabe detektiert wird; Code, der basierend auf der Bestimmung mindestens eine Aktion ausführt.
  • Das Vorstehende ist eine Zusammenfassung und kann somit Vereinfachungen, Verallgemeinerungen und fehlende Einzelheiten enthalten; folglich wird der Fachmann verstehen, dass die Kurzdarstellung rein erläuternd ist und keineswegs dazu gedacht ist, einschränkend zu sein.
  • Zum besseren Verständnis der Ausführungsformen zusammen mit anderen und weiteren Merkmalen und Vorteilen derselben wird in Verbindung mit den beiliegenden Zeichnungen gesehen auf die nachstehende Beschreibung Bezug genommen. Der Umfang der Erfindung wird in den beiliegenden Ansprüchen ausgewiesen.
  • KURZE BESCHREIBUNG DER VERSCHIEDENEN ANSICHTEN DER ZEICHNUNGEN
  • Es zeigen:
  • 1 ein Beispiel der Schaltungen eines Informationshandhabungsgerät.
  • 2 ein anderes Beispiel der Schaltungen eines Informationshandhabungsgerätes.
  • 3 ein beispielhaftes Verfahren zum Antworten auf eine Benachrichtigung durch Blickverfolgung und sekundäre Eingabe.
  • 4 einen beispielhaften Anzeigebildschirm, auf dem der Blick eines Benutzers nicht auf die angezeigte Benachrichtigung gerichtet ist.
  • 5 einen beispielhaften Anzeigebildschirm, auf dem der Blick eines Benutzers auf die angezeigte Benachrichtigung gerichtet ist.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Es versteht sich ohne Weiteres, dass die Komponenten der Ausführungsformen, wie sie hier allgemein beschrieben und in den Figuren abgebildet sind, zusätzlich zu den beschriebenen Ausführungsbeispielen in vielen verschiedenen Konfigurationen angeordnet und ausgelegt sein können. Somit ist die nachstehende ausführlichere Beschreibung der Ausführungsbeispiele, wie in den Figuren dargestellt, nicht dazu gedacht, den Umfang der beanspruchten Ausführungsformen einzuschränken, sondern ist nur für Ausführungsbeispiele repräsentativ.
  • Eine Bezugnahme in der gesamten vorliegenden Beschreibung auf „eine Ausführungsform” (oder ähnliche Ausdrücke) bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder ein bestimmtes Kennzeichen, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform enthalten ist. Somit bezieht sich das Vorkommen der Redewendungen „bei einer Ausführungsform” und dergleichen an verschiedenen Stellen in der gesamten vorliegenden Beschreibung nicht unbedingt immer auf die gleiche Ausführungsform.
  • Ferner können die beschriebenen Merkmale, Strukturen oder Kennzeichen in einer beliebigen geeigneten Art in einer oder mehreren Ausführungsformen kombiniert werden. In der nachstehenden Beschreibung werden zahlreiche spezifische Einzelheiten bereitgestellt, um ein gründliches Verständnis der Ausführungsformen bereitzustellen. Der Fachmann auf diesem Gebiet wird jedoch erkennen, dass die diversen Ausführungsformen ohne eine oder mehrere der spezifischen Einzelheiten oder mit anderen Verfahren, Bauteilen, Materialien und so weiter in die Praxis umgesetzt werden können. In anderen Fällen werden hinlänglich bekannte Strukturen, Materialien oder Vorgänge der Übersichtlichkeit halber nicht gezeigt oder ausführlich beschrieben.
  • In einer Welt, in der man ständig in Kontakt mit Nahestehenden, Arbeitskollegen, sozialen Medien und Nachrichtenquellen steht, kann der ständige Andrang von ankommenden Informationen überwältigend sein. Mit begrenzter Zeit während der Arbeitszeiten, müssen die Benutzer, um produktiv zu sein, in der Lage sein, ihre Benachrichtigungen selektiv abzuweisen und darauf zu antworten, ohne ihre aktuelle Aufgabe zu unterbrechen. Wenn ein Benutzer beispielsweise seinen Computer verwendet, könnte er ankommende Benachrichtigungen (z.B. E-Mails, Chat-Nachrichten, Beenden des Herunterladens/ Aktualisierens/ Installierens von Software, Nachrichtenberichten usw.) empfangen, die seine Fähigkeit, sich auf eine einzige Aufgabe zu konzentrieren, behindern können.
  • Derzeit erfordert in einer typischen Situation eine Reaktion auf diese Benachrichtigungen, dass ein Benutzer auf die Benachrichtigung klickt (z.B. auf ein auftauchendes Fenster, ein Anwendungsdialogfeld usw.). Nachdem die Benachrichtigung ausgewählt wurde, kann je nach Aufgabe eine zusätzliche Benutzeraktion (z.B. Auswählen einer Aktion aus einem Menü, Minimieren/Wechseln von Fenstern in eine andere Anwendung, Verfassen einer Kommunikationsantwort usw.) notwendig sein. Diese Aktion kann zu einer wesentlichen Störung oder zu mehreren Störungen im Verlauf der Zeit führen und lenkt von der Hauptaufgabe des Benutzers ab, auf die er sich zu konzentrieren versucht.
  • Die technische Fragenstellung ist für einen Benutzer problematisch, wenn er versucht, sich weiter auf eine bestimmte Aufgabe zu konzentrieren, jedoch vielleicht auch auf die ankommenden Kommunikationen antworten muss. Die Aktion des Lesens/Beantwortens der Benachrichtigung lenkt den Benutzer nicht nur ab, sondern sie erfordert typischerweise auch, dass der Benutzer die Software-Anwendung wechselt (z.B. von einer Textverarbeitungsanwendung auf eine E-Mail- oder Chat-Anwendung). Die Verwendung eines alternativen Verfahrens der Benutzereingabe (z.B. Sprache, Blick usw.) bietet dem Benutzer jedoch ein flüssigeres und weniger aufdringliches Verfahren zum Antworten. Dieses Verfahren ist in vielen Situationen praktischer (z.B. in einer Büroarbeitsumgebung, bei einer informellen Geschäftsversammlung, auf Reisen) als aktuelle technologische Lösungen.
  • Entsprechend stellt eine Ausführungsform ein Verfahren zum Anzeigen einer Benachrichtigung auf einem Anzeigebildschirm bereit. Die Benachrichtigungseigenschaften können basierend auf der Anwendung und der Benutzervorliebe variieren. Zusätzlich zum Anzeigen einer Benachrichtigung wird der Blick des Benutzers durch ein Sensorgerät (z.B. ein Bildaufnahmegerät, ein Videoaufnahmegerät usw.) verfolgt. Wenn detektiert wird, dass der Blick des Benutzers auf die Position der Benachrichtigung gerichtet wird, wird ein sekundäres Eingabegerät (z.B. ein Mikrofon usw.) aktiviert. Der Benutzer gibt dann eine sekundäre Eingabe über das sekundäre Eingabegerät bezüglich der Benachrichtigung ein. Eine Aktion erfolgt dann basierend auf der sekundären Eingabe des Benutzers (z.B. Senden einer Kommunikation, Öffnen einer Anwendung usw.).
  • Eine andere Ausführungsform stellt ein Verfahren zum Anzeigen einer Benachrichtigung auf einem Anzeigebildschirm bereit. Wie zuvor wird zusätzlich zu dem Anzeigen einer Benachrichtigung der Blick des Benutzers durch ein Sensorgerät verfolgt, und wenn detektiert wird, dass der Blick des Benutzers auf die Benachrichtigung gerichtet oder konzentriert wird, wird ein sekundäres Eingabegerät aktiviert. Anders als bei der obigen Ausführungsform gibt der Benutzer jedoch keine sekundäre Eingabe über das sekundäre Eingabegerät bezüglich der Benachrichtigung ein. Stattdessen verlässt das Augenmerk des Benutzers (d.h. sein Blick) die Benachrichtigung und kehrt zu seiner vorherigen Aufgabe zurück. Daher gibt die vom Benutzer vorgenommene Aktion eine Wahl der Untätigkeit bezüglich der Benachrichtigung an, und wird die Benachrichtigung somit abgewiesen.
  • Die abgebildeten Ausführungsbeispiele werden am besten mit Bezug auf die Figuren verständlich. Die nachstehende Beschreibung ist dazu gedacht, rein beispielhaft zu sein und bildet nur gewisse Ausführungsbeispiele ab.
  • Obwohl diverse andere Schaltkreise, Schaltungen oder Bauteile in Informationshandhabungsgeräten verwendet werden können, umfasst mit Bezug auf die Schaltungen 100 eines Smartphones und/oder Tablets ein in 1 abgebildetes Beispiel ein System on Chip Design, welches beispielsweise bei Tablets oder in anderen mobilen Computerplattformen vorzufinden ist. Die Software und der oder die Prozessoren sind in einem einzigen Chip 110 kombiniert. Die Prozessoren umfassen interne arithmetische Einheiten, Register, Zwischenspeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist. Interne Busse und dergleichen sind von verschiedenen Herstellern abhängig, doch im Wesentlichen können alle Peripheriegeräte (120) an einem einzigen Chip 110 angebracht werden. Die Schaltungen 100 kombinieren den Prozessor, die Speichersteuerung und den E/A-Steuerknoten alle zusammen in einen einzigen Chip 110. Derartige Systeme 100 verwenden typischerweise auch kein SATA oder PCI oder LPC. Übliche Schnittstellen umfassen beispielsweise SDIO und I2C.
  • Es gibt einen oder mehrere Stromverwaltungschips 130, z.B. eine Batterieverwaltungseinheit, BMU, der bzw. die den Strom verwaltet bzw. verwalten, wie er beispielsweise über eine aufladbare Batterie 140 zugeführt wird, die durch Anschließen an eine Stromquelle (nicht gezeigt) aufgeladen werden kann. Bei mindestens einer Bauform wird ein einziger Chip, wie etwa 110, verwendet, um eine BIOS-artige Funktionalität und einen DRAM-Speicher bereitzustellen.
  • Das System 100 umfasst typischerweise einen oder mehrere von einem WWAN-Transceiver 150 und einem WLAN-Transceiver 160 zum Anschließen an diverse Netzwerke, wie etwa Telekommunikationsnetzwerke und drahtlose Internet-geräte, z.B. Zugangspunkte. Zusätzlich sind für gewöhnlich Geräte 120 enthalten, z.B. ein Bildsensor, wie etwa eine Kamera. Das System 100 umfasst häufig einen Berührungsbildschirm 170 zur Dateneingabe und Anzeige/Wiedergabe. Das System 100 umfasst typischerweise auch diverse Speichergeräte, beispielsweise einen Flash-Speicher 180 und einen SDRAM 190.
  • 2 bildet ein Blockdiagramm eines anderen Beispiels der Schaltkreise, Schaltungen oder Bauteile eines Informationshandhabungsgerätes ab. Das in 2 abgebildete Beispiel kann Computersystemen, wie etwa der THINKPAD-Serie von PCs, die von Lenovo (US) Inc. aus Morrisville, NC, verkauft wird, oder anderen Geräten entsprechen. Wie es aus der vorliegenden Beschreibung hervorgeht, können die Ausführungsformen andere Merkmale oder nur einige der Merkmale des in 2 abgebildeten Beispiels umfassen.
  • Das Beispiel aus 2 umfasst einen so genannten Chipsatz 210 (eine Gruppe integrierter Schaltungen bzw. Chips, die zusammenarbeiten, Chipsätze) mit einer Architektur, die je nach Hersteller (beispielsweise INTEL, AMD, ARM usw.) unterschiedlich sein kann. INTEL ist ein eingetragenes Warenzeichen von Intel Corporation in den Vereinigten Staaten und anderen Ländern. AMD ist ein eingetragenes Warenzeichen von Advanced Micro Devices, Inc. in den Vereinigten Staaten und anderen Ländern. ARM ist ein nicht eingetragenes Warenzeichen von ARM Holdings plc in den Vereinigten Staaten und anderen Ländern. Die Architektur des Chipsatzes 210 umfasst eine Kern- und Speichersteuerungsgruppe 220 und einen E/A-Steuerknoten 250, der Informationen (beispielsweise Daten, Signale, Befehle usw.) über eine direkte Verwaltungsschnittstelle (DMI) 242 oder einen Link-Controller 244 austauscht. In 2 ist die DMI 242 eine Chip-zu-Chip-Schnittstelle (gelegentlich auch als Verknüpfung zwischen einer „Northbridge” und einer „Southbridge” bezeichnet). Die Kern- und Speichersteuerungsgruppe 220 umfasst einen oder mehrere Prozessoren 222 (beispielsweise Einzel- oder Mehrkern) und einen Speichersteuerknoten 226, die Informationen über einen Front-Side Bus (FSB) 224 austauschen; es sei zu beachten, dass die Bauteile der Gruppe 220 in einen Chip integriert sein können, der die herkömmliche „Northbridge-” Architektur ersetzt. Ein oder mehrere Prozessoren 222 umfassen interne arithmetische Einheiten, Register, Zwischenspeicher, Busse, E/A-Anschlüsse usw., wie es in der Technik wohlbekannt ist.
  • In 2 bildet der Speichersteuerknoten 226 eine Schnittstelle mit dem Speicher 240 ab (um beispielsweise eine Unterstützung für eine Art von RAM bereitzustellen, die man als „Systemspeicher” oder „Speicher” bezeichnen kann). Der Speichersteuerknoten 226 umfasst ferner eine Niederspannungs-Differenzialsignalisierungs-(LVDS)Schnittstelle 232 für ein Anzeigegerät 292 (z.B. einen CRT, einen Flachbildschirm, einen Berührungsbildschirm usw.). Ein Block 238 umfasst eine gewisse Technik, die über die LVDS-Schnittstelle 232 unterstützt werden kann (z.B. serielles digitales Video, HDMI/DVI, Display-Anschluss). Der Speichersteuerknoten 226 umfasst auch eine PCI-Express-Schnittstelle (PCI-E) 234, die diskrete Grafik 236 unterstützen kann.
  • In 2 umfasst der E/A-Steuerknoten 250 eine SATA-Schnittstelle 251 (beispielsweise für HDDs, SDDs 280 usw.), eine PCI-E-Schnittstelle 252 (beispielsweise für drahtlose Verbindungen 282), eine USB-Schnittstelle 253 (beispielsweise für Geräte 284, wie etwa einen Digitalisierer, eine Tastatur, Mäuse, Kameras, Telefone, Mikrofone, Speichermittel, andere angeschlossene Geräte usw.), eine Netzwerkschnittstelle 254 (beispielsweise LAN), eine GPIO-Schnittstelle 255, eine LPC-Schnittstelle 270 (für ASICs 271, einen TPM 272, einen Super-E/A 273, einen Firmware-Hub 274, eine BIOS-Unterstützung 275 sowie diverse Arten von Speichern 276, wie etwa einen ROM 277, einen Flash 278 und einen NVRAM 279), eine Stromverwaltungsschnittstelle 261, eine Taktgeberschnittstelle 262, eine Audioschnittstelle 263 (beispielsweise für Lautsprecher 294), eine TCO-Schnittstelle 264, eine Systemverwaltungsbus-Schnittstelle 265 und SPI-Flash 266, die ein BIOS 268 und Boot-Code 290 umfassen können. Der E/A-Steuerknoten 250 kann Gigabit-Ethernet-Unterstützung umfassen.
  • Beim Einschalten kann das System konfiguriert sein, um den Boot-Code 290 für das BIOS 268 auszuführen, der in dem SPI-Flash 266 gespeichert ist, und verarbeitet anschließend Daten unter der Kontrolle von einem oder mehreren Betriebssystemen und Anwendungs-Software (beispielsweise im Systemspeicher 240 gespeichert). Ein Betriebssystem kann an einer beliebigen von diversen Stellen gespeichert sein und kann beispielsweise gemäß den Anweisungen des BIOS 268 zugänglich sein. Wie hierin beschrieben, kann ein Gerät eine geringere oder größere Anzahl von Merkmalen umfassen als sie in dem System gemäß 2 gezeigt werden.
  • Schaltungen von Informationshandhabungsgeräten, wie beispielsweise in 1 oder 2 angesprochen, können bei Geräten, wie etwa Tablets, Smartphones, persönlichen Computergeräten allgemein und/oder elektronischen Geräten, welche die Benutzer für diverse Funktionen (z.B. Verfolgen des Benutzerblicks, Empfangen einer Spracheingabe, Empfangen einer Bildeingabe usw.) verwenden können, zum Einsatz kommen. Beispielsweise können die in 1 angesprochenen Schaltungen in einer Tablet- oder Smartphone-Ausführungsform umgesetzt werden, wohingegen die in 2 angesprochenen Schaltungen in einer PC-Ausführungsform umgesetzt werden können.
  • Nun mit Bezug auf 3 wird bei einer Ausführungsform eine Benachrichtigung angezeigt 301. Beispielsweise 401 und 501 jeweils in 4 und 5. Typischerweise ist die Benachrichtigung ein visueller Indikator, der ausgelegt ist, um Informationen an den Benutzer weiterzugeben. Beispielsweise könnte die Benachrichtigung den Benutzer darüber informieren, dass er kürzlich eine ankommende Kommunikation empfangen hat (z.B. eine E-Mail, einen Telefonanruf, eine Chat-Nachricht, einen Post auf sozialen Medien, in dem er erwähnt wird, usw.). Zusätzlich oder alternativ könnte die Benachrichtigung den Benutzer über beliebige allgemeine für ihn interessante Informationen informieren (z.B. das Wetter, Presseberichte, Sportergebnisse, Paketversandinformationen usw.). Fast alles, was ein Benutzer als für sein Leben wichtig ansehen könnte, kann über eine visuelle Benachrichtigung 301 angezeigt werden.
  • Um sicherzustellen, dass der Benutzer die Benachrichtigung 301 empfängt, können Position, Zeiteinstellung und Eigenschaften der Benachrichtigung variieren. Wenn ein Benutzer beispielsweise über mehrere Monitore verfügt, kann die Benachrichtigung ausgelegt sein, um auf dem Monitor zu erscheinen, der als Hauptmonitor identifiziert ist. Zudem kann die genaue Position der Benachrichtigung am Anzeigebildschirm geändert werden (z.B. oben rechts am Bildschirm, unten links am Bildschirm usw.). Die Größe der Benachrichtigung kann ebenfalls mit Bezug auf die Größe des Anzeigebildschirms des Gerätes angepasst werden. Wenn ein Benutzer beispielsweise ein Smartphone verwendet, müsste die Benachrichtigung viel kleiner sein als wenn der Benutzer seinen Laptop- oder Desktop-Computer verwendet. Diese Benachrichtigungseigenschaften können durch eine Benutzerauswahl basierend auf der Vorliebe des Benutzers, der Vorliebe einer fremden Software-Anwendung, der aktuellen Aufgabe des Benutzers oder dergleichen geändert werden.
  • Zusätzlich oder alternativ kann eine Ausführungsform mehrere Benachrichtigungen auf dem gleichen Bildschirm anzeigen. Diese Benachrichtigungen können von der gleichen Anwendung (z.B. mehrere E-Mail-Nachrichten, die gleichzeitig empfangen werden) oder von diversen Anwendungen (z.B. eine von einer Chat-Anwendung, eine von einer E-Mail-Anwendung, eine von einer Nachrichtenanwendung usw.) stammen. Wie zuvor kann jede Benachrichtigung gegenüber anderen Benachrichtigungen getrennte Eigenschaften aufweisen, so dass ihre Positionen und Größen variieren können.
  • Bei einer zusätzlichen Ausführungsform wird der Blick eines Benutzers verfolgt 302. Beispielsweise 402 und 502 jeweils in 4 und 5. Die Verwendung der Blickdetektion und Verfolgung ermöglicht es einer Software-Anwendung zu bestimmen, worauf sich der Benutzer konzentriert. Dies ermöglicht die Verwendung einer beliebigen zusätzlichen Eingabe (z.B. einer sekundären Eingabe) durch eine Anwendung, auf die sich die Benachrichtigung bezieht. Beispielsweise kann die Position des Blicks eines Benutzers durch ein Sensorgerät detektiert werden. Das Gerät könnte sich in oder neben dem Anzeigegerät befinden. Der Sensor kann über diverse Verfahren verfolgen, wo sich der Blick des Benutzers befindet. Beispielhaft kann der Sensor ein Bildaufnahmegerät (z.B. eine Webcam oder ein ähnliches Gerät) sein, welches Blickverfolgungs-Software verwendet, um das Bild zu analysieren und zu bestimmen, wo sich der Blick des Benutzers innerhalb des Anzeigebildschirms befindet. Andere beispielhafte Sensoren umfassen ein Videoaufnahmegerät, ein Entfernungsabbildungsgerät, ein 3D-Abtastgerät oder dergleichen. Je nach Bedarf der Ausführungsform und der bekannten Umgebung kann und sollte die Art des Sensorgerätes entsprechend variieren.
  • Sobald der Blick des Benutzers gefunden wurde, bestimmt eine Ausführungsform, ob der Blick des Benutzers für die Benachrichtigung 303 relevant ist. Wenn der Benutzer beispielsweise auf die Benachrichtigung 501 blickt 502, kann die Software interpretieren, dass dies bedeutet, dass sich der Benutzer auf die Benachrichtigung konzentriert, und entsprechend reagieren. Bei einem weiteren Beispiel könnte sich der Blick des Benutzers nicht nur auf die Benachrichtigung selber konzentrieren, sondern auf ein beliebiges bestimmtes Bild, das auf dem Bildschirm angezeigt wird (z.B. die Benachrichtigung, eine vorbestimmte Anzeigeposition, ein Icon usw.).
  • Bei einer Ausführungsform aktiviert das Gerät (z.B. der Computer, das Tablet des Benutzers oder dergleichen), nach der Bestimmung, dass der Blick des Benutzers für die Benachrichtigung 303 relevant ist, ein sekundäres Detektionsgerät 304. Das sekundäre Detektionsgerät kann eine beliebige Art eines typischen Benutzereingabeverfahrens sein (z.B. eine Tastatur, eine Maus, ein Mikrofon, eine Kamera usw.). Beispielhaft könnte eines der sekundären Detektionsgeräte ein Bildsensorgerät sein, ähnlich wie das, das zum Verfolgen des Blicks des Benutzers verwendet wird. Eine Ausführungsform kann eine Detektion von Aktionen ermöglichen, die den Blick eines Benutzers betreffen. Beispielsweise kann man die Gesichtsausdrücke oder Kopfbewegungen des Benutzers (z.B. Blinzeln, Nicken usw.) verfolgen und als Eingabe verwenden. Diese Gesichtsausdrücke oder Kopfbewegungen können an den sekundären Detektionsgeräten 304 empfangen werden.
  • Zusätzlich oder alternativ kann eine Ausführungsform ein Audioaufnahmegerät verwenden (z.B. ein Mikrofon an einem Laptop-Computer oder einem Smartphone). Nachdem bestimmt wurde, dass der Blick eines Benutzers für die Benachrichtigung 303 relevant ist und das sekundäre Detektionsgerät aktiv ist, kann ein Benutzer einfach seine gewünschten Aktionen aussprechen. Als weiteres Beispiel kann, wenn eine E-Mail-Benachrichtigung auf dem Bildschirm eines Benutzers erscheint und erfasst wird, dass der Blick des Benutzers auf die Benachrichtigungsposition gerichtet ist, die sekundäre Detektion des Benutzers, der einen Befehl ausspricht, wie etwa „Antworten, OK, hört sich gut an. Wir sehen uns um 8”, verwendet werden, um eine Antwort für den Benutzer zu automatisieren. Dies ist nicht als einschränkendes Beispiel gedacht, da der Benutzer auch weitere Einzelheiten über einen Pressebericht anfragen könnte und fragen könnte, dass er eine ausführlichere Wettervorhersage zu sehen bekommt, oder dergleichen.
  • Bei einer Ausführungsform wird, nachdem das sekundäre Detektionsgerät aktiv ist 304, bestimmt, ob eine Art einer sekundären Eingabe detektiert wurde 305. Wenn keine sekundäre Eingabe empfangen wird, kann die Benachrichtigung abgewiesen werden 307. Als erklärendes Beispiel, wenn ein Benutzer eine Benachrichtigung über einen besonderen Pressebericht empfängt, und der Blick des Benutzers auf die Position der Benachrichtigung 303 verfolgt wird, kann man davon ausgehen, dass der Benutzer die Zusammenfassung oder den Titel des besonderen Presseberichts gesehen und zur Kenntnis genommen hat. Wenn der Benutzer nach dem Quittieren der Benachrichtigung 501 (z.B. durch Blicken auf diese 502) bestimmt, dass seinerseits keine Aktion notwendig oder erwünscht ist, kann er seinen Blick abwenden und weiter an seiner vorherigen Aufgabe 402 arbeiten. Durch das Nicht-Eingeben einer sekundären Eingabe hat der Benutzer seine Absicht angegeben, die Benachrichtigung abzuweisen. Somit kann die Benachrichtigung 501, 401 abgewiesen werden, ohne dass weitere Aktionen getroffen werden.
  • Dieser Prozess ermöglicht es dem Benutzer, eine Benachrichtigung abzuweisen, ohne sein Augenmerk von seiner aktuellen Aufgabe zu entfernen. Wenn der Benutzer beispielsweise an einem Textverarbeitungsdokument arbeitet, muss er seine Anwendung nicht minimieren oder verschieben, um auf die Benachrichtigung zuzugreifen und sie je nach der aktuellen Notwendigkeit abzuweisen. Zudem würde eine Ausführungsform die Benachrichtigungen sichtbar lassen 401, 501, bis eine Aktion, wie etwa diejenige, die zuvor angesprochen wurde, stattfindet. Dies würde sicherstellen, dass der Benutzer 502 die Benachrichtigung 501 sieht und die Gelegenheit hat, entsprechend darauf zu antworten. Derzeit funktionieren typische Benachrichtigungen basierend auf einem Zeitverfallsformat (d.h. jede Benachrichtigung verfügt über eine Lebensdauereigenschaft, die es ihr ermöglicht, nur eine vorbestimmte Zeit lang am Bildschirm gezeigt zu werden). Dies kann problematisch sein, insbesondere wenn ein Benutzer nicht an seinem Gerät ist oder seine Aufmerksamkeit anderweitig als am Anzeigebildschirm liegt.
  • Zusätzlich oder alternativ kann eine Ausführungsform, nachdem das sekundäre Detektionsgerät aktiv ist 304, eine Bestimmung ausführen, dass eine sekundäre Eingabe empfangen wird 305. Sobald die Bestimmung erfolgt, dass eine sekundäre Eingabe empfangen wurde, findet eine Aktion basierend auf dieser sekundären Eingabe statt. Die sekundäre Eingabe kann eines der zuvor besprochenen Beispiele sein. Ein obiges Beispiel weiterführend erscheint eine E-Mail-Benachrichtigung am Bildschirm eines Benutzers. Der Blick des Benutzers wird bis zur Position der Benachrichtigung verfolgt, wodurch die sekundäre Detektion aktiviert wird, und der Benutzer spricht den Befehl aus „Antworten, OK, hört sich gut an. Wir sehen uns um 8”. Sobald diese sekundäre Eingabe empfangen wurde, wird basierend auf der Eingabe 306 eine Aktion ausgeführt, wobei eine derartige Aktion darin bestehen könnte, dass eine Software-Anwendung, die für E-Mail verwendet wird (z.B. Outlook usw.), geöffnet wird, und eine Antwort-E-Mail verfasst und gesendet wird, wie es der Benutzer durch Sprachbefehle angewiesen hat.
  • Eine andere Ausführungsform kann, nachdem das sekundäre Detektionsgerät aktiv ist 304, eine Bestimmung ausführen, dass eine sekundäre Eingabe empfangen wird 305. Wieder wie zuvor, sobald die Bestimmung erfolgt, dass eine sekundäre Eingabe empfangen wurde, findet basierend auf dieser sekundären Eingabe eine Aktion statt. Beispielsweise empfängt ein Benutzer eine Sondermeldungsbenachrichtigung. Der Blick des Benutzers wird bis zur Position der Benachrichtigung verfolgt, wodurch die Aktivierung der sekundären Detektion bewirkt wird, und der Benutzer spricht den Befehl aus „Ich möchte mehr über diesen Pressebericht wissen”. Sobald diese sekundäre Eingabe empfangen wurde, öffnet sich die Software-Anwendung mit Bezug auf diesen Nachrichtenartikel (z.B. ein Web-Browser, eine nachrichtenspezifische mobile Anwendung usw.) 306, und der Benutzer wird zu der Sondermeldung gebracht, die in der Benachrichtigung erwähnt wurde.
  • Bei einer zusätzlichen Ausführungsform kann es sein, dass die sekundäre Eingabe nicht ausreicht, um alle gewünschten Aufgaben des Benutzers zu erledigen. Somit kann eine zusätzliche Eingabe notwendig sein, nachdem die erste Aktion erfolgt ist 306. Ein obiges Beispiel fortführend erscheint eine E-Mail-Benachrichtigung am Bildschirm eines Benutzers. Der Blick des Benutzers wird bis zu der Position der Benachrichtigung verfolgt 502, wodurch die sekundäre Detektion aktiviert wird. Im Gegensatz zu dem obigen Beispiel muss der Benutzer jedoch eine ausführlichere Antwortnachricht verfassen. Somit spricht der Benutzer den Befehl „Antworten” aus. Sobald diese sekundäre Eingabe empfangen wurde, erfolgt eine Aktion basierend auf der Eingabe 306 und dem Inhalt der Benachrichtigung, die sich der Benutzer bei 303 ansah, wobei eine derartige Aktion darin bestehen könnte, dass eine Software-Anwendung, die für E-Mail verwendet wird (z.B. Outlook usw.), geöffnet wird, und eine Antwort-E-Mail an den Absender (d.h. die Person, welche die E-Mail gesendet hat, welche die ursprüngliche Benachrichtigung verursacht hat) erstellt wird. Dies ermöglicht es dem Benutzer, den Text der E-Mail manuell zu tippen, wie er es typischerweise tun würde. Die Verwendung der Blickverfolgung 402, 502 und der sekundären Eingabe erstellt jedoch einen schnelleren und einfacheren Übergang auf das Verfassen einer E-Mail-Antwort.
  • Entsprechend stellt eine Ausführungsform, wie durch die Ausführungsbeispiele und die Figuren erläutert, ein Verfahren zum Empfangen einer Benachrichtigung 401, 501 auf einem Anzeigegerät bereit. Dabei wird die Aufmerksamkeit des Benutzers (über seinen Blick 402, 502) verfolgt, um zu bestimmen, ob er die Benachrichtigung bemerkt hat. Wenn detektiert wird, dass sich das Augenmerk des Benutzers auf die Position der Benachrichtigung 502 verschoben hat und das sekundäre Eingabedetektionsgerät (z.B. ein Mikrofon, eine Kamera usw.) aktiviert wird, wird eine sekundäre Eingabe von dem Benutzer empfangen. Basierend auf dieser sekundären Eingabe erfolgt eine Aktion (z.B. Antworten auf eine Kommunikation, Öffnen einer Software-Anwendung usw.).
  • Die hierin beschriebenen diversen Ausführungsformen stellen somit eine technische Verbesserung gegenüber dem Empfangen einer Benachrichtigung auf einem Anzeigegerät dar. Wie etwa das Verfolgen der Aufmerksamkeit des Benutzers (über seinen Blick), um zu bestimmen, ob er die Benachrichtigung bemerkt hat. Das Detektieren, wann sich das Augenmerk des Benutzers auf die Benachrichtigung verlagert hat, und das Aktivieren eines sekundären Eingabedetektionsgerätes (z.B. eines Mikrofons, einer Kamera usw.). Wenn keine sekundäre Eingabe empfangen wird und sich der Blick des Benutzers von der Benachrichtigung entfernt hat, wird die Benachrichtigung abgewiesen (d.h. nicht mehr auf der Anzeigevorrichtung angezeigt). Dadurch kann der Benutzer nicht nur eine Benachrichtigung abweisen, ohne dass er seine aktuelle Aufgabe unterbrechen muss, sondern dies stellt auch sicher, dass der Benutzer die Benachrichtigung sieht.
  • Wie es der Fachmann verstehen wird, können diverse Aspekte als System, Verfahren oder Geräteprogrammprodukt ausgebildet sein. Entsprechend können die Aspekte die Form einer Ausführungsform ganz aus Hardware oder einer Ausführungsform mit Software, die hier allgemein als „Schaltung”, „Modul” oder „System” bezeichnet wird, annehmen. Ferner können die Aspekte die Form eines Geräteprogrammprodukts annehmen, das als ein oder mehrere gerätelesbare Medien ausgebildet ist, in denen gerätelesbarer Programmcode ausgebildet ist.
  • Es sei zu beachten, dass die hierin beschriebenen diversen Funktionen unter Verwendung von Anweisungen, die auf einem gerätelesbaren Speichermedium, wie etwa einem Nicht-Signalspeichergerät, gespeichert sind und von einem Prozessor ausgeführt werden, umgesetzt werden können. Ein Speichergerät kann beispielsweise ein elektronisches, magnetisches, optisches, elektromagnetisches, infrarotes oder Halbleiter-System, Vorrichtung oder Gerät oder eine geeignete Kombination derselben sein. Genauere Beispiele eines Speichermediums würden Folgendes umfassen: eine tragbare Computerdiskette, eine Festplatte, einen Arbeitsspeicher (RAM), einen Festwertspeicher (ROM), einen löschbaren programmierbaren Arbeitsspeicher (EPROM oder Flash-Speicher), eine Lichtleitfaser, eine tragbare CD (CD-ROM), ein optisches Speichergerät, ein magnetisches Speichergerät oder eine beliebige geeignete Kombination derselben. In Zusammenhang mit der vorliegenden Druckschrift ist ein Speichergerät kein Signal, und umfasst der Begriff „nicht-flüchtig” alle Medien außer Signalmedien.
  • Programmcode, der auf einem Speichermedium ausgebildet ist, kann unter Verwendung eines beliebigen geeigneten Mediums, einschließlich ohne Einschränkung drahtlos, drahtgebunden, per Glasfaserkabel, HF usw. oder eine beliebige geeignete Kombination derselben, übertragen werden.
  • Programmcode zum Ausführen von Operationen kann in einer Kombination von einer oder mehreren Programmiersprachen verfasst sein. Der Programmcode kann vollständig auf einem einzigen Gerät, teilweise auf einem einzigen Gerät, als selbstständiges Software-Paket, teilweise auf einem einzigen Gerät und teilweise auf einem anderen Gerät oder vollständig auf dem anderen Gerät ausgeführt werden. In manchen Fällen können die Geräte über eine beliebige Art von Verbindung oder Netzwerk verbunden werden, wozu ein lokales Netzwerk (LAN) oder ein Großraumnetzwerk (WAN) gehört, oder kann die Verbindung über andere Geräte hergestellt werden (beispielsweise über das Internet unter Verwendung eines Internet-Anbieters), über drahtlose Verbindungen, z.B. Nahfeldkommunikation, oder über eine verkabelte Verbindung, wie etwa über eine USB-Verbindung.
  • Es werden hierin Ausführungsbeispiele mit Bezug auf die Figuren beschrieben, die beispielhafte Verfahren, Geräte und Programmprodukte gemäß diversen Ausführungsbeispielen abbilden. Es versteht sich, dass die Aktionen und die Funktionalität mindestens teilweise durch Programmanweisungen umgesetzt werden können. Diese Programmanweisungen können einem Prozessor eines Gerätes, eines speziellen Informationshandhabungsgerätes oder einem anderen programmierbaren Datenverarbeitungsgerät bereitgestellt werden, um eine Maschine zu ergeben, so dass die Anweisungen, die über einen Prozessor des Gerätes ausgeführt werden, die vorgegebenen Funktionen/Aktionen umsetzen.
  • Es sei zu beachten, dass obwohl spezifische Blöcke in den Figuren verwendet werden und eine bestimmte Reihenfolge von Blöcken abgebildet wurde, diese keine einschränkenden Beispiele sind. In bestimmten Zusammenhängen können zwei oder mehrere Blöcke kombiniert werden, ein Block kann in zwei oder mehrere Blöcke unterteilt werden, oder bestimmte Blöcke können je nach Bedarf umgeordnet oder umgestellt werden, da die ausdrücklich abgebildeten Beispiele nur zur Beschreibung verwendet werden und nicht als einschränkend auszulegen sind.
  • Wie sie hier verwendet wird, kann die Singularform „ein” als die Pluralform „ein oder mehrere” umfassend ausgelegt werden, soweit nicht eindeutig anderweitig angegeben.
  • Die vorliegende Offenbarung wurde zum Zweck der Erläuterung und Beschreibung vorgelegt, ist aber nicht dazu gedacht, erschöpfend oder einschränkend zu sein. Zahlreiche Modifikationen und Variationen werden für den Fachmann ersichtlich sein. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Grundlagen und die praktische Anwendung zu erklären, und um es anderen Fachleuten zu ermöglichen, die Offenbarung für diverse Ausführungsformen zu verstehen, wie sie für die bestimmte beabsichtigte Verwendung geeignet sind.
  • Obwohl somit hier erläuternde Ausführungsbeispiele mit Bezug auf die beiliegenden Figuren beschrieben wurden, versteht es sich, dass diese Beschreibung nicht einschränkend ist und dass diverse andere Änderungen und Modifikationen hier vom Fachmann vorgenommen werden können, ohne Geist oder Umfang der Offenbarung zu verlassen.

Claims (20)

  1. Verfahren, umfassend folgende Schritte: Anzeigen mindestens einer Benachrichtigung auf einem Anzeigegerät; – Detektieren einer Position des Benutzerblicks, die mit der Position der mindestens einen Benachrichtigung verknüpft ist, auf einem elektronischen Gerät; – Bestimmen unter Verwendung einer sekundären Detektion, ob eine sekundäre Eingabe detektiert wird; – Ausführen mindestens einer Aktion, basierend auf der Bestimmung.
  2. Verfahren nach Anspruch 1, wobei die sekundäre Detektion eine Detektion einer Spracheingabe ist.
  3. Verfahren nach Anspruch 1, wobei: – die mindestens eine Benachrichtigung zwei oder mehrere Benachrichtigungen umfasst; und – das Detektieren das Bestimmen, basierend auf der Position des Blicks des Benutzers, umfasst, welche der zwei oder der mehreren Benachrichtigungen mit der Position des Benutzerblicks verknüpft ist.
  4. Verfahren nach Anspruch 1, wobei die sekundäre Detektion eine Detektion der Position des Benutzerblicks ist.
  5. Verfahren nach Anspruch 1, wobei die mindestens eine Aktion das Senden einer Kommunikation umfasst.
  6. Verfahren nach Anspruch 1, wobei die mindestens eine Aktion das Öffnen einer Software-Anwendung umfasst.
  7. Verfahren nach Anspruch 1, wobei die sekundäre Detektion eine Detektion einer Gesichtsmanipulationseingabe ist.
  8. Verfahren nach Anspruch 1, wobei die sekundäre Detektion durch die Position des Benutzerblicks ausgelöst wird, die sich auf ein Bild auf dem Anzeigegerät konzentriert, das aus einer Gruppe ausgewählt wird, die Folgendes umfasst: die Benachrichtigung, eine vorbestimmte Anzeigeposition und ein Icon.
  9. Verfahren nach Anspruch 1, wobei das Bestimmen bestimmt, dass keine sekundäre Eingabe detektiert wird; und – wobei die mindestens eine Aktion das Abweisen der Benachrichtigung ist.
  10. Verfahren nach Anspruch 1, wobei Eigenschaften der Benachrichtigung auf einem Faktor basieren, der aus einer Gruppe ausgewählt wird, die Folgendes umfasst: Benutzerauswahl, Fremdanwendungsvorliebe und aktuelle Geräteaufgabe.
  11. Informationshandhabungsgerät, umfassend: – ein Anzeigegerät; – einen Sensor; – einen Prozessor; – ein Speichergerät, welches Anweisungen speichert, die durch den Prozessor ausführbar sind, zum: – Anzeigen mindestens einer Benachrichtigung auf dem Anzeigegerät; – Detektieren unter Verwendung des Sensors einer Position des Benutzerblicks, die mit der Position der mindestens einen Benachrichtigung verknüpft ist; – Bestimmen unter Verwendung einer sekundären Detektion, ob eine sekundäre Eingabe detektiert wird; – Ausführen mindestens einer Aktion, basierend auf der Bestimmung.
  12. Informationshandhabungsgerät nach Anspruch 11, wobei die sekundäre Detektion eine Detektion einer Spracheingabe ist.
  13. Informationshandhabungsgerät nach Anspruch 11, wobei: die mindestens eine Benachrichtigung zwei oder mehrere Benachrichtigungen umfasst; und – das Detektieren das Bestimmen, basierend auf der Position des Blicks des Benutzers, umfasst, welche der zwei oder der mehreren Benachrichtigungen mit der Position des Benutzerblicks verknüpft ist.
  14. Informationshandhabungsgerät nach Anspruch 11, wobei die sekundäre Detektion eine Detektion der Position des Benutzerblicks ist.
  15. Informationshandhabungsgerät nach Anspruch 11, wobei die mindestens eine Aktion das Senden einer Kommunikation umfasst.
  16. Informationshandhabungsgerät nach Anspruch 11, wobei die mindestens eine Aktion das Öffnen einer Software-Anwendung umfasst.
  17. Informationshandhabungsgerät nach Anspruch 11, wobei die sekundäre Detektion eine Detektion einer Gesichtsmanipulationseingabe ist.
  18. Informationshandhabungsgerät nach Anspruch 11, wobei die sekundäre Detektion durch die Position des Benutzerblicks ausgelöst wird, der sich auf ein Bild auf dem Anzeigegerät konzentriert, das aus einer Gruppe ausgewählt wird, die Folgendes umfasst: die Benachrichtigung, eine vorbestimmte Anzeigeposition und ein Icon.
  19. Informationshandhabungsgerät nach Anspruch 11, wobei das Bestimmen bestimmt, dass keine sekundäre Eingabe detektiert wird; und – wobei die mindestens eine Aktion das Abweisen der Benachrichtigung ist.
  20. Produkt, umfassend: – ein Speichergerät, auf dem Code gespeichert ist, wobei der Code von dem Prozessor ausführbar ist und Folgendes umfasst: – Code, der auf einem Anzeigegerät mindestens eine Benachrichtigung anzeigt; – Code, der auf einem elektronischen Gerät eine Position des Benutzerblicks detektiert, die mit der Position der mindestens einen Benachrichtigung verknüpft ist; – Code, der unter Verwendung einer sekundären Detektion bestimmt, ob eine sekundäre Eingabe detektiert wird; – Code, der basierend auf der Bestimmung mindestens eine Aktion ausführt.
DE102016103218.2A 2015-02-27 2016-02-24 Blickbasierte Benachrichtigungsantwort Pending DE102016103218A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/634,078 2015-02-27
US14/634,078 US9851790B2 (en) 2015-02-27 2015-02-27 Gaze based notification reponse

Publications (1)

Publication Number Publication Date
DE102016103218A1 true DE102016103218A1 (de) 2016-09-01

Family

ID=56682804

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016103218.2A Pending DE102016103218A1 (de) 2015-02-27 2016-02-24 Blickbasierte Benachrichtigungsantwort

Country Status (3)

Country Link
US (1) US9851790B2 (de)
CN (1) CN105929932B (de)
DE (1) DE102016103218A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773372B2 (en) 2015-12-11 2017-09-26 Igt Canada Solutions Ulc Enhanced electronic gaming machine with dynamic gaze display
US20170169653A1 (en) * 2015-12-11 2017-06-15 Igt Canada Solutions Ulc Enhanced electronic gaming machine with x-ray vision display
US9691219B1 (en) * 2015-12-11 2017-06-27 Igt Canada Solutions Ulc Enhanced electronic gaming machine with electronic maze and eye gaze display
US11443343B2 (en) * 2015-12-15 2022-09-13 International Business Machines Corporation Removal of irrelevant electronic messages
US10807000B2 (en) 2017-08-15 2020-10-20 Igt Concurrent gaming with gaze detection
US10593156B2 (en) 2017-09-20 2020-03-17 Igt Systems and methods for gaming drop box management
CN107608514A (zh) * 2017-09-20 2018-01-19 维沃移动通信有限公司 信息处理方法及移动终端
US10437328B2 (en) 2017-09-27 2019-10-08 Igt Gaze detection using secondary input
CN107678547A (zh) * 2017-09-27 2018-02-09 维沃移动通信有限公司 一种信息通知的处理方法及移动终端
US10512839B2 (en) 2017-09-28 2019-12-24 Igt Interacting with three-dimensional game elements using gaze detection
US10561928B2 (en) 2017-09-29 2020-02-18 Igt Using gaze detection to change timing and behavior
US10896573B2 (en) 2017-09-29 2021-01-19 Igt Decomposition of displayed elements using gaze detection
US10802894B2 (en) * 2018-03-30 2020-10-13 Inflight VR Software GmbH Method, apparatus, and computer-readable medium for managing notifications delivered to a virtual reality device
US11593725B2 (en) 2019-04-16 2023-02-28 At&T Intellectual Property I, L.P. Gaze-based workflow adaptation
JP7455651B2 (ja) * 2020-04-27 2024-03-26 キヤノン株式会社 電子機器及びその制御方法
CN114115512B (zh) * 2020-08-25 2022-12-16 荣耀终端有限公司 信息显示方法、终端设备及计算机可读存储介质
US20230283688A1 (en) * 2022-03-03 2023-09-07 Kyndryl, Inc. Push notification persistence management
CN116909439B (zh) * 2023-09-13 2024-03-22 荣耀终端有限公司 电子设备及其交互方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
US6204828B1 (en) * 1998-03-31 2001-03-20 International Business Machines Corporation Integrated gaze/manual cursor positioning system
US6621800B1 (en) * 2000-01-24 2003-09-16 Avaya Technology Corp. Message monitor application concept and implementation
US7743340B2 (en) * 2000-03-16 2010-06-22 Microsoft Corporation Positioning and rendering notification heralds based on user's focus of attention and activity
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US7890595B2 (en) * 2007-08-23 2011-02-15 International Business Machines Corporation Method of and system for providing enhanced user control of computer chat
US20120105486A1 (en) * 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
KR101562792B1 (ko) * 2009-06-10 2015-10-23 삼성전자주식회사 목표 예측 인터페이스 제공 장치 및 그 방법
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20120257035A1 (en) * 2011-04-08 2012-10-11 Sony Computer Entertainment Inc. Systems and methods for providing feedback by tracking user gaze and gestures
KR101891786B1 (ko) * 2011-11-29 2018-08-27 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9046917B2 (en) * 2012-05-17 2015-06-02 Sri International Device, method and system for monitoring, predicting, and accelerating interactions with a computing device
US8917238B2 (en) * 2012-06-28 2014-12-23 Microsoft Corporation Eye-typing term recognition
KR20140073730A (ko) * 2012-12-06 2014-06-17 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
CN103067263B (zh) * 2013-01-28 2016-06-08 上海量明科技发展有限公司 即时通信中触发感应的方法及系统
CN104023127A (zh) * 2014-05-16 2014-09-03 深圳市中兴移动通信有限公司 一种短信息处理的方法及装置

Also Published As

Publication number Publication date
CN105929932A (zh) 2016-09-07
CN105929932B (zh) 2020-04-24
US9851790B2 (en) 2017-12-26
US20160252957A1 (en) 2016-09-01

Similar Documents

Publication Publication Date Title
DE102016103218A1 (de) Blickbasierte Benachrichtigungsantwort
DE102015119592A1 (de) Durch einen Blick veranlasste Spracherkennung
DE102017106423A1 (de) Kontexabhängige Task-Shortcuts
DE202017105445U1 (de) Proaktiver virtueller Assistent
DE202013012457U1 (de) Digitale Vorrichtung
DE202015003891U1 (de) Vorgefertigte Antworten in Nachrichten
US10991265B2 (en) Systems and methods for intelligent generation of inclusive system designs
DE102017115936A1 (de) Systeme und Verfahren zum Aktivieren eines Sprachassistenten und Bereitstellen eines Indikators, dass der Sprachassistent Hilfe zu leisten hat
DE102015109204A1 (de) Echtzeitänderung eines Eingabeverfahrens basierend auf Sprachkontext
DE102016109521A1 (de) Multimodale Disambiguierung einer sprachunterstützten Eingabe
DE202013012491U1 (de) Quer-Erweiterungsnachrichtenübermittlung unter Verwendung eines Browsers als Intermediär
DE202017105256U1 (de) Managementsystem für Audioinhalt und visuellen Inhalt
DE102016113914B4 (de) Einfügung von Zeichen bei Spracherkennung
DE102018114658A1 (de) Eingabe während einer Unterhaltungssitzung
DE102017115933B4 (de) Koordinieren einer Eingabe an mehreren lokalen Geräten
DE112016002945T5 (de) Systeme und verfahren zur kontextentdeckung von gerätefunktionen
DE102014117343B4 (de) Erfassen einer Pause in einer akustischen Eingabe in ein Gerät
DE102018114453A1 (de) Interaktive Sessions
DE102017126306A1 (de) Kontextabhängiger Koversionsmodus für digitalen Assistenten
DE102016121634B4 (de) Darstellung von Informationen basierend darauf, ob ein Nutzer in physischem Kontakt mit einem Gerät ist
DE102017120698A1 (de) Sprachliche Ausgabe von schriftlichen Kommunikationen in einer Stimme eines Senders
DE102019106281A1 (de) System, Verfahren, Computerprogramm, mobile Vorrichtung und Kit zum Betreiben einer Vorrichtung mit niedriger Rechenleistung
DE102015110622A1 (de) Erinnerungen basierend auf virtuellen Standorten
DE102015112213A1 (de) Automatisches Skalieren von Daten
DE102019113133A1 (de) Systeme und verfahren zur beeinflussung von spotlight-effekten_

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE