DE202015006066U1 - Kleinere Schnittstellen zur Handhabung von Benachrichtigungen - Google Patents

Kleinere Schnittstellen zur Handhabung von Benachrichtigungen Download PDF

Info

Publication number
DE202015006066U1
DE202015006066U1 DE202015006066.8U DE202015006066U DE202015006066U1 DE 202015006066 U1 DE202015006066 U1 DE 202015006066U1 DE 202015006066 U DE202015006066 U DE 202015006066U DE 202015006066 U1 DE202015006066 U1 DE 202015006066U1
Authority
DE
Germany
Prior art keywords
display
notification
message
touch
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202015006066.8U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202015006066U1 publication Critical patent/DE202015006066U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0362Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 1D translations or rotations of an operating part of the device, e.g. scroll wheels, sliders, knobs, rollers or belts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

Eine elektronische Vorrichtung, umfassend: eine Anzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher abgelegt und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, wobei das eine oder die mehreren Programme Befehle enthalten für: den Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, die Ausgabe einer wahrnehmungsbasierten Ausgabe. das Erkennen einer Benutzereingabe; die Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; und entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, die Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.

Description

  • QUERVERWEIS ZU ÄHNLICHEN ANMELDUNGEN
  • Diese Anmeldung beansprucht Priorität gegenüber der provisorischen US-Patentanmeldung mit der Nummer 62/044,894, „Reduced-Size Interfaces For Managing Alerts”, eingereicht am 2. September 2014, und der provisorischen US-Patentanmeldung mit der Nummer 62/129,818, „Reduced-Size Interfaces For Managing Alerts”, eingereicht am 7. März 2015. Der Inhalt dieser Anmeldungen wird hiermit für alle Verwendungszwecke durch Verweis in dieses Dokument aufgenommen.
  • Diese Anmeldung bezieht sich auf die folgenden anderen schwebenden Anmeldungen: provisorische US-Patentanmeldung Nummer 62/129,924 mit dem Titel „Reduced-Size Notification Interface”, eingereicht am 8. März 2015; provisorische US-Patentanmeldung Nummer 62/044,953 mit dem Titel „Reduced-Size Notification Interface”, eingereicht am 2. September 2014; provisorische US-Patentanmeldung Nummer 62/129,903 mit dem Titel „User Interface For Receiving User Input”, eingereicht am 8. März 2015; provisorische US-Patentanmeldung Nummer 62/127,800 mit dem Titel „User Interface For Receiving User Input”, eingereicht am 3. März 2015; provisorische US-Patentanmeldung Nummer 62/044,923 mit dem Titel „User Interface For Receiving User Input”, eingereicht am 2. September 2014; provisorische US-Patentanmeldung Nummer 62/026,532, „Raise Gesture Detection in a Device”, eingereicht am 18. Juli 2014; internationale Patentanmeldung Nummer PCT/US2013/040061 , „Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application”, eingereicht am 8. Mai 2013; internationale Patentamneldung Nummer PCT/US2013/069483 , mit dem Titel „Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships”, eingereicht am 11. November 2013; und provisorische US-Patentanmeldung Nummer 62/044,894, eingereicht am 2. September 2014. Der Inhalt dieser Anmeldungen wird hiermit vollständig durch Verweis in dieses Dokument aufgenommen.
  • GEGENSTAND
  • Die offengelegten Beispiele beziehen sich im Allgemeinen auf Benutzerschnittstellen von elektronischen Vorrichtungen.
  • HINTERGRUND
  • Mit Hilfe kleinerer elektronischer Vorrichtungen (z. B. Vorrichtungen, die kleiner als normale Mobiltelefone sind), die entsprechend ihrer Konfiguration durch einen Benutzer getragen werden können, kann ein Benutzer verschiedene Benachrichtigungen aufrufen und darauf reagieren, wie beispielsweise Textnachrichten, E-Mails, Sprachnachrichten und Kalenderbenachrichtigungen. Benutzerschnittstellen, mit denen eine kleinere elektronische Vorrichtung wirksam zum Aufrufen von und zum Reagieren auf Benachrichtigungen eingesetzt werden kann, sind wünschenswert.
  • ZUSAMMENFASSUNG
  • Es wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige durchgeführt. Das Verfahren umfasst den Empfang einer Benachrichtigung, die Informationen enthält, und, in Reaktion auf den Empfang der Benachrichtigung, die Ausgabe einer wahrnehmungsbasierten Ausgabe. Das Verfahren umfasst das Erkennen einer Benutzereingabe und die Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde. Das Verfahren umfasst, entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, die Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  • Es wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige durchgeführt. Das Verfahren umfasst den Empfang einer ersten Benachrichtigung und einer zweiten Benachrichtigung. Das Verfahren umfasst, in Reaktion auf den Empfang der ersten Benachrichtigung und der zweiten Benachrichtigung, die Feststellung, ob die erste Benachrichtigung und die zweite Benachrichtigung ein Gruppierungskriterium erfüllen. Das Verfahren umfasst, in Reaktion auf eine Feststellung, dass die erste Benachrichtigung und die zweite Benachrichtigung das Gruppierungskriterium erfüllen, die Anzeige einer gruppierten Mitteilung, die die erste Benachrichtigung und die zweite Benachrichtigung darstellt. Das Verfahren umfasst, in Reaktion auf eine Feststellung, dass die erste Benachrichtigung und die zweite Benachrichtigung das Gruppierungskriterium nicht erfüllen, die Anzeige einer ersten Mitteilung, die die erste Benachrichtigung darstellt, und den Ersatz der Anzeige der ersten Mitteilung durch die Anzeige einer zweiten Mitteilung, die die zweite Benachrichtigung darstellt.
  • Es wird ein Verfahren an einer elektronischen Vorrichtung durchgeführt, die Inhalte aktiv anzeigt. Das Verfahren umfasst den Empfang einer Benachrichtigung, die Informationen enthält. Das Verfahren umfasst, in Reaktion auf den Empfang der Benachrichtigung, die Anzeige eines Mitteilungsbanners über einem Teil der Anzeige, wobei das Mitteilungsbanner einen ersten Teil der Informationen enthält und wobei mindestens ein Teil des Inhaltes weiterhin angezeigt wird. Das Verfahren umfasst das Erkennen einer Berührung auf der Anzeige an einer Stelle, die dem Mitteilungsbanner entspricht, und, in Reaktion auf das Erkennen der Berührung, die Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Entsprechend einiger Ausführungsformen wird ein nichtflüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer Anzeige veranlassen die Befehle die elektronische Vorrichtung: zum Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, zum Erstellen einer wahrnehmungsbasierten Ausgabe; zum Erkennen einer Benutzereingabe; zur Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; und entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, zur Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  • Entsprechend einiger Ausführungsformen wird ein nichtflüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer Anzeige veranlassen die Befehle die elektronische Vorrichtung: zum Empfang einer Vielzahl von Benachrichtigungen; in Reaktion auf den Empfang der Vielzahl von Benachrichtigungen, zur Feststellung, ob die Vielzahl von Benachrichtigungen ein Gruppierungskriterium erfüllen; entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen, zur Anzeige einer gruppierten Mitteilung, die die Vielzahl von Benachrichtigungen darstellt; und, in Reaktion auf eine Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium nicht erfüllen, zur Anzeige einer Vielzahl von Mitteilungen, die die Vielzahl von Benachrichtigungen darstellen.
  • Entsprechend einiger Ausführungsformen wird ein nichtflüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer berührungsempfindlichen Anzeige veranlassen die Befehle die elektronische Vorrichtung: während Inhalte aktiv angezeigt werden, zum Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, zur Anzeige eines Mitteilungsbanners über einem Teil der Anzeige, wobei das Mitteilungsbanner einen ersten Teil der Informationen enthält und wobei mindestens ein Teil des Inhaltes weiterhin angezeigt wird; zum Erkennen einer Berührung auf der berührungsempfindlichen Anzeige an einer Stelle, die dem Mitteilungsbanner entspricht; und, in Reaktion auf das Erkennen der Berührung, zur Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Entsprechend einiger Ausführungsformen wird ein flüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer Anzeige veranlassen die Befehle die elektronische Vorrichtung: zum Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, zum Erstellen einer wahrnehmungsbasierten Ausgabe; zum Erkennen einer Benutzereingabe; zur Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; und entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, zur Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  • Entsprechend einiger Ausführungsformen wird ein flüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer Anzeige veranlassen die Befehle die elektronische Vorrichtung: zum Empfang einer Vielzahl von Benachrichtigungen; in Reaktion auf den Empfang der Vielzahl von Benachrichtigungen, zur Feststellung, ob die Vielzahl von Benachrichtigungen ein Gruppierungskriterium erfüllen; entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen, zur Anzeige einer gruppierten Mitteilung, die die Vielzahl von Benachrichtigungen darstellt; und, in Reaktion auf eine Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium nicht erfüllen, zur Anzeige einer Vielzahl von Mitteilungen, die die Vielzahl von Benachrichtigungen darstellen.
  • Entsprechend einiger Ausführungsformen wird ein flüchtiges elektronisch lesbares Speichermedium offengelegt, auf dem ein oder mehrere Programme gespeichert sind, die Befehle enthalten. Bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer berührungsempfindlichen Anzeige veranlassen die Befehle die elektronische Vorrichtung: während Inhalte aktiv angezeigt werden, zum Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, zur Anzeige eines Mitteilungsbanners über einem Teil der Anzeige, wobei das Mitteilungsbanner einen ersten Teil der Informationen enthält und wobei mindestens ein Teil des Inhaltes weiterhin angezeigt wird; zum Erkennen einer Berührung auf der berührungsempfindlichen Anzeige an einer Stelle, die dem Mitteilungsbanner entspricht; und, in Reaktion auf das Erkennen der Berührung, zur Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Eine elektronische Vorrichtung, umfassend: eine Anzeige; einen oder mehrere Prozessoren; einen Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher abgelegt und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, wobei das eine oder die mehreren Programme Befehle enthalten: zum Empfang einer Benachrichtigung, die Informationen enthält, und, in Reaktion auf den Empfang der Benachrichtigung, zum Erstellen einer wahrnehmungsbasierten Ausgabe; zum Erkennen einer Benutzereingabe und zur Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, zur Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  • Eine elektronische Vorrichtung, umfassend: eine Anzeige; einen oder mehrere Prozessoren; einen Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher abgelegt und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, wobei das eine oder die mehreren Programme Befehle enthalten: zum Empfang einer ersten Benachrichtigung und einer zweiten Benachrichtigung und, in Reaktion auf den Empfang der ersten Benachrichtigung und der zweiten Benachrichtigung, zur Feststellung, ob die erste Benachrichtigung und die zweite Benachrichtigung ein Gruppierungskriterium erfüllen; in Reaktion auf eine Feststellung, dass die erste Benachrichtigung und die zweite Benachrichtigung das Gruppierungskriterium erfüllen, zur Anzeige einer gruppierten Mitteilung, die die erste Benachrichtigung und die zweite Benachrichtigung darstellt; in Reaktion auf eine Feststellung, dass die erste Benachrichtigung und die zweite Benachrichtigung das Gruppierungskriterium nicht erfüllen, zur Anzeige einer ersten Mitteilung, die die erste Benachrichtigung darstellt, und zum Ersatz der Anzeige der ersten Mitteilung durch die Anzeige einer zweiten Mitteilung, die die zweite Benachrichtigung darstellt.
  • Eine elektronische Vorrichtung, umfassend: eine berührungsempfindliche Anzeige; einen oder mehrere Prozessoren; einen Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher abgelegt und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, wobei das eine oder die mehreren Programme Befehle enthalten: zum Empfang einer Benachrichtigung, die Informationen enthält, und, in Reaktion auf den Empfang der Benachrichtigung, zur Anzeige eines Mitteilungsbanners über einem Teil der Anzeige, wobei das Mitteilungsbanner einen ersten Teil der Informationen enthält und wobei mindestens ein Teil des Inhaltes weiterhin angezeigt wird; zum Erkennen einer Berührung auf der Anzeige an einer Stelle, die dem Mitteilungsbanner entspricht, und, in Reaktion auf das Erkennen der Berührung, zur Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Ausführbare Befehle zur Durchführung dieser Funktionen können auf einem nichtflüchtigen elektronisch lesbaren Speichermedium oder einem anderen Computerprogrammprodukt enthalten sein, das zur Ausführung durch einen oder mehrere Prozessoren konfiguriert ist. Ausführbare Befehle zur Durchführung dieser Funktionen können auf einem flüchtigen elektronisch lesbaren Speichermedium oder in einem anderen Computerprogrammprodukt enthalten sein, das zur Ausführung durch einen oder mehrere Prozessoren konfiguriert ist.
  • BESCHREIBUNG DER FIGUREN
  • Für ein besseres Verständnis der verschiedenen beschriebenen Ausführungsformen wird auf die unten stehende Beschreibung der Ausführungsformen verwiesen, in Verbindung mit den folgenden Zeichnungen, in denen sich ähnliche Bezugszeichen auf entsprechende Teile in den Figuren beziehen.
  • 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige entsprechend einiger Ausführungsformen veranschaulicht.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Handhabung von Ereignissen entsprechend einiger Ausführungsformen veranschaulicht.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung mit einem Touchscreen entsprechend einiger Ausführungsformen.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche entsprechend einiger Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Anwendungsmenü auf einer tragbaren Multifunktionsvorrichtung entsprechend einiger Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer von der Anzeige getrennten berührungsempfindlichen Oberfläche entsprechend einiger Ausführungsformen.
  • 5A veranschaulicht eine persönliche elektronische Vorrichtung entsprechend einiger Ausführungsformen.
  • 5B ist ein Blockdiagramm, das eine persönliche elektronische Vorrichtung entsprechend einiger Ausführungsformen veranschaulicht.
  • 5C veranschaulicht das Erkennen von Berührungen mit Intensitätssensoren.
  • 5D veranschaulicht die Zuordnung einer Gesamtintensität zu Berührungen.
  • Die 5E5H veranschaulichen das Erkennen einer Geste mit einer Kontaktintensität.
  • Die 6A6C veranschaulichen beispielhafte Benutzerschnittstellen.
  • 7 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 8 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 9 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 10 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 11 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • Die 12A–C veranschaulichen eine beispielhafte Benutzerschnittstelle.
  • Die 13A–B veranschaulichen eine beispielhafte Benutzerschnittstelle.
  • 14 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 15 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 16 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 17 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 18 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 19 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 20 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 21 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 22 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • Die 23A23C veranschaulichen beispielhafte Benutzerschnittstellen.
  • 24 veranschaulicht eine beispielhafte Benutzerschnittstelle.
  • 25 veranschaulicht einen beispielhaften Ablauf zur Handhabung von Benachrichtigungen.
  • 26 veranschaulicht einen beispielhaften Ablauf zur Handhabung von Benachrichtigungen.
  • 27 veranschaulicht einen beispielhaften Ablauf zur Handhabung von Benachrichtigungen.
  • Die 2831 veranschaulichen beispielhafte Funktionsblockdiagramme elektronischer Vorrichtungen entsprechend einiger Ausführungsformen.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Beschreibung legt beispielhafte Verfahren, Parameter und dergleichen dar. Es ist jedoch zu beachten, dass eine solche Beschreibung nicht dazu gedacht ist, den Umfang der vorliegenden Offenlegung einzuschränken, sondern vielmehr als eine Beschreibung beispielhafter Ausführungsformen zur Verfügung gestellt wird.
  • Wie oben stehend erörtert, kann ein Benutzer mit Hilfe einer kleineren elektronischen Vorrichtung, die entsprechend ihrer Konfiguration durch einen Benutzer getragen werden kann, verschiedene Benachrichtigungen über Benutzerschnittstellen aufrufen und darauf reagieren, wie beispielsweise Textnachrichten, E-Mails, Sprachnachrichten, Audionachrichten, Börsenbenachrichtigungen, Weckfunktionen, Kalenderbenachrichtigungen, Trainingsbenachrichtigungen, Benachrichtigungen zu Gutscheinen oder Treueprogrammen. Es gibt jedoch einige Herausforderungen im Zusammenhang mit dem Aufrufen von und der Reaktion auf Benachrichtigungen auf einer kleineren Vorrichtung. Beispielsweise funktionieren Benutzerschnittstellenabläufe, die für größere Bildschirme konzipiert sind, unter Umständen auf elektronischen Vorrichtungen mit kleineren Bildschirmen nicht zufrieden stellend. Die geringere Bildschirmgröße macht es unter Umständen schwierig, beispielsweise Textinhalte im Zusammenhang mit einer Benachrichtigung zu lesen oder genaue Eingaben auf einem Touchscreen auszuführen. Unter Umständen ist der Platz auf dem Bildschirm nicht ausreichend, um detaillierte Hinweise zur Nutzung der Vorrichtung anzuzeigen, was die Bedeutung der intuitiven Gestaltung von Benutzerschnittstellen unterstreicht. Die begrenzte Bildschirmgröße verhindert unter Umständen die gleichzeitige Anzeige von mehreren Masken, weshalb eine wirksamere Benutzerschnittstellenstrategie darin bestehen kann, eine Maske durch eine andere zu ersetzen und die Menge an Informationen zu begrenzen, die auf einer einzelnen Maske angezeigt werden.
  • Zusätzlich zu den oben stehend aufgeführten Bedenken hinsichtlich der Benutzerfreundlichkeit, kann es auch Bedenken im Bereich des Datenschutzes geben, wenn die kleinere elektronische Vorrichtung nach außen hin sichtbar durch den Benutzer getragen wird (durch Befestigung an einem T-Shirt, einem Gürtel, einem Armband oder einer Halskette, zum Beispiel) anstelle in einer Tasche, einem Koffer oder einer Handtasche, wie dies bei größeren elektronischen Vorrichtungen üblich ist, wie beispielsweise Mobiltelefone oder Laptops. Der Benutzer sorgt sich unter Umständen, dass in der Nähe stehende Personen die Benachrichtigungen sehen können, so dass es unter Umständen wünschenswert ist, dass ein Benutzer über solche Benutzerschnittstellen steuern kann, wann die Benachrichtigung und wie viel des Inhaltes der Benachrichtigung angezeigt wird. Ferner ist es unter Umständen wünschenswert, dass, wenn die Vorrichtung durch den Benutzer getragen wird und dementsprechend in engerem Kontakt mit dem Benutzer als beispielsweise ein Mobiltelefon ist, solche Schnittstellen den Benutzer nicht durch häufige Unterbrechungen nerven. Idealerweise sollte der Benutzer mit Hilfe der Benutzerschnittstelle Benachrichtigungen auf einer kleineren persönlichen elektronischen Vorrichtung schnell, einfach und intuitiv aufrufen und darauf reagieren können. Solche Techniken können die kognitive Belastung für einen Benutzer verringern, der Benachrichtigungen nutzt, was zu einer Steigerung der Produktivität führt. Ferner können solche Techniken die Belastung für Prozessor und Batterie verringern, deren Energie andernfalls für redundante Benutzereingaben verschwendet wird.
  • Die unten stehenden 1A1B, 2, 3, 4A4B und 5A5B enthalten eine Beschreibung beispielhafter Vorrichtungen zur Durchführung der Techniken zur Handhabung von Benachrichtigungen. Die 6A24 veranschaulichen beispielhafte Benutzerschnittstellen zur Handhabung von Benachrichtigungen. Die Benutzerschnittstellen in den Figuren werden ferner eingesetzt, um die unten stehend beschriebenen Abläufe zu veranschaulichen, einschließlich der Abläufe in den 25-27.
  • Wenngleich in der folgenden Beschreibung die Begriffe „erste/erster/erstes/ersten” und „zweite/zweiter/zweites/zweiten” usw. zur Beschreibung verschiedener Elemente eingesetzt werden, sind diese Elemente nicht anhand der Begriffe einzuschränken. Diese Begriffe werden lediglich verwendet, um die Elemente untereinander zu unterscheiden. Beispielsweise könnte eine erste Berührung auch als eine zweite Berührung und gleichermaßen könnte eine zweite Berührung als eine erste Berührung bezeichnet werden, ohne dabei vom Umfang der unterschiedlichen beschriebenen Ausführungsformen abzuweichen. Sowohl die erste als auch die zweite Berührung sind jeweils eine Berührung, aber nicht dieselbe Berührung.
  • Die in der Beschreibung der unterschiedlichen beschriebenen Ausführungsformen verwendete Terminologie dient lediglich der Beschreibung konkreter Ausführungsformen und soll keinen einschränkenden Charakter haben. Im Rahmen ihrer Verwendung in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und der beigefügten Ansprüche schließen die Singularformen „ein”, „eine”, „einer”, „eines”, „einen”, „einem” und „der”, „die” und „das” auch die Pluralformen ein sofern aus dem Kontext nichts anderes hervorgeht. Es wird ferner vorausgesetzt, dass sich der Begriff „bzw.” entsprechend seiner Verwendung in diesem Dokument auf alle möglichen Kombinationen aus einem oder mehreren der aufgeführten Punkte bezieht und diese umfasst. Darüber hinaus wird vorausgesetzt, dass die Begriffe „umfasst”, „einschließlich” bzw. „umfassend”, wenn sie in dieser Patentschrift verwendet werden, die Anwesenheit aufgeführter Merkmale, ganzer Zahlen, Schritte, Abläufe, Elemente bzw. Komponenten festschreiben, jedoch die Anwesenheit oder Addition eines oder mehrerer anderer Merkmale, einer oder mehrerer anderer ganzer Zahlen, eines oder mehrerer anderer Schritte, Abläufe, Komponenten bzw. Gruppen davon nicht ausschließen.
  • Wie hier verwendet, kann der Begriff „falls” so interpretiert werden, dass er in Abhängigkeit vom Zusammenhang „wenn” oder „auf etwas hin” oder „in Reaktion auf ein Bestimmen” oder „in Reaktion auf ein Erkennen” bedeutet. Ähnlich kann der Satz „falls es ermittelt wird” oder „falls [eine angegebene Bedingung oder ein angegebenes Ereignis] erkannt wird” so interpretiert werden, dass in Abhängigkeit vom Zusammenhang „auf ein Ermitteln hin” oder „in Reaktion auf ein Ermitteln” oder „auf ein Erkennen hin [der angegebenen Bedingung oder des angegebenen Ereignisses]” oder „in Reaktion auf das Erkennen [der angegebenen Bedingung oder des angegebenen Ereignisses]” gemeint ist.
  • Ausführungsformen von elektronischen Vorrichtungen, Benutzerschnittstellen für solche Vorrichtungen und zugehörige Abläufe zum Verwenden solcher Vorrichtungen werden beschrieben. Bei einigen Ausführungsformen handelt es sich bei der Vorrichtung um ein tragbares Kommunikationsgerät, wie beispielsweise ein Mobiltelefon, das weitere Funktionen umfasst, wie beispielsweise eine PDA- bzw. Musikwiedergabefunktion. Beispielhafte Ausführungsformen tragbarer Multifunktionsvorrichtungen sind unter anderem die Vorrichtungen iPhone®, iPod Touch® und iPad® von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Vorrichtungen, wie beispielsweise Notebooks oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreens bzw. Touchpads) werden optional verwendet. Es wird ferner vorausgesetzt, dass es sich bei einigen Ausführungsformen bei der Vorrichtung nicht um ein tragbares Kommunikationsgerät, sondern um einen Schreibtischrechner mit einer berührungsempfindlichen Oberfläche handelt (z. B. mit einem Touchscreen bzw. Touchpad).
  • In der unten stehenden Diskussion wird eine elektronische Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche beschrieben. Es wird jedoch vorausgesetzt, dass die elektronische Vorrichtung optional ein oder mehrere andere Vorrichtungen mit Benutzerschnittstellen umfasst, wie beispielsweise eine physikalische Tastatur, eine Maus bzw. einen Joystick.
  • Die Vorrichtung unterstützt in der Regel eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der folgenden Anwendungen: eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Anwendung zur Erstellung von Internetseiten, eine Anwendung zum Schreiben auf einer Festplatte, eine Tabellenanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Anwendung für Videokonferenzen, eine E-Mail-Anwendung, eine Instant-Messaging-Anwendung, eine Trainingsunterstützungsanwendung, eine Fotobearbeitungsanwendung, eine Digitalkameraanwendung, eine Anwendung für eine digitale Videokamera, eine Anwendung zum Surfen im Internet, ein Anwendung zur Wiedergabe digitaler Musik bzw. eine Anwendung zur Wiedergabe digitaler Videos.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden, können mindestens eine gemeinsame physikalische Vorrichtung mit einer Benutzerschnittstelle verwenden, beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie die entsprechenden auf der Vorrichtung angezeigten Informationen können zwischen zwei Anwendungen bzw. innerhalb einer entsprechenden Anwendung angepasst bzw. variiert werden. So kann eine gemeinsame physikalische Architektur (wie beispielsweise die berührungsempfindliche Oberfläche) der Vorrichtung die Vielzahl von Anwendungen mit Benutzerschnittstellen unterstützen, die für den Benutzer intuitiv und transparent sind.
  • Die Aufmerksamkeit gilt nun Ausführungsformen tragbarer Vorrichtungen mit berührungsempfindlichen Anzeigen. 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung 100 mit einem berührungsempfindlichen Anzeigesystem 112 entsprechend einiger Ausführungsformen veranschaulicht. Die berührungsempfindliche Anzeige 112 wird manchmal zur Vereinfachung „Touchscreen” genannt und manchmal als ein „berührungsempfindliches Anzeigesystem” bezeichnet. Die Vorrichtung 100 umfasst einen Speicher 102 (der optional ein oder mehrere elektronisch lesbare Speichermedien enthält), einen Speicher-Controller 122, eine oder mehrere Recheneinheiten (CPU) 120, eine Peripherieschnittstelle 118, einen Funkfrequenzschaltkreis 108, einen Audioschaltkreis 110, einen Lautsprecher 111, ein Mikrofon 113, ein Eingabe-/Ausgabeteilsystem (E/A) 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124. Die Vorrichtung 100 kann einen oder mehrere optische Sensoren 164 umfassen. Die Vorrichtung 100 kann einen oder mehrere Kontaktintensitätssensoren 165 zum Erkennen der Intensität von Berührungen auf der Vorrichtung 100 umfassen (z. B. eine berührungsempfindliche Oberfläche, wie beispielsweise das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 kann einen oder mehrere Generatoren für taktile Rückmeldungen 167 zur Erzeugung taktiler Rückmeldungen auf der Vorrichtung 100 umfassen (z. B. Erzeugung taktiler Rückmeldungen auf einer berührungsempfindlichen Oberfläche, wie beispielsweise das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100 oder Touchpad 355 der Vorrichtung 300). Diese Komponenten können über eine oder mehrere Kommunikationsbusleitungen oder Signalleitungen 103 kommunizieren.
  • Im Kontext der Patentschrift und der Ansprüche bezieht sich der Begriff „Intensität” einer Berührung auf einer berührungsempfindlichen Oberfläche auf die Kraft oder den Druck (Kraft pro Flächeneinheit) einer Berührung (z. B. mit einem Finger) auf der berührungsempfindlichen Oberfläche oder auf ein Substitut der Kraft oder des Drucks einer Berührung auf der berührungsempfindlichen Oberfläche. Die Intensität einer Berührung weist eine Vielzahl von Werten mit mindestens vier unterschiedlichen Werten auf und umfasst in der Regel hunderte unterschiedliche Werte (z. B. mindestens 256). Die Intensität einer Berührung kann unter Zuhilfenahme verschiedener Ansätze und verschiedener Sensoren bzw. Sensorkombinationen bestimmt (oder gemessen) werden. Beispielsweise können ein oder mehrere Kraftsensoren unter oder neben der berührungsempfindlichen Oberfläche eingesetzt werden, um die Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche zu messen. Bei einigen Umsetzungen werden Kraftmessungen mehrerer Kraftsensoren miteinander kombiniert (z. B. ein gewichteter Durchschnittswert), um eine geschätzte Kontaktkraft zu bestimmen. Gleichermaßen kann eine berührungsempfindliche Spitze eines Eingabestiftes verwendet werden, um einen Druck des Eingabestiftes auf die berührungsempfindliche Oberfläche zu bestimmen. Alternativ werden die Größe der Kontaktfläche auf der berührungsempfindlichen Oberfläche bzw. Veränderungen dieser, die Aufnahmefähigkeit der berührungsempfindlichen Oberfläche neben der Berührung bzw. Veränderungen dieser bzw. die Widerstandskraft der berührungsempfindlichen Oberfläche neben der Berührung bzw. Veränderungen dieser als Substitut für die Kraft oder den Druck der Berührung auf der berührungsempfindlichen Oberfläche verwendet. Bei einigen Umsetzungen werden die Substitutmessungen der Kontaktkraft oder des Kontaktdrucks direkt verwendet, um festzustellen, ob eine Intensitätsgrenze überschritten wurde (z. B. wird die Intensitätsgrenze in Einheiten entsprechend der Substitutmessungen beschrieben). Bei einigen Umsetzungen werden die Substitutmessungen der Kontaktkraft oder des Kontaktdrucks in eine geschätzte Kraft oder einen geschätzten Druck umgerechnet, und die geschätzte Kraft oder der geschätzte Druck wird verwendet, um festzustellen, ob eine Intensitätsgrenze überschritten wurde (z. B. handelt es sich bei der Intensitätsgrenze um eine Druckgrenze, die in Druckeinheiten gemessen wird). Die Nutzung einer Berührungsintensität als Attribut einer Benutzereingabe erlaubt dem Benutzer den Zugriff auf zusätzliche Gerätefunktionen, die dem Benutzer auf einer kleineren Vorrichtung mit weniger Platz zur Anzeige von Aufforderungen (z. B. auf einer berührungsempfindlichen Anzeige) bzw. zum Empfang von Benutzereingaben (z. B. über eine berührungsempfindliche Anzeige, eine berührungsempfindliche Oberfläche oder eine physikalische/mechanische Steuerung, wie beispielsweise ein Knauf oder eine Schaltfläche) andernfalls nicht zur Verfügung stehen.
  • Im Kontext seiner Verwendung in der Patentschrift und den Ansprüchen bezieht sich der Begriff „taktile Rückmeldung” auf eine physikalische Verlagerung einer Vorrichtung in Relation zur vorhergehenden Position der Vorrichtung, eine physikalische Verlagerung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) einer Vorrichtung in Relation zu einer anderen Komponente (z. B. Gehäuse), oder eine Verlagerung der Komponente in Relation zu einem Schwerpunkt der Vorrichtung, die der Benutzer durch seinen Tastsinn spüren kann. Beispielsweise wird die durch die physikalische Verlagerung erzeugte taktile Rückmeldung in Situationen, in denen die Vorrichtung oder die Komponente der Vorrichtung mit einer berührungsempfindlichen Oberfläche des Benutzers in Kontakt ist (z. B. mit einem Finger, mit der Handfläche oder mit einem anderen Teil der Hand des Benutzers), durch den Benutzer als eine taktile Wahrnehmung entsprechend einer wahrgenommenen Veränderung hinsichtlich der physikalischen Eigenschaften der Vorrichtung oder der Komponente der Vorrichtung ausgelegt. Beispielsweise kann die Bewegung einer berührungsempfindlichen Oberfläche (z. B. eine berührungsempfindliche Anzeige oder ein Touchpad) durch den Benutzer als ein „Klick nach unten” oder „Klick nach oben” einer physikalischen Steuertaste wahrgenommen werden. In manchen Fällen wird ein Benutzer eine taktile Wahrnehmung, wie beispielsweise einen „Klick nach unten” oder einen „Klick nach oben”, fühlen, selbst wenn keine Bewegung einer physikalischen Steuertaste im Zusammenhang mit der berührungsempfindlichen Oberfläche erfolgt, die durch die Bewegungen des Benutzers physisch gedrückt (z. B. verlagert) wird. Ferner wird beispielsweise die Bewegung der berührungsempfindlichen Oberfläche optional durch den Benutzer als „Rauheit” der berührungsempfindlichen Oberfläche wahrgenommen oder empfunden, selbst wenn sich die Gleichmäßigkeit der berührungsempfindlichen Oberfläche nicht verändert. Während solche Interpretationen einer Berührung durch einen Benutzer den individuellen Sinneswahrnehmungen des Benutzers unterliegen, gibt es viele Sinneswahrnehmungen von Berührungen, die der Mehrheit der Benutzer gemein sind. Wenn eine taktile Rückmeldung also als einer bestimmten Sinneswahrnehmung eines Benutzers entsprechend beschrieben wird (z. B. ein „Klick nach oben”, ein „Klick nach unten”, „Rauheit”), entspricht die erzeugte taktile Rückmeldung, sofern nicht anders angegeben, der physikalischen Verlagerung der Vorrichtung oder einer Komponente davon, die bei einem typischen (oder durchschnittlichen) Benutzer zur beschrieben Sinneswahrnehmung führt.
  • Es sollte beachtet werden, dass es sich bei der Vorrichtung 100 lediglich um ein Beispiel einer tragbaren Multifunktionsvorrichtung handelt und dass die Vorrichtung 100 mehr oder weniger Komponenten als dargestellt aufweisen kann, zwei oder mehr Komponenten miteinander verbinden kann oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweisen kann. Die in 1A dargestellten verschiedenen Komponenten sind in Hardware, Software oder in einer Kombination aus Hardware und Software implementiert, einschließlich einer oder mehrerer Signalverarbeitungs- bzw. anwendungsspezifischer integrierter Schaltungen.
  • Der Speicher 102 kann ein oder mehrere elektronisch lesbare Speichermedien umfassen. Die elektronisch lesbaren Speichermedien sind konkret oder nichtflüchtig. Der Speicher 102 kann einen Hochgeschwindigkeitsarbeitsspeicher und ferner einen nichtflüchtigen Speicher umfassen, wie beispielsweise einen oder mehrere Plattenspeicher, Flash-Speicher oder andere nichtflüchtige Halbleiterspeicher. Der Speicher-Controller 122 kann den Zugriff auf den Speicher 102 über andere Komponenten der Vorrichtung 100 kontrollieren.
  • Die Peripherieschnittstelle 118 kann zum Anschluss von Eingabe- und Ausgabeperipheriegeräten der Vorrichtung an die CPU 120 und den Speicher 102 genutzt werden. Der eine oder die mehreren Prozessoren 120 führen verschiedene Softwareprogramme bzw. Befehlssätze aus, die im Speicher 102 abgelegt sind, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten. Bei einigen Ausführungsformen können die Peripherieschnittstelle 118, die CPU 120 und der Speicher-Controller 122 auf einem einzigen Chip umgesetzt werden, wie beispielsweise Chip 104. Bei einigen anderen Ausführungsformen können sie auf separaten Chips umgesetzt werden.
  • Der Funkfrequenzschaltkreis 108 empfängt und sendet Funkfrequenzsignale, auch elektromagnetische Signale genannt. Der Funkfrequenzschaltkreis 108 wandelt elektrische Signale von/in elektromagnetische Signale um und kommuniziert über die elektromagnetischen Signale mit Kommunikationsnetzen und anderen Kommunikationsgeräten. Der Funkfrequenzschaltkreis 108 kann hinlänglich bekannte Schaltkreise zur Durchführung dieser Funktionen umfassen, einschließlich unter anderem eines Antennensystems, eines Funkfrequenz-Sende-Empfangsgerätes, eines oder mehrerer Verstärker, eines Tuners, eines oder mehrerer Oszillatoren, eines Digitalsignalprozessors, eines CODEX-Chipsatzes, einer SIM-Karte, eines Speichers und so weiter. Der Funkfrequenzschaltkreis 108 kann mit Netzwerken, wie beispielsweise mit dem Internet, auch World Wide Web (WWW) genannt, einem Intranet bzw. einem Drahtlosnetzwerk, wie beispielsweise ein Mobilfunknetz, einem drahtlosen lokalen Netzwerk (WLAN) bzw. einem regionalen Netzwerk (Metropolitan Area Network – MAN) und anderen Vorrichtungen über drahtlose Kommunikation kommunizieren. Der Funkfrequenzschaltkreis 108 kann hinlänglich bekannte Schaltkreise zur Erkennung von Nahfeldkommunikationsfeldern (NFC) umfassen, wie beispielsweise durch eine Nahbereichskommunikationseinrichtung. Die drahtlose Kommunikation kann einen beliebigen der Vielzahl von Kommunikationsstandards, -protokollen und -technologien verwenden, einschließlich unter anderem Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High-Speed Uplink Packet Access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), Long-Term Evolution (LTE), Nahfeldkommunikation (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Bluetooth Low Energy (BTLE), Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g, IEEE 802.11n bzw. IEEE 802.11ac), Voice over Internet Protocol (VoIP), Wi-MAX, ein EMail-Protokoll (z. B. Internet Message Access Protocol (IMAP) bzw. Post Office Protocol (POP)), Instant-Messaging (z. B. Extensible Messaging and Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging and Presence Service (IMPS)) bzw. Short Message Service (SMS) oder ein beliebiges passendes Kommunikationsprotokoll, einschließlich Kommunikationsprotokolle, die zum Datum der Einreichung dieses Dokumentes noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111 und das Mikrofon 113 bieten eine Audioschnittstelle zwischen dem Benutzer und der Vorrichtung 100. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripherieschnittstelle 118, wandelt diese in ein elektrisches Signal um und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 wandelt das elektrische Signal in für Menschen hörbare Schallwellen um. Der Audioschaltkreis 110 empfängt ebenso elektrische Signale, die durch das Mikrofon 113 aus Schallwellen umgewandelt wurden. Der Audioschaltkreis 110 wandelt das elektrische Signal in Audiodaten um und sendet die Audiodaten an die Peripherieschnittstelle 118 zur Verarbeitung. Audiodaten können durch die Peripherieschnittstelle 118 vom bzw. an den Speicher 102 bzw. vom bzw. an den an Funkfrequenzschaltkreis 108 abgerufen bzw. gesendet werden. Bei einigen Ausführungsformen umfasst der Audioschaltkreis weiterhin eine Headset-Buchse (z. B. 212 in 2). Die Headset-Buchse stellt eine Schnittstelle zwischen dem Audioschaltkreis 110 und entfernbarer Audio-Eingabe/Ausgabe-Peripheriegeräte bereit, wie Nur-Ausgabe-Kopfhörer oder ein Headset sowohl mit Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrofon).
  • Das E/A-Teilsystem 106 koppelt Eingabe/Ausgabeperipheriegeräte auf der Vorrichtung 100, wie beispielsweise Touchscreen 112 und andere Eingabesteuervorrichtungen 116, an die Peripherieschnittstelle 118. Das E/A-Teilsystem 106 kann eine Anzeigensteuerung 156, eine Steuereinheit für einen optischen Sensor 158, eine Steuereinheit für einen Intensitätssensor 159, eine Steuereinheit für die haptische Rückmeldung 161 und eine oder mehrere Eingabesteuereinheiten 160 für andere Eingabe- oder Steuervorrichtungen umfassen. Die eine oder die mehreren Eingabesteuereinheiten 160 empfangen/senden elektrische Signale von anderen/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe- oder Steuervorrichtungen 116 können physikalische Bedienelemente (z. B. Taster, Wippschalter usw.), Ziffernblätter, Schiebeschalter, Joysticks, Spannräder und so weiter umfassen. Bei einigen alternativen Ausführungsformen können die Eingabesteuereinheiten 160 an beliebige (oder keine) der Folgenden gekoppelt sein: eine Tastatur, einen Infrarotanschluss, einen USB-Anschluss und eine Zeigevorrichtung, wie beispielsweise eine Maus. Das eine oder die mehreren Bedienelemente (z. B. 208 in 2) können einen Auf/Ab-Knopf zur Lautstärkeregelung des Lautsprechers 111 bzw. des Mikrofons 113 umfassen. Das eine oder die mehreren Bedienelemente können einen Taster umfassen (z. B. 206 in 2).
  • Durch schnelles Drücken des Tasters kann der Touchscreen 112 entsperrt werden bzw. beginnt ein Prozess, mit dessen Hilfe die Vorrichtung über Gesten auf dem Touchscreen entsperrt werden kann, wie in der US-Patentanmeldung 11/322,549, „Unlocking a Device by Performing Gestures an an Unlock Image”, eingereicht am 23. Dezember 2005, US-Patent Nr. 7,657,849 beschrieben, die hiermit vollständig durch Verweis aufgenommen wird. Wird der Taster (z. B. 206) länger gedrückt gehalten, kann die Vorrichtung 100 ein- oder ausgeschaltet werden. Der Benutzer kann die Funktion eines oder mehrerer Bedienelemente auf seine Bedürfnisse anpassen. Der Touchscreen 112 wird verwendet, um virtuelle oder Soft-Schaltflächen und eine oder mehrere Soft-Tastaturen zu implementieren.
  • Die berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuereinheit 156 empfängt bzw. sendet elektrische Signale vom/an den Touchscreen 112. Der Touchscreen 112 zeigt dem Benutzer visuelle Ausgaben an. Die visuellen Ausgaben können Grafiken, Text, Symbole, Videos und beliebige Kombinationen daraus (gemeinsam als „Grafiken” bezeichnet) umfassen. Bei einigen Ausführungsformen können die visuellen Ausgaben teilweise oder vollständig den Objekten auf der Benutzerschnittstelle entsprechen.
  • Der Touchscreen 112 umfasst eine berührungsempfindliche Oberfläche, einen Sensor oder eine Menge von Sensoren, die eine Eingabe des Benutzers empfangen, basierend auf haptischem und/oder taktilem Kontakt. Der Touchscreen 112 und die Anzeigesteuereinheit 156 (zusammen mit jedem verbundenen Modul und/oder Befehlssätzen im Speicher 102) erkennen einen Kontakt (und jede Bewegung oder jede Unterbrechung des Kontakts) auf dem Touchscreen 112 und wandeln den erkannten Kontakt in eine Interaktion mit Objekten auf der Benutzerschnittstelle um (z. B. eine oder mehrere Soft-Tasten, Symbole, Internetseiten oder Bilder), die auf dem Touchscreen 112 angezeigt werden. Bei einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen dem Touchscreen 112 und dem Benutzer einem Finger des Benutzers.
  • Der Touchscreen 112 kann die LCD-Technologie (Flüssigkristallanzeige), die LPD-Technologie (Licht emittierende Polymer-Anzeige) oder die LED-Technologie (Leuchtdiode) einsetzen, wenngleich bei anderen Ausführungsformen andere Anzeigetechnologien Anwendung finden können. Der Touchscreen 112 und die Anzeigesteuereinheit 156 können einen Kontakt und jede Bewegung oder jede Unterbrechung davon unter Verwendung einer beliebigen einer Vielzahl von Berührungserkennungstechnologien erkennen, die derzeit bekannt sind oder später entwickelt werden, einschließlich unter anderem kapazitiver, resistiver, Infrarot- und Oberflächenschallwellentechnologien, sowie anderer Näherungssensoranordnungen oder anderer Elementen zum Ermitteln eines oder mehrerer Kontaktpunkte mit dem Touchscreen 112. Bei einer exemplarischen Ausführungsform kommt die Sensortechnologie der erwarteten Betriebsleistung zur Anwendung, wie sie beispielsweise in iPhone® und iPod Touch® von Apple Inc. aus Cupertino, Kalifornien, eingesetzt wird.
  • Eine berührungsempfindliche Anzeige kann bei einigen Ausführungsformen des Touchscreens 112 analog sein zu den in den folgenden US-Patenten: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.) bzw. 6,677,932 (Westerman), bzw. US-Patentschrift 2002/0015024A1 beschriebenen mehrfachberührungsempfindlichen Touchpads, die hiermit jeweils vollständig durch Verweis aufgenommen werden. Der Touchscreen 112 zeigt jedoch visuelle Ausgaben der Vorrichtung 100 an, wohingegen die berührungsempfindlichen Touchpads keine visuellen Ausgaben bereitstellen.
  • Eine berührungsempfindliche Anzeige kann bei einigen Ausführungsformen des Touchscreens 112 der Beschreibung in den folgenden Anmeldungen entsprechen: (1) US-Patentanmeldung Nr. 11/381,313, „Multipoint Touch Surface Controller”, eingereicht am 2. Mai 2006; (2) US-Patentanmeldung Nr. 10/840,862, „Multipoint Touchscreen”, eingereicht am 6. Mai 2004; (3) US-Patentanmeldung Nr. 10/903,964, „Gestures For Touch Sensitive Input Devices”, eingereicht am 30. Juli 2004; (4) US-Patentanmeldung Nr. 11/048,264, „Gestures For Touch Sensitive Input Devices”, eingereicht am 31. Januar 2005; (5) US-Patentanmeldung Nr. 11/038,590, „Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices”, eingereicht am 18. Januar 2005; (6) US-Patentanmeldung Nr. 11/228,758, „Virtual Input Device Placement On A Touch Screen User Interface”, eingereicht am 16. September 2005; (7) US-Patentanmeldung Nr. 11/228,700, „Operation Of A Computer With A Touch Screen Interface”, eingereicht am 16. September 2005; (8) US-Patentanmeldung Nr. 11/228,737, „Activating Virtual Keys Of A Touch-Screen Virtual Keyboard”, eingereicht am 16. September 2005; und (9) US-Patentamneldung Nr. 11/367,749, „Multi-Functional Hand-Held Device”, eingereicht am 3. März 2006. Diese Anmeldungen werden hiermit jeweils vollständig in dieses Dokument aufgenommen.
  • Der Touchscreen 112 kann über eine Videoauflösung von mehr als 100 dpi verfingen. Bei einigen Ausführungsformen verfügt der Touchscreen über eine Videoauflösung von circa 160 dpi. Der Benutzer kann unter Verwendung eines beliebigen geeigneten Objekts oder Körperteils einen Kontakt mit dem Touchscreen 112 herstellen, wie beispielsweise ein Eingabestift, ein Finger und so weiter. Bei einigen Ausführungsformen ist die Benutzerschnittstelle so ausgelegt, dass sie hauptsächlich mit fingerbasierten Kontakten und Gesten arbeitet, die durch die größere Kontaktfläche zwischen Finger und Touchscreen eine geringere Genauigkeit als Eingaben mit dem Eingabestift aufweisen können. Bei einigen Ausführungsformen übersetzt die Vorrichtung die groben fingerbasierten Eingaben in eine genaue Position des Zeigers/Cursors oder einen Befehl zum Ausführen der Aktionen, die vom Benutzer gewünscht sind.
  • Bei einigen Ausführungsformen kann die Vorrichtung 100 zusätzlich zum Touchscreen noch ein Touchpad (nicht abgebildet) zum Aktivieren und Deaktivieren bestimmter Funktionen umfassen. Bei einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich der Vorrichtung, der, anders als der Touchscreen, keine visuellen Ausgaben anzeigt. Das Touchpad kann eine berührungsempfindliche Oberfläche sein, die vom Touchscreen 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die durch den Touchscreen ausgebildet ist.
  • Die Vorrichtung 100 umfasst weiterhin ein Stromversorgungssystem 162, um die verschiedenen Komponenten mit Strom zu versorgen. Das Stromversorgungssystem 162 kann ein Energieverwaltungssystem, eine oder mehrere Stromquellen (z. B. Batterie, Wechselstrom (AC), ein Aufladesystem, eine Netzausfallerkennungsschaltung, einen Spannungsumformer oder -umrichter, einen Energiestatusanzeiger (z. B. eine Leuchtdiode (LED)) und andere Komponenten in Verbindung mit der Erzeugung, Verwaltung und Verteilung von Energie in tragbaren Geräten umfassen.
  • Die Vorrichtung 100 kann weiterhin einen oder mehrere optische Sensoren 164 umfassen. 1A zeigt einen optischen Sensor, der an die Steuereinheit für einen optischen Sensor 158 im E/A-Teilsystem 106 angeschlossen ist. Der optische Sensor 164 kann eine ladungsträgergekoppelte Speicherung (CCD) oder ergänzende Metalloxid-Halbleiter-Fototransistoren (CMOS) umfassen. Der optische Sensor 164 empfängt Licht aus der Umgebung, das durch eine oder mehrere Linsen projiziert wird, und wandelt das Licht in Daten um, die ein Bild darstellen. In Verbindung mit dem Bildaufnahmemodul 143 (auch als Kameramodul bezeichnet) kann der optische Sensor 164 Standbilder oder Videos aufnehmen. Bei einigen Ausführungsformen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 angebracht, gegenüber der Touchscreen-Anzeige 112 auf der Vorderseite der Vorrichtung, so dass die Touchscreen-Anzeige als ein Sucher für die Standbild- und/oder Videobildaufnahme verwendet werden kann. Bei einigen Ausführungsformen ist ein optischer Sensor auf der Vorderseite der Vorrichtung angebracht, so dass das Bild des Benutzers für eine Videokonferenz aufgenommen werden kann, während der Benutzer die anderen Videokonferenzteilnehmer auf der Touchscreen-Anzeige sehen kann. Bei einigen Ausführungsformen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Drehen der Linse und des Sensors im Vorrichtungsgehäuse), so dass ein einzelner optischer Sensor 164 zusammen mit der Touchscreen-Anzeige verwendet werden kann, um sowohl Videokonferenzen abzuhalten als auch Stand- und Videobilder aufzunehmen.
  • Die Vorrichtung 100 kann ferner einen oder mehrere Kontaktintensitätssensoren 165 umfassen. 1A zeigt einen Kontaktintensitätssensor, der an die Steuereinheit für einen Intensitätssensor 159 im E/A-Teilsystem 106 angeschlossen ist. Der Kontaktintensitätssensor 165 kann eine oder mehrere druckelektrische Dehnungsmessstreifen, einen oder mehrere kapazitive Kraftsensoren, einen oder mehrere elektrische Kraftsensoren, einen oder mehrere druckelektrische Kraftsensoren, einen oder mehrere optische Kraftsensoren, eine oder mehrere kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren (z. B. Sensoren zur Messung der Kraft (oder des Drucks) einer Berührung auf einer berührungsempfindlichen Oberfläche) umfassen. Der Kontaktintensitätssensor 165 empfängt Informationen über die Kontaktintensität (z. B. Druckinformationen oder ein Substitut für Druckinformationen) von der Umgebung. Bei einigen Ausführungsformen ist mindestens ein Kontaktintensitätssensor bei oder nahe einer berührungsempfindlichen Oberfläche (z. B. das berührungsempfindliche Anzeigesystem 112) angeordnet. Bei einigen Ausführungsformen befindet sich mindestens ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100, gegenüber der Touchscreen-Anzeige 112, die sich auf der Vorderseite der Vorrichtung 100 befindet.
  • Die Vorrichtung 100 kann ferner einen oder mehrere Näherungssensoren 166 umfassen. 1A zeigt den Näherungssensor 166, der an die Peripherieschnittstelle 118 angeschlossen ist. Alternativ kann der Näherungssensor 166 an die Eingabesteuereinheit 160 im E/A-Teilsystem 106 angeschlossen sein. Der Näherungssensor 166 kann entsprechend der Beschreibung in den US-Patentanmeldungen mit der Nr. 11/241,839, „Proximity Detector In Handheld Device”; Nr. 11/240,788, „Proximity Detector In Handheld Device”; Nr. 11/620,702, „Using Ambient Light Sensor To Augment Proximity Sensor Output”; Nr. 11/586,862, „Automated Response To And Sensing Of User Activity In Portable Devices”; und Nr. 11/638,251, „Methods And Systems For Automatic Configuration Of Peripherals”, die hiermit vollständig durch Verweis aufgenommen werden, funktionieren. Bei einigen Ausführungsformen schaltet sich der Näherungssensor ab und deaktiviert den Touchscreen 112, wenn die Multifunktionsvorrichtung in der Nähe des Ohres des Benutzers platziert wird (z. B. wenn der Benutzer telefoniert).
  • Die Vorrichtung 100 kann ferner einen oder mehrere Generatoren für taktile Rückmeldungen 167 umfassen. 1A zeigt einen Generator für taktile Rückmeldungen, der an die Steuereinheit für die haptische Rückmeldung 161 im E/A-Teilsystem 106 angeschlossen ist. Der Generator für taktile Rückmeldungen 167 kann ein oder mehrere elektroakustische Geräte, wie beispielsweise Lautsprecher oder andere Audiokomponenten, bzw. elektromechanische Vorrichtungen, mit denen die Energie in eine lineare Bewegung umgewandelt wird, wie beispielsweise ein Motor, eine Magnetspule, ein elektroaktives Polymer, ein druckelektrischer Stellmotor, ein elektrostatischer Stellmotor oder andere Komponenten zur Erzeugung einer taktilen Rückmeldung, umfassen (z. B. eine Komponente, mit der elektrische Signale in taktile Rückmeldungen auf der Vorrichtung umgewandelt werden). Der Kontaktintensitätssensor 165 empfängt die Befehle zur Erzeugung taktiler Rückmeldungen vom Modul für haptische Rückmeldungen 133 und erzeugt auf der Vorrichtung 100 taktile Rückmeldungen, die durch den Benutzer der Vorrichtung 100 wahrgenommen werden können. Bei einigen Ausführungsformen ist mindestens ein Generator für taktile Rückmeldungen bei oder nahe einer berührungsempfindlichen Oberfläche (z. B. das berührungsempfindliche Anzeigesystem 112) angeordnet und kann eine taktile Rückmeldung erzeugen, indem die berührungsempfindliche Oberfläche vertikal (z. B. in eine/aus einer Oberfläche der Vorrichtung 100) oder lateral (z. B. vor und zurück in derselben Ebene wie die Oberfläche der Vorrichtung 100) bewegt wird. Bei einigen Ausführungsformen befindet sich mindestens ein Sensor des Generators für taktile Rückmeldungen auf der Rückseite der Vorrichtung 100, gegenüber der Touchscreen-Anzeige 112, die sich auf der Vorderseite der Vorrichtung 100 befindet.
  • Die Vorrichtung 100 kann ferner einen oder mehrere Beschleunigungssensoren 168 umfassen. 1A zeigt den Beschleunigungssensor 168, der an die Peripherieschnittstelle 118 angeschlossen ist. Alternativ kann der Beschleunigungssensor 168 an eine Eingabesteuereinheit 160 im E/A-Teilsystem 106 angeschlossen sein. Der Beschleunigungssensor 168 kann entsprechend der Beschreibung in der US-Patentschrift Nr. 0190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices”, und in der US-Patentschrift Nr. 0017692 , „Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer”, die jeweils vollständig durch Verweis in dieses Dokument aufgenommen werden, funktionieren. Bei einigen Ausführungsformen werden die Informationen auf der Touchscreen-Anzeige basierend auf einer Analyse der von einem oder mehreren Beschleunigungssensoren erhaltenen Daten im Hoch- oder im Querformat angezeigt. Zusätzlich zu dem/den Beschleunigungssensor/en 168 kann die Vorrichtung 100 ein Magnetfeldstärkenmessgerät (nicht abgebildet) und einen GPS-Empfänger (oder GLONASS oder irgendein anderes globales Navigationssystem) (nicht abgebildet) für den Empfang von Informationen hinsichtlich der Position und der Orientierung (z. B. Hochformat oder Querformat) der Vorrichtung 100 umfassen.
  • Bei einigen Ausführungsformen umfassen die im Speicher 102 abgelegten Softwarekomponenten das Betriebssystem 126, ein Kommunikationsmodul (oder Befehlssatz) 128, ein Kontakt-Bewegungsmodul (oder Befehlssatz) 130, ein Grafikmodul (oder Befehlssatz) 132, ein Texteingabemodul (oder Befehlssatz) 134, ein GPS-System-Modul (oder Befehlssatz) 135 und Anwendungen (oder Befehlssätze) 136. Ferner ist bei einigen Ausführungsformen im Speicher 102 (1A) oder 370 (3) der Vorrichtungszustand/globale interne Zustand 157 abgelegt, siehe 1A und 3. Der Vorrichtungszustand/globale interne Zustand 157 umfasst eines oder mehrere der Folgenden: den Zustand der aktiven Anwendung, der aufzeigt, welche Anwendungen aktuell aktiv sind; den Anzeigenzustand, der anzeigt, welche Anwendungen, Ansichten oder anderen Informationen die verschiedenen Bereiche der Touchscreen-Anzeige 112 belegen; den Sensorzustand, einschließlich Informationen von den verschiedenen Sensoren und Eingabesteuereinheiten 116 der Vorrichtung; und Informationen zum Standort bzw. zur Stellung der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, iOS, WINDOWS oder ein eingebettetes Betriebssystem, wie beispielsweise VxWorks) umfasst verschiedene Softwarekomponenten bzw. Treiber zur Steuerung und Verwaltung allgemeiner Systemaufgaben (z. B. Speichermanagement, Speichersteuerung, Energieverwaltung usw.) und ermöglicht die Kommunikation zwischen den unterschiedlichen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und umfasst weiterhin verschiedene Softwarekomponenten zur Verarbeitung der vom Funkfrequenzschaltkreis 108 bzw. vom externen Anschluss 124 erhaltenen Daten. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIRE-WIRE usw.) ist so eingerichtet, dass er andere Vorrichtungen direkt oder über ein Netzwerk (z. B. Internet, WLAN usw.) anschließen kann. Bei einigen Ausführungsformen handelt es sich bei dem externen Anschluss um einen mehrpoligen (z. B. 30-poligen) Stecker, der dem an iPod®-Geräten (Warenzeichen von Apple Inc.) eingesetzten 30-poligen Stecker gleich oder ähnlich bzw. mit diesem kompatibel ist.
  • Das Kontakt-Bewegungsmodul 130 kann eine Berührung des Touchscreens 112 (in Verbindung mit der Anzeigesteuereinheit 156) und anderer berührungsempfindlicher Vorrichtungen (z. B. ein Touchpad oder ein physikalisches Spannrad) erkennen. Das Kontakt-Bewegungsmodul 130 umfasst verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, die mit dem Erkennen einer Berührung verknüpft sind, wie beispielsweise die Feststellung, ob eine Berührung stattgefunden hat (z. B. Erkennen eines Ereignisses, bei dem mit einem Finger ein Kontakt hergestellt wurde), die Feststellung der Kontaktintensität (z. B. der Kraft oder des Drucks der Berührung oder eines Substituts der Kraft oder des Drucks der Berührung), die Feststellung, ob sich der Kontaktpunkt verändert (bewegt), und Verfolgung der Bewegung über die berührungsernpfindliche Oberfläche (z. B. Erkennen eines oder mehrerer Ereignisse, bei denen der Finger über die Oberfläche gezogen wird), und Feststellung, ob die Berührung unterbrochen wurde (z. B. Erkennen eines Ereignisses, bei dem der Finger von der Oberfläche gelöst oder die Berührung unterbrochen wurde). Das Kontakt-Bewegungsmodul 130 empfängt die Kontaktdaten von der berührungsempfindlichen Oberfläche. Die Feststellung, ob sich ein Kontaktpunkt bewegt, was durch eine Reihe von Kontaktdaten dargestellt wird, kann die Feststellung der Geschwindigkeit (Stärke), der Geschwindigkeit (Stärke und Richtung) bzw. einer Beschleunigung (eine Änderung der Stärke oder Richtung) des Kontaktpunktes umfassen. Diese Abläufe können auf einzelne Kontakte (z. B. Berührungen durch einen Finger) oder mehrere gleichzeitige Kontakte (z. B. Mehrfachberührung/Berührungen durch mehrere Finger) angewendet werden. Bei einigen Ausführungsformen erkennen das Kontakt-Bewegungsmodul 130 und die Anzeigensteuereinheit 156 eine Berührung auf einem Touchpad.
  • Bei einigen Ausführungsformen verwendet das Kontakt-Bewegungsmodul 130 eine Menge von einer oder mehreren Intensitätsgrenzen, um zu bestimmen, ob durch den Benutzer eine Aktion ausgeführt wurde (z. B. um festzustellen, ob ein Benutzer ein Symbol „angeklickt” hat). Bei einigen Ausführungsformen wird mindestens eine Teilmenge der Intensitätsgrenzen entsprechend Softwareparametern bestimmt (z. B. werden die Intensitätsgrenzen nicht durch Aktivierungsgrenzen bestimmter physikalischer Stellmotoren aktiviert und können eingestellt werden, ohne dabei die physikalische Hardware der Vorrichtung 100 zu verändern). Beispielsweise kann ein Grenzwert für einen „Mausklick” bei einem Touchpad oder einer Touchscreen-Anzeige auf einen beliebigen Wert in einem großen Bereich von vorher festgelegten Grenzwerten eingestellt werden, ohne dafür die Hardware des Touchpads oder der Touchscreen-Anzeige verändern zu müssen. Zusätzlich erhält der Benutzer bei einigen Umsetzungen Zugriff auf Softwareeinstellungen zur Anpassung einer oder mehrerer der verschiedenen Intensitätsgrenzen (z. B. durch die Anpassung einzelner Intensitätsgrenzen bzw. durch die Anpassung mehrerer Intensitätsgrenzen gleichzeitig durch einen Parameter für die „Klickintensität” auf Systemebene).
  • Das Kontakt-Bewegungsmodul 130 kann eine Benutzereingabe durch Gesten erkennen. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster (z. B. verschiedene Bewegungen, zeitliche Verläufe bzw. Intensitäten der erkannten Berührungen). Somit kann eine Geste durch Erkennen eines bestimmten Kontaktmusters erkannt werden. Beispielsweise umfasst das Erkennen einer Geste durch Tippen mit einem Finger ein Ereignis, bei dem mit einem Finger ein Kontakt hergestellt wurde, gefolgt von einem Ereignis, bei dem der Finger von der Oberfläche gelöst (abgehoben) wurde, an (im Wesentlichen) derselben Position wie das Ereignis, bei dem mit einem Finger ein Kontakt hergestellt wurde (z. B. an der Position eines Symbols). Ein weiteres Beispiel: das Erkennen einer mit dem Finger durchgeführten Wischgeste auf der berührungsempfindlichen Oberfläche umfasst das Erkennen eines Ereignisses, bei dem mit dem Finger ein Kontakt hergestellt wird, gefolgt vom Erkennen eines oder mehrerer Ereignisse, bei denen mit dem Finger eine Zugbewegung über die Oberfläche ausgeführt wird, und anschließend gefolgt vom Erkennen eines Ereignisses, bei dem der Finger von der Oberfläche gelöst (abgehoben) wird.
  • Das Grafikmodul 132 umfasst verschiedene bekannte Softwarekomponenten zur Berechnung und Anzeige von Grafiken auf dem Touchscreen 112 oder einer anderen Anzeige, einschließlich Komponenten zur Veränderung der visuellen Auswirkung (z. B. Helligkeit, Transparenz, Sättigung, Kontrast oder einer anderen visuellen Eigenschaft) der Grafiken, die angezeigt werden. In diesem Kontext umfasst der Begriff „Grafiken” alle Objekte, die einem Benutzer angezeigt werden können, einschließlich unter anderem Text, Internetseiten, Symbole (wie beispielsweise Objekte auf der Benutzerschnittstelle, einschließlich Soft-Tasten), digitaler Bilder, Videos, Animationen und dergleichen.
  • Bei einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die die zu verwendenden Grafiken darstellen. Jeder Grafik kann ein entsprechender Code zugewiesen werden. Das Grafikmodul 132 empfängt einen oder mehrere Codes von Anwendungen usw., die die anzuzeigenden Grafiken vorgeben, ggf. gemeinsam mit Koordinatendaten und anderen Daten zu den Eigenschaften der Grafiken, und erzeugt dann Bildschirmbilddaten zur Ausgabe an die Anzeigesteuereinheit 156.
  • Das Modul für haptische Rückmeldungen 133 umfasst verschiedene Softwarekomponenten zur Erzeugung von Befehlen, die von dem/den Generator/en für taktile Rückmeldungen 167 verwendet werden, um in Reaktion auf Benutzerinteraktionen mit der Vorrichtung 100 taktile Rückmeldungen an einer oder mehreren Stellen der Vorrichtung 100 zu erzeugen.
  • Das Texteingabemodul 134, bei dem es sich um einen Bestandteil des Grafikmoduls 132 handeln kann, bietet Soft-Tastaturen zur Eingabe von Text in verschiedenen Anwendungen (z. B. Adressbuch 137, E-Mail 140, IM 141, Browser 147 und alle anderen Anwendungen, die eine Texteingabe erfordern).
  • Das GPS-Modul 135 bestimmt den Standort der Vorrichtung und stellt diese Informationen zur Nutzung in verschiedenen Anwendungen (z. B. für das Telefon 138 zur Anwendung bei standortbezogenen Telefonaten, für die Kamera 143 als Bild-/Video-Metadaten und für Anwendungen, die standortbezogene Dienste bereitstellen, wie beispielsweise Wetter-Widgets, gelbe-Seiten-Widgets und Karten-/Navigations-Widgets) bereit.
  • Die Anwendungen 136 können die folgenden Module (oder Befehlssätze) oder eine Teilmenge oder Obermenge davon umfassen:
    • • das Adressbuchmodul 137 (manchmal Kontaktliste oder Telefonbuch genannt);
    • • das Telefonmodul 138;
    • • das Videokonferenzmodul 139;
    • • das E-Mail-Client-Modul 140;
    • • das Instant-Messaging-Modul (IM) 141;
    • • das Trainingsunterstützungsmodul 142;
    • • das Kameramodul 143 für Stand- bzw. Videobilder;
    • • das Bildverwaltungsmodul 144;
    • • das Video-Player-Modul;
    • • das Musik-Player-Modul;
    • • das Browser-Modul 147;
    • • das Kalendermodul 148;
    • • die Widget-Module 149, die eines oder mehrere der Folgenden enthalten können: Wetter-Widget 149-1, Aktien-Widget 149-2, Rechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5, und andere durch den Benutzer erworbene Widgets, sowie durch den Benutzer erstellte Widgets 149-6;
    • • das Widget-Erzeugungsmodul 150 zum Erzeugen von durch den Benutzer erstellten Widgets 149-6;
    • • das Suchmodul 151;
    • • das Video- und Musik-Player-Modul 152, in dem Video-Player-Modul und Musik-Player-Modul miteinander verschmelzen;
    • • das Notizmodul 153;
    • • das Kartenmodul 154; bzw.
    • • das Online-Video-Modul 155.
  • Beispiele für andere Anwendungen 136, die im Speicher 102 abgelegt sein können, umfassen andere Textverarbeitungsanwendungen, andere Bildbearbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachvervielfältigung.
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 kann das Adressbuchmodul 137 eingesetzt werden, um ein Adressbuch oder eine Kontaktliste zu verwalten (z. B. im anwendungsinternen Zustand 192 des Adressbuchmoduls 137 im Speicher 102 oder Speicher 370 abgelegt), einschließlich: Name/n zum Adressbuch hinzufügen; Name/n aus dem Adressbuch löschen; Telefonnummer/n, E-Mail-Adresse/n, physikalische Adresse/n oder andere Informationen mit einem Namen verknüpfen; ein Bild mit einem Namen verknüpfen; Namen kategorisieren und sortieren; Telefonnummern oder E-Mail-Adressen bereitstellen, um die Kommunikation per Telefonmodul 138, Videokonferenzmodul 139, E-Mail-Modul 140 oder IM-Modul 141; und so weiter zu ermöglichen bzw. anzustoßen.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 kann das Telefonmodul 138 eingesetzt werden, um eine Zeichenfolge entsprechend einer Telefonnummer einzugeben, um eine oder mehrere Telefonnummern im Adressbuchmodul 137 aufzurufen, um eine bereits eingegebene Telefonnummer zu ändern, um eine entsprechende Telefonnummer zu wählen, um ein Gespräch zu führen und das Gespräch nach dessen Abschluss zu beenden bzw. aufzulegen. Wie bereits weiter oben erwähnt, können für die drahtlose Kommunikation beliebige der vielen Kommunikationsstandards, -protokolle und -technologien verwendet werden.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem optischen Sensor 164, der Steuereinheit für den optischen Sensor 158, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem Adressbuchmodul 137 und dem Telefonmodul 138 umfasst das Videokonferenzmodul 139 ausführbare Befehle, um eine Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern entsprechend der Vorgaben des Benutzers zu beginnen, durchzuführen und abzuschließen.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das E-Mail-Client-Modul 140 ausführbare Befehle, um E-Mails in Reaktion auf Vorgaben des Benutzers zu erstellen, zu versenden, zu empfangen und zu verwalten. In Verbindung mit dem Bildverwaltungsmodul 144 sorgt das E-Mail-Client-Modul 140 für eine wesentliche Erleichterung beim Erstellen und Versenden von E-Mails mit Stand- oder Videobildern, die mit dem Kameramodul 143 aufgenommen wurden.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Instant-Messaging-Modul 141 ausführbare Befehle für die Eingabe einer Zeichenfolge entsprechend einer Sofortnachricht, zur Änderung vorher eingegebener Zeichen, zur Übertragung einer entsprechenden Sofortnachricht (beispielsweise unter Zuhilfenahme eines Short-Message-Service- (SMS) oder Multimedia-Message-Service-Protokolls (MMS) für Telefonie-basierte Sofortnachrichten oder unter Zuhilfenahme von XMPP, SIMPLE oder IMPS für Internet-basierte Sofortnachrichten), zum Empfang von Sofortnachrichten und zur Ansicht empfangener Sofortnachrichten. Bei einigen Ausführungsformen können übertragene bzw. empfangene Sofortnachrichten Grafiken, Fotos, Audiodateien, Videodateien bzw. Anhänge umfassen, die durch einen MMS- bzw. einen erweiterten Nachrichtenservice (Enhanced Messaging Service – EMS) unterstützt werden. In diesem Kontext bezieht sich der Begriff „Sofortnachricht” (Instant-Message) sowohl auf Telefonie-basierte Nachrichten (z. B. per SMS oder MMS verschickte Nachrichten) als auch auf Internet-basierte Nachrichten (z. B. über XMPP, SIMPLE oder IMPS verschickte Nachrichten).
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musik-Player-Modul umfasst das Trainingsunterstützungsmodul 142 ausführbare Befehle zum Erstellen von Trainingseinheiten (z. B. mit zeitlichen, auf die Strecke bezogenen und auf die Fettverbrennung bezogenen Zielen); zum Kommunizieren mit Trainingssensoren (Sportgeräte); zum Empfang von Trainingssensordaten; zum Kalibrieren der zur Überwachung eines Trainings eingesetzten Sensoren; zur Auswahl und Wiedergabe von Musik für eine Trainingseinheit und zur Anzeige, Speicherung und Übertragung von Trainingsdaten.
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem/den optischen Sensor/en 164, der Steuereinheit für die optischen Sensoren 158, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Bildverwaltungsmodul 144 umfasst das Kameramodul 143 ausführbare Befehle zur Aufnahme von Standbildern oder Videos (einschließlich Videostreams) und zum Speichern dieser im Speicher 102, zum Ändern der Eigenschaften eines Standbildes oder Videos oder zum Löschen eines Standbildes oder Videos aus dem Speicher 102.
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 umfasst das Bildverwaltungsmodul 144 ausführbare Befehle, um Stand- bzw. Videobilder zu ordnen, zu verändern (z. B. bearbeiten) oder anderweitig zu manipulieren, zu kennzeichnen, zu löschen, zu präsentieren (z. B. in einer digitalen Diashow oder in einem digitalen Album) und zu speichern.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Browser-Modul 147 ausführbare Befehle, um das Internet entsprechend der Vorgaben des Benutzers zu durchsuchen, einschließlich Internetseiten ganz oder teilweise sowie Anhänge und andere mit Internetseiten in Zusammenhang stehende Dateien zu suchen, zu verknüpfen, zu empfangen und anzuzeigen.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browser-Modul 147 umfasst das Kalendermodul 148 ausführbare Befehle, um Kalender und mit Kalendern in Zusammenhang stehende Daten (z. B. Kalendereinträge, To-Do-Listen usw.) entsprechend der Vorgaben des Benutzers zu erstellen, anzuzeigen, zu verändern und zu speichern.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 handelt es sich bei den Widget-Modulen 149 um Minianwendungen, die durch einen Benutzer heruntergeladen und genutzt (z. B. Wetter-Widget 149-1, Aktien-Widget 149-2, Rechner-Widget 149-3, Wecker-Widget 149-4 und Wörterbuch-Widget 149-5) oder durch den Benutzer erstellt werden können (z. B. durch den Benutzer erstelltes Widget 149-6). Bei einigen Ausführungsformen umfasst ein Widget eine HTML-Datei (Hypertext Markup Language), eine CSS-Datei (Cascading Style Sheets) und eine JavaScript-Datei. Bei einigen Ausführungsformen umfasst ein Widget eine XML-Datei (Extensible Markup Language) und eine JavaScript-Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browser-Modul 147 kann das Widget-Erzeugungsmodul 150 durch einen Benutzer verwendet werden, um Widgets zu erzeugen (z. B. Umwandlung eines durch den Benutzer vorgegebenen Teiles einer Internetseite in ein Widget).
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Suchmodul 151 ausführbare Befehle, um nach Text-, Musik-, Audio-, Bild-, Video- bzw. anderen Dateien im Speicher 102 zu suchen, die mit einem oder mehreren Suchkriterien (z. B. ein oder mehrere durch den Benutzer vorgegebene Suchbegriffe) entsprechend der Vorgaben durch den Benutzer übereinstimmen.
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Funkfrequenzschaltkreis 108 und dem Browser-Modul 147 umfasst das Video- und Musik-Player-Modul 152 ausführbare Befehle, mit denen der Benutzer aufgezeichnete Musik- und andere Audiodateien herunterladen und wiedergeben kann, die in einem oder mehreren Dateiformaten abgespeichert sind, wie beispielsweise MP3- oder AAC-Dateien, und ausführbare Befehle, um Videos (z. B. auf dem Touchscreen 112 oder auf einer externen, angeschlossenen Anzeige über den externen Anschluss 124) anzuzeigen, zu präsentieren oder anderweitig wiederzugeben. Bei einigen Ausführungsformen kann die Vorrichtung 100 die Funktion eines MP3-Players umfassen, wie beispielsweise ein iPod (Warenzeichen von Apple Inc.).
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Notizmodul 153 ausführbare Befehle, um Notizen, To-Do-Listen und dergleichen entsprechend der Vorgaben des Benutzers zu erstellen und zu verwalten.
  • In Verbindung mit dem Funkfrequenzschaltkreis 108, dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browser-Modul 147 kann das Kartenmodul 154 verwendet werden, um Karten und mit Karten in Zusammenhang stehende Daten (z. B. Anfahrtsinformationen, Daten zu Geschäften und anderen interessanten Punkten an oder nahe einem bestimmten Standort und andere standortbasierte Daten) entsprechend der Vorgaben des Benutzers zu empfangen, anzuzeigen, zu verändern und zu speichern.
  • In Verbindung mit dem Touchscreen 112, der Anzeigesteuereinheit 156, dem Kontakt-/Bewegungsmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Funkfrequenzschaltkreis 108, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browser-Modul 147 umfasst das Online-Video-Modul 155 ausführbare Befehle, mit denen der Benutzer Online-Videos in einem oder mehreren Dateiformaten, wie beispielsweise H.264, öffnen, suchen, empfangen (z. B. durch streamen bzw. herunterladen) und wiedergeben (z. B. auf dem Touchscreen oder auf einer externen, angeschlossenen Anzeige über den externen Anschluss 124) und eine E-Mail mit einem Link zu einem bestimmten Online-Video versenden kann. Bei einigen Ausführungsformen wird anstelle des E-Mail-Client-Moduls 140 vielmehr das Instant-Messaging-Modul 141 verwendet, um einen Link zu einem bestimmten Online-Video zu versenden. Eine zusätzliche Beschreibung der Online-Video-Anwendung findet sich in der provisorischen US-Patentanmeldung Nr. 60/936,562, „Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”, eingereicht am 20. Juni 2007, und in der US-Patentanmeldung Nr. 11/968,067, „Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos”, eingereicht am 31. Dezember 2007, deren Inhalt hiermit jeweils vollständig durch Verweis aufgenommen wird.
  • Jedes der oben stehend aufgeführten Module und jede der oben stehend aufgeführten Anwendungen entspricht einer Reihe von ausführbaren Befehlen zur Durchführung einer oder mehrerer der oben stehend beschriebenen Funktionen und der in dieser Anmeldung beschriebenen Verfahren (z. B. die mittels Computer implementierten Verfahren und andere Informationsverarbeitungsverfahren, die hierin beschrieben werden). Diese Module (z. B. Befehlssätze) müssen nicht als separate Softwareprogramme, -abläufe oder -module umgesetzt werden, so dass verschiedene Teilmengen dieser Module in verschiedenen Ausführungsformen kombiniert oder anderweitig neu angeordnet werden können. Beispielsweise kann das Video-Player-Modul mit dem Musik-Player-Modul zu einem einzelnen Modul kombiniert werden (z. B. das Video- und Musik-Player-Modul 152, 1A). Bei einigen Ausführungsformen kann der Speicher 102 eine Teilmenge der oben stehend aufgeführten Module und Datenstrukturen speichern. Ferner kann der Speicher 102 zusätzliche Module und Datenstrukturen, die oben stehend nicht beschrieben sind, speichern.
  • Bei einigen Ausführungsformen handelt es sich bei der Vorrichtung 100 um eine Vorrichtung, bei der eine vordefinierte Menge von Funktionen ausschließlich über einen Touchscreen bzw. ein Touchpad bedient wird. Durch die Verwendung eines Touchscreens bzw. eines Touchpads als primäre Eingabesteuereinheit zum Betrieb der Vorrichtung 100 kann die Anzahl der physikalischen Eingabesteuereinheiten (wie beispielsweise Taster, Ziffernblätter und dergleichen) an der Vorrichtung 100 verringert werden.
  • Die vorher definierte Menge von Funktionen, die ausschließlich über einen Touchscreen bzw. ein Touchpad ausgeführt werden, können die Navigation zwischen Benutzerschnittstellen umfassen. Bei einigen Ausführungsformen navigiert das Touchpad, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 von jeder Benutzerschnittstelle, die gerade an der Vorrichtung 100 angezeigt wird, in ein Haupt- oder Grundmenü. Bei solchen Ausführungsformen wird eine „Menüschaltfläche” unter Zuhilfenahme eines Touchpads implementiert. Bei solchen Ausführungsformen handelt es sich bei der Menüschaltfläche um einen physikalischen Taster oder ein physikalisches Eingabebedienelement und kein Touchpad.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Handhabung von Ereignissen entsprechend einiger Ausführungsformen veranschaulicht. Bei einigen Ausführungsformen umfasst der Speicher 102 (1A) oder 370 (3) einen Ereignissortierer 170 (z. B. im Betriebssystem 126) und eine entsprechende Anwendung 136-1 (z. B. irgendeine der vorstehenden Anwendungen 137-151, 155, 380-390).
  • Der Ereignissortierer 170 empfängt die Ereignisinformationen und legt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1 fest, der die Ereignisinformationen zur Verfügung gestellt werden. Der Ereignissortierer 170 umfasst einen Ereignismonitor 171 und ein Ereigniszuteilermodul 174. Bei einigen Ausführungsformen umfasst die Anwendung 136-1 den anwendungsinternen Zustand 192, der die aktuell auf der berührungsempfindlichen Anzeige 112 angezeigte/n Anwendungsansicht/en bei aktiver oder ausgeführter Anwendung wiedergibt. Bei einigen Ausführungsformen wird der Vorrichtungsinterne/globale interne Zustand 157 vom Ereignissortierer 170 verwendet, um zu bestimmen, welche Anwendung/en aktuell aktiv ist/sind; und der anwendungsinterne Zustand 192 wird vom Ereignissortierer 170 verwendet, um die Anwendungsansichten 191 festzulegen, denen die Ereignisinformationen zur Verfügung gestellt werden.
  • Bei einigen Ausführungsformen umfasst der anwendungsinterne Zustand 192 zusätzliche Informationen, wie beispielsweise (jeweils eine oder mehrere): Wiederaufnahmeinformationen, die verwendet werden, wenn die Anwendung 136-1 wieder läuft, Informationen zum Zustand der Benutzerschnittstelle, die angeben, welche Informationen durch die Anwendung 136-1 angezeigt werden bzw. angezeigt werden können, eine Zustandswarteschlange, damit der Benutzer auf einen vorherigen Zustand oder eine vorherige Ansicht der Anwendung 136-1 zurückgehen kann, und eine Wiederholungs-/Rückgängig-Warteschlange für im Vorfeld durch den Benutzer ausgeführte Aktionen.
  • Der Ereignismonitor 171 empfängt die Ereignisinformationen von der Peripherieschnittstelle 118. Ereignisinformationen umfassen Informationen über ein Unterereignis (z. B. eine Berührung durch den Benutzer auf der berührungsempfindlichen Anzeige 112 als Teil einer mehrere Berührungen umfassenden Geste). Die Peripherieschnittstelle 118 überträgt die Informationen, die sie vom E/A-Teilsystem 106 oder von einem Sensor, wie beispielsweise vom Näherungssensor 166, dem/n Beschleunigungssensor/en 168 bzw. dem Mikrofon 113 (über den Audioschaltkreis 110), empfängt. Die Informationen, die die Peripherieschnittstelle 118 vom E/A-Teilsystem 106 empfängt, umfassen Informationen von der berührungsempfindlichen Anzeige 112 oder einer berührungsempfindlichen Oberfläche.
  • Bei einigen Ausführungsformen sendet der Ereignismonitor 171 in vorher festgelegten Intervallen Anfragen an die Peripherieschnittstelle 118. In Reaktion darauf überträgt die Peripherieschnittstelle 118 Ereignisinformationen. Bei anderen Ausführungsformen überträgt die Peripherieschnittstelle 118 nur Ereignisinformationen, wenn ein signifikantes Ereignis auftritt (z. B. Empfang von Eingaben über einem vorher festgelegten Rauschschwellwert bzw. über einen Zeitraum, der länger als vorher festgelegt ist).
  • Bei einigen Ausführungsformen umfasst der Ereignissortierer 170 ferner ein Modul zur Bestimmung der Trefferansicht 172 bzw. ein Modul zum Erkennen eines aktiven Ereignisses 173.
  • Das Modul zur Bestimmung der Trefferansicht 172 bietet Softwareabläufe, um zu bestimmen, wo in einer oder mehreren Ansichten ein Unterereignis stattgefunden hat, wenn eine berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Bedienelementen und anderen Elementen, die ein Benutzer auf der Anzeige sehen kann.
  • Ein weiterer Aspekt der mit einer Anwendung in Zusammenhang stehenden Benutzerschnittstelle ist eine Menge von Ansichten, in diesem Dokument manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet, in denen die Informationen angezeigt werden und auf Berührung basierende Gesten erfolgen. Die Anwendungsansichten (einer entsprechenden Anwendung), in denen eine Berührung registriert wird, können den programmatischen Ebenen in einer programmatischen oder Ansichtshierarchie der Anwendung entsprechen. Beispielsweise können die Ansicht auf der untersten Ebene, in der eine Berührung registriert wird, die Trefferansicht genannt und die Ereignisse, die als eigentliche Eingaben erkannt werden, zumindest teilweise auf der Grundlage der Trefferansicht der ersten Berührung bestimmt werden, mit der eine auf Berührung basierende Geste begonnen wird.
  • Das Modul zur Bestimmung der Trefferansicht 172 empfängt die Informationen im Zusammenhang mit Unterereignissen einer auf Berührung basierenden Geste. Sind bei einer Anwendung mehrere Ansichten in einer Hierarchie angeordnet, erkennt das Modul zur Bestimmung der Trefferansicht 172 eine Trefferansicht als die unterste Ansicht in der Hierarchie, die das Unterereignis bearbeiten sollte. In den meisten Fällen handelt es sich bei der Trefferansicht um die Ansicht auf der untersten Ebene, in der ein auslösendes Unterereignis auftritt (z. B. das erste Unterereignis in einer Menge von Unterereignissen, die ein Ereignis oder mögliches Ereignis bilden). Hat das Modul zur Bestimmung der Trefferansicht 172 einmal die Trefferansicht bestimmt, empfängt die Trefferansicht in der Regel alle Unterereignisse im Zusammenhang mit derselben Berührung oder Eingabequelle, für die sie als die Trefferansicht festgelegt wurde.
  • Das Modul zum Erkennen eines aktiven Ereignisses 173 bestimmt, welche Ansicht oder Ansichten in einer Ansichtshierarchie eine konkrete Abfolge von Unterereignissen erhalten soll/sollen. Bei einigen Ausführungsformen legt das Modul zum Erkennen eines aktiven Ereignisses 173 fest, dass nur die Trefferansicht eine konkrete Abfolge von Unterereignissen erhalten soll. Bei anderen Ausführungsformen legt das Modul zum Erkennen eines aktiven Ereignisses 173 fest, dass alle Ansichten, in denen der physikalische Standort eines Unterereignisses enthalten ist, aktiv beteiligte Ansichten sind, und legt daher fest, dass alle aktiv beteiligten Ansichten eine konkrete Abfolge von Unterereignissen erhalten sollten. Bei anderen Ausführungsformen würden Ansichten, die in der Hierarchie höher stehen, aktiv beteiligte Ansichten bleiben, selbst wenn Unterereignisse (Berührungen) vollständig auf den mit einer bestimmten Ansicht zusammenhängenden Bereich beschränkt wären.
  • Das Ereigniszuteilermodul 174 ordnet die Ereignisinformationen einem Ereigniserkenner zu (z. B. Ereigniserkenner 180). Bei Ausführungsformen mit dem Modul zum Erkennen eines aktiven Ereignisses 173 stellt das Ereigniszuteilermodul 174 einem Ereigniserkenner die Ereignisinformationen zur Verfügung, die durch das Modul zum Erkennen eines aktiven Ereignisses 173 festgelegt wurden. Bei einigen Ausführungsformen speichert das Ereigniszuteilermodul 174 die Ereignisinformationen in einer Ereigniswarteschlange, die es von einem entsprechenden Ereigniserkenner 182 empfängt.
  • Bei einigen Ausführungsformen umfasst das Betriebssystem 126 einen Ereignissortierer 170. Alternativ umfasst die Anwendung 136-1 einen Ereignissortierer 170. Bei noch anderen Ausführungsformen ist der Ereignissortierer 170 ein autarkes Modul oder ein Teil eines anderen Moduls, das in Speicher 102 abgelegt ist, wie beispielsweise das Kontakt-Bewegungsmodul 130.
  • Bei einigen Ausführungsformen umfasst die Anwendung 136-1 eine Vielzahl von Ereignissteuerungsprogrammen 190 und eine oder mehrere Anwendungsansichten 191, von denen jede Befehle zum Umgang mit Berührungsereignissen umfasst, die in einer entsprechenden Ansicht der Benutzerschnittstelle der Anwendung auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Ereigniserkenner 180. In der Regel umfasst die entsprechende Anwendungsansicht 191 eine Vielzahl von Ereigniserkennern 180. Bei anderen Ausführungsformen sind ein oder mehrere Ereigniserkenner 180 Teil eines separaten Moduls, wie beispielsweise ein Benutzerschnittstellenkit (nicht abgebildet) oder ein Objekt von einer höheren Ebene, von dem die Anwendung 136-1 Verfahren und andere Eigenschaften erbt. Bei einigen Ausführungsformen umfasst ein entsprechendes Ereignissteuerungsprogramm 190 ein/en oder mehrere der Folgenden: Datenaktualisierungsprogramm 176, Objektaktualisierungsprogramm 177, GUI-Aktualisierungsprogramm 178 bzw. Ereignisdaten 179, die vom Ereignissortierer 170 empfangen wurden. Das Ereignissteuerungsprogramm 190 kann das Datenaktualisierungsprogramm 176, das Objektaktualisierungsprogramm 177 oder das GUI-Aktualisierungsprogramm 178 verwenden oder aufrufen, um den anwendungsinternen Zustand 192 auf den neuesten Stand zu bringen. Alternativ umfassen eine oder mehrere der Anwendungsansichten 191 ein entsprechendes oder mehrere entsprechende Ereignissteuerprogramme 190. Ferner sind bei einigen Ausführungsformen ein oder mehrere Datenaktualisierungsprogramme 176, Objektaktualisierungsprogramme 177 und GUI-Aktualisierungsprogramme 178 in einer entsprechenden Anwendungsansicht 191 enthalten.
  • Ein entsprechender Ereigniserkenner 180 empfängt Ereignisinformationen (z. B. Ereignisdaten 179) vom Ereignissortierer 170 und bestimmt aus den Ereignisinformationen dann ein Ereignis. Der Ereigniserkenner 180 umfasst einen Ereignisempfänger 182 und einen Ereignisvergleicher 184. Bei einigen Ausführungsformen umfasst der Ereigniserkenner 180 ferner mindestens eine Teilmenge von: Metadaten 183 und Ereignislieferbefehlen 188 (die Lieferbefehle für Unterereignisse umfassen können).
  • Der Ereignisempfänger 182 empfängt die Ereignisinformationen vom Ereignissortierer 170. Die Ereignisinformationen umfassen Informationen über ein Unterereignis, beispielsweise eine Berührung oder eine Bewegung einer Berührung. Je nach Unterereignis umfassen die Ereignisinformationen weiterhin zusätzliche Informationen, wie beispielsweise über den Standort des Unterereignisses. Betrifft das Unterereignis die Bewegung einer Berührung, können die Ereignisinformationen die Geschwindigkeit und die Richtung des Unterereignisses umfassen. Bei einigen Ausführungsformen umfassen Ereignisse die Drehung der Vorrichtung von einer Position in einer andere Position (z. B. vom Hochformat in das Querformat oder umgekehrt), und die Ereignisinformationen enthalten entsprechende Informationen hinsichtlich der aktuellen Ausrichtung (auch als Vorrichtungsstellung bezeichnet) der Vorrichtung.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformationen mit vorher festgelegten Ereignis- oder Unterereignisdefinitionen und bestimmt auf der Grundlage dieses Vergleichs ein Ereignis oder Unterereignis bzw. bestimmt oder aktualisiert den Zustand eines Ereignisses oder Unterereignisses. Bei einigen Ausführungsformen umfasst der Ereignisvergleicher 184 Ereignisdefinitionen 186. Ereignisdefinitionen 186 umfassen Definitionen von Ereignissen (z. B. vorher festgelegte Abfolgen von Unterereignissen), beispielsweise Ereignis 1 (187-1), Ereignis 2 (187-2) und andere. Bei einigen Ausführungsformen umfassen Unterereignisse in einem Ereignis (187) beispielsweise den Berührungsbeginn, das Berührungsende, die Bewegung einer Berührung, den Berührungsabbruch und mehrere Berührungen. Bei einem Beispiel besteht die Definition für ein Ereignis 1 (187-1) in einem Doppeltipp auf ein angezeigtes Objekt. Der Doppeltipp umfasst beispielsweise eine erste Berührung (Berührungsbeginn) des angezeigten Objektes über einen vorher festgelegten Zeitraum, ein erstes Abheben (Berührungsende) über einen vorher festgelegten Zeitraum, eine zweite Berührung (Berührungsbeginn) des angezeigten Objektes über einen vorher festgelegten Zeitraum und ein zweites Abheben (Berührungsende) über einen vorher festgelegten Zeitraum. Bei einem anderen Beispiel besteht die Definition für ein Ereignis 2 (187-2) in einer Zugbewegung auf ein angezeigtes Objekt. Die Zugbewegung umfasst beispielsweise eine Berührung (oder einen Kontakt) des angezeigten Objektes über einen vorher festgelegten Zeitraum, eine Bewegung der Berührung über die berührungsempfindliche Anzeige 112 und ein Abheben der Berührung (Berührungsende). Bei einigen Ausführungsformen umfasst das Ereignis weiterhin Informationen für ein oder mehrere angeschlossene Ereignissteuerungsprogramme 190.
  • Bei einigen Ausführungsformen umfasst die Ereignisdefinition 187 eine Definition eines Ereignisses für ein entsprechendes Objekt auf der Benutzerschnittstelle. Bei einigen Ausführungsformen führt ein Ereignisvergleicher 184 eine Trefferprüfung durch, um zu bestimmen, welches Objekt auf der Benutzerschnittstelle zu einem Unterereignis gehört. Beispielsweise führt der Ereignisvergleicher 184 in einer Anwendungsansicht, in der drei Objekte auf der Benutzerschnittstelle auf der berührungsempfindlichen Anzeige 112 angezeigt werden, sobald eine Berührung auf der berührungsempfindlichen Anzeige 112 registriert wird, eine Trefferprüfung durch, um zu bestimmen, welches der drei Objekte auf der Benutzerschnittstelle zur Berührung gehört (Unterereignis). Gehört jedes angezeigte Objekt zu einem entsprechenden Ereignissteuerungsprogramm 190, verwendet der Ereignisvergleicher das Ergebnis der Trefferprüfung, um festzustellen, welches Ereignissteuerungsprogramm 190 aktiviert werden soll. Der Ereignisvergleicher 184 wählt beispielsweise ein Ereignissteuerungsprogramm aus, das zum Unterereignis und zu dem Objekt gehört, das die Trefferprüfung ausgelöst hat.
  • Bei einigen Ausführungsformen umfasst die Definition für ein entsprechendes Ereignis (187) ferner verzögerte Aktionen, mit denen die Bereitstellung der Ereignisinformationen verzögert wird, bis festgestellt wurde, ob die Abfolge der Unterereignisse dem Ereignistyp des Ereigniserkenners entspricht oder nicht.
  • Stellt ein entsprechender Ereigniserkenner 180 fest, dass eine Menge von Unterereignissen nicht zu den Ereignissen in den Ereignisdefinitionen 186 passen, geht der entsprechende Ereigniserkenner 180 in einen „Ereignis unmöglich”, „Ereignis fehlgeschlagen” oder „Ereignis beendet” Zustand, nach dem er folgende Unterereignisse der auf Berührung basierenden Geste ignoriert. In dieser Situation verfolgen und verarbeiten andere Ereigniserkenner, sofern vorhanden, die für die Trefferansicht aktiv bleiben, Unterereignisse einer fortgeführten auf Berührung basierenden Geste weiter.
  • Bei einigen Ausführungsformen umfasst ein entsprechender Ereigniserkenner 180 Metadaten 183 mit anpassbaren Eigenschaften, Flags bzw. Listen, aus denen hervorgeht, wie das Ereignisliefersystem die Unterereignisse den aktiv beteiligten Ereigniserkennern bereitstellen soll. Bei einigen Ausführungsformen umfassen Metadaten 183 anpassbare Eigenschaften, Flags bzw. Listen, aus denen hervorgeht, wie Ereigniserkenner miteinander interagieren bzw. zur Interaktion miteinander aktiviert sind. Bei einigen Ausführungsformen umfassen Metadaten 183 anpassbare Eigenschaften, Flags bzw.
  • Listen, aus denen hervorgeht, ob Unterereignisse verschiedenen Ebenen in der Ansichts- oder der programmatischen Hierarchie bereitgestellt werden.
  • Bei einigen Ausführungsformen aktiviert ein entsprechender Ereigniserkenner 180 ein zu einem Ereignis gehörendes Ereignissteuerungsprogramm 190, wenn ein oder mehrere konkrete Unterereignisse eines Ereignisses registriert werden. Bei einigen Ausführungsformen stellt ein entsprechender Ereigniserkenner 180 dem Ereignissteuerungsprogramm 190 zum Ereignis gehörende Ereignisinformationen zur Verfügung. Die Aktivierung eines Ereignissteuerungsprogramms 190 unterscheidet sich vom Senden (und vom verzögerten Senden) von Unterereignissen an eine entsprechende Trefferansicht. Bei einigen Ausführungsformen setzt der Ereigniserkenner 180 eine zum erkannten Ereignis gehörende Flag und das zur Flag gehörende Ereignissteuerungsprogramm 190 nimmt die Flag und führt einen vorher festgelegten Prozess aus.
  • Bei einigen Ausführungsformen umfassen die Ereignislieferbefehle 188 die Lieferbefehle für Unterereignisse, die Ereignisinformationen über ein Unterereignis liefern, ohne ein Ereignissteuerungsprogramm zu aktivieren. Stattdessen liefern die Lieferbefehle für Unterereignisse Ereignisinformationen an Ereignissteuerungsprogramme, die zur Menge von Unterereignissen gehören, oder an aktiv beteiligte Ansichten. Ereignissteuerungsprogramme, die zur Menge von Unterereignissen oder aktiv beteiligten Ansichten gehören, empfangen die Ereignisinformationen und führen einen vorher festgelegten Prozess aus.
  • Bei einigen Ausführungsformen erzeugt und aktualisiert das Datenaktualisierungsprogramm 176 Daten, die in der Anwendung 136-1 verwendet werden. Beispielsweise aktualisiert das Datenaktualisierungsprogramm 176 die im Adressbuchmodul 137 verwendete Telefonnummer oder speichert eine Videodatei, die im Video-Player-Modul verwendet wird. Bei einigen Ausführungsformen erzeugt und aktualisiert das Objektaktualisierungsprogramm 177 Objekte, die in der Anwendung 136-1 verwendet werden. Beispielsweise erzeugt das Objektaktualisierungsprogramm 177 ein neues Objekt auf der Benutzerschnittstelle oder aktualisiert die Position eines Objektes auf der Benutzerschnittstelle. Das GUI-Aktualisierungsprogramm 178 aktualisiert die grafische Benutzerschnittstelle. Beispielsweise bereitet das GUI-Aktualisierungsprogramm 178 Anzeigeinformationen vor und schickt diese zur Anzeige auf einer berührungsempfindlichen Anzeige an das Grafikmodul 132.
  • Bei einigen Ausführungsformen umfasst das/umfassen Ereignissteuerungsprogramm(e) 190 das Datenaktualisierungsprogramm 176, das Objektaktualisierungsprogramm 177 und das GUI-Aktualisierungsprogramm 178 bzw. hat/haben Zugriff darauf. Bei einigen Ausführungsformen sind das Datenaktualisierungsprogramm 176, das Objektaktualisierungsprogramm 177 und das GUI-Aktualisierungsprogramm 178 in einem einzelnen Modul einer entsprechenden Anwendung 136-1 oder Anwendungsansicht 191 enthalten. Bei anderen Ausführungsformen sind sie in zwei oder mehr Softwaremodulen enthalten.
  • Es ist festzuhalten, dass die vorstehende Diskussion bezüglich der Handhabung von Ereignissen von Benutzerberührungen auf berührungsempfindlichen Anzeigen auch auf andere Formen von Benutzereingaben zur Bedienung der Multifunktionsvorrichtungen 100 mit Eingabevorrichtungen anzuwenden sind, von denen nicht alle auf Touchscreens initiiert werden. Beispielsweise können Mausbewegungen und das Drücken von Maustasten, optional koordiniert durch einzelnes oder mehrfaches Betätigen oder Halten der Tasten auf der Tastatur; Kontaktbewegungen, wie beispielsweise tippen, ziehen, blättern usw., auf Touchpads; Eingaben über Eingabestifte; Bewegen der Vorrichtung; mündliche Anweisungen; erkannte Augenbewegungen; biometrische Eingaben; bzw. jede Kombination davon, als Eingaben entsprechend der Unterereignisse, die ein Ereignis definieren, das erkannt werden soll, verwendet werden.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung mit einem Touchscreen 112 entsprechend einiger Ausführungsformen. Der Touchscreen kann eine oder mehrere Grafiken in der Benutzerschnittstelle (UI) 200 anzeigen. Bei dieser Ausführungsform, sowie bei anderen unten stehend beschriebenen Ausführungsformen, kann der Benutzer eine oder mehrere der Grafiken durch eine Geste auf den Grafiken auswählen, beispielsweise mit einem oder mehreren Fingern 202 (in der Figur nicht maßstabsgetreu gezeichnet) oder einem oder mehreren Eingabestiften 203 (in der Figur nicht maßstabsgetreu gezeichnet). Bei einigen Ausführungsformen erfolgt die Auswahl einer oder mehrerer Grafiken, wenn der Benutzer den Kontakt mit der einen oder den mehreren Grafiken unterbricht. Bei einigen Ausführungsformen kann die Geste eine oder mehrere Tippbewegungen, eine oder mehrere Wischbewegungen (von links nach rechts, von rechts nach links, aufwärts bzw. abwärts) bzw. ein Rollen eines Fingers (von rechts nach links, von links nach rechts, aufwärts bzw. abwärts) umfassen, der die Vorrichtung 100 berührt. Bei einigen Umsetzungen oder unter einigen Umständen führt ein unbeabsichtigter Kontakt mit einer Grafik nicht dazu, dass die Grafik ausgewählt wird. Beispielsweise kann mit einer Wischgeste, mit der über ein Anwendungssymbol gewischt wird, die entsprechende Anwendung nicht ausgewählt werden, wenn die Geste, die der Auswahl entspricht, eine Tippbewegung ist.
  • Die Vorrichtung 100 kann auch eine oder mehrere physikalische Tasten umfassen, wie beispielsweise eine „Home”-Schaltfläche oder eine Menüschaltfläche 204. Wie bereits weiter oben beschrieben, kann die Menüschaltfläche 204 verwendet werden, um zu einer beliebigen Anwendung 136 in einer Menge von Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ wird die Menüschaltfläche bei einigen Ausführungsformen als eine Soft-Taste in einer grafischen Benutzerschnittstelle ausgeführt, die auf dem Touchscreen 112 angezeigt wird.
  • Bei einer Ausführungsform umfasst die Vorrichtung 100 einen Touchscreen 112, eine Menüschaltfläche 204, einen Taster 206, um die Vorrichtung ein-/auszuschalten und zu sperren, (einen) Lautstärkeregler 208, einen Steckplatz für eine SIM-Karte 210, eine Headset-Buchse 212 und einen externen Docking-/Ladeanschluss 124. Der Taster 206 kann verwendet werden, um die Vorrichtung ein-/auszuschalten, indem der Taster über einen vorher festgelegten Zeitraum gedrückt gehalten wird; um die Vorrichtung zu sperren, indem der Taster gedrückt und vor Ablauf des vorher festgelegten Zeitraums wieder losgelassen wird; bzw. um die Vorrichtung zu entsperren oder die Entsperrung der Vorrichtung anzustoßen. Bei einer alternativen Ausführungsform akzeptiert die Vorrichtung auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen über das Mikrofon 113. Die Vorrichtung 100 kann ferner einen oder mehrere Kontaktintensitätssensoren 165, um die Intensität von Berührungen auf dem Touchscreen 112 festzustellen, bzw. einen oder mehrere Generatoren für taktile Rückmeldungen 167 umfassen, um taktile Rückmeldungen für einen Benutzer der Vorrichtung 100 zu erzeugen.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche entsprechend einiger Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. Bei einigen Ausführungsformen handelt es sich bei der Vorrichtung um ein Notebook, einen Schreibtischrechner, ein Tablet, ein Multimedia-Player-Gerät, ein Navigationsgerät, eine Lernhilfe (wie beispielsweise ein Lernspielzeug für Kinder), ein Spielesystem oder ein Steuergerät (für den Haus- oder gewerblichen Gebrauch). Die Vorrichtung 300 umfasst in der Regel eine oder mehrere Recheneinheiten (CPU) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, einen Speicher 370 und einen oder mehrere Kommunikationsbusse 320, um diese Komponenten miteinander zu verbinden. Die Kommunikationsbusse 320 können einen Schaltkreis (manchmal als Chipsatz bezeichnet) umfassen, der die Systemkomponenten miteinander verbindet und die Kommunikationen zwischen diesen steuert. Die Vorrichtung 300 umfasst eine Eingabe-/Ausgabe-Schnittstelle (E/A) 330, umfassend die Anzeige 340, bei der es sich in der Regel um eine Touchscreen-Anzeige handelt. Die E/A-Schnittstelle 330 kann ferner eine Tastatur bzw. eine Maus (oder ein anderes Zeigegerät) 350 und ein Touchpad 355, einen Generator für taktile Rückmeldungen 357, der taktile Rückmeldungen auf der Vorrichtung 300 erzeugt (z. B. ähnlich dem/den Generator/en für taktile Rückmeldungen 167, die oben stehend unter Bezugnahme auf 1A beschrieben wurden), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche bzw. Kontaktintensitätssensoren, ähnlich dem/den Kontaktintensitätssensor/en 165, die oben stehend unter Bezugnahme auf 1A beschrieben wurden) umfassen. Der Speicher 370 umfasst einen Hochgeschwindigkeitsarbeitsspeicher, wie beispielsweise DRAM, SRAM, DDR RAM, oder andere frei addressierbare Halbleiterspeichervorrichtungen; und kann einen nichtflüchtigen Speicher umfassen, wie beispielsweise eine oder mehrere magnetische Plattenspeicher, optische Plattenspeicher, Flash-Speichervorrichtungen oder andere nichtflüchtige Halbleiterspeichervorrichtungen. Der Speicher 370 kann eine oder mehrere Speichervorrichtungen umfassen, die entfernt von der/den CPU 310 angeordnet sind. Bei einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die im Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) gespeichert sind oder eine Teilmenge davon. Ferner kann der Speicher 370 zusätzliche Programme, Module und Datenstrukturen speichern, die nicht im Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorhanden sind. Beispielsweise kann der Speicher 370 der Vorrichtung 300 ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Modul zur Erstellung von Internetseiten 386, ein Modul zum Schreiben auf einer Festplatte 388 bzw. ein Tabellenkalkulationsmodul 390 speichern, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben stehend aufgeführten Elemente in 3 kann in einer oder mehreren der vorstehend aufgeführten Speichervorrichtungen gespeichert sein. Jedes der vorstehend aufgeführten Module entspricht einem Befehlssatz zur Durchführung einer Funktion entsprechend der oben stehenden Beschreibung. Diese oben stehend aufgeführten Module oder Programme (z. B. Befehlssätze) müssen nicht als separate Softwareprogramme, -abläufe oder -module umgesetzt werden, so dass verschiedene Teilmengen dieser Module in verschiedenen Ausführungsformen kombiniert oder anderweitig neu angeordnet werden können. Bei einigen Ausführungsformen kann der Speicher 370 eine Teilmenge der oben stehend aufgeführten Module und Datenstrukturen speichern. Ferner kann der Speicher 370 zusätzliche Module und Datenstrukturen, die oben stehend nicht beschrieben sind, speichern.
  • Das Augenmerk richtet sich jetzt auf Ausführungsformen von Benutzerschnittstellen, die beispielsweise auf der tragbaren Multifunktionsvorrichtung 100 implementiert sein können.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Anwendungsmenü auf einer tragbaren Multifunktionsvorrichtung 100 entsprechend einiger Ausführungsformen. Ähnliche Benutzerschnittstellen können auf der Vorrichtung 300 implementiert werden. Bei einigen Ausführungsformen umfasst die Benutzerschnittstelle die folgenden Elemente oder eine Teilmenge oder Obermenge davon:
    • • Signalstärkenanzeige/en 402 für die drahtlose Kommunikation, wie beispielsweise Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Anzeige 405;
    • • Batteriestatusanzeige 406;
    • • Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie beispielsweise: – Symbol 416 für das Telefonmodul 138, mit „Phone” gekennzeichnet, das eine Anzeige 414 für die Anzahl der entgangenen Anrufe oder Sprachnachrichten umfassen kann; – Symbol 418 für das E-Mail-Client-Modul 140, mit „Mail” gekennzeichnet, das eine Anzeige 410 für die Anzahl der ungelesenen E-Mails umfassen kann; – Symbol 420 für das Browser-Modul 147, mit „Browser” gekennzeichnet, und – Symbol 422 für das Video- und Musik-Player-Modul 152, auch als iPod-Modul (Warenzeichen von Apple Inc.) 152 bezeichnet, mit „iPod” gekennzeichnet, und
    • • Symbole für andere Anwendungen, wie beispielsweise: – Symbol 424 für das IM-Modul 141, mit „Nachrichten” gekennzeichnet; – Symbol 426 für das Kalendermodul 148, mit „Kalender” gekennzeichnet; – Symbol 428 für das Bildverwaltungsmodul 144, mit „Fotos” gekennzeichnet; – Symbol 430 für das Kameramodul 143, mit „Kamera” gekennzeichnet; – Symbol 432 für das Online-Video-Modul 155, mit „Online Video” gekennzeichnet; – Symbol 434 für das Aktien-Widget 149-2, mit „Aktien” gekennzeichnet; – Symbol 436 für das Kartenmodul 154, mit „Karten” gekennzeichnet; – Symbol 438 für das Wetter-Widget 149-1, mit „Wetter” gekennzeichnet; – Symbol 440 für das Wecker-Widget 149-4, mit „Uhr” gekennzeichnet; – Symbol 442 für das Trainingsunterstützungsmodul 142, mit „Trainingsunterstützung” gekennzeichnet; – Symbol 444 für das Notizmodul 153, mit „Notizen” gekennzeichnet; und – Symbol 446 für eine Einstellungsanwendung oder ein Einstellungsmodul, mit „Einstellungen” gekennzeichnet, über das man Zugriff auf Einstellungen für die Vorrichtung 100 und deren verschiedene Anwendungen 136 erhält.
  • Es ist anzumerken, dass die Symbolkennzeichnungen aus 4A lediglich beispielhaften Charakters sind. Beispielsweise kann das Symbol 422 für das Video- und Musik-Player-Modul 152 entweder mit „Musik” oder „Musik Player” gekennzeichnet werden. Andere Kennzeichnungen können für verschiedene Anwendungssymbole verwendet werden. Bei einigen Ausführungsformen umfasst eine Kennzeichnung für ein entsprechendes Anwendungssymbol einen Namen der Anwendung, die dem jeweiligen Anwendungssymbol entspricht. Bei einigen Ausführungsformen unterscheidet sich eine Kennzeichnung für ein konkretes Anwendungssymbol vom Namen einer Anwendung, die dem konkreten Anwendungssymbol entspricht.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle an einer Vorrichtung (z. B. Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), die von der Anzeige 450 (z. B. die Touchscreen-Anzeige 112) getrennt ist. Die Vorrichtung 300 kann ferner einen oder mehrere Kontaktintensitätssensoren (z. B. einen oder mehrere Sensoren 357), um die Intensität von Berührungen auf der berührungsempfindlichen Oberfläche 451 festzustellen, bzw. einen oder mehrere Generatoren für taktile Rückmeldungen 359 umfassen, um taktile Rückmeldungen für einen Benutzer der Vorrichtung 300 zu erzeugen.
  • Wenngleich einige der folgenden Beispiele unter Verweis auf Eingaben über die Touchscreen-Anzeige 112 angegeben sind (bei der eine Kombination aus berührungsempfindlicher Oberfläche und Anzeige vorliegt), erkennt die Vorrichtung bei einigen Ausführungsformen Eingaben über eine berührungsempfindliche Oberfläche, die von der Anzeige getrennt ist, siehe auch 4B. Bei einigen Ausführungsformen verfügt die berührungsempfindliche Oberfläche (z. B. 451 in 4B) über eine primäre Achse (z. B. 452 in 4B), die einer primären Achse (z. B. 453 in 4B) auf der Anzeige (z. B. 450) entspricht. Entsprechend dieser Ausführungsformen erkennt die Vorrichtung Berührungen (z. B. 460 und 462 in 4B) der berührungsempfindlichen Oberfläche 451 an Stellen, die den entsprechenden Stellen auf der Anzeige entsprechen (z. B. in 4B entspricht 460 468 und entspricht 462 470). Dadurch werden Benutzereingaben (z. B. die Berührungen 460 und 462 und Bewegungen davon), die von der Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt wurden (z. B. 451 in 4B), von der Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn berührungsempfindliche Oberfläche und Anzeige voneinander getrennt sind. Es wird vorausgesetzt, dass ähnliche Verfahren für andere Benutzerschnittstellen, die in diesem Dokument beschrieben werden, verwendet werden können.
  • Während die folgenden Beispiele primär unter Verweis auf Fingereingaben angegeben sind (z. B. Fingerkontakte, Tippgesten mit den Fingern, Wischgesten mit den Fingern), ist zusätzlich festzuhalten, dass bei einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe unter Zuhilfenahme einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Eingabe mit Hilfe eines Eingabestiftes). Beispielsweise kann eine Wischgeste durch einen Mausklick ersetzt werden (z. B. anstelle einer Berührung), gefolgt von einer Bewegung des Cursors entlang des Wischpfades (z. B. anstelle der Bewegung der Berührung). Als ein weiteres Beispiel kann eine Tippgeste durch einen Mausklick ersetzt werden, während der Cursor sich über der Position der Tippgeste befindet (z. B. anstelle des Erkennens der Berührung, gefolgt vom Beenden des Erkennens der Berührung). Gleichermaßen wird vorausgesetzt, dass, wenn mehrere Benutzereingaben gleichzeitig erkannt werden, mehrere Computermäuse gleichzeitig verwendet werden können, oder eine Maus und Fingerkontakte gleichzeitig verwendet werden können.
  • 5A veranschaulicht die beispielhafte persönliche elektronische Vorrichtung 500. Die Vorrichtung 500 umfasst das Gehäuse 502. Bei einigen Ausführungsformen kann die Vorrichtung 500 einige oder alle der Funktionen/Merkmale umfassen, die in Bezug auf die Vorrichtungen 100 und 300 beschrieben wurden (z. B. 1A4B). Bei einigen Ausführungsformen verfügt die Vorrichtung 500 über eine berührungsempfindliche Anzeige 504, hiernach Touchscreen 504 genannt. Alternativ oder zusätzlich zu Touchscreen 504 verfügt die Vorrichtung 500 über eine Anzeige und eine berührungsempfindliche Oberfläche. Wie bei den Vorrichtungen 100 und 300 auch, kann der Touchscreen 504 (oder die berührungsempfindliche Oberfläche) bei einigen Ausführungsformen über einen oder mehrere Intensitätssensoren zum Erkennen der Intensität von Kontakten (z. B. Berührungen) verfügen. Der eine oder die mehreren Intensitätssensoren des Touchscreens 504 (oder der berührungsempfindlichen Oberfläche) können Ausgabedaten liefern, die für die Intensität von Berührungen stehen. Die Benutzerschnittstelle der Vorrichtung 500 kann auf Berührungen auf Grundlage deren Intensität reagieren, d. h. dass Berührungen unterschiedlicher Intensitäten unterschiedliche Funktionen der Benutzerschnittstelle von Vorrichtung 500 hervorrufen können.
  • Techniken zum Erkennen und Verarbeiten der Berührungsintensität finden sich beispielsweise in den verwandten Anmeldungen: internationale Patentanmeldung Nr. PCT/US2013/040061 , mit dem Titel „Device, Method, and Graphical User Interface for Displaying User Interface Objects Corresponding to an Application”, eingereicht am B. Mai 2013, und internationale Patentanmeldung Nr. PCT/US2013/069483 , mit dem Titel „Device, Method, and Graphical User Interface for Transitioning Between Touch Input to Display Output Relationships”, eingereicht am 11. November 2013, die hiermit jeweils vollständig durch Verweis aufgenommen werden.
  • Bei einigen Ausführungsformen verfügt die Vorrichtung 500 über einen oder mehrere Eingabemechanismen 506 und 508. Die Eingabemechanismen 506 und 508 können physikalischer Natur sein, sofern sie enthalten sind. Beispiele für physikalische Eingabemechanismen sind Taster und drehbare Mechanismen. Bei einigen Ausführungsformen verfügt die Vorrichtung 500 über einen oder mehrere Befestigungsmechanismen. Solche Befestigungsmechanismen können, sofern sie enthalten sind, die Befestigung der Vorrichtung 500 beispielsweise an Hüten, Brillen, Ohrringen, Halsketten, T-Shirts, Jacken, Armbändern, Uhrenarmbändern, Ketten, Hosen, Gürteln, Schuhen, Taschen, Rucksäcken und so weiter ermöglichen. Diese Befestigungsmechanismen können ermöglichen, dass die Vorrichtung 500 von einem Benutzer getragen wird.
  • 5B veranschaulicht die beispielhafte persönliche elektronische Vorrichtung 500. Bei einigen Ausführungsformen kann die Vorrichtung 500 einige oder alle der Komponenten umfassen, die in Bezug auf die 1A, 1B und 3 beschrieben wurden. Die Vorrichtung 500 verfügt über einen Bus 512, der den E/A-Bereich 514 mit einem oder mehreren Computerprozessoren 516 und mit dem Speicher 518 operativ verbindet. Der E/A-Bereich 514 kann an die Anzeige 504 angeschlossen werden, die eine berührungsempfindliche Komponente 522 und optional einen Intensitätssensor 524 (z. B. Kontaktintensitätssensor) aufweisen kann. Zusätzlich kann der E/A-Bereich 514 unter Zuhilfenahme von Wi-Fi-, Bluetooth-, Nahfeldkommunikations- (NFC), Mobilfunk- bzw. anderer drahtloser Kommunikationstechniken mit der Kommunikationseinheit 530 verbunden werden, um Daten zur Anwendung und zum Betriebssystem zu erhalten. Die Vorrichtung 500 kann die Eingabemechanismen 506 bzw. 508 umfassen. Der Eingabemechanismus 506 kann beispielsweise eine drehbare Vorrichtung oder eine druckbare und drehbare Eingabevorrichtung sein. Der Eingabemechanismus 508 kann in einigen Beispielen eine Taste sein.
  • Der Eingabemechanismus 508 kann in einigen Beispielen ein Mikrofon sein. Die persönliche elektronische Vorrichtung 500 kann verschiedene Sensoren umfassen, wie beispielsweise einen GPS-Sensor 532, einen Beschleunigungssensor 534, einen Richtungssensor 540 (z. B. einen Kompass), ein Gyroskop 536, einen Bewegungssensor 538 bzw. eine Kombination daraus, von denen alle operativ mit dem E/A-Bereich 514 verbunden werden können. Die persönliche elektronische Vorrichtung 500 kann ferner haptische Mechanismen umfassen 542. Haptische Mechanismen 542 können eine Vibration oder eine andere haptische Rückmeldung ausgeben, die durch einen Benutzer wahrgenommen werden kann. Bei einigen Ausführungsformen können die haptischen Mechanismen 542 haptische Ausgaben ausgeben, die denen der für den Generator der taktilen Rückmeldung 167 von Vorrichtung 100 beschriebenen Ausgaben ähnlich sind.
  • Der Speicher 518 der persönlichen elektronischen Vorrichtung 500 kann ein nichtflüchtiges elektronisch lesbares Speichermedium zum Speichern von durch einen Computer ausführbaren Befehlen sein, das bei Ausführung durch einen oder mehrere Computerprozessoren 516 beispielsweise die Computerprozessoren veranlassen kann, die oben stehend beschriebenen Techniken auszuführen, einschließlich der Abläufe 25002700 (2527). Die durch einen Computer ausführbaren Befehle können ferner innerhalb eines beliebigen nichtflüchtigen elektronisch lesbaren Speichermediums gespeichert bzw. transportiert werden, das für eine Verwendung durch eine/en oder in Verbindung mit einem Befehlsausführungssystem oder -apparat oder einer Befehlsausführungsvorrichtung gedacht ist, wie beispielsweise ein computerbasiertes System, ein System mit einem Prozessor oder ein anderes System, das die Befehle vom Befehlsausführungssystem oder -apparat oder von der Befehlsausführungsvorrichtung abrufen und ausführen kann. Im Sinne dieses Dokumentes kann ein „nichtflüchtiges elektronisch lesbares Speichermedium” jedes Medium sein, das durch einen Computer ausführbare Befehle für eine Verwendung mit dem Befehlsausführungssystem oder -apparat oder der Befehlsausführungsvorrichtung greifbar enthalten oder speichern kann. Das nichtflüchtige elektronisch lesbare Speichermedium kann magnetische, optische bzw. Halbleiterspeicher umfassen, ist jedoch nicht auf diese beschränkt. Beispiele solcher Speicher sind unter anderem Magnetplatten, optische Plattenspeicher auf der Basis von CD-, DVD- oder Blue-Ray-Technologien, sowie permanente Halbleiterspeicher, wie beispielsweise Flash, Festkörperlaufwerke und dergleichen. Die persönliche elektronische Vorrichtung 500 ist nicht auf die Komponenten und die Konfiguration aus 5B beschränkt, sondern kann andere oder zusätzliche Komponenten in mehreren Konfigurationen umfassen.
  • In diesem Kontext bezieht sich der Begriff „Aufforderung” auf ein benutzerinteraktives Objekt auf einer grafischen Benutzerschnittstelle, das auf der Anzeige der Vorrichtungen 100, 300 bzw. 500 angezeigt werden kann (1, 3 und 5). Beispielsweise können ein Bild (z. B. ein Symbol), eine Schaltfläche und Text (z. B. ein Hyperlink) jeweils eine Aufforderung sein.
  • In diesem Kontext bezieht sich der Begriff „Fokusselektor” auf ein Eingabeelement, das für einen aktuellen Teil einer Benutzerschnittstelle steht, mit dem der Benutzer gerade interagiert. Bei einigen Umsetzungen, die einen Cursor oder andere Positionsmarkierer umfassen, fungiert der Cursor als „Fokusselektor”, so dass, wenn eine Eingabe (z. B. eine Eingabe durch Drücken) auf einer berührungsempfindlichen Oberfläche (z. B. Touchpad 355 in 3 oder die berührungsempfindliche Oberfläche 451 in 4B) erkannt wird, während sich der Cursor über einem bestimmten Element auf der Benutzerschnittstelle befindet (z. B. eine Schaltfläche, ein Fenster, ein Schieber oder ein anderes Element der Benutzerschnittstelle), das entsprechende Element der Benutzerschnittstelle entsprechend der erkannten Eingabe angepasst wird. Bei einigen Umsetzungen, die eine Touchscreen-Anzeige umfassen (z. B. das berührungsempfindliche Anzeigesystem 112 in 1A oder den Touchscreen 112 in 4A), die eine direkte Interaktion mit den Elementen der Benutzerschnittstelle auf der Touchscreen-Anzeige ermöglicht, fungiert ein erkannter Kontakt auf dem Touchscreen als „Fokusselektor”, so dass, wenn eine Eingabe (z. B. eine Eingabe durch Drücken durch den Kontakt) auf der Touchscreen-Anzeige an einer Stelle eines bestimmten Elementes der Benutzerschnittstelle erkannt wird (z. B. eine Schaltfläche, ein Fenster, ein Schieber oder ein anderes Element der Benutzerschnittstelle), das entsprechende Element der Benutzerschnittstelle entsprechend der erkannten Eingabe angepasst wird. Bei einigen Umsetzungen wird der Fokus ohne eine entsprechende Bewegung eines Cursors oder einer Berührung auf einer Touchscreen-Anzeige von einem Bereich einer Benutzerschnittstelle auf einen anderen Bereich der Benutzerschnittstelle verlagert (z. B. unter Zuhilfenahme der Tab-Taste oder der Pfeiltasten, um den Fokus von einer Schaltfläche auf eine andere Schaltfläche zu verlagern); bei diesen Umsetzungen bewegt sich der Fokusselektor entsprechend der Bewegung des Fokus zwischen unterschiedlichen Bereichen der Benutzerschnittstelle. Ungeachtet der konkreten Form, die der Fokusselektor annimmt, handelt es sich beim Fokusselektor allgemein um ein Element der Benutzerschnittstelle (oder einen Kontakt auf einer Touchscreen-Anzeige), das durch den Benutzer gesteuert wird, um die durch den Benutzer beabsichtigte Interaktion mit der Benutzerschnittstelle zu kommunizieren (z. B. indem die Vorrichtung auf das Element der Benutzerschnittstelle hingewiesen wird, mit dem der Benutzer eine Interaktion wünscht). Beispielsweise deutet die Position eines Fokusselektors (z. B. ein Cursor, ein Kontakt oder ein Auswahlfeld) über einer entsprechenden Schaltfläche, während eine Drückeingabe auf der berührungsempfindlichen Oberfläche erkannt wird (z. B. ein Touchpad oder Touchscreen), darauf hin, dass der Benutzer die entsprechende Schaltfläche aktivieren möchte (im Gegensatz zu anderen Elementen der Benutzeroberfläche, die auf der Anzeige der Vorrichtung angezeigt werden).
  • Der Begriff „charakteristische Intensität” eines Kontaktes bezieht sich entsprechend seiner Verwendung in der Patentschrift und den Ansprüchen auf eine Eigenschaft des Kontaktes auf der Grundlage einer oder mehrerer Intensitäten des Kontaktes. Bei einigen Ausführungsformen basiert die charakteristische Intensität auf mehreren Intensitätsproben. Die charakteristische Intensität kann auf einer vorher festgelegten Anzahl an Intensitätsproben oder einem Intensitätsprobensatz basieren, die über einen vorher festgelegten Zeitraum (z. B. 0,05, 0,1, 0,2, 0,5, 1, 2, 5, 10 Sekunden) in Relation zu einem vorher festgelegten Ereignis (z. B. nach dem Erkennen der Berührung, vor dem Erkennen der Unterbrechung der Berührung, vor oder nach dem Erkennen eines Beginns der Kontaktbewegung, vor dem Erkennen eines Berührungsendes, vor oder nach dem Erkennen eines Anstiegs der Kontaktintensität bzw. vor oder nach dem Erkennen einer Abnahme der Kontaktintensität) gesammelt wurden. Eine charakteristische Intensität eines Kontaktes kann auf einem oder mehreren der Folgenden basieren: ein Höchstwert der Intensitäten des Kontaktes, ein Mittelwert der Intensitäten des Kontaktes, ein Durchschnittswert der Intensitäten des Kontaktes, ein Top-10-Prozentwert der Intensitäten des Kontaktes, ein Wert bei der Hälfte des Höchstwertes der Intensitäten des Kontaktes, ein Wert bei 90 Prozent des Höchstwertes der Intensitäten des Kontaktes oder Ähnliches. Bei einigen Ausführungsformen wird die Dauer der Berührung verwendet, um die charakteristische Intensität zu bestimmen (z. B. wenn die charakteristische Intensität einen Durchschnittswert der Kontaktintensität im Verlauf der Zeit abbildet). Bei einigen Ausführungsformen wird die charakteristische Intensität mit einer Menge von einer oder mehreren Intensitätsgrenzen verglichen, um zu bestimmen, ob ein Benutzer einen Vorgang durchgeführt hat. Beispielsweise kann eine Menge von einer oder mehreren Intensitätsgrenzen eine erste Intensitätsgrenze und eine zweite Intensitätsgrenze umfassen. In diesem Beispiel führen eine Berührung mit einer charakteristischen Intensität, die den ersten Grenzwert nicht überschreitet, zu einem ersten Vorgang, eine Berührung mit einer charakteristischen Intensität, die die erste Intensitätsgrenze überschreitet und die zweite Intensitätsgrenze nicht überschreitet, zu einem zweiten Vorgang, und eine Berührung mit einer charakteristischen Intensität, die den zweiten Grenzwert überschreitet, zu einem dritten Vorgang. Bei einigen Ausführungsformen wird ein Vergleich der charakteristischen Intensität mit einem oder mehreren Grenzwerten verwendet, um festzustellen, ob ein oder mehrere Vorgänge ausgeführt werden oder nicht (z. B. ob ein jeweiliger Vorgang ausgeführt wird oder ob auf die Ausführung des jeweiligen Vorgangs verzichtet wird), und nicht um festzustellen, ob ein erster Vorgang oder ein zweiter Vorgang ausgeführt wird.
  • 5C veranschaulicht das Erkennen einer Vielzahl von Berührungen 552A552E auf der berührungsempfindlichen Anzeige 504 mit einer Vielzahl von Intensitätssensoren 524A524D. 5C umfasst zusätzlich Intensitätsdiagramme, aus denen die aktuellen Intensitätsmessungen der Intensitätssensoren 524A524D in Relation zu Intensitätseinheiten hervorgehen. In diesem Beispiel betragen die Intensitätsmessungen der Intensitätssensoren 524A und 524D jeweils 9 Intensitätseinheiten, und die Intensitätsmessungen der Intensitätssensoren 524B und 524C jeweils 7 Intensitätseinheiten. Bei einigen Umsetzungen ist eine Gesamtintensität die Summe der Intensitätsmessungen der Vielzahl von Intensitätssensoren 524A524D, wobei diese Zahl in diesem Beispiel 32 Intensitätseinheiten beträgt. Bei einigen Ausführungsformen wird jeder Berührung eine entsprechende Intensität zugeordnet, die einen Teil der Gesamtintensität ausmacht. 5D veranschaulicht die Zuordnung der Gesamtintensität zu den Berührungen 552A552E auf der Grundlage ihres Abstandes vom Kräftemittelpunkt 554. In diesem Beispiel sind die Berührungen 552A, 552B und 552E jeweils einer Kontaktintensität von 8 Intensitätseinheiten der Gesamtintensität zugeordnet und die Berührungen 552C und 552D sind jeweils einer Kontaktintensität von 4 Intensitätseinheiten der Gesamtintensität zugeordnet. Allgemeiner ausgedrückt wird bei einigen Umsetzungen jeder Berührung j eine entsprechende Intensität Ij zugeordnet, die einen Teil der Gesamtintensität A darstellt, entsprechend einer vorher festgelegten mathematischen Funktion, Ij = A – (Dj/ΣDi), wobei Dj für den Abstand der jeweiligen Berührung j zum Kräftemittelpunkt steht und ΣDi für die Summe der Abstände aller entsprechenden Berührungen (z. B. i = 1 bis zur letzten) vom Kräftemittelpunkt steht. Die unter Bezugnahme auf die 5C5D beschriebenen Vorgänge können unter Zuhilfenahme einer elektronischen Vorrichtung ausgeführt werden, die der Vorrichtung 100, 300 oder 500 gleicht oder ähnelt. Bei einigen Ausführungsformen basiert eine charakteristische Intensität eines Kontaktes auf einer oder mehreren Kontaktintensitäten. Bei einigen Ausführungsformen werden die Intensitätssensoren verwendet, um eine einzelne charakteristische Intensität zu bestimmen (z. B. eine einzelne charakteristische Intensität einer einzelnen Berührung). Es ist anzumerken, dass die Intensitätsdiagramme keinen Teil einer angezeigten Benutzerschnittstelle darstellen, sondern als Hilfestellung für den Leser in den 5C5D enthalten sind.
  • Bei einigen Ausführungsformen wird ein Teil einer Geste zum Zwecke der Feststellung einer charakteristischen Intensität bestimmt. Beispielsweise kann eine berührungsempfindliche Oberfläche einen durchgehenden Wischkontakt zwischen einer Ausgangsposition bis hin zu einer Endposition empfangen, wo die Kontaktintensität ansteigt. In diesem Beispiel kann die charakteristische Intensität des Kontaktes an der Endposition lediglich auf einem Teil des durchgehenden Wischkontaktes und nicht auf dem gesamten Wischkontakt basieren (z. B. nur der Teil des Wischkontaktes an der Endposition). Bei einigen Ausführungsformen kann ein glättender Algorithmus auf die Intensitäten des Wischkontaktes angewendet werden, bevor die charakteristische Intensität des Kontaktes bestimmt wird. Beispielsweise kann der glättende Algorithmus einen oder mehrere der Folgenden umfassen: einen nicht gewichteten glättenden Algorithmus mit gleitendem Mittelwert, einen glättenden Algorithmus mit drei Eckpunkten, einen glättenden Algorithmus mit Medianfilter bzw. einen exponentiellen glättenden Algorithmus. Unter Umständen beseitigen diese glättenden Algorithmen enge Spitzen oder Abfälle der Intensitäten des Wischkontaktes zum Zwecke der Feststellung einer charakteristischen Intensität.
  • Die Intensität eines Kontaktes auf der berührungsempfindlichen Oberfläche kann in Relation zu einer oder mehreren Intensitätsgrenzen beschrieben werden, wie beispielsweise eine Intensitätsgrenze zum Erkennen einer Berührung, eine Intensitätsgrenze für leichtes Drücken, eine Intensitätsgrenze für festes Drücken bzw. eine oder mehrere andere Intensitätsgrenzen. Bei einigen Ausführungsformen entspricht die Intensitätsgrenze für leichtes Drücken einer Intensität, bei der die Vorrichtung Vorgänge ausführen wird, die in der Regel mit einem Klick einer Taste einer physikalischen Maus oder eines physikalischen Touchpads assoziiert werden. Bei einigen Ausführungsformen entspricht die Intensitätsgrenze für festes Drücken einer Intensität, bei der die Vorrichtung Vorgänge ausführen wird, die sich von den Vorgängen unterscheiden, die in der Regel mit einem Klick einer Taste einer physikalischen Maus oder eines physikalischen Touchpads in Zusammenhang stehen. Bei einigen Ausführungsformen wird die Vorrichtung, wenn eine Berührung mit einer charakteristischen Intensität unter der Intensitätsgrenze für leichtes Drücken (z. B. und über einer nominellen Intensitätsgrenze zum Erkennen einer Berührung, unter der die Berührung nicht mehr registriert wird) erkannt wird, einen Fokusselektor entsprechend der Bewegung der Berührung auf der berührungsempfindlichen Oberfläche bewegen, ohne dabei einen Vorgang auszuführen, der mit der Intensitätsgrenze für leichtes Drücken oder der Intensitätsgrenze für festes Drücken assoziiert wird. Im Allgemeinen sind diese Intensitätsgrenzen zwischen unterschiedlichen Sätzen an Benutzerschnittstellenzeichnungen konsistent.
  • Ein Anstieg der charakteristischen Intensität eines Kontaktes von einer Intensität unter der Intensitätsgrenze für leichtes Drücken auf eine Intensität zwischen der Intensitätsgrenze für leichtes Drücken und der Intensitätsgrenze für festes Drücken wird manchmal auch als eine „leichte Drückeingabe” bezeichnet. Ein Anstieg der charakteristischen Intensität eines Kontaktes von einer Intensität unter der Intensitätsgrenze für festes Drücken auf eine Intensität über der Intensitätsgrenze für festes Drücken wird manchmal auch als eine „feste Drückeingabe” bezeichnet. Ein Anstieg der charakteristischen Intensität eines Kontaktes von einer Intensität unter der Intensitätsgrenze zum Erkennen eines Kontaktes auf eine Intensität zwischen der Intensitätsgrenze zum Erkennen eines Kontaktes und der Intensitätsgrenze für leichtes Drücken wird manchmal auch als Erkennen der Berührung auf der berührungsempfindlichen Oberfläche bezeichnet. Ein Abfall der charakteristischen Intensität eines Kontaktes von einer Intensität über der Intensitätsgrenze zum Erkennen eines Kontaktes auf eine Intensität unter der Intensitätsgrenze zum Erkennen eines Kontaktes wird manchmal auch als Erkennen der Unterbrechung der Berührung auf der berührungsempfindlichen Oberfläche bezeichnet. Bei einigen Ausführungsformen liegt die Intensitätsgrenze zum Erkennen eines Kontaktes bei Null. Bei einigen Ausführungsformen liegt die Intensitätsgrenze zum Erkennen eines Kontaktes über Null.
  • Bei einigen hierin beschriebenen Ausführungsformen werden ein oder mehrere Vorgänge in Reaktion auf das Erkennen einer Geste ausgeführt, die eine entsprechende Drückeingabe umfasst, oder in Reaktion auf das Erkennen einer entsprechenden Drückeingabe, die mit einem entsprechenden Kontakt (oder einer Vielzahl von Kontakten) durchgeführt wird, wobei die entsprechende Drückeingabe auf der Grundlage von mindestens teilweise dem Erkennen eines Anstiegs der Intensität des Kontaktes (oder der Vielzahl von Kontakten) über eine Intensitätsgrenze für eine Drückeingabe erkannt wird. Bei einigen Ausführungsformen wird der entsprechende Vorgang in Reaktion auf das Erkennen des Anstiegs der Intensität des entsprechenden Kontaktes über die Intensitätsgrenze für eine Drückeingabe ausgeführt (z. B. eine „Abwärtsbetätigung” der entsprechenden Drückeingabe). Bei einigen Ausführungsformen umfasst die Drückeingabe einen Anstieg der Intensität des entsprechenden Kontaktes über die Intensitätsgrenze für eine Drückeingabe und einen anschließenden Abfall der Intensität des Kontaktes unter die Intensitätsgrenze für eine Drückeingabe, und der entsprechende Vorgang wird in Reaktion auf das Erkennen des anschließenden Abfalls der Intensität des entsprechenden Kontaktes unter den Grenzwert für eine Drückeingabe ausgeführt (z. B. eine „Aufwärtsbetätigung” der entsprechenden Drückeingabe).
  • Die 5E5H veranschaulichen das Erkennen einer Geste, die eine Drückeingabe umfasst, die einem Anstieg der Intensität eines Kontaktes 562 von einer Intensität unter der Intensitätsgrenze für leichtes Drücken (z. B. „ITL”) in 5E auf eine Intensität über die Intensitätsgrenze für festes Drücken (z. B. „ITD”) in 5H entspricht. Die mit Berührung 562 ausgeführte Geste wird auf der berührungsempfindlichen Oberfläche 560 erkannt, während der Cursor 576 auf einer angezeigten Benutzerschnittstelle 570, auf der die Anwendungssymbole 572A572D im vorher festgelegten Bereich 574 angezeigt werden, über dem Anwendungssymbol 572B angezeigt wird, das Anwendung 2 entspricht. Bei einigen Ausführungsformen wird die Geste auf der berührungsempfindlichen Anzeige 504 registriert. Die Intensitätssensoren erkennen die Intensität von Berührungen auf der berührungsempfindlichen Oberfläche 560. Die Vorrichtung stellt fest, dass die Intensität von Berührung 562 über der Intensitätsgrenze für festes Drücken (z. B. „ITD”) ihren Höchstwert erreichte. Der Kontakt 562 wird auf der berührungsempfindlichen Oberfläche 560 gehalten. In Reaktion auf das Erkennen der Geste und entsprechend Berührung 562, deren Intensität während der Geste über der Intensitätsgrenze für festes Drücken (z. B. „ITD”) liegt, werden Darstellungen 578A578C (z. B. Miniaturansichten) kürzlich für Anwendung 2 geöffneter Dokumente in reduziertem Maßstab angezeigt, siehe auch 5F5H. Bei einigen Ausführungsformen handelt es sich bei der Intensität, die mit der einen oder den mehreren Intensitätsgrenzen verglichen wird, um die charakteristische Intensität eines Kontaktes. Es ist anzumerken, dass das Intensitätsdiagramm für Berührung 562 keinen Teil einer angezeigten Benutzerschnittstelle darstellt, sondern als Hilfestellung für den Leser in den 5E5H enthalten ist.
  • Bei einigen Ausführungsformen umfasst die Anzeige der Darstellungen 578A578C eine Animation. Beispielsweise wird die Darstellung 578A zuerst in der Nähe des Anwendungssymbols 572B angezeigt, siehe auch 5F. Im Verlauf der Animation bewegt sich die Darstellung 578A nach oben und die Darstellung 578B wird in der Nähe des Anwendungssymbols 572B angezeigt, siehe auch 5G. Anschließend bewegt sich die Darstellung 578A nach oben, die Darstellung 578B nach oben in Richtung Darstellung 578A und die Darstellung 578C wird in der Nähe des Anwendungssymbols 572B angezeigt, siehe auch 5H. Die Darstellungen 578A578C bilden über dem Symbol 572B eine Abfolge. Bei einigen Ausführungsformen wird die Animation entsprechend einer Intensität einer Berührung 562 fortgesetzt, siehe auch 5F5G, wobei die Darstellungen 578A578C angezeigt werden und sich nach oben bewegen, wenn die Intensität der Berührung 562 in Richtung der Intensitätsgrenze für festes Drücken (z. B. „ITD”) ansteigt. Bei einigen Ausführungsformen handelt es sich bei der Intensität, auf der der Fortschritt der Animation basiert, um die charakteristische Intensität des Kontaktes. Die unter Bezugnahme auf die 5E5H beschriebenen Vorgänge können unter Zuhilfenahme einer elektronischen Vorrichtung ausgeführt werden, die der Vorrichtung 100, 300 oder 500 gleicht oder ähnelt.
  • Bei einigen Ausführungsformen setzt die Vorrichtung eine Intensitätshysterese ein, um versehentliche Eingaben zu vermeiden, die manchmal auch als „Zitterbewegung” bezeichnet werden, wobei die Vorrichtung eine Hystereseintensitätsgrenze mit einer vorher festgelegten Beziehung zur Intensitätsgrenze für eine Drückeingabe (z. B. liegt die Hystereseintensitätsgrenze X Intensitätseinheiten unter der Intensitätsgrenze für eine Drückeingabe bzw. beträgt die Hystereseintensitätsgrenze 75%, 90% oder irgendeinen angemessenen Anteil an der Intensitätsgrenze für eine Drückeingabe) definiert oder auswählt. Dementsprechend umfasst die Drückeingabe bei einigen Ausführungsformen einen Anstieg der Intensität des entsprechenden Kontaktes über die Intensitätsgrenze für eine Drückeingabe und einen anschließenden Abfall der Intensität des Kontaktes unter die Hystereseintensitätsgrenze, die der Intensitätsgrenze für eine Drückeingabe entspricht, und der entsprechende Vorgang wird in Reaktion auf das Erkennen des anschließenden Abfalls der Intensität des entsprechenden Kontaktes unter die Hystereseintensitätsgrenze ausgeführt (z. B. eine „Aufwärtsbetätigung” der entsprechenden Drückeingabe). Gleichermaßen wird bei einigen Ausführungsformen die Drückeingabe nur registriert, wenn die Vorrichtung einen Anstieg der Intensität des Kontaktes von einer Intensität gleich oder kleiner der Hystereseintensitätsgrenze auf eine Intensität gleich oder größer der Intensitätsgrenze für eine Drückeingabe und optional einen anschließenden Abfall der Intensität des Kontaktes auf eine Intensität gleich oder kleiner der Hystereseintensität erkennt, und der entsprechende Vorgang wird in Reaktion auf das Erkennen der Drückeingabe ausgeführt (z. B. der Anstieg der Intensität des Kontaktes oder der Abfall der Intensität des Kontaktes, was von den Umständen abhängig ist).
  • Zur einfacheren Erklärung können die Beschreibungen der Vorgänge, die in Reaktion auf eine Drückeingabe in Verbindung mit einer Intensitätsgrenze für eine Drückeingabe oder in Reaktion auf eine Geste, einschließlich der Drückeingabe, ausgeführt werden, in Reaktion auf das Erkennen entweder: eines Anstiegs der Intensität eines Kontaktes über die Intensitätsgrenze für eine Drückeingabe, eines Anstiegs der Intensität eines Kontaktes von einer Intensität unter der Hystereseintensitätsgrenze auf eine Intensität über die Intensitätsgrenze für eine Drückeingabe, eines Abfalls der Intensität des Kontaktes unter die Intensitätsgrenze für eine Drückeingabe bzw. eines Abfalls der Intensität des Kontaktes unter die Hystereseintensitätsgrenze, die der Intensitätsgrenze für eine Drückeingabe entspricht, ausgelöst werden. Zusätzlich kann ein Vorgang in Beispielen, bei denen ein Vorgang laut Beschreibung in Reaktion auf das Erkennen eines Abfalls der Intensität eines Kontaktes unter die Intensitätsgrenze für eine Drückeingabe ausgeführt wird, in Reaktion auf das Erkennen eines Abfalls der Intensität des Kontaktes unter die Hystereseintensitätsgrenze gleich der und kleiner als die Intensitätsgrenze für eine Drückeingabe ausgeführt werden. Die Aufmerksamkeit wird nun auf Ausführungsformen von Benutzerschnittstellen und damit verbundene Prozesse gerichtet, die an einer Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche umgesetzt werden können, wie beispielsweise die Vorrichtung 100, 300 und 500, um den Umgang mit Benachrichtigungen für einen Benutzer zu verbessern.
  • 1. Benutzerschnittstellen zum Umgang mit Benachrichtigungen
  • Die unten stehend beschriebenen Benutzerschnittstellen zum Umgang mit Benachrichtigungen werden durch beispielhafte Abfolgen von Bildschirmen dargestellt, die Vorrichtung 500 in Reaktion auf den Empfang von Benachrichtigungen und das Erkennen unterschiedlicher Benutzereingaben anzeigen kann. In diesen Abfolgen kennzeichnen die Pfeile die Reihenfolge, in der die Bildschirme angezeigt werden können.
  • a. Anzeige von Mitteilungen
  • Die 6A6B zeigen die beispielhaften Bildschirme 604, 612, die Vorrichtung 500 nach dem Empfang einer Benachrichtigung anzeigen kann. Anfänglich kann der Touchscreen 504 abgeschaltet oder inaktiv sein. In Reaktion auf den Empfang einer Benachrichtigung kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe 602 ausgeben, wie beispielsweise eine hörbare, sichtbare oder haptische Ausgabe, die von einem Benutzer wahrgenommen werden kann. Bei einigen Ausführungsformen kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe ausgeben, indem ein haptischer Mechanismus an Vorrichtung 500 veranlasst wird, eine haptische Ausgabe auszugeben. Bei einigen Ausführungsformen kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe ausgeben, indem sie ein Geräusch oder einen Ton abgibt, den ein Benutzer hören kann. Bei einigen Ausführungsformen kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe ausgeben, indem sie eine sichtbare Ausgabe anzeigt, wie beispielsweise ein blinkendes Licht oder eine Anzeige auf dem Touchscreen 504.
  • Bei einigen Ausführungsformen umfasst das Erstellen der haptischen Ausgabe das Erstellen einer ersten haptischen Ausgabe und, nach dem Erstellen der ersten haptischen Ausgabe, das Erstellen einer zweiten haptischen Ausgabe, wobei die erste haptische Ausgabe und die zweite haptische Ausgabe unterschiedlich sind. Um die Salienz, mit der ein Benutzer eine haptische Ausgabe wahrnimmt, zu steigern, kann der Benutzer eine haptische Ausgabe vor der Benachrichtigung empfangen wollen. Die erste haptische Ausgabe kann den Benutzer auf den Empfang einer zweiten haptischen Ausgabe vorbereiten, die bei einigen Ausführungsformen konkrete Informationen liefern (z. B. die Quelle der Benachrichtigung) oder zu einer zweiten wahrnehmungsbasierten Ausgabe gehören kann (z. B. eine hörbare oder sichtbare Ausgabe), siehe oben stehende Beschreibung. Beispielsweise kann der Benutzer Schwierigkeiten haben, eine haptische Ausgabe wahrzunehmen, während er in Bewegung ist oder mit etwas anderem beschäftigt ist. Deshalb kann eine erste haptische Ausgabe, mit deren Hilfe der Benutzer auf die Wahrnehmung einer zweiten haptischen Ausgabe (und optional einer damit verbundenen zweiten wahrnehmungsbasierten Ausgabe) vorbereitet wird, vorteilhaft sein.
  • Der Benutzer möchte unter Umständen eine haptische Ausgabe empfangen, die auf der Quelle der Benachrichtigung basiert. Beispielsweise kann der Benutzer eine andere haptische Ausgabe für eine E-Mail-Benachrichtigung wünschen als für eine Benachrichtigung im Zusammenhang mit einer Sprachnachricht. Zur Bereitstellung unterscheidungsfähiger haptischer Ausgaben kann die Vorrichtung eine haptische Ausgabe mit einer unverwechselbaren hörbaren oder sichtbaren Ausgabe bzw. eine haptische Ausgabe mit einer unverwechselbaren Eigenschaft ausgeben, Z. B. eine unverwechselbare Intensität, Dauer bzw. ein unverwechselbares Muster. Dadurch, dass der Benutzer unterscheidungsfähige haptische Ausgaben empfangen kann, mit denen sich die Quelle der Benachrichtigung unterscheiden lässt, kann der Benutzer die Art der Benachrichtigung erkennen, ohne auf die Anzeige schauen zu müssen, was die Lebensdauer der Batterie verlängert. Bei einigen Ausführungsformen basiert die zweite haptische Ausgabe auf der Quelle der Benachrichtigung. Bei einigen Ausführungsformen wird die zweite haptische Ausgabe mit einer hörbaren oder sichtbaren Ausgabe ausgegeben.
  • Bei einigen Ausführungsformen weist die erste haptische Ausgabe eine größere Intensität bzw. eine längere Dauer auf als die zweite haptische Ausgabe. Dies kann sich beispielsweise dann als vorteilhaft erweisen, wenn man dem Benutzer ein stärkeres haptisches Signal liefert und die Aufmerksamkeit des Benutzers in Vorbereitung auf ein zweites haptisches Signal auf die Vorrichtung 500 lenkt (z. B. ein Signal mit einem unverwechselbaren Aspekt auf der Grundlage der Quelle der Benachrichtigung oder ein Signal im Zusammenhang mit einer hörbaren oder sichtbaren Ausgabe). Bei einigen Ausführungsformen kann die Vorrichtung 500 eine Benutzerschnittstelle (nicht abgebildet) enthalten, die konfiguriert, ob die Ausgabe der haptischen Ausgabe die Ausgabe einer ersten „vorbereitenden” haptischen Ausgabe umfasst. Bei solchen Ausführungsformen kann die Ausgabe der haptischen Ausgabe unter Umständen die Ausgabe von nur einer haptischen Ausgabe umfassen, wenn die Vorrichtung 500 so konfiguriert ist, dass sie keine „vorbereitende” haptische Ausgabe ausgibt.
  • Wie in 6A dargestellt, kann die Vorrichtung 500, in Reaktion auf das Erkennen einer anschließenden Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe 602, den Bildschirm 604 mit der Mitteilung 606 anzeigen, die die empfangene Benachrichtigung darstellt. Bei einigen Ausführungsformen kann es sich bei der Benutzereingabe um eine Berührung auf dem Touchscreen 504 handeln, wie beispielsweise ein Wischen oder Tippen. Bei einigen Ausführungsformen kann es sich bei der Benutzereingabe, wenn die Vorrichtung 500 am Handgelenk eines Benutzers getragen wird, um ein Signal handeln, das eine durch einen Benutzer herbeigeführte Bewegung der Vorrichtung 500 in eine Position anzeigt, in der ein Benutzer die Anzeige sehen kann, indem ein Benutzer das Handgelenk hebt oder dreht. In diesem Kontext beschreibt eine Position, in der ein Benutzer die Anzeige sehen kann, eine Position der Vorrichtung 500, in der der Benutzer den Touchscreen 504 sehen kann. Bei einigen Ausführungsformen kann die Vorrichtung 500 ein Signal erkennen, das anzeigt, dass ein Benutzer sein/ihr Handgelenk anhebt oder absenkt, siehe Beschreibung in der provisorischen US-Patentanmeldung mit der Nummer 62/026,532, „Raise Gesture Detection in a Device”, die hiermit vollständig durch Verweis aufgenommen wird.
  • Die empfangene Benachrichtigung enthält Informationen. Solche Informationen können eine Quelle der Benachrichtigung, eine Anwendung im Zusammenhang mit der Benachrichtigung bzw. eine zur Benachrichtigung gehörende Uhrzeit bzw. ein zur Benachrichtigung gehörendes Datum umfassen, neben Text-, Bild- oder Audioinhalten, zum Beispiel. Bei einigen Ausführungsformen umfasst die Mitteilung, die die empfangene Benachrichtigung darstellt, einen Teil der Informationen aus der Benachrichtigung. Beispielsweise umfasst die in 6A dargestellte Mitteilung 606 die Quelle 610 der Benachrichtigung (Jason Jones) und eine Anwendungsaufforderung 608, die eine zur Benachrichtigung gehörende Anwendung anzeigt – in diesem Beispiel eine Textnachrichtanwendung. (Das gestrichelte Rechteck auf Bildschirm 604 zeigt den Inhalt der Mitteilung an, wobei das gestrichelte Rechteck unter Umständen nicht angezeigt wird.) Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl einer Anwendungsaufforderung 608, eine Anwendung starten, die zur Benachrichtigung gehört. Bei einigen Ausführungsformen umfasst der Start einer Anwendung die Anzeige der Anwendung auf dem Touchscreen 504 und das Öffnen der Benachrichtigung innerhalb der Anwendung, um die Benachrichtigung aufzurufen, zu bearbeiten oder darauf zu reagieren.
  • Wie bereits oben stehend erörtert, kann die Vorrichtung 500 den Bildschirm 604 in Reaktion auf das Erkennen einer Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der haptischen Ausgabe anzeigen. Bei einigen Ausführungsformen kann der vorher festgelegte Zeitraum zwischen 0 Sekunden und 3 Minuten betragen. Bei anderen Ausführungsformen kann der vorher festgelegte Zeitraum zwischen 0 Sekunden und 1 Minute betragen. Bei noch anderen Ausführungsformen lässt sich der vorher festgelegte Zeitraum durch den Benutzer einstellen bzw. wird er durch die Vorrichtung 500 auf der Grundlage des vorhergehenden Benutzerverhaltens bestimmt, wie beispielsweise ein Durchschnittswert der vorher abgelaufenen Zeiträume, bevor der Benutzer die Eingabe vornimmt.
  • Das in 6A dargestellte Szenario kann dem Fall entsprechen, bei dem der Benutzer nach der Wahrnehmung der wahrnehmungsbasierten Ausgabe, die die Vorrichtung 500 in Reaktion auf den Empfang einer Benachrichtigung ausgegeben hat, die zur empfangenen Benachrichtigung gehörende Mitteilung unverzüglich sehen möchte, wozu er/sie die Vorrichtung 500 innerhalb des vorher festgelegten Zeitraums in eine Position bringt, in der er/sie den Touchscreen 504 sehen kann (z. B. durch Anheben des Handgelenks).
  • Wie in 6B dargestellt, kann die Vorrichtung 500, wenn die Vorrichtung 500 die Benutzereingabe nach dem vorher festgelegten Zeitraum erkennt, anstelle dessen mit der Anzeige eines Ziffernblattes 612 reagieren. Dieses Szenario entspricht dem Fall, wenn der Benutzer die Mitteilung nicht sofort aufrufen möchte und sein/ihr Handgelenk erst einige Zeit nach der wahrnehmungsbasierten Ausgabe 602 anhebt, um auf den Touchscreen 504 zu schauen. Bei einigen Ausführungsformen kann das Ziffernblatt 612 ein Benutzerschnittstellenobjekt 616 umfassen, das die aktuelle Uhrzeit anzeigt. Bei einigen Ausführungsformen kann das Ziffernblatt 612 einen Hinweis auf eine ungelesene Benachrichtigung 614 enthalten, die der empfangenen Benachrichtigung entspricht, da der Inhalt der Benachrichtigung bislang noch nicht angezeigt wurde. Wie in 6B gezeigt, kann es sich bei dem Hinweis 614 um einen Punkt handeln. 6C zeigt eine andere Ausführungsform, bei der es sich bei dem Hinweis 614 um ein Fischgrätenmuster handelt. Bei einigen Ausführungsformen zeigt die Vorrichtung 500 anstelle eines Fischgrätenmusters einen Pfeil, ein Dreieck oder ein anderes grafisches Objekt an, das einen Hinweis auf die Richtung gibt. Hinweise im Zusammenhang mit ungelesenen Benachrichtigungen werden unten stehend näher erläutert.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500 einen Startbildschirm anstelle des Ziffernblattes 612 anzeigen. Ein beispielhafter Startbildschirm 706 wird in 7 dargestellt. Der Startbildschirm kann eine Vielzahl von Aufforderungen enthalten, die eine Vielzahl von Anwendungen darstellen, und kann einen Hinweis auf eine ungelesene Benachrichtigung enthalten, die der empfangenen Benachrichtigung entspricht.
  • Erkennt die Vorrichtung 500 die Benutzereingabe nicht innerhalb des vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe, kann die Vorrichtung 500 in ihrem ursprünglichen dunklen oder inaktiven Zustand bleiben und Bildschirm 604 nicht anzeigen. Dieses Szenario entspricht unter Umständen dem Fall, bei dem der Benutzer die Mitteilung nicht unverzüglich aufrufen möchte oder verhindern möchte, dass andere Personen in der Nähe die Mitteilung sehen, wozu er/sie die Vorrichtung 500 nach dem Empfang der wahrnehmungsbasierten Ausgabe nicht in eine Position bringt, in der er/sie den Touchscreen 504 sehen kann.
  • Während die Mitteilung 606 angezeigt wird, kann die Vorrichtung 500, wenn die Vorrichtung 500 eine zweite Benutzereingabe innerhalb eines zweiten vorher festgelegten Zeitraums nach der Anzeige der Mitteilung erkennt, den Touchscreen 504 auf seinen ursprünglichen dunklen oder inaktiven Zustand zurücksetzen. Bei der zweiten Benutzereingabe kann es sich beispielsweise um ein Signal handeln, das anzeigt, dass ein Benutzer die Vorrichtung 500 durch Absenken bzw. Drehen des Handgelenks aus einer Position heraus bewegt, in der er/sie die Anzeige sehen kann. In Reaktion auf das Erkennen der zweiten Benutzereingabe innerhalb des zweiten vorher festgelegten Zeitraums kann die Vorrichtung 500 die Anzeige auf ihren ursprünglichen dunklen oder inaktiven Zustand zurücksetzen. Dieses Szenario entspricht unter Umständen dem Fall, bei dem der Benutzer nach Aufrufen der Mitteilung diese nicht mehr sehen bzw. nicht mehr mit der Vorrichtung 500 interagieren möchte, wozu er/sie sein/ihr Handgelenk absenkt.
  • Bei einigen Ausführungsformen umfasst die Anzeige der Mitteilung 606 die Anzeige einer Animation, durch die sich die Mitteilung 606 vertikal auf dem Touchscreen 504 verschiebt. Beispielsweise kann die Vorrichtung 500 eine Animation anzeigen, durch die die Mitteilung 606 auf dem Touchscreen 504 vom unteren Ende des Touchscreens 504 nach oben verschoben wird. Eine solche Animation kann dem Benutzer einen visuellen Hinweis darauf geben, dass die Mitteilung vom unteren Ende des Touchscreens (beispielsweise) „aufsteigt”; die Benachrichtigung kann der Benutzer durch eine Berührung des Touchscreens 504 in der entgegengesetzten Richtung der Animation (eine nach unten gerichtete Wischgeste beispielsweise), um die Mitteilung „nach unten zu drücken”, ausblenden. Der Benutzer kann ferner aus der Animation ableiten, dass eine Berührung des Touchscreens 504 in derselben Richtung wie die Animation (eine nach oben gerichtete Wischgeste beispielsweise) zusätzliche Informationen zur Benachrichtigung „nach oben” ziehen (z. B. anzeigen) kann, wie beispielsweise den Textkörper einer Textnachricht oder zusätzlicher Text im Zusammenhang mit einer Kalenderbenachrichtigung. Dementsprechend können durch die Vorrichtung 500 angezeigte Animationen dem Benutzer visuelle Hinweise im Hinblick auf mögliche Eingaben geben, die der Benutzer an der Vorrichtung 500 vornehmen kann. Ein Fachmann wird erkennen, das die Richtung der Animation für die Mitteilung nicht nach oben gerichtet sein muss; beispielsweise kann die Mitteilung auf dem Touchscreen von oben nach unten rutschen, woraufhin ein Benutzer unter Umständen folgert, dass eine nach oben gerichtete Wischbewegung erforderlich ist, um die Mitteilung auszublenden. Solche visuellen Hinweise können die Mensch-Maschine-Schnittstelle verbessern, indem die Benutzer im Hinblick auf die Anwendung der entsprechenden Eingaben angeleitet werden, ohne dass hierfür eine Anzeige detaillierter Anweisungen auf dem kleineren Bildschirm erforderlich ist.
  • Wie oben stehend beschrieben, kann die Vorrichtung 500 bei einigen Ausführungsformen eine wahrnehmungsbasierte Ausgabe ausgeben, wie beispielsweise dadurch, dass sie den haptischen Mechanismus veranlasst, eine haptische Ausgabe auszugeben, in Reaktion auf den Empfang einer Benachrichtigung, wodurch der Benutzer darüber in Kenntnis gesetzt wird, dass eine Benachrichtigung empfangen wurde. Bei einigen Ausführungsformen kann die Vorrichtung 500 jedoch die Ausgabe der wahrnehmungsbasierten Ausgabe in Reaktion auf den Empfang einer Benachrichtigung verzögern, um die wahrnehmungsbasierte Ausgabe zu einem Zeitpunkt auszugeben, der dem Benutzer wahrscheinlich besser passt. Beispielsweise kann die Vorrichtung 500 unter Umständen die wahrnehmungsbasierte Ausgabe verzögern, bis der Benutzer relativ inaktiv ist und die wahrnehmungsbasierte Ausgabe wahrscheinlich eher wahrnimmt, oder die wahrnehmungsbasierte Ausgabe verzögern, um zu verhindern, dass der Benutzer unterbrochen wird während er/sie aktiv einer Beschäftigung nachgeht oder schläft. Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf den Empfang einer Benachrichtigung, Daten von einem oder mehreren Bewegungssensoren, Beschleunigungssensoren, Herzfrequenzsensoren bzw. anderen Sensortypen erhalten, um einen aktuellen Beschäftigungsgrad des Benutzers zu bestimmen, wie beispielsweise ob der Benutzer gerade Sport treibt, an einer Maschine schreibt oder schläft. Die Vorrichtung 500 kann die wahrnehmungsbasierte Ausgabe solange verzögern, bis der bestimmte Beschäftigungsgrad des Benutzers ein Beschäftigungskriterium erfüllt. Bei einigen Ausführungsformen kann das Beschäftigungskriterium umfassen, dass ein Benutzer relativ ruhig ist (dies wird durch die Ausgabe von Sensoren an der Vorrichtung 500 bestimmt), die Benutzung einer physikalischen Tastatur unterbrochen hat, gerade nicht spricht oder nicht schläft, zum Beispiel. So kann die Vorrichtung 500 zu einem Zeitpunkt eine wahrnehmungsbasierte Ausgabe ausgeben, um den Benutzer darüber zu informieren, dass eine neue Benachrichtigung empfangen wurde, an dem der Benutzer dadurch wahrscheinlich nicht gestört wird und die Benachrichtigung wahrscheinlich eher wahrnimmt.
  • Nachdem die Vorrichtung 500 eine Mitteilung angezeigt hat, kann ein Benutzer unter anderem entscheiden, ob die Mitteilung ausgeblendet oder der Inhalt der Benachrichtigung angezeigt werden soll (beispielsweise der Textkörper eine Textnachricht oder Text im Zusammenhang mit einer Kalenderbenachrichtigung).
  • b. Mitteilungen ausblenden
  • 7 zeigt eine weitere beispielhafte Abfolge von Bildschirmen, die Vorrichtung 500 nach dem Empfang einer Benachrichtigung auf dem Touchscreen 504 anzeigen kann. Wie bereits hinsichtlich 6A erörtert, kann der Touchscreen 504 anfänglich dunkel oder inaktiv sein. In Reaktion auf den Empfang einer Benachrichtigung kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe ausgeben. Wie in 6A beschrieben, zeigt die Vorrichtung 500, in Reaktion auf den Empfang einer Benutzereingabe innerhalb eines ersten vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe, den Bildschirm 604 mit der Mitteilung 606 an, die die empfangene Benachrichtigung darstellt. In dieser beispielhaften Abfolge umfasst die Anzeige der Mitteilung 606 auf dem Bildschirm 604 die Anzeige einer Animation, durch die die Mitteilung 606 vom unteren Ende des Touchscreens 504 nach oben verschoben wird.
  • Erkennt die Vorrichtung 500 während der Anzeige der Mitteilung 606 eine Berührung auf dem Touchscreen 504, durch die ein Ausblendungskriterium erfüllt wird, kann die Vorrichtung 500 die Mitteilung 606 ausblenden. Bei einigen Ausführungsformen umfasst das Ausblenden der Mitteilung 606 die Entfernung der Mitteilung 606 von der Anzeige bzw. den Ersatz der Anzeige der Mitteilung durch die Anzeige eines Ziffernblattes (wie beispielsweise Ziffernblatt 612 in 6B) oder eines Startbildschirmes 706.
  • Bei einigen Ausführungsformen erfüllt die Berührung das Ausblendungskriterium, wenn es sich um ein Wischen oder Streichen auf dem Touchscreen 504 handelt. Bei einigen Ausführungsformen erfüllt die Berührung das Ausblendungskriterium, wenn es sich um ein Wischen oder Streichen auf dem Touchscreen 504 in eine bestimmte Richtung handelt, wie beispielsweise ein Wischen oder Streichen in eine Richtung entgegengesetzt der Richtung, in der die Animation die Mitteilung auf dem Touchscreen 504 verschiebt. Verschiebt die Animation die Mitteilung beispielsweise auf dem Touchscreen 504 von unten nach oben, kann die Berührung das Ausblendungskriterium erfüllen, wenn es sich um eine nach unten gerichtete Wischbewegung auf dem Touchscreen 504 handelt. Bei einigen Ausführungsformen kann die Berührung das Ausblendungskriterium erfüllen, wenn die Länge der Wisch- oder Streichbewegung auf dem Touchscreen eine Grenzlänge überschreitet. Bei einigen Ausführungsformen kann es sich bei der Grenzlänge um ein Viertel, die Hälfte, oder einen prozentualen Anteil der Länge des Touchscreens 504 handeln.
  • Zurück zu 7 kann die Vorrichtung 500 bei einigen Ausführungsformen, in Reaktion auf das Erkennen einer Bewegung einer Berührung (wie beispielsweise eine Wischbewegung) auf dem Touchscreen 504, während die Mitteilung 606 angezeigt wird, die Mitteilung 606 auf dem Touchscreen entsprechend der Richtung der Bewegung der Berührung verschieben und eine Ausblendungsanzeige 714 neben der Mitteilung anzeigen. Wie in 7 gezeigt, kann die Ausblendungsanzeige bei einigen Ausführungsformen über der Mitteilung angezeigt werden, wenn die Bewegung der Berührung nach unten gerichtet ist. Die Ausblendungsanzeige 714 kann dem Benutzer einen visuellen Hinweis darüber geben, dass die Mitteilung ausgeblendet wird, wenn die Bewegung der Berührung in dieselbe Richtung fortgesetzt wird. Nach der Anzeige der Ausblendungsanzeige kann die Vorrichtung bei einigen Ausführungsformen, wenn die Berührung das Grenzwertkriterium erfüllt, in Reaktion auf das Erkennen der Unterbrechung der Berührung, die Mitteilung 606 ausblenden und die Ausblendungsanzeige 714 vom Touchscreen 504 entfernen. Erfüllt die Berührung das Grenzwertkriterium nicht (wenn die Bewegung der Berührung beispielsweise eine Grenzlänge nicht überschreitet), kann die Vorrichtung 500 eine Animation anzeigen, mit der die Mitteilung 606 auf ihre ursprüngliche Position auf der Anzeige zurückgeschoben wird, und die Ausblendungsanzeige 714 von der Anzeige nehmen. Dementsprechend muss ein Benutzer in diesem Beispiel die Mitteilung ausreichend weit „nach unten drücken”, um eine Grenzlänge zu überschreiten und die Mitteilung auszublenden; andernfalls springt die Mitteilung auf ihre ursprüngliche Position zurück. Wie in 7 dargestellt, umfasst das Ausblenden der Mitteilung 606 bei einigen Ausführungsformen die Anzeige einer Animation, durch die die Mitteilung 606 vom Touchscreen 504 geschoben wird. Bei einigen Ausführungsformen schiebt die Animation die Mitteilung 606 in Richtung der Wisch- oder Streichbewegung vom Touchscreen 504.
  • Wie bereits vorstehend erörtert, kann ein Benutzer ferner eine Mitteilung ausblenden, indem er/sie sein/ihr Handgelenk während der Anzeige der Mitteilung absenkt (wird durch Vorrichtung 500 erkannt). Bei einigen Ausführungsformen kann die Vorrichtung 500 unterschiedlich reagieren, wenn eine Mitteilung in Reaktion auf das Erkennen einer Berührung ausgeblendet wird, die das Ausblendungskriterium erfüllt (siehe Erörterung im Zusammenhang mit 7), verglichen mit der Reaktion, wenn eine Mitteilung in Reaktion auf das Erkennen eines Signals ausgeblendet wird, das ein Absenken des Handgelenks anzeigt, wie oben stehend beschrieben. Wird die Vorrichtung 500 beispielsweise am Handgelenk eines Benutzers getragen und erkennt die Vorrichtung 500 ein Signal, das ein Absenken des Handgelenks durch den Benutzer anzeigt, kann die Vorrichtung 500 annehmen, dass der Benutzer nicht mehr auf den Touchscreen 504 schaut und deshalb den Touchscreen 504 nach dem Ausblenden der Mitteilung abschalten oder deaktivieren. Wenn die Vorrichtung 500 im Gegensatz dazu eine Mitteilung anzeigt und eine Berührung auf dem Touchscreen 504 erkennt, die ein Ausblendungskriterium erfüllt (wie beispielsweise eine nach unten gerichtete Wischbewegung), kann die Vorrichtung 500 annehmen, dass der Benutzer nach wie vor aktiv auf den Touchscreen 504 schaut, und die Vorrichtung 500 kann in Reaktion auf die Berührung die Mitteilung ausblenden und anschließend ein Ziffernblatt, einen Startbildschirm oder irgendeinen anderen Bildschirm anzeigen, wie beispielsweise den Bildschirm, der vor dem Empfang der Benachrichtigung angezeigt wurde.
  • c. Anzeige des Inhaltes der Benachrichtigung
  • Wie vorstehend erörtert, enthält eine empfangene Benachrichtigung Informationen, die eine Quelle der Benachrichtigung, eine zur Benachrichtigung gehörende Anwendung und eine Uhrzeit der Benachrichtigung enthalten können, neben (optional) dem Inhalt der Benachrichtigung, wie beispielsweise der Textkörper einer Textnachricht oder E-Mail, einer Sprachnachricht, Einzelheiten zu einer Kalendererinnerung oder andere Arten von Inhalten. Eine Mitteilung, die eine empfangene Benachrichtigung darstellt, kann einen ersten Teil dieser Benachrichtigungsinformationen enthalten, wie beispielsweise die Quelle der Benachrichtigung, die dazugehörige Anwendung oder die Uhrzeit, an der die Benachrichtigung empfangen wurde.
  • Wie vorstehend hinsichtlich der 6A, 6B und 7 erörtert, kann die Vorrichtung 500 im Anschluss an den Empfang einer Benachrichtigung eine wahrnehmungsbasierte Ausgabe ausgeben und anschließend, in Reaktion auf das Erkennen einer Benutzereingabe innerhalb eines ersten Zeitraums nach der wahrnehmungsbasierten Ausgabe, die Mitteilung 606 anzeigen. Nachdem ein Benutzer sein/ihr Handgelenk angehoben hat, um die Mitteilung zu sehen, kann der Benutzer den dazugehörigen Inhalt der Benachrichtigung aufrufen wollen.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, wenn die Vorrichtung 500 feststellt, dass der Benutzer die Vorrichtung 500 über einen vorher festgelegten Zeitraum nach der Anzeige der Mitteilung in einer Position hält, in der er/sie die Anzeige sehen kann, den Inhalt der Benachrichtigung ganz oder teilweise anzeigen, wobei dies als der zweite Teil der Informationen bezeichnet werden kann. Das heißt, dass die Vorrichtung 500 bei einigen Ausführungsformen automatisch von der Anzeige der Mitteilung zur Anzeige des Inhaltes der Benachrichtigung übergehen kann, wenn der Benutzer die Vorrichtung 500 in der Position hält, in der er/sie die Anzeige sehen kann, und wartet.
  • 8 zeigt eine beispielhafte Abfolge von Bildschirmen, die Vorrichtung 500 in Reaktion auf den Empfang einer Benachrichtigung anzeigen kann. Anfänglich kann der Touchscreen 504 dunkel oder inaktiv sein. In Reaktion auf dem Empfang der Benachrichtigung kann die Vorrichtung 500 eine wahrnehmungsbasierte Ausgabe ausgeben. In Reaktion auf den Empfang einer Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe (siehe Beschreibung hinsichtlich 6A), kann die Vorrichtung 500 die Mitteilung 606 anzeigen. In Reaktion auf eine Feststellung, dass die Benutzereingabe nach einem zweiten vorher festgelegten Zeitraum nach der Anzeige der Mitteilung 606 weiterhin empfangen wird – was darauf hindeutet, dass die Vorrichtung 500 in der Position verbleibt, in der der Benutzer die Anzeige sehen kann – kann die Vorrichtung 500 den Bildschirm 802 anzeigen, auf dem die Mitteilung 606 und der Inhalt der Benachrichtigung 804 enthalten sind. Bei einigen Ausführungsformen kann die Vorrichtung 500 den Bildschirm 802 in Reaktion auf das Erkennen eines Ausbleibens einer zweiten Benutzereingabe innerhalb eines zweiten vorher festgelegten Zeitraums nach der Anzeige der Mitteilung 606 anzeigen. Die zweite Benutzereingabe kann ein Signal sein, das anzeigt, dass ein Benutzer sein/ihr Handgelenk absenkt, und beispielsweise deutet das Ausbleiben einer solchen Eingabe darauf hin, dass die Vorrichtung 500 in der Position verbleibt, in der der Benutzer die Anzeige sehen kann.
  • Bei diesem Beispiel handelt es sich bei dem Inhalt der Benachrichtigung 804 um den Textkörper einer Textnachricht, die durch Mitteilung 606 dargestellt wird. Bei anderen Beispielen kann der Inhalt der Benachrichtigung die Betreffzeile und den Textkörper einer empfangenen E-Mail-Benachrichtigung ganz oder teilweise enthalten bzw. kann es sich beim Inhalt der Benachrichtigung um den, vollständig oder teilweise, Textkontext im Zusammenhang mit einer Kalenderbenachrichtigung oder einer Multimedianachricht handeln, zum Beispiel.
  • Wie in 8 gezeigt, umfasst die Anzeige des Inhaltes der Benachrichtigung 804 bei einigen Ausführungsformen die Anzeige einer Animation, durch die die Mitteilung 606 auf dem Touchscreen 504 nach oben verschoben wird, während der Inhalt der Benachrichtigung 804 auf dem Touchscreen 504 zur Anzeige von unten nach oben verschoben wird, so dass die Mitteilung und der Inhalt der Benachrichtigung auf demselben Bildschirm angezeigt werden. Bei einigen Ausführungsformen kann die Vorrichtung 500 die Mitteilung 606 in eine Ecke oben auf dem Touchscreen 504 verschieben, um den Platz zur Anzeige des Inhaltes der Benachrichtigung freizugeben. Bei einigen Ausführungsformen kann die Vorrichtung 500 die Anzeigengröße der Mitteilung 606 verringern, um den Platz zur Anzeige des Inhaltes der Benachrichtigung freizugeben.
  • Bei einigen Ausführungsformen kann der Inhalt der Benachrichtigung durchblättert werden, wenn der Inhalt der Benachrichtigung zu lang ist, um vollständig auf dem Touchscreen 504 angezeigt zu werden. In Reaktion auf das Erkennen einer Benutzereingabe kann die Vorrichtung 500 den Inhalt der Benachrichtigung durchblättern, damit der Benutzer zusätzliche Inhalte der Benachrichtigung auf dem Touchscreen 504 sehen kann. Solche Blättereingaben können beispielsweise eine Berührung (wie beispielsweise eine nach oben oder unten gerichtete Wisch- oder Streichbewegung) auf dem Touchscreen 504 oder eine Drehbewegung eines drehbaren Eingabemechanismus umfassen, sofern vorhanden. Bei einigen Ausführungsformen kann die Vorrichtung 500 den Inhalt der Benachrichtigung entsprechend der Benutzereingabe durchblättern; beispielsweise kann die Vorrichtung 500, in Reaktion auf eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504, den Inhalt der Benachrichtigung auf dem Touchscreen 504 nach oben bewegen.
  • Wie in 8 gezeigt, kann die Vorrichtung 500 bei einigen Ausführungsformen in Reaktion auf das Erkennen einer Berührung, die das Ausblendungskriterium erfüllt, die Mitteilung und den Inhalt der Benachrichtigung ausblenden, siehe oben stehende Beschreibung im Zusammenhang mit 7. Bei einigen Ausführungsformen umfasst das Ausblenden der Mitteilung 606 und des Inhaltes der Benachrichtigung 804 ein Verschieben der Mitteilung 606 und des Inhaltes der Benachrichtigung 804 vom Touchscreen 504. Bei einigen Ausführungsformen kann die Vorrichtung 500 eine Ausblendungsanzeige anzeigen und die Mitteilung und den Inhalt der Benachrichtigung wieder an deren ursprüngliche Positionen springen lassen, wenn die Bewegung der Berührung keine Grenzlänge überschreitet, siehe vorstehende Beschreibung. Bei einigen Ausführungsformen kann die Vorrichtung 500 ein Ziffernblatt 612 anzeigen, nachdem die Mitteilung und der Inhalt der Benachrichtigung ausgeblendet wurden. Wird ein Ziffernblatt 612 angezeigt, nachdem der Inhalt der Benachrichtigung ausgeblendet wurde, kann das Ziffernblatt bei einigen Ausführungsformen ohne einen Hinweis auf eine ungelesene Benachrichtigung angezeigt werden, da der Inhalt der Benachrichtigung angezeigt wurde.
  • Wie oben stehend erörtert, kann die Vorrichtung 500 den Inhalt der Benachrichtigung anzeigen, wenn sie erkannt hat, dass die Vorrichtung nach der Anzeige der Mitteilung in der Position verbleibt, in der der Benutzer die Anzeige sehen kann. In einigen Fällen möchte ein Benutzer unter Umständen aber nicht darauf warten, dass der Inhalt der Benachrichtigung angezeigt wird, indem er die Vorrichtung 500 über den vorher festgelegten Zeitraum in der Position hält, in der der Benutzer die Anzeige sehen kann. Dementsprechend kann die Vorrichtung 500 bei einigen Ausführungsformen, in Reaktion auf das Erkennen einer Berührung des Touchscreens 504, ferner Bildschirm 802 anzeigen, während gleichzeitig die Mitteilung 606 angezeigt wird. Bei einigen Ausführungsformen kann die Berührung, durch die die Anzeige des Inhaltes des Benachrichtigung 804 ausgelöst wird, eine Bewegung der Berührung auf dem Touchscreen 504 umfassen, wie beispielsweise eine Wisch- oder Streichbewegung. Bei einigen Ausführungsformen muss die Wisch- oder Streichbewegung dieselbe Richtung aufweisen wie die Animation, mit der die Mitteilung 606 auf den Touchscreen 504 geschoben wird, wie beispielsweise eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504, wodurch nach der Mitteilung konzeptionell mehr Benachrichtigungsinformationen „nach oben gezogen” werden. Bei einigen Ausführungsformen kann es sich bei der Berührung um eine Berührung (z. B. durch einen Finger) auf oder nahe der Mitteilung 606 handeln.
  • Wie in 24 gezeigt, kann die Vorrichtung bei einigen Ausführungsformen, in Reaktion auf den Empfang einer Benachrichtigung bei gleichzeitiger aktiver Anzeige von Inhalten auf dem Touchscreen 504, einen Mitteilungsbanner 2402 quer über die Oberseite des Touchscreens 504 anzeigen, während der Bildschirminhalt zumindest noch teilweise angezeigt wird. Bei einigen Ausführungsformen kann die Vorrichtung, in Reaktion auf den Empfang einer Benachrichtigung bei aktiver Anzeige von Inhalten auf dem Touchscreen 504, ferner eine wahrnehmungsbasierte Ausgabe 702 ausgeben. In dem in 24 gezeigten Beispiel handelt es sich bei dem angezeigten Inhalt um den Startbildschirm 706. In Reaktion auf das Erkennen einer Berührung des Mitteilungsbanners 2402, wie beispielsweise ein Wischen oder Tippen, kann die Vorrichtung 500 den Bildschirm 802 mit dem Inhalt der Benachrichtigung 804 anzeigen.
  • Einige Benachrichtigungen weisen unter Umständen keinen Inhalt auf. Beispielsweise weist ein Weckeralarm, eine Benachrichtigung über einen niedrigen Batteriestand oder eine Trainingsbenachrichtigung unter Umständen keinen Inhalt auf. Dementsprechend kann die Vorrichtung 500 bei einigen Ausführungsformen weiterhin eine Mitteilung anzeigen, ohne zur Anzeige des Inhaltes der Benachrichtigung überzugehen.
  • d. Unterdrückung der automatischen Anzeige des Inhaltes der Benachrichtigung
  • In einigen Fällen möchte ein Benutzer unter Umständen nicht, dass die Vorrichtung 500 den Inhalt der Benachrichtigung automatisch anzeigt, siehe auch Beschreibung hinsichtlich 8, sei es aus Bedenken hinsichtlich des Datenschutzes oder aus anderen Gründen. Dementsprechend kann die Vorrichtung 500 bei einigen Ausführungsformen dem Benutzer eine Option bieten, eine solche automatische Anzeige des Inhaltes der Benachrichtigung zu unterdrücken, indem der Benutzer die auf der Vorrichtung 500 gespeicherten Konfigurationsdaten ändert. Bei einigen Ausführungsformen kann die Vorrichtung 500, bevor sie zur Anzeige des Inhaltes der Benachrichtigung übergeht, die Konfigurationsdaten abrufen, um festzustellen, ob der Inhalt der Benachrichtigung angezeigt werden soll. Ist aus den Konfigurationsdaten ersichtlich, dass der Inhalt der Benachrichtigung angezeigt werden soll, kann die Vorrichtung 500 den Inhalt der Benachrichtigung anzeigen, wie oben stehend hinsichtlich 8 beschrieben. Ist aus den Konfigurationsdaten ersichtlich, dass der Inhalt der Benachrichtigung nicht angezeigt werden soll, kann die Vorrichtung 500 weiterhin die Mitteilung anzeigen, ohne zur Anzeige des Inhaltes der Benachrichtigung überzugehen.
  • Bei einigen Ausführungsformen kann die Vorrichtung 100, wenn die Vorrichtung 500 so konfiguriert ist, dass sie die automatische Anzeige des Inhaltes der Benachrichtigung unterdrückt (über die Konfigurationsdaten), in Reaktion auf das Erkennen einer Berührung einer angezeigten Mitteilung, trotzdem den Inhalt der Benachrichtigung anzeigen, wie beispielsweise ein Tippen oder Wischen.
  • e. Benachrichtigungen mit Audioinhalt
  • Einige empfangene Benachrichtigungen können Audioinhalt enthalten. Solche Benachrichtigungen können Sprachnachrichten, Audio- oder Push-to-Talk-Nachrichten enthalten. Wie in 9 gezeigt, kann der angezeigte Inhalt der Benachrichtigung bei einigen Ausführungsformen eine Wiedergabeaufforderung 902 zur Wiedergabe des Audioinhaltes enthalten. In Reaktion auf das Erkennen einer Auswahl der Wiedergabeaufforderung 902 kann die Vorrichtung 500 den Audioinhalt wiedergeben. Wenn der Audioinhalt als Teil einer Live-Audiokonversation empfangen wird (wenn die Vorrichtung beispielsweise im Push-to-Talk-Modus betrieben wird) und der Benutzer die Wiedergabeaufforderung auswählt, kann die Vorrichtung 500, in Reaktion auf die Auswahl der Aufforderung, die ursprüngliche Audionachricht wiedergeben und Vorrichtung 500 kann folgende Audionachrichten live zum Zeitpunkt ihres Empfangs wiedergeben, ohne dass die Aufforderung erneut ausgewählt werden muss.
  • f. Benachrichtigungen zu Textnachrichten
  • Handelt es sich bei der Benachrichtigung um eine Textnachricht, möchte ein Benutzer bei einigen Ausführungsformen unter Umständen ein Gespräch über Textnachrichten im Zusammenhang mit der Benachrichtigung angezeigt bekommen. 10 zeigt eine Abfolge von Bildschirmen, die Vorrichtung 500 nach dem Empfang einer Benachrichtigung zu einer Textnachricht anzeigen kann. Diese Abfolge ähnelt der Abfolge aus 8 und zeigt die Anzeige der Mitteilung 606 und des Inhaltes der Benachrichtigung 804 entsprechend einer vom Sender Jason Jones empfangenen Textnachricht. Bei diesem Beispiel erkennt die Vorrichtung 500 jedoch während der Anzeige des Bildschirms 802 eine Berührung auf dem Touchscreen 504. Bei der Berührung kann es sich um eine Berührung des Touchscreens 504 oder ein Tippen auf den Touchscreen 504 an einer Stelle handeln, die beispielsweise der Anwendungsaufforderung 608 entspricht, oder ein horizontales Wischen über den Touchscreen 504. In Reaktion auf das Erkennen der Berührung des Touchscreens 504 kann die Vorrichtung 500 den Bildschirm 1002 anzeigen.
  • Der Bildschirm 1002 umfasst ein Gespräch über Textnachrichten, ganz oder teilweise, zwischen dem Benutzer und der Quelle der Benachrichtigung zur Textnachricht. Bei diesem Beispiel umfasst das Gespräch über Textnachrichten solche Textnachrichten, die an Jason Jones gesendet und von Jason Jones empfangen wurden. Bei einigen Ausführungsformen sind die Textnachrichten im Gespräch über Textnachrichten chronologisch angeordnet auf der Grundlage ihres Empfangs- oder Sendedatums.
  • g. Antwortoptionen
  • In einigen Fällen möchte ein Benutzer nach dem Aufrufen einer Mitteilung oder dem Lesen des Inhaltes einer Benachrichtigung unter Umständen auf die Benachrichtigung antworten. Da es sich bei der Vorrichtung 500 um eine kleinere Vorrichtung mit einem relativ kleinen Touchscreen handelt, können Benutzerschnittstellen, die zur Beantwortung von Benachrichtigungen bei größeren Vorrichtungen eingesetzt werden können, wie beispielsweise Mobiltelefone, unter Umständen auf dem Touchscreen 504 ineffizient bzw. unpraktisch sein. Ein Benutzer möchte unter Umständen in der Lage sein, auf eine Benachrichtigung zu antworten, ohne dabei eine Reihe von relativ genauen Eingaben über den Touchscreen auszuführen, was auf einem kleineren Gerät unter Umständen schwierig oder frustrierend ist. Dementsprechend kann die Vorrichtung 500 bei einigen Ausführungsformen Benutzerschnittstellen bereitstellen, mit denen der Benutzer schneller und einfacher über einen kleineren Bildschirm auf Benachrichtigungen antworten kann.
  • Wie oben stehend beschrieben, kann die Vorrichtung 500 den Inhalt der Benachrichtigung in Reaktion auf das Erkennen einer Berührung auf dem Touchscreen 504 und bei einigen Ausführungsformen in Reaktion auf das Erkennen einer Drehbewegung eines drehbaren Eingabemechanismus durchblättern. Bei einigen Ausführungsformen kann die Vorrichtung 500, wenn ein Benutzer versucht, nach unten über die Grenze des Inhaltes der Benachrichtigung hinaus zu blättern (Ende des Inhaltes), reagieren, indem sie Benutzerschnittstellenobjekte anzeigt, die zu den Aktionen gehören, die durch eine zur Benachrichtigung gehörende Anwendungen eventuell ausgeführt werden.
  • Beispielsweise zeigt Fig. eine Abfolge von Bildschirmen, die die Vorrichtung 500 in Reaktion auf den Empfang einer Benachrichtigung anzeigen kann. Diese Bildschirme ähneln den hinsichtlich 4 beschriebenen Bildschirmen. Während das Ende des Inhaltes der Benachrichtigung 804 angezeigt wird (in diesem Fall handelt es sich beim Inhalt der Benachrichtigung um eine Textnachricht), erkennt die Vorrichtung 500 eine Benutzereingabe, laut der über das Ende des Inhaltes der Benachrichtigung hinaus geblättert werden soll, d. h. eine Benutzereingabe, laut der der Inhalt der Benachrichtigung nach oben bewegt werden soll, um mehr Inhalt der Benachrichtigung anzuzeigen. Bei der Benutzereingabe kann es sich beispielsweise um eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504 oder eine Drehbewegung eines drehbaren Eingabemechanismus handeln. In Reaktion auf das Erkennen der Benutzereingabe kann die Vorrichtung 500 die Mitteilung 606 und den Inhalt der Benachrichtigung 804 nach oben blättern und die Benutzerschnittstellenobjekte 1112, 1114 auf dem Touchscreen 504 unter dem Inhalt der Benachrichtigung durchblättern. Bei diesem Beispiel wird die Mitteilung 606 vom oberen Ende des Touchscreen 504 entfernt und nicht mehr angezeigt.
  • Im Beispiel in 11 handelt es sich bei der Benachrichtigung um eine Textnachricht. Dementsprechend stehen bei dieser Ausführungsform die auf den Touchscreen verschobenen Benutzerschnittstellenobjekte 1112, 1114 in Zusammenhang mit Aktionen, die einer Textnachrichtenanwendung entsprechen. Insbesondere gehört das Benutzerschnittstellenobjekt 1112 zu einer Antwort und Benutzerschnittstellenobjekt 1114 gehört zu einer Ausblendung. Bei anderen Benachrichtigungsarten können die auf den Touchscreen 504 verschobenen Benutzerschnittstellenobjekte unterschiedlich sein. Beispielsweise können die Aktionen für eine Kalendereinladung die Optionen Annehmen und Ablehnen enthalten. Bei einer Benachrichtigung über eine Sprachnachricht können die Optionen „Rückruf” oder „Nachricht senden” lauten. Bei einigen Ausführungsformen können mehr als zwei Benutzerschnittstellenobjekte angezeigt werden.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1114, das zu einer Ausblendung gehört, die Benachrichtigung ausblenden, wie oben stehend hinsichtlich 8 beschrieben.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1112, das zu einer Antwort gehört, den Bildschirm 1120 anzeigen. Der Bildschirm 1120 enthält mehrere Benutzerschnittstellenobjekte 1122, 1124, 1126, 1128, die den Optionen zur Beantwortung der Textnachricht entsprechen. Bei diesem Beispiel lauten die Antwortoptionen „Smart-Antwort”, „Emoji”, „Diktieren” und „KB” (Tastatur). Solche Antwortoptionen können Funktionen enthalten, wie sie in der provisorischen US-Patentanmeldung Nr. 62/044,923 „Historical Buttons for Input Methods”, eingereicht am 2. September 2014 und unter Nennung von Nicholas Zambetti als Erfinder; der provisorischen US-Patentanmeldung Nr. 62/127,800 „Historical Buttons for Input Methods”, eingereicht am 3. März 2015 und unter Nennung von Nicholas Zambetti als Erfinder; und der provisorischen US-Patentanmeldung Nr. 62/129,903 „Historical Buttons for Input Methods”, eingereicht am B. März 2015 und unter Nennung von Nicholas Zambetti als Erfinder, beschrieben sind. Diese Anmeldungen werden hiermit jeweils vollständig durch Verweis aufgenommen.
  • Die Vorrichtung 500 kann, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1122, das zur Antwortoption „Smart-Antwort” gehört, den Smart-Antwort-Bildschirm 1130 anzeigen. Der Smart-Antwort-Bildschirm 1130 umfasst eine Benutzerschnittstelle zur Auswahl einer vorher festgelegten Antwortnachricht 1132, 1134, 1136. Bei einigen Ausführungsformen kann der Inhalt der vorher festgelegten Antwortnachricht standardmäßig durch die Vorrichtung 500 vorgegeben oder durch den Benutzer angepasst werden. Bei einigen Ausführungsformen kann der Inhalt der vorher festgelegten Antwortnachricht durch die Vorrichtung 500 von einer externen Vorrichtung empfangen werden.
  • In Reaktion auf das Erkennen einer Auswahl einer vorher festgelegten Antwortnachricht 1132, 1134, 1136, kann die Vorrichtung 500 die vorher festgelegte Antwortnachricht an die Quelle der Benachrichtigung senden und den Meldung-versendet-Bestätigungsbildschirm 1140 anzeigen. Nach der Anzeige des Meldung-versendet-Bestätigungsbildschirms 1140 über einen vorher festgelegten Zeitraum, kann die Vorrichtung 500 ein Ziffernblatt 212 oder einen Startbildschirm anzeigen. In diesem Beispiel enthält das Zifferblatt 212 keinen Hinweis auf eine ungelesene Benachrichtigung, die der empfangenen Benachrichtigung entspricht, da der Inhalt der Benachrichtigung angezeigt wurde.
  • Zurück auf Bildschirm 1120 kann die Vorrichtung 500, wenn die Vorrichtung 500 eine Auswahl von Benutzerschnittstellenobjekt 1124 anstelle von 1122 erkennt, eine Benutzerschnittstelle zur Auswahl eines Emojis (z. B. Ideogramm, Grafik oder Animation) anzeigen, das als Antwort an die Quelle der Benachrichtigung gesendet wird. In Reaktion auf das Erkennen einer Auswahl eines Emojis kann die Vorrichtung 500 das ausgewählte Emoji an die Quelle der Benachrichtigung senden und den Nachricht-versendet-Bestätigungsbildschirm 1140 anzeigen.
  • Bei einigen Ausführungsformen kann die Vorrichtung eine Bestätigungsaufforderung anzeigen anstatt eine vorher festgelegte Antwort oder ein Emoji direkt nach der Auswahl zu versenden. In Reaktion auf das Erkennen einer Auswahl der Bestätigungsaufforderung kann die Vorrichtung 500 die vorher festgelegte Antwort oder das Emoji, wie oben stehend beschrieben, versenden.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1126, eine Audioeingabe von einem Mikrofon an der Vorrichtung 500 aufzeichnen und Daten entsprechend der aufgezeichneten Audiodaten als Antwort an die Quelle senden. Bei einigen Ausführungsformen können die aufgezeichneten Audiodaten als Audionachrichtendaten versendet werden. Bei anderen Ausführungsformen können die aufgezeichneten Audiodaten durch die Vorrichtung 500 transkribiert und als Transkriptionsdaten versendet werden. Bei einigen Ausführungsformen kann die Vorrichtung 500 einen Hinweis zu den aufgezeichneten Audiodaten auf dem Touchscreen 504 anzeigen, gemeinsam mit einer Sendeaufforderung, die bei Auswahl die Vorrichtung 100 veranlasst, die Daten entsprechend der Audiodaten an die Quelle zu versenden, anstatt die Daten, die die Audioaufzeichnung darstellen, direkt an die Quelle zu versenden.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1128, eine virtuelle Tastatur anzeigen, über die ein Benutzer eine Antwort auf die Benachrichtigung eingeben kann.
  • Wie in 12A gezeigt, kann die Vorrichtung 500 bei einigen Ausführungsformen, nachdem sie die Benutzerschnittstellenobjekte 1112, 1114 auf dem Touchscreen 504 nach oben geblättert hat, in Reaktion auf das Erkennen einer Benutzereingabe, laut der über das Ende des Benutzerschnittstellenobjektes 1114 hinaus geblättert werden soll, die Benutzerschnittstellenobjekte 1202, 1204,1206, 1208, die Antwortoptionen darstellen, auf den Touchscreen unterhalb der Benutzerschnittstellenobjekte 1112, 1114 verschieben. Diese Antwortoptionen umfassen zwei vorher festgelegte Antwortnachrichten 1202, 1204 und die Optionen Diktieren 1208 und Emoji 1206, die oben stehend hinsichtlich 11 beschrieben sind. In Reaktion auf das Erkennen einer Auswahl einer der Antwortoptionen 1202, 1204, 1206, 1208 kann die Vorrichtung 500 antworten, wie hinsichtlich 11 beschrieben.
  • Wie in 12B dargestellt, kann die Vorrichtung bei einigen Ausführungsformen, anstatt die Benutzerschnittstellenobjekte 1112, 1114 nach oben unter das Ende des Inhaltes der Benachrichtigung zu blättern, die Benutzerschnittstellenobjekte 1202, 1204, 1206 und 1208 unter das Ende des Inhaltes der Benachrichtigung auf dem Bildschirm verschieben. Bei diesem Beispiel blättert die Vorrichtung 500, in Reaktion auf das Erkennen einer Benutzereingabe, laut der über das Ende des Inhaltes der Benachrichtigung 804 hinaus geblättert werden soll (wie beispielsweise durch eine nach oben gerichtete Wischbewegung), diese Antwortoptionen unter das Ende des Inhaltes der Benachrichtigung auf den Touchscreen 504.
  • 12C veranschaulicht eine beispielhafte Animation, die Vorrichtung 500 als Teil einer Schnittstelle zur Verwendung der Option „Smart-Antworten” anzeigen kann, siehe oben stehende Beschreibung in den 1112B. Auf dem Bildschirm 1210 zeigt die Vorrichtung 500 eine Benachrichtigung (z. B. Textnachricht 1212) und ein Benutzerschnittstellenobjekt 1214 an, das zu einer Antwort gehört. In Reaktion auf den Empfang der Benutzereingabe im Zusammenhang mit der Antwort (z. B. eine Berührung auf dem Touchscreen 504 an der Stelle von Benutzerschnittstellenobjekt 1214), kann die Vorrichtung 500 eine animierte Anzeige einer Vielzahl von vorher festgelegten Antwortnachrichten anzeigen. Wie in 12C gezeigt, zeigt der Bildschirm 1220 beispielsweise anfänglich die Benutzerschnittstellenobjekte 1222 und 1224 an, die den vorher festgelegten Antwortnachrichten entsprechen. Die Benutzerschnittstellenobjekte 1222 und 1224 sind so animiert, dass sie am unteren Ende des Bildschirms 1220 angezeigt werden und nach oben auf dem Bildschirm verschieben, wie durch den Pfeil angezeigt. Im Verlauf der animierten Anzeige verschieben die Benutzerschnittstellenobjekte 1222 und 1224 auf dem Touchscreen nach oben, wenn die Benutzerschnittstellenobjekte 1228, 1230 und 1232 darunter auf dem Bildschirm 1220 angezeigt werden. Das Benutzerschnittstellenobjekt 1228 zeigt eine dritte vorher festgelegte Antwortnachricht an, während Benutzerschnittstellenobjekt 1230 eine Emoji-Antwort und Benutzerschnittstellenobjekt 1232 eine Diktierantwort anzeigen.
  • Der Benutzer kann eine Benutzereingabe vornehmen, die auf eine Auswahl einer vorher festgelegten Antwortnachricht oder einer anderen Antwortoption hindeutet (z. B. Emoji oder Diktieren). Beispielsweise kann der Benutzer den Touchscreen 504 an der Stelle von Benutzerschnittstellenobjekt 1228 berühren. In Reaktion auf das Erkennen der Benutzereingabe, die auf eine Auswahl der vorher festgelegten Antwortnachricht oder einer anderen Antwortoption hindeutet, kann die Vorrichtung 500 die anderen vorher festgelegten Antwortnachrichten und Antwortoptionen ausblenden (z. B. diejenigen, die der Benutzer nicht ausgewählt hat). Wie in 12C gezeigt, blendet die Vorrichtung 500, in Reaktion auf den Empfang einer Benutzereingabe, die auf eine Auswahl der vorher festgelegten Antwortnachricht „Ich weiß noch nicht” hindeutet (z. B. Benutzerschnittstellenobjekt 1228), die Anzeige der Benutzerschnittstellenobjekte 1222, 1224, 1230 und 1232 aus. Anschließend kann die Vorrichtung 500 die ausgewählte vorher festgelegte Antwortnachricht animieren, damit diese kurz pausiert, vom Bildschirm 1220 verschwindet und ausgeblendet wird, wie durch den Pfeil 1234 angezeigt. Nach der Pause, der Verschiebung und der Entfernung der angezeigten vorher festgelegten Antwortnachricht/anderen Antwortoption kann die Vorrichtung 500 ein zweites Benutzerschnittstellenbild (z. B. Bildschirm 1240) anzeigen, wie beispielsweise das Ziffernblatt 212 oder einen Startbildschirm. Beispielsweise kann die Vorrichtung 500, nachdem das Benutzerschnittstellenobjekt 1224 vom Bildschirm 1220 verschoben wurde, Bildschirm 1240 anzeigen, indem dieser eingeblendet wird, von unscharf auf scharf verschiebt usw. Die Vorrichtung 500 kann ferner die ausgewählte vorher festgelegte Antwortnachricht an die Quelle der Benachrichtigung senden.
  • Die Vorrichtung 500 kann andere Antwortoptionen anzeigen, um eine Antwort auf andere Benachrichtigungsarten zu ermöglichen. Beispielsweise zeigen die 13A–B beispielhafte Abfolgen von Bildschirmen, die Vorrichtung 500 auf dem Touchscreen 504 anzeigen kann, damit ein Benutzer auf eine Weckerbenachrichtigung oder eine „Freundschaftsanfrage” aus den sozialen Medien reagieren kann. In dem in 13A gezeigten Beispiel empfängt die Vorrichtung 500 eine Weckerbenachrichtigung und gibt eine wahrnehmungsbasierte Ausgabe aus. In Reaktion auf das Erkennen einer Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe, zeigt die Vorrichtung 500 den Bildschirm 1302 mit der Mitteilung 1304 an, die die Weckerbenachrichtigung darstellt. In Reaktion auf das Erkennen einer Berührung der Mitteilung 1304 zeigt die Vorrichtung 500 den Antwortbildschirm 1330 an. Bei der Berührung kann es sich um eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504 handeln, während die Mitteilung 1304 angezeigt wird. In Reaktion auf diese Berührung zeigt die Vorrichtung 500 den Bildschirm 1330 an. In diesem Fall umfassen die Antwortoptionen „Schlummern” 1306 und „Ausblenden” 1308.
  • In dem in 13B gezeigten Beispiel empfängt die Vorrichtung 500 eine Benachrichtigung zu einer „Freundschaftsanfrage” von einer Anwendung im Bereich der sozialen Medien und gibt eine wahrnehmungsbasierte Ausgabe aus. In Reaktion auf das Erkennen einer Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe, zeigt die Vorrichtung 500 Bildschirm 1310 mit Mitteilung 1312 an, die die Benachrichtigung zu einer Freundschaftsanfrage darstellt. In Reaktion auf das Erkennen einer Berührung des Touchscreens 504 zeigt die Vorrichtung 500 den Antwortbildschirm 1340 anzeigen, während Bildschirm 1310 angezeigt wird. Bei der Berührung kann es sich beispielsweise um eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504 handeln. In Reaktion auf das Erkennen dieser Berührung zeigt die Vorrichtung 500 den Bildschirm 1340 an. In diesem Fall lauten die Antwortoptionen in der Benachrichtigung „Annehmen” 1314 und „Ablehnen” 1316, mit denen ein Benutzer eine Freundschaftsanfrage entweder annehmen oder ablehnen kann.
  • Ein Fachmann wird erkennen, dass für andere Benachrichtigungsarten viele andere Antwortoptionen möglich sind.
  • Es ist anzumerken, dass in den oben stehenden Beispielen aus den 811 die Vorrichtung 500, in Reaktion auf eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504, bei gleichzeitiger Anzeige einer Mitteilung den Inhalt der Benachrichtigung anzeigt, der zur empfangenen Benachrichtigung gehört. Im Rahmen der in den 13A–B gezeigten Beispiele verfügen die empfangenen Benachrichtigungen nicht über dazugehörige Inhalte. Bei einigen Ausführungsformen kann die Vorrichtung 500, wenn eine empfangene Benachrichtigung keinen Inhalt aufweist, mit der Anzeige der Antwortoptionen anstelle mit der Anzeige des Inhaltes der Benachrichtigung auf eine Berührung (wie beispielsweise eine nach oben gerichtete Wischbewegung oder ein Tippen) auf dem Touchscreen reagiere, während sie eine Mitteilung anzeigt.
  • Wie oben stehend bereits erörtert, kann die Vorrichtung 500 bei einigen Ausführungsformen 500 die Intensität von Berührungen auf dem Touchscreen 504 erkennen (z. B. unter Zuhilfenahme des Intensitätssensors 524). Die Vorrichtung 500 kann auf Berührungen auf dem Touchscreen 504 auf der Grundlage der Kontaktintensität reagieren. Wenn wir kurz auf 11 zurückschauen, kann die Vorrichtung 500 bei einigen Ausführungsformen, während sie den Inhalt der Benachrichtigung 804 anzeigt und in Reaktion auf das Erkennen einer Berührung des Touchscreens 504 mit einer charakteristischen Intensität, die über einer Intensitätsgrenze liegt, einige oder alle der Benutzerschnittstellenobjekte 1122, 1124, 1126 und 1128 anzeigen.
  • In bei einigen Ausführungsformen kann ein Benutzer auf die Benutzerschnittstellenobjekte 1122, 1124, 1126 bzw. 1128 entweder dadurch zugreifen, dass er/sie über das Ende des Inhaltes der Benachrichtigung hinaus blättert, siehe oben stehende Beschreibung, oder dass er/sie den Touchscreen 504 mit einer charakteristischen Intensität berührt, die über einer Intensitätsgrenze liegt (z. B. ein festes Drücken auf den Touchscreen 504, beispielsweise erkannt durch den Intensitätssensor 524).
  • 14 zeigt eine weitere Abfolge von Bildschirmen, die Vorrichtung 500 anzeigen kann, damit ein Benutzer auf eine empfangene Benachrichtigung reagieren kann. In diesem Beispiel erkennt die Vorrichtung 500, während der Inhalt der Benachrichtigung 804 angezeigt wird, eine Berührung des Touchscreens 504, deren charakteristische Intensität über einer Intensitätsgrenze liegt. In Reaktion auf das Erkennen der Berührung mit einer charakteristischen Intensität über dem Grenzwert kann die Vorrichtung 500 den Antwortbildschirm 1402 anzeigen.
  • Der Antwortbildschirm 1402 umfasst vier Benutzerschnittstellenobjekte 1404, 1406, 1408, 1414, die zu vier Antwortoptionen gehören. In Reaktion auf das Erkennen einer Eingabe, die die Auswahl von Benutzerschnittstellenobjekt 1404 anzeigt, kann die Vorrichtung 500 den Bildschirm 1120 anzeigen, siehe auch Abbildung und Beschreibung hinsichtlich 11.
  • In Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1406 kann die Vorrichtung 500 die Benachrichtigung ausblenden und ein Ziffernblatt oder einen Startbildschirm anzeigen.
  • In Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1408 kann die Vorrichtung 500 nachfolgende Benachrichtigungen auf bestimmte (vorher festgelegter Zeitraum) oder unbestimmte Zeit unterdrücken (z. B. durch Verzicht auf eine wahrnehmungsbasierte Ausgabe in Reaktion auf den Empfang einer Benachrichtigung, bzw. und eine Anzeige jedweder neuen Mitteilungen).
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl von Benutzerschnittstellenobjekt 1410, eine zur empfangenen Benachrichtigung gehörende Anwendung starten und die Benachrichtigung in der Anwendung aufrufen. Der Start einer Anwendung entspricht unter Umständen der Ausführung der Anwendung im Vordergrund von Vorrichtung 500 bzw. der Anzeige der Anwendung auf dem Touchscreen 504. In diesem Beispiel kann die Vorrichtung 500 eine Textnachrichtenanwendung starten, da es sich bei der Benachrichtigung um eine Textnachricht handelt. In anderen Beispielen kann es sich je nach empfangener Benachrichtigung bei der gestarteten Anwendung um eine E-Mail-Anwendung, eine Kalenderanwendung, eine Wetteranwendung, eine Anwendung im Bereich sozialer Netzwerke oder irgendeine andere Art von Anwendung handeln. Nach dem Start einer Anwendung kann die Vorrichtung, in Reaktion auf das Erkennen einer Betätigung einer Hardware-Taste oder der Betätigung eines drehbaren, druckbaren Mechanismus (wenn diese einzeln oder zusammen an der Vorrichtung 500 vorhanden sind, siehe 5A), die Anwendung beenden und den Startbildschirm anzeigen.
  • In dem in 14 gezeigten Beispiel enthält der Antwortbildschirm 1402 die Benutzerschnittstellenobjekte 1404, 1406, 1408, 1410, die sich eignen, eine Textnachricht oder E-Mail-Benachrichtigung zu beantworten. Wie vorstehend hinsichtlich der 12A-B erörtert, kann der Antwortbildschirm jedoch unterschiedliche Benutzerschnittstellenobjekte enthalten, die sich eignen, unterschiedliche Benachrichtigungsarten zu beantworten. Handelt es sich bei der Benachrichtigung beispielsweise um einen Wecker, kann der Antwortbildschirm anstelle der Option „Antworten” 1404 eine Option „Schlummern” anbieten. Handelt es sich bei der Benachrichtigung um eine Audionachricht, kann der Antwortbildschirm beispielsweise ferner eine Option „Wiedergabe” enthalten, damit der Benutzer die Audionachricht wiedergeben kann. Bei einigen Ausführungsformen kann der Antwortbildschirm eine Option „Im Telefon öffnen” enthalten. In Reaktion auf das Erkennen einer Auswahl der Option „Im Telefon öffnen” kann die Vorrichtung 500 Daten an eine externe elektronische Vorrichtung senden, die mit der Vorrichtung 500 kommuniziert, wie beispielsweise ein Mobiltelefon, um die externe elektronische Vorrichtung zu veranlassen, die zur Benachrichtigung gehörende Anwendung zu starten.
  • Es ist anzumerken, dass die Antwortschnittstellen, die hinsichtlich der 13A–B und 14 beschrieben wurden, nicht Bestandteil der zugehörigen Anwendung sind, die auf der Vorrichtung 500 ausführbar oder nicht ausführbar ist; anstelle dessen sind die Antwortschnittstellen Teil einer Benachrichtigungsbenutzerschnittstelle. Bei einigen Ausführungsformen kann ein Dritter Antwortoptionen für eine Anwendung bereitstellen, die auf einer externen elektronischen Vorrichtung ausgeführt wird, die mit der Vorrichtung 500 kommuniziert.
  • 2. Umgang mit mehreren Benachrichtigungen
  • Bei einigen Ausführungsformen kann die Vorrichtung 500 mehrere Benachrichtigungen empfangen und mehrere aufeinander folgende Mitteilungen anzeigen.
  • 15 zeigt eine Abfolge von Bildschirmen, die Vorrichtung 500 in Reaktion auf den Empfang mehrerer Benachrichtigungen anzeigen kann. Wie in den oben stehenden Beispielen, kann der Touchscreen 504 anfänglich dunkel oder inaktiv sein. In Reaktion auf den Empfang einer ersten Benachrichtigung gibt die Vorrichtung 500 eine erste wahrnehmungsbasierte Ausgabe 602 aus. In Reaktion auf den Empfang einer Benutzereingabe innerhalb eines ersten Zeitraums nach der ersten wahrnehmungsbasierten Ausgabe 602 zeigt die Vorrichtung 500 eine erste Mitteilung 606 an, wie oben stehend hinsichtlich 6A gezeigt und beschrieben.
  • Während die erste Mitteilung angezeigt wird, empfängt die Vorrichtung 500 eine zweite Benachrichtigung. In Reaktion auf den Empfang der zweiten Benachrichtigung ersetzt die Vorrichtung 500 den Bildschirm 604 durch den Bildschirm 1502. In Reaktion auf den Empfang der zweiten Benachrichtigung kann die Vorrichtung 500 bei einigen Ausführungsformen ferner eine zweite wahrnehmungsbasierte Ausgabe 1506 ausgeben. Der Bildschirm 1502 enthält eine zweite Mitteilung 1504, die die zweite empfangene Benachrichtigung darstellt. Bei diesem Beispiel handelt es sich bei der zweiten empfangenen Benachrichtigung um eine E-Mail von der Absenderin Julia Smith. Die zweite Mitteilung kann so animiert werden, dass sie der beschriebenen Animation aus 8 ähnelt.
  • Die Vorrichtung 500 kann in Reaktion auf das Erkennen einer Benutzereingabe, die ein Ausblendungskriterium erfüllt, die zweite Mitteilung 1504 ausblenden, siehe vorstehende Erörterung in Zusammenhang mit 8. Nach dem Ausblenden der zweiten Mitteilung kann die Vorrichtung 500 einen Startbildschirm 706 oder ein Ziffernblatt 612 anzeigen. Wie in 15 dargestellt, kann der Startbildschirm oder das Ziffernblatt einen Hinweis auf zwei ungelesene Benachrichtigungen enthalten, die der ersten Benachrichtigung und der zweiten Benachrichtigung entsprechen. Es ist zu beachten, dass die Anzeige für die ungelesenen Benachrichtigungen 612, die auf dem Ziffernblatt 612 in 15 angezeigt wird, größer ist als die Anzeige einer ungelesenen Benachrichtigung, die auf dem Ziffernblatt 612 in 6B dargestellt ist. Wie unten stehend näher erörtert wird, kann die Größe der Anzeige bei einigen Ausführungsformen einen Hinweis auf die Anzahl der ungelesenen Benachrichtigungen geben.
  • 16 zeigt eine weitere beispielhafte Abfolge von Bildschirmen, die die Vorrichtung 500 in Reaktion auf den Empfang mehrerer Benachrichtigungen anzeigen kann. Bei diesem Beispiel empfängt die Vorrichtung 500, in Reaktion auf verschiedene Benutzereingaben, eine erste Benachrichtigung, gibt eine erste wahrnehmungsbasierte Ausgabe 602 aus und zeigt eine erste Mitteilung 606 und den Inhalt der ersten Benachrichtigung 804 an, siehe oben stehende Beschreibung hinsichtlich 8.
  • Während der Anzeige des Inhaltes der ersten Benachrichtigung 804 empfängt die Vorrichtung 500 dann eine zweite Benachrichtigung, die Informationen enthält. In Reaktion auf den Empfang der zweiten Benachrichtigung kann die Vorrichtung 500 den Bildschirm 1502 mit der zweiten Mitteilung 1504 anzeigen, siehe Beschreibung hinsichtlich 15. In Reaktion auf den Empfang der zweiten Benachrichtigung kann die Vorrichtung 500 bei einigen Ausführungsformen eine zweite wahrnehmungsbasierte Ausgabe 1506 ausgeben. Die Vorrichtung 500 kann in Reaktion auf Benutzereingaben, die ein Ausblendungskriterium erfüllen, die zweite Mitteilung 1504 ausblenden, siehe oben stehende Beschreibung hinsichtlich 8. Nach dem Ausblenden der zweiten Mitteilung 1504 kann die Vorrichtung 500 ein Ziffernblatt 612 oder einen Startbildschirm 706 anzeigen, siehe oben stehende Beschreibung hinsichtlich 15. Bei einigen Ausführungsformen kann die Vorrichtung 500, anstatt der Anzeige des Ziffernblattes 612 oder des Startbildschirms 706, den Inhalt der ersten Benachrichtigung 804 erneut anzeigen, nachdem die zweite Mitteilung 1504 ausgeblendet wurde.
  • 17 zeigt eine weitere Abfolge von Bildschirmen, die die Vorrichtung 500 anzeigen kann. Diese Abfolge ähnelt der Abfolge aus 16, wobei der Benutzer jedoch den Inhalt der zweiten Benachrichtigung angezeigt bekommen und die zweite Mitteilung 1504 nicht ausblenden möchte. Die Vorrichtung 500 kann in Reaktion auf das Erkennen einer Benutzereingabe den Inhalt der zweiten Benachrichtigung 1712 anzeigen, während gleichzeitig die zweite Mitteilung 1504 angezeigt wird, siehe oben stehende Beschreibung hinsichtlich 8. Bei diesem Beispiel umfasst der Inhalt der zweiten Benachrichtigung 1712 eine Betreffzeile für die E-Mail-Benachrichtigung. Bei der Benutzereingabe kann es sich beispielsweise um eine nach oben gerichtete Wischbewegung oder ein Tippen auf die zweite Mitteilung handeln.
  • In dem in 17 gezeigten Beispiel möchte der Benutzer die zur zweiten Benachrichtigung gehörende Anwendung starten, nachdem er/sie den Inhalt der zweiten Benachrichtigung 1712 aufgerufen hat. Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Berührung auf dem Touchscreen 504 an einer Stelle, die dem Inhalt der zweiten Benachrichtigung oder der Mitteilung zur zweiten Benachrichtigung entspricht, eine Anwendung starten, die zur zweiten Benachrichtigung gehört, und den Bildschirm 1714 anzeigen. Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl der Anwendungsaufforderung 1708, eine Anwendung starten, die zur zweiten Benachrichtigung gehört, und den Bildschirm 1714 anzeigen.
  • Bei diesem Beispiel handelt es sich bei der zur zweiten Benachrichtigung gehörenden Anwendung um eine E-Mail-Anwendung. Dementsprechend kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl der Anwendungsaufforderung 1708, eine E-Mail-Anwendung starten. Bei einigen Ausführungsformen wird die Benachrichtigung in der Anwendung geöffnet, wenn die Vorrichtung 500 auf diese Weise eine zu einer Benachrichtigung gehörende Anwendung startet, siehe Darstellung in Bildschirm 1714.
  • Nachdem eine Anwendung gestartet und aufgerufen wurde, möchte ein Benutzer unter Umständen auf den Startbildschirm zurückkehren. In Reaktion auf das Erkennen der Betätigung einer Eingabetaste 506, bei der es sich um eine druckbare Hardware-Taste oder einen druckbaren, drehbaren Eingabemechanismus handeln kann, kann die Vorrichtung 500 den Startbildschirm 706 anzeigen. Bei diesem Beispiel wird der Startbildschirm 706 ohne einen Hinweis auf ungelesene Benachrichtigungen angezeigt, der der ersten und der zweiten Benachrichtigung entspricht, da sowohl der Inhalt der ersten Benachrichtigung 804 als auch der Inhalt der zweiten Benachrichtigung 1712 angezeigt wurden.
  • Die 1820 zeigen zusätzliche Bildschirmabfolgen, die die Vorrichtung 500 in Reaktion auf den Empfang mehrerer Benachrichtigungen und das Erkennen von Eingaben entsprechend der oben stehenden Beschreibung anzeigen kann.
  • In der in 18 gezeigten Abfolge empfängt die Vorrichtung 500 eine erste Benachrichtigung und zeigt eine erste Mitteilung an, siehe Veranschaulichung und Beschreibung hinsichtlich 17. Die Vorrichtung 500 empfängt eine zweite Benachrichtigung, während sie gleichzeitig die erste Mitteilung anzeigt. In Reaktion auf den Empfang der zweiten Benachrichtigung zeigt die Vorrichtung 500 eine zweite Mitteilung an. Bei diesem Beispiel blendet der Benutzer die zweite Mitteilung aus, siehe oben stehende Beschreibung hinsichtlich 16. Nach dem Ausblenden der zweiten Mitteilung zeigt die Vorrichtung 500 erneut die erste Mitteilung an. Der Benutzer blendet die erste Mitteilung anschließend aus und die Vorrichtung 500 zeigt einen Startbildschirm an. Bei diesem Beispiel wird der Startbildschirm mit einem Hinweis auf zwei ungelesene Benachrichtigungen angezeigt, die der ersten und der zweiten Benachrichtigung entsprechen.
  • 19 ähnelt 18. Bei diesem Beispiel hält der Benutzer, nachdem die Vorrichtung 500 die erste Mitteilung angezeigt hat, die Vorrichtung 500 jedoch in der Position, in der der Benutzer die Anzeige sehen kann, und die Vorrichtung 500 reagiert mit der Anzeige des Inhaltes der ersten Benachrichtigung, siehe oben stehende Beschreibung hinsichtlich 18. Während der Anzeige des Inhaltes der ersten Benachrichtigung empfängt die Vorrichtung 500 eine zweite Benachrichtigung und zeigt eine zweite Mitteilung an. Der Benutzer blendet die zweite Mitteilung aus und die Vorrichtung 500 zeigt anschließend den Inhalt der ersten Benachrichtigung erneut an. Der Benutzer blendet den Inhalt der ersten Benachrichtigung aus und die Vorrichtung 500 zeigt den Startbildschirm 706 an. Bei diesem Beispiel wird der Startbildschirm mit einem Hinweis auf eine ungelesene Benachrichtigung angezeigt, der der zweiten Benachrichtigung entspricht.
  • 20 ähnelt 15. Anstatt die zweite Mitteilung auszublenden, tippt der Benutzer jedoch auf die Anwendungsaufforderung 2002, um die zur zweiten Benachrichtigung gehörende Anwendung zu starten. Die Vorrichtung 500 startet, in Reaktion auf das Erkennen einer Auswahl der Anwendungsaufforderung 2002, die Anwendung und zeigt in der Anwendung den Inhalt der zweiten Benachrichtigung an. Der Benutzer schließt anschließend die Anwendung und kehrt auf den Startbildschirm 706 zurück, indem er/sie die Hardware-Taste oder den druckbaren, drehbaren Eingabemechanismus 506 betätigt.
  • Die Vorrichtung 500 kann andere Benutzerschnittstellen anzeigen, um mehrere Mitteilungen oder Benachrichtigungen aufzurufen. Wie in 21 gezeigt, kann die Vorrichtung 500 bei einigen Ausführungen, in Reaktion auf das Erkennen einer Berührung der Mitteilung 606, die eine erste Benachrichtigung darstellt, den Bildschirm 2102 anzeigen, der ein erstes Fenster 2104 mit einem Teil des Inhaltes der Benachrichtigung 2106 in Zusammenhang mit Mitteilung 606, und einen Teil von einem oder mehreren zusätzlichen Fenstern 2108 umfasst, die andere Inhalte von Benachrichtigungen für andere empfangene Benachrichtigungen anzeigen. Bei einigen Ausführungsformen kann der Bildschirm 2102 Seitenwechselpunkte 2110 enthalten, die dem Benutzer einen Hinweis hinsichtlich der Anzahl an anderen Fenstern, die angezeigt werden können, und der Position des aktuell angezeigten Fensters geben. In Reaktion auf das Erkennen einer Streich- oder Wischbewegung auf dem Touchscreen 504 kann die Vorrichtung 500 die Fenster durchblättern, um den Inhalt der Benachrichtigung für andere empfangene Benachrichtigungen anzuzeigen.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Berührung eines Fensters 2104, den Bildschirm 2114 anzeigen, der den vollständigen Inhalt der Benachrichtigung 2120 im Zusammenhang mit Mitteilung 606 umfasst. Bei einigen Ausführungsformen umfasst der Bildschirm 2114 ferner Seitenwechselpunkte 2118, die dem Benutzer einen Hinweis auf andere Nachrichten geben können, die auch angezeigt werden können, wie beispielsweise andere Nachrichten im Rahmen eines Gesprächs über Textnachrichten. Bei einigen Ausführungsformen kann über die Farbe der Seitenwechselpunkte 2118 auf dem Bildschirm 2114 ein Nachrichtentyp gekennzeichnet werden. Beispielsweise kann der zu Fenster 2116 mit dem Inhalt der aktuellen Benachrichtigung 2120 gehörende Seitenwechselpunkt eine Farbe aufweisen, während andere Nachrichten, wie beispielsweise Antwortnachrichten, unter Umständen durch Seitenwechselpunkte einer anderen Farbe gekennzeichnet sein können.
  • 3. Stummschalten von Benachrichtigungen
  • In einigen Fällen möchte der Benutzer nach dem Empfang einer Benachrichtigung von einer Quelle unter Umständen nachfolgende wahrnehmungsbasierte Ausgaben für Benachrichtigungen von derselben Quelle unterdrücken bzw. die Anzeige von Mitteilungen unterdrücken, die zu Benachrichtigungen von derselben Quelle gehören. Das heißt, dass ein Benutzer unter Umständen nicht über eine wahrnehmungsbasierte Ausgabe benachrichtigt werden möchte, wenn nachfolgende Benachrichtigungen von derselben Quelle empfangen werden, bzw. die dazugehörige Mitteilung nicht auf dem Touchscreen 504 angezeigt bekommen möchte. Wie in 22 dargestellt, kann die Vorrichtung 500 eine Benachrichtigung von einer Quelle empfangen und eine Mitteilung 606 anzeigen. In diesem Beispiel erkennt die Vorrichtung 500, während die Mitteilung angezeigt wird, eine Berührung des Touchscreens 504, deren charakteristische Intensität über einer Intensitätsgrenze liegt. In Reaktion auf das Erkennen einer Berührung mit einer charakteristischen Intensität über der Intensitätsgrenze kann die Vorrichtung 500 eine Stummschaltaufforderung 2204 zum Stummschalten nachfolgender Benachrichtigungen anzeigen, die von derselben Quelle empfangen werden, bzw. Benachrichtigungen, die zur selben Anwendung gehören. In Reaktion auf das Erkennen einer Auswahl der Stummschaltaufforderung 2204 kann die Vorrichtung 500 wahrnehmungsbasierte Ausgaben und Mitteilungen für Benachrichtigungen vorübergehend oder auf unbestimmte Zeit unterdrücken, die von derselben Quelle oder Anwendung empfangen wurden.
  • 4. Gruppierte Mitteilungen
  • In einigen Fällen kann die Vorrichtung 500 mehrere Benachrichtigungen gleichzeitig oder innerhalb eines kurzen Zeitraums empfangen. Dazu kann es beispielsweise kommen, wenn die Vorrichtung 500 über einen Zeitraum abgeschaltet war. Wird die Vorrichtung 500 anschließend wieder eingeschaltet, kann sie alle Benachrichtigungen empfangen, die andernfalls empfangen worden wären, wenn die Vorrichtung 500 nicht abgeschaltet worden wäre. In diesem Fall ist ein Benutzer unter Umständen darüber genervt, dass er/sie mehrere aufeinander folgende Mitteilungen aufrufen und ausblenden muss.
  • Dementsprechend kann die Vorrichtung 500 bei einigen Ausführungsformen, in Reaktion auf den Empfang mehrerer Benachrichtigungen, eine einzelne gruppierte Mitteilung für mehrere Benachrichtigungen anstelle einer einzelnen Mitteilung für jede empfangene Benachrichtigung anzeigen. Die Vorrichtung 500 kann auf der Grundlage von Gruppierungskriterien festlegen, ob eine gruppierte Mitteilung angezeigt wird, die für mehrere Benachrichtigungen steht. Beispielsweise kann die Vorrichtung 500 Benachrichtigungen für eine Darstellung durch eine einzelne Mitteilung anhand der folgenden Kriterien gruppieren: ob diese innerhalb eines vorher festgelegten Zeitraums empfangen werden, ob diese von derselben Quelle stammen, ob diese zur selben Anwendung gehören oder anhand einer beliebigen Kombination dieser Kriterien. Bei einigen Ausführungsformen kann die Vorrichtung 500 zeitempfindliche Benachrichtigungen aus den gruppierten Mitteilungen ausschließen und anstelle dessen eine einzelne Mitteilung für jede zeitempfindliche Benachrichtigung anzeigen. Solche zeitempfindlichen Benachrichtigungen können beispielsweise Systembenachrichtigungen (wie beispielsweise Benachrichtigungen zum Ladezustand der Batterie) oder dringende Kalendererinnerungen sein.
  • Die 23A–C zeigen Beispiele für gruppierte Mitteilungen 2302, 2304, 2306, die zu mehreren Benachrichtigungen gehören. Wie in den 23A–C dargestellt, kann die Vorrichtung 500 bei einigen Ausführungsformen bei der Anzeige einer gruppierten Mitteilung anders auf Benutzereingaben reagieren als bei der Anzeige einer Mitteilung, die zu einer einzelnen Benachrichtigung gehört. Beispielsweise, wie oben stehend hinsichtlich 8 beschrieben, kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Berührung einer Mitteilung, die zu einer einzelnen Benachrichtigung gehört (wie beispielsweise eine nach oben gerichtete Wischbewegung), den Inhalt der Benachrichtigung anzeigen. Im Gegensatz dazu kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Berührung einer Gruppenmitteilung, die zu mehreren Benachrichtigungen gehört, einen Posteingang für eine zu den mehreren Benachrichtigungen gehörende Anwendung (wenn die Benachrichtigungen alle zu einer einzelnen Anwendung gehören und die Anwendung über einen Posteingang verfügt) oder eine Mitteilungsliste anzeigen, die einzelne Mitteilungen für jede der empfangenen Benachrichtigungen enthält, die durch die gruppierte Benachrichtigung dargestellt wurden. Die 23A–C zeigen Beispiele für Bildschirme mit gruppierten Mitteilungen und Reaktionen auf Benutzereingaben.
  • In der in 23A dargestellten beispielhaften Bildschirmabfolge empfängt die Vorrichtung 500 drei Textnachrichten von derselben Quelle, Jason Jones, und zeigt eine gruppierte Mitteilung 2302 an, die zu den Textnachrichten gehört. In Reaktion auf das Erkennen einer Berührung der gruppierten Mitteilung kann die Vorrichtung 500 einen Posteingang für Textnachrichten 2308 von Jason Jones anzeigen, gemeinsam mit einer Liste der empfangenen Nachrichten. Bei der Berührung kann es sich beispielsweise um ein Tippen oder Wischen handeln. In Reaktion auf das Erkennen einer Auswahl einer der Nachrichten aus der Liste kann die Vorrichtung 500 den dazugehörigen Inhalt der Benachrichtigung anzeigen.
  • In der in 23B dargestellten beispielhaften Bildschirmabfolge empfängt die Vorrichtung 500 zwei Benachrichtigungen von zwei unterschiedlichen Quellen, Chris Black und Jason Jones. Die Benachrichtigungen gehören beide zu derselben Anwendung. Bei diesem Beispiel handelt es sich bei der Anwendung um eine Textnachrichtenanwendung. In Reaktion auf den Empfang der beiden Benachrichtigungen kann die Vorrichtung 500 eine gruppierte Mitteilung 2304 anzeigen, die die beiden Benachrichtigungen darstellt. In Reaktion auf das Erkennen einer Berührung der gruppierten Mitteilung 2304 kann die Vorrichtung 500 einen Posteingang für Textnachrichten 2310 anzeigen, in dem die beiden Nachrichten aufgeführt sind. In Reaktion auf das Erkennen einer Auswahl einer der Nachrichten aus der Liste kann die Vorrichtung 500 den dazugehörigen Inhalt der Benachrichtigung anzeigen.
  • In einem weiteren in 23C dargestellten Beispiel empfängt die Vorrichtung 500 mehrere Benachrichtigungen im Zusammenhang mit mehreren Anwendungen. Die Vorrichtung 500 kann eine gruppierte Mitteilung 2306 anzeigen, die die mehreren Benachrichtigungen darstellt. In Reaktion auf das Erkennen einer Berührung der gruppierten Mitteilung 2306 kann die Vorrichtung 500 eine Mitteilungsliste 2312 anzeigen, in der einzelne Mitteilungen für jede der empfangenen Benachrichtigungen enthalten sind, die durch die gruppierte Mitteilung dargestellt wurden. In Reaktion auf das Erkennen einer Auswahl einer der Mitteilungen kann die Vorrichtung 500 den dazugehörigen Inhalt der Benachrichtigung anzeigen.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf den Empfang mehrerer Benachrichtigungen, die das Gruppierungskriterium erfüllen, mehrere wahrnehmungsbasierte Ausgaben ausgeben. Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf den Empfang mehrerer Benachrichtigungen, die das Gruppierungskriterium erfüllen, anstelle einer wahrnehmungsbasierten Ausgabe für jede Benachrichtigung eine einzelne wahrnehmungsbasierte Ausgabe ausgeben.
  • 5. Anzeige ungelesener Benachrichtigungen
  • Wie vorstehend hinsichtlich der 6B, 7 und 15 erörtert, kann ein angezeigtes Ziffernblatt oder ein angezeigter Startbildschirm bei einigen Ausführungsformen ein Benutzerschnittstellenobjekt enthalten, das auf ungelesene Benachrichtigungen hinweist. Ungelesene Benachrichtigungen entsprechen unter Umständen Benachrichtigungen, die zwar empfangen aber noch nicht durch den Benutzer aufgerufen wurden, bzw. entsprechen unter Umständen Benachrichtigungen, die der Benutzer als „ungelesen” markiert hat. Die Vorrichtung 500 kann anhand von Folgendem festlegen, ob eine Benachrichtigung aufgerufen wurde: ob der Inhalt der Benachrichtigung ganz oder teilweise auf dem Touchscreen 504 angezeigt wurde, wie lange der Inhalt der Benachrichtigung auf dem Touchscreen 504 angezeigt wurde, ob Audioinhalte im Zusammenhang mit der Benachrichtigung wiedergegeben wurden bzw. ob der Inhalt der Benachrichtigung automatisch (z. B. in Reaktion auf ein Signal, das anzeigt, dass ein Benutzer sein/ihr Handgelenk anhebt) oder in Reaktion auf eine Berührung des Touchscreens 504 angezeigt wurde. Bei einigen Ausführungsformen kann die Vorrichtung 500, wenn eine Benachrichtigung keinen Inhalt enthält (z. B. ein Wecker), die Benachrichtigung als gelesen betrachten, wenn eine Mitteilung, die zu der Benachrichtigung gehört, angezeigt wurde.
  • Bei einigen Ausführungsformen kann die Vorrichtung 500 eine Benachrichtigung empfangen, die eine vorübergehende Mitteilung erzeugt. Eine solche Mitteilung nützt einem Benutzer nur über einen relativ kurzen Zeitraum. Wenn ein Benutzer beispielsweise trainiert und einen Trainingsmeilenstein erreicht (wie beispielsweise die Hälfte einer Trainingseinheit), kann die Vorrichtung eine solche vorübergehende Benachrichtigung empfangen, die den Benutzer über den Meilenstein in Kenntnis setzt. Wenn der Benutzer in diesem Fall sein/ihr Handgelenk innerhalb eines vorher festgelegten Zeitraums nach der Ausgabe der wahrnehmungsbasierten Ausgabe für eine vorübergehende Benachrichtigung durch die Vorrichtung 500 anhebt, kann die Vorrichtung 500 eine zu der Benachrichtigung gehörende Mitteilung anzeigen. Wenn der Benutzer sein/ihr Handgelenk jedoch später anhebt, kann die Vorrichtung 500 ein Ziffernblatt oder einen Startbildschirm anzeigen, wobei das Ziffernblatt oder der Startbildschirm unter Umständen keinen Hinweis auf eine ungelesene Benachrichtigung enthalten, die zu der Benachrichtigung gehört, da die Benachrichtigung für den Benutzer unter Umständen nicht mehr von Bedeutung ist.
  • Zurück zu 7, bietet das Benutzerschnittstellenobjekt 708 auf dem beispielhaften Startbildschirm 706 einen Hinweis auf ungelesene Benachrichtigungen, indem die Anzahl der ungelesenen Benachrichtigungen angezeigt wird. Bei anderen Beispielen kann ein Benutzerschnittstellenobjekt einen Hinweis auf ungelesene Benachrichtigungen anderweitig bereitstellen, wie beispielsweise durch die Anzeige eines farblichen Banners, bei dem die Farbe einen Hinweis auf die Anzahl der ungelesenen Benachrichtigungen gibt (z. B. deutet ein dunkles Banner auf eine höhere Anzahl ungelesener Benachrichtigungen hin). Bei einigen Ausführungsformen kann ein Benutzerschnittstellenobjekt einen Hinweis enthalten, dass ungelesene Benachrichtigungen vorhanden sind, ohne dabei einen Hinweis auf die Anzahl der ungelesenen Benachrichtigungen zu geben.
  • Wie in den 6B, 6C und 15 dargestellt, kann die Vorrichtung 500 bei einigen Ausführungsformen einen Hinweis auf (eine) ungelesene Benachrichtigung(en) geben, indem sie einen Punkt, ein Fischgrätenmuster oder eine andere Form anzeigt, wie beispielsweise Hinweis 614. Bei einigen Ausführungsformen kann die Farbe des Punktes, des Fischgrätenmusters oder der anderen Form auf das Vorliegen ungelesener Benachrichtigungen hindeuten; beispielsweise kann eine rote Form darauf hindeuten, dass ungelesene Benachrichtigungen vorliegen, während eine grüne Form darauf hindeuten kann, dass keine ungelesenen Benachrichtigungen vorliegen. Bei einigen Ausführungsformen kann die Form mit einer Frequenz blinken, aufleuchten oder hinsichtlich ihrer Größe schwanken, die einen Hinweis auf die Anzahl der ungelesenen Benachrichtigungen gibt. Beispielsweise kann eine schnellere Blinkfrequenz auf mehr ungelesene Benachrichtigungen hindeuten. Bei einigen Ausführungsformen kann die Größe der Form einen Hinweis auf die Anzahl der ungelesenen Benachrichtigungen geben. Eine kleinere Form kann beispielsweise auf eine einzelne ungelesene Benachrichtigung hindeuten (siehe auch 6B), während eine größere Form auf eine höhere Anzahl ungelesener Benachrichtigungen hindeuten kann (siehe auch 15). Ein Fachmann wird erkennen, dass diese Herangehensweisen an die Anzeige der Anzahl ungelesener Benachrichtigungen unterschiedlich miteinander kombiniert werden können.
  • Bei einigen Ausführungsformen umfasst die Anzeige einer Form einen Effekt. Beispielsweise kann die Form auf dem Touchscreen 504 eingeblendet werden oder in ihre Position rutschen (z. B. von oben einschieben). Optional ist der Effekt animiert. Bei einigen Ausführungsformen wird der Effekt in Reaktion auf eine Benutzereingabe ausgeführt (z. B. wenn ein Benutzer sein/ihr Handgelenk anhebt).
  • Bei einigen Ausführungsformen wird die Anzeige der Form entsprechend der Ausblendungskriterien ausgeblendet. Beispielsweise kann die Form ausgeblendet werden, nachdem sie über einen vorher festgelegten Zeitraum angezeigt wurde, oder in Reaktion auf eine Benutzerschnittstelle (z. B. der Benutzer senkt sein/ihr Handgelenk). Bei einigen Ausführungsformen umfasst das Ausblenden der Form einen Effekt. Beispielsweise kann die Form auf dem Touchscreen 504 ausgeblendet werden oder vom Touchscreen 504 rutschen (z. B. nach oben herausrutschen). Optional wird die Ausblendung der Form animiert.
  • Die mit dem oben stehend beschriebenen Hinweis auf eine ungelesene Benachrichtigung verbundenen Funktionen bzw. Effekte können einen Benutzer darauf hinweisen, dass eine ungelesene Benachrichtigung vorliegt. Beispielsweise kann die Animation des Aussehens oder die Veränderung der Größe des Hinweises die Aufmerksamkeit des Benutzers auf die Tatsache lenken, dass eine ungelesene Benachrichtigung vorliegt.
  • Darüber hinaus bieten einige Formen unter Umständen zusätzliche technische Effekte. Bei einigen Ausführungsformen kann ein Pfeil, ein Dreieck, ein Fischgrätenmuster (z. B. 614 in 6C) oder ein anderes grafisches Objekt mit einem Richtungssinn einem Benutzer einen visuellen Hinweis geben, dass die Vorrichtung 500 durch eine Eingabe veranlasst wird, eine Aktion im Zusammenhang mit einer ungelesenen Benachrichtigung auszuführen. Beispielsweise kann ein grafisches Objekt mit einem Richtungssinn, wie beispielsweise das Fischgrätenmuster 614 in 6C, den Benutzer darauf hinweisen, dass ein Wischen, Ziehen oder Streichen auf dem Touchscreen 504 in die Richtung, die das Objekt anzeigt (z. B. nach unten im Falle des Fischgrätenmusters 614 in 6C), die Vorrichtung 500 veranlasst, eine Aktion in Zusammenhang mit einer ungelesenen Benachrichtigung auszuführen. Bei einer Ausführungsform veranlasst ein Wischen in die Richtung, in die das gerichtete Objekt zeigt, die Vorrichtung 500, den Inhalt der ungelesenen Benachrichtigung anzuzeigen, wie beispielsweise den Inhalt der Benachrichtigung 804 auf dem Bildschirm 802 in 8. Bei einer anderen Ausführungsform veranlasst ein Wischen in die Richtung, in die das gerichtete Objekt zeigt, die Vorrichtung 500, eine Mitteilung über die Benachrichtigung anzuzeigen, wie beispielsweise Mitteilung 606 in 6A. Bei noch einer anderen Ausführungsform veranlasst ein Wischen in die Richtung, in die das gerichtete Objekt zeigt, die Vorrichtung 500, eine Liste mit einer oder mehreren Mitteilungen anzuzeigen, die unter Umständen eine Mitteilung über die ungelesene Benachrichtigung enthält, oder eine zur ungelesenen Benachrichtigung gehörende Anwendung zu starten. Beispielsweise kann die Vorrichtung 500 entsprechend der Beschreibung in der anderen schwebenden provisorischen US-Patentanmeldung Nummer 62/044,953, „Reduced-size Notification Interface”, eingereicht am 2. September 2014, mehrere Mitteilungen anzeigen oder eine Anwendung starten, die zur ungelesenen Benachrichtigung gehört, deren Inhalt hiermit durch Verweis aufgenommen wird.
  • Ein Fachmann wird erkennen, dass verschiedene Positionen und Ausrichtungen der eine ungelesene Benachrichtigung anzeigenden Form oder des eine ungelesene Benachrichtigung anzeigenden Objektes möglich sind. Beispielsweise kann ein Hinweis am unteren Ende des Touchscreens 504 einen nach oben zeigenden Pfeil, ein nach oben zeigendes Dreieck, ein nach oben zeigendes Fischgrätenmuster oder ein anderes nach oben zeigendes grafisches Objekt enthalten, der/das einen Richtungshinweis nach oben gibt, um anzuzeigen, dass eine ungelesene Benachrichtigung vorliegt und dass eine nach oben gerichtete Wischbewegung auf dem Touchscreen 504 die Vorrichtung 500 veranlassen wird, den Inhalt der ungelesenen Benachrichtigung, eine Mitteilung hinsichtlich der Benachrichtigung, eine Liste mit Mitteilungen oder eine andere Anzeige im Zusammenhang mit Benachrichtigungen bzw. Mitteilungen anzuzeigen.
  • 6. Interaktion mit einer Erinnerung an ein Ereignis
  • Bei einigen Ausführungsformen steht eine Benachrichtigung im Zusammenhang mit einem Ereignis (z. B. eine Feier, eine Besprechung, ein Spiel usw.). Der Inhalt der Benachrichtigung kann Informationen im Zusammenhang mit dem Ereignis enthalten, wie beispielsweise Datum, Uhrzeit und Ort des Ereignisses. Bei einigen Ausführungsformen wird eine Erinnerung an ein Ereignis auf der Grundlage einer geschätzten zeitlichen Dauer angezeigt, die der Benutzer benötigt, um den Ort des Ereignisses zu erreichen. Die geschätzte zeitliche Dauer kann von einem Standort des Benutzers und einem Standort im Zusammenhang mit dem Ereignis abhängen. Bei der zeitlichen Dauer kann es sich beispielsweise um die geschätzte Zeit handeln, die laut einer Kartenanwendung, einer Navigationsanwendung oder Ähnlichem benötigt wird, um die Strecke zu laufen oder mit dem Fahrrad, den öffentlichen Verkehrsmitteln oder dem Auto zurückzulegen. Bei einigen Ausführungsformen wird die Erinnerung zu einem Zeitpunkt angezeigt, der dem Zeitpunkt des Ereignisses minus der geschätzten zeitlichen Dauer entspricht, die der Benutzer benötigen wird, um den Ort des Ereignisses zu erreichen. Bei einigen Ausführungsformen wird die Erinnerung zu einem Zeitpunkt angezeigt, der dem Zeitpunkt des Ereignisses minus der geschätzten zeitlichen Dauer, die der Benutzer benötigen wird, um den Ort des Ereignisses zu erreichen, zuzüglich einer vorher festgelegten zeitlichen Dauer entspricht, die es dem Benutzer ermöglicht, die Abfahrt zum Ereignis vorzubereiten, um rechtzeitig anzukommen.
  • Bei einigen Ausführungsformen umfasst die Mitteilung oder Erinnerung an ein Ereignis eine Aufforderung. In Reaktion auf das Erkennen einer Auswahl der Aufforderung kann die Vorrichtung 500 eine Nachrichtenanwendung aktivieren, die eine Nachricht an eine Person erstellt, die zu dem Ereignis gehört (z. B. der Organisator eines Ereignisses oder die Person, die den Benutzer zu dem Ereignis eingeladen hat). Dadurch ist der Benutzer in der Lage, der zu dem Ereignis gehörenden Person einfach seinen/ihren aktuellen Status mitzuteilen (z. B. „Ich bin noch nicht unterwegs. Ich komme in 10 Minuten.”). Bei einigen Ausführungsformen kann die Vorrichtung 500, in Reaktion auf das Erkennen einer Auswahl der Aufforderung im Zusammenhang mit einer Mitteilung oder einer Erinnerung an ein Ereignis, eine Kartenanwendung, eine Navigationsanwendung oder Ähnliches aktivieren, aus der die Wegbeschreibung zu einem Ereignis ersichtlich ist. Die Wegbeschreibung kann eine Wegbeschreibung vom aktuellen Standort des Benutzers zu einem Ort in Verbindung mit dem Ereignis umfassen.
  • 7. Ablauf zum Umgang mit Mitteilungen und Benachrichtigungen
  • 25 ist ein Flussdiagramm, das den Ablauf 2500 zum Umgang mit Mitteilungen und Benachrichtigungen veranschaulicht. Der Ablauf 2500 kann an einer elektronischen Vorrichtung mit einer berührungsempfindlichen Anzeige ausgeführt werden, wie beispielsweise Vorrichtung 500 (5A). Bei Block 2502 empfängt die Vorrichtung eine Benachrichtigung, die Informationen enthält. Bei Block 2504 gibt die Vorrichtung, in Reaktion auf den Empfang der Benachrichtigung, eine wahrnehmungsbasierte Ausgabe aus (z. B. unter Zuhilfenahme des Mechanismus für haptische Rückmeldungen 542). Bei Block 2506 erkennt die Vorrichtung eine Benutzereingabe. Bei Block 2508 bestimmt die Vorrichtung, in Reaktion auf das Erkennen der Benutzereingabe, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde. Entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums empfangen wurde, zeigt die Vorrichtung bei Block 2510 eine Mitteilung an, die einen ersten Teil der Informationen enthält (z. B. auf). Die Vorrichtung kann bestimmen, ob die Benutzereingabe nach einem zweiten vorher festgelegten Zeitraum nach der Anzeige der Mitteilung weiterhin erkannt wird. Entsprechend einer Feststellung, dass die Benutzereingabe weiterhin erkannt wird, zeigt die Vorrichtung einen zweiten Teil der Informationen an, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Es ist zu beachten, dass Einzelheiten zu den oben stehend hinsichtlich Ablauf 2500 (z. B. 25 und 6A8) beschriebenen Abläufen auch analog auf andere in diesem Dokument beschriebene Abläufe anwendbar sind. Beispielsweise können die Abläufe 2600 und 2700 eine oder mehrere der Eigenschaften der oben stehend unter Bezugnahme auf den Ablauf 2500 beschriebenen unterschiedlichen Eigenschaften aufweisen. Der Kürze halber werden diese Einzelheiten in den Beschreibungen der anderen Abläufe nicht wiederholt. Die verschiedenen oben stehend unter Bezugnahme auf Verfahren 2500 beschriebenen Verfahren und Techniken können als eine oder mehrere Hardware-Einheiten umgesetzt werden, siehe beispielsweise die Beschreibung in 5B.
  • 26 ist ein Flussdiagramm, das den Ablauf 2600 zum Umgang mit Mitteilungen und Benachrichtigungen veranschaulicht. Der Ablauf 2600 kann an einer elektronischen Vorrichtung mit einer berührungsempfindlichen Anzeige ausgeführt werden, wie beispielsweise Vorrichtung 500 (5A). Bei Block 2602 empfängt die Vorrichtung eine Vielzahl von Benachrichtigungen. Bei Block 2604 bestimmt die Vorrichtung 500, in Reaktion auf den Empfang der Benachrichtigungen, ob die Vielzahl von Benachrichtigungen ein Gruppierungskriterium erfüllen. Bei Block 2606 erkennt die Vorrichtung eine Benutzereingabe. Bei Block 2608 zeigt die Vorrichtung, entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen und in Reaktion auf das Erkennen der Benutzereingabe, eine gruppierte Mitteilung an, die die Vielzahl von Benachrichtigungen darstellt. Entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium nicht erfüllen und in Reaktion auf das Erkennen der Benutzereingabe, zeigt die Vorrichtung bei Block 2610 eine Vielzahl von Mitteilungen an, die die Vielzahl von Benachrichtigungen darstellen. Optional basiert das Gruppierungskriterium darauf, ob die Vielzahl von Benachrichtigungen von derselben Quelle empfangen werden, ob die Vielzahl der Benachrichtigungen einen numerischen Grenzwert für Benachrichtigungen überschreiten, ob die Vielzahl der Benachrichtigungen zur selben Anwendung gehören bzw. ob die Vielzahl der Benachrichtigungen innerhalb eines vorher festgelegten Zeitraums empfangen werden.
  • Es ist zu beachten, dass Einzelheiten zu den oben stehend hinsichtlich Ablauf 2600 (z. B. 26 und 23) beschriebenen Abläufen auch analog auf andere in diesem Dokument beschriebene Abläufe anwendbar sind. Beispielsweise können die Abläufe 2500 und 2700 eine oder mehrere der Eigenschaften der oben stehend unter Bezugnahme auf den Ablauf 2600 beschriebenen unterschiedlichen Eigenschaften aufweisen. Der Kürze halber werden diese Einzelheiten in den Beschreibungen der anderen Abläufe nicht wiederholt. Die verschiedenen oben stehend unter Bezugnahme auf das Verfahren 2600 beschriebenen Verfahren und Techniken können als eine oder mehrere Hardware-Einheiten umgesetzt werden, siehe beispielsweise die Beschreibung in 5B.
  • 27 ist ein Flussdiagramm, das den Ablauf 2700 zum Umgang mit Mitteilungen und Benachrichtigungen veranschaulicht. Der Ablauf 2700 kann an einer elektronischen Vorrichtung mit einer berührungsempfindlichen Anzeige ausgeführt werden, wie beispielsweise Vorrichtung 500 (5A). Bei Block 2702 empfängt die Vorrichtung eine Benachrichtigung, die Informationen enthält, während sie Inhalte anzeigt. Bei Block 2704 zeigt die Vorrichtung 500, in Reaktion auf den Empfang der Benachrichtigung, ein Mitteilungsbanner quer über die Anzeige an. Das Banner enthält einen Teil der Informationen. Mindestens ein Teil des Inhaltes bleibt auf der Anzeige angezeigt. Bei Block 2706 erkennt die Vorrichtung eine Berührung des Banners. In Reaktion auf das Erkennen der Berührung zeigt die Vorrichtung bei Block 2708 einen zweiten Teil der Informationen an. Der zweite Teil unterscheidet sich vom ersten Teil.
  • Es ist zu beachten, dass Einzelheiten zu den oben stehend hinsichtlich Ablauf 2700 (z. B. 27 und 24) beschriebenen Abläufen auch analog auf andere in diesem Dokument beschriebene Abläufe anwendbar sind. Beispielsweise können die Abläufe 2500 und 2600 eine oder mehrere der Eigenschaften der oben stehend unter Bezugnahme auf den Ablauf 2700 beschriebenen unterschiedlichen Eigenschaften aufweisen. Der Kürze halber werden diese Einzelheiten in den Beschreibungen der anderen Abläufe nicht wiederholt. Die verschiedenen oben stehend unter Bezugnahme auf das Verfahren 2700 beschriebenen Verfahren und Techniken können als eine oder mehrere Hardware-Einheiten umgesetzt werden, siehe beispielsweise die Beschreibung in 5B.
  • Die Einheiten in 28 können verwendet werden, um die unterschiedlichen Techniken und Verfahren umzusetzen, die oben stehend hinsichtlich der 2527 beschrieben wurden.
  • Wie in 28 gezeigt, umfasst eine elektronische Vorrichtung 2800 eine Anzeigeeinheit 2802, die zur Anzeige einer Benutzerschnittstelle konfiguriert ist, und optional: eine berührungsempfindliche Oberflächeneinheit 2804, die zum Empfang von Berührungen durch den Benutzer konfiguriert ist; eine oder mehrere Sensoreinheiten 2806, die zum Erkennen der Intensität von Berührungen der berührungsempfindlichen Oberflächeneinheit konfiguriert sind; und eine mit der Anzeigeeinheit 2802, der berührungsempfindlichen Oberflächeneinheit 2804 und den Sensoreinheiten 2806 gekoppelte Recheneinheit 2808. Bei einigen Ausführungsformen umfasst die Recheneinheit 2808 eine Anzeigeaktivierungseinheit 2810, eine Empfangseinheit 2812 und eine Feststellungseinheit 2814.
  • Bei einigen Ausführungsformen ist die Anzeigeaktivierungseinheit 2810 so konfiguriert, dass sie eine Anzeige einer Mitteilung, von Benachrichtigungsinformationen oder einer anderen Benutzerschnittstelle (oder Teilen einer Benutzerschnittstelle) in Verbindung mit der Anzeigeeinheit 2802 veranlasst. Beispielsweise kann die Anzeigeaktivierungseinheit 2810 eingesetzt werden: zur Anzeige einer Mitteilung, zum Ersatz einer ersten Mitteilung durch eine zweite Mitteilung auf der Anzeige, zur Anzeige einer Benutzerschnittstelle zur Auswahl einer Nachrichtenverarbeitungsfunktion aus einer Vielzahl von Nachrichtenverarbeitungsfunktionen.
  • Bei einigen Ausführungsformen ist die Empfangseinheit 2812 zum Empfang von Benachrichtigungen, Daten oder Informationen konfiguriert. Beispielsweise kann die Empfangseinheit 2812 verwendet werden, um eine Benachrichtigung zu empfangen, die Informationen enthält.
  • Bei einigen Ausführungsformen ist die Feststellungseinheit 2814 zur Durchführung von Feststellungen konfiguriert. Beispielsweise kann die Feststellungseinheit 2814 eingesetzt werden: zur Feststellung, ob ein Signal innerhalb eines vorher festgelegten Zeitraums nach einer wahrnehmungsbasierten Ausgabe empfangen wurde und ob die charakteristische Intensität der zweiten Berührung eine Intensitätsgrenze überschreitet.
  • 29 zeigt ein Funktionsblockdiagramm einer elektronischen Vorrichtung 2900, die entsprechend der Grundsätze der unterschiedlichen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung können durch Hardware, Software oder eine Kombination aus Hardware und Software umgesetzt werden, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Ein Fachmann wird verstehen, dass die in 29 beschriebenen Funktionsblöcke kombiniert oder in Teilblöcke aufgeteilt werden können, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Deshalb kann die Beschreibung in diesem Dokument jede mögliche Kombination oder Aufteilung oder weitere Definition der hierin beschriebenen Funktionsblöcke unterstützen.
  • Wie in 29 gezeigt, umfasst eine elektronische Vorrichtung 2900 eine Anzeigeeinheit 2902, die zur Anzeige einer grafischen Benutzerschnittstelle konfiguriert ist; ein haptische Mechanismuseinheit 2904, die zur Ausgabe von haptischen Rückmeldungen konfiguriert ist; und eine mit der Anzeigeeinheit 2902 und der haptischen Mechanismuseinheit 2904 gekoppelte Recheneinheit 2908. Bei einigen Ausführungsformen kann die elektronische Vorrichtung eine berührungsempfindliche Oberflächeneinheit 2926 umfassen, die zum Empfang von Berührungseingaben konfiguriert und mit der Anzeigeeinheit 2902 und der Recheneinheit 2908 gekoppelt ist. Bei einigen Ausführungsformen kann die elektronische Vorrichtung 2900 eine drehbare und druckbare Eingabeeinheit 2906, eine Mikrofoneinheit 2926 und eine Tasteneinheit 2928 umfassen. Bei einigen Ausführungsformen kann die Recheneinheit 2908 eine Empfangseinheit 2910, eine Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 2912, eine Erkennungseinheit 2914, eine Feststellungseinheit 2916, eine Anzeigeaktivierungseinheit 2918, eine Starteinheit 2920, eine Sendeaktivierungseinheit 2922 und eine Audioaktivierungseinheit 2924 umfassen.
  • Die Recheneinheit 2908 ist konfiguriert zum Empfang (z. B. mit der Empfangseinheit 2910) einer Benachrichtigung, die Informationen enthält, und, in Reaktion auf den Empfang der Benachrichtigung, zur Aktivierung (z. B. mit der Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 2912) einer wahrnehmungsbasierten Ausgabe. Die Recheneinheit 2908 ist weiterhin konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Benutzereingabe, zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde, und, entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Mitteilung auf der Anzeigeeinheit 2902, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  • Bei einigen Ausführungsformen muss zur Aktivierung der wahrnehmungsbasierten Ausgabe die haptische Mechanismuseinheit 2904 veranlasst werden, eine haptische Rückmeldung auszugeben.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, entsprechend einer Feststellung, dass die Benutzereingabe nach dem vorher festgelegten Zeitraum nach der wahrnehmungsbasierten Ausgabe erkannt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines Ziffernblattes, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, entsprechend einer Feststellung, dass die Benutzereingabe nach dem vorher festgelegten Zeitraum nach der wahrnehmungsbasierten Ausgabe erkannt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines Startbildschirmes auf der Anzeigeeinheit 2902, wobei der Startbildschirm eine Vielzahl von Benutzerschnittstellenobjekten enthält, die für eine Vielzahl von Anwendungen stehen, wobei die Benutzerschnittstellenobjekte bei Aktivierung die entsprechende Anwendung starten und wobei der Startbildschirm einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen umfasst die Aktivierung der Anzeige der Mitteilung die Aktivierung der Anzeigeeinheit 2902 aus einem inaktiven Zustand. Bei einigen Ausführungsformen umfasst die Anzeige der Mitteilung den Ersatz der Anzeige eines Startbildschirmes durch die Anzeige der Mitteilung. Bei einigen Ausführungsformen umfasst die Aktivierung der Anzeige der Mitteilung die Aktivierung der Anzeige einer Animation, die die Mitteilung auf der Anzeige in eine erste Richtung verschiebt.
  • Bei einigen Ausführungsformen umfasst die Mitteilung eine Anwendungsaufforderung zum Start einer zur Benachrichtigung gehörenden Anwendung, und ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Auswahl der Anwendungsaufforderung und, in Reaktion auf das Erkennen der Auswahl, zum Starten (z. B. mit der Starteinheit 2920) der zur Benachrichtigung gehörenden Anwendung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, in Reaktion auf den Empfang der Benachrichtigung, zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob ein Beschäftigungsgrad des Benutzers ein Beschäftigungskriterium erfüllt, wobei die Ausgabe der wahrnehmungsbasierten Ausgabe verzögert wird, bis der Beschäftigungsgrad des Benutzers das Beschäftigungskriterium erfüllt.
  • Bei einigen Ausführungsformen ist die elektronische Vorrichtung konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Intensität von Berührungen auf der berührungsempfindlichen Anzeige (z. B. auf der berührungsempfindlichen Oberflächeneinheit 2926), und ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Berührung auf der berührungsempfindlichen Anzeige, während die Mitteilung auf der Anzeigeeinheit 2902 angezeigt wird, und zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die charakteristische Intensität der Berührung eine Intensitätsgrenze überschreitet. Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, entsprechend einer Feststellung, dass die charakteristische Intensität der Berührung die Intensitätsgrenze überschreitet, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Option zur Unterdrückung einer oder mehrerer nachfolgender Benachrichtigungen, die ein Stummschaltkriterium erfüllen. Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, entsprechend einer Feststellung, dass die charakteristische Intensität der Berührung die Intensitätsgrenze nicht überschreitet, und entsprechend einer Feststellung, dass die Berührung an einer Stelle der berührungsempfindlichen Anzeige erfolgt, die der Anwendungsaufforderung entspricht, zum Start (z. B. mit der Starteinheit 2920) der zur Benachrichtigung gehörenden Anwendung. Bei einigen Ausführungsformen basiert das Stummschaltkriterium auf der Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer zweiten Berührung auf der berührungsempfindlichen Anzeige, während die Mitteilung angezeigt wird, zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die zweite Berührung ein Ausblendungskriterium erfüllt, und, entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium erfüllt, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Entfernung der Mitteilung von der Anzeige. Bei einigen Ausführungsformen erfüllt die zweite Berührung das Ausblendungskriterium, wenn die zweite Berührung eine Wischbewegung umfasst. Bei einigen Ausführungsformen erfüllt die zweite Berührung das Ausblendungskriterium, wenn die zweite Berührung eine Bewegung der zweiten Berührung umfasst, bei der eine Grenzlänge überschritten wird.
  • Bei einigen Ausführungsformen umfasst die Aktivierung der Anzeige der Mitteilung die Aktivierung der Anzeige einer Animation, die die Mitteilung auf der Anzeige in einer ersten Richtung verschiebt, und erfüllt die zweite Berührung das Ausblendungskriterium, wenn die zweite Berührung eine Bewegung der Berührung in eine zweite Richtung entgegengesetzt zur ersten Richtung umfasst.
  • Bei einigen Ausführungsformen umfasst die zweite Berührung eine Bewegung der zweiten Berührung und eine Unterbrechung der zweiten Berührung, und ist die Recheneinheit 2908 ferner konfiguriert, in Reaktion auf das Erkennen der Bewegung der zweiten Berührung: zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Verschiebung der Mitteilung auf der Anzeige entsprechend der Bewegung der zweiten Berührung, und zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Ausblendungsanzeige neben der Mitteilung. Die Recheneinheit 2908 kann ferner konfiguriert sein, entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium erfüllt, und in Reaktion auf das Erkennen der Unterbrechung der zweiten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Entfernung der Ausblendungsanzeige und der Mitteilung von der Anzeige. Die Recheneinheit 2908 kann ferner konfiguriert sein, entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium nicht erfüllt, und in Reaktion auf das Erkennen der Unterbrechung der zweiten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Animation, die die Mitteilung auf ihre ursprüngliche Position auf der Anzeige verschiebt, und zur Aktivierung der Entfernung der Ausblendungsanzeige von der Anzeige.
  • Bei einigen Ausführungsformen umfasst die Entfernung der Mitteilung die Anzeige einer Animation, die die Mitteilung in der zweiten Richtung von der Anzeige schiebt. Bei einigen Ausführungsformen umfasst die Entfernung der Mitteilung von der Anzeige eine Deaktivierung der Anzeige. Bei einigen Ausführungsformen umfasst die Entfernung der Mitteilung von der Anzeige den Ersatz der Anzeige der Mitteilung durch die Anzeige eines Startbildschirmes, wobei der Startbildschirm einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist. Bei einigen Ausführungsformen umfasst die Entfernung der Mitteilung von der Anzeige den Ersatz der Anzeige der Mitteilung durch die Anzeige eines Ziffernblattes, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert: zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob eine zweite Benutzereingabe innerhalb eines zweiten vorher festgelegten Zeitraums nach der Anzeige der Mitteilung erkannt wurde; entsprechend einer Feststellung, dass die zweite Benutzereingabe innerhalb des zweiten vorher festgelegten Zeitraums erkannt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Entfernung der Mitteilung von der Anzeige; und entsprechend einer Feststellung, dass die zweite Benutzereingabe nicht innerhalb des zweiten vorher festgelegten Zeitraums erkannt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert: zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die Benutzereingabe nach einem zweiten vorher festgelegten Zeitraum nach der Anzeige der Mitteilung weiterhin erkannt wird; entsprechend einer Feststellung, dass die Benutzereingabe nach einem zweiten vorher festgelegten Zeitraum weiterhin erkannt wird, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines zweiten Teiles der Informationen auf der Anzeigeeinheit, wobei der zweite Teil und der erste Teil unterschiedlich sind; und entsprechend einer Feststellung, dass die Benutzereingabe nach dem zweiten vorher festgelegten Zeitraum nicht weiterhin erkannt wird, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Entfernung der Mitteilung von der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert: zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer dritten Berührung auf der berührungsempfindlichen Anzeige (z. B. auf der berührungsempfindlichen Oberflächeneinheit 2926), während die Mitteilung angezeigt wird, und, in Reaktion auf das Erkennen der dritten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines zweiten Teiles der Informationen auf der Anzeigeeinheit 2902, wobei der zweite Teil und der erste Teil unterschiedlich sind. Bei einigen Ausführungsformen wird der zweite Teil neben der Mitteilung angezeigt. Bei einigen Ausführungsformen handelt es sich bei der dritten Berührung um eine Wischbewegung in die erste Richtung und umfasst die Aktivierung der Anzeige des zweiten Teiles der Informationen die Verschiebung des zweiten Teiles der Informationen auf dem Bildschirm in die erste Richtung.
  • Bei einigen Ausführungsformen umfasst die Aktivierung des zweiten Teiles der Informationen ferner das Abrufen (z. B. mit der Empfangseinheit 2910) von Konfigurationsdaten, aus denen hervorgeht, ob der zweite Teil der Informationen angezeigt werden soll, und die Aktivierung der Anzeige des zweiten Teiles der Informationen in Reaktion auf eine Feststellung, dass die Konfigurationsdaten darauf hindeuten, dass der zweite Teil der Informationen angezeigt werden soll.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Auswahl der Anwendungsaufforderung, während die Mitteilung angezeigt wird, und zum Starten (z. B. mit der Starteinheit 2920) einer zur Benachrichtigung gehörenden Anwendung in Reaktion auf das Erkennen der vierten Berührung.
  • Bei einigen Ausführungsformen handelt es sich bei der Benachrichtigung um eine elektronische Nachricht und ist die Recheneinheit ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer vierten Berührung auf der berührungsempfindlichen Anzeige, während der zweite Teil der Informationen angezeigt wird, und, in Reaktion auf das Erkennen der vierten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige von mindestens einem Teil einer Nachrichtenkonversation, einschließlich elektronischer Nachrichten, die an eine und von einer Quelle der elektronischen Nachricht geschickt und empfangen wurden, auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen umfasst die Benachrichtigung Audioinhalt, umfasst die Wiedergabe des zweiten Teiles der Informationen die Anzeige einer Option zur Wiedergabe des Audioinhaltes, und ist die Recheneinheit 2908 ferner konfiguriert: zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Auswahl der Option zur Wiedergabe des Audioinhaltes in Reaktion auf das Erkennen der Auswahl. Bei einigen Ausführungsformen handelt es sich bei dem Audioinhalt um einen ersten Audioinhalt und ist die Recheneinheit 2908 ferner konfiguriert zum Empfang (z. B. mit der Empfangseinheit 2910) einer zweiten Benachrichtigung, die einen zweiten Audioinhalt enthält, nach dem Erkennen der Auswahl der Option zur Wiedergabe des ersten Audioinhaltes, und zur Aktivierung (z. B. mit der Audioaktivierungseinheit 2924) der Wiedergabe des zweiten Audioinhaltes in Reaktion auf den Empfang der zweiten Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer dritten Benutzereingabe, während der zweite Teil der Informationen angezeigt wird, und, in Reaktion auf das Erkennen der dritten Benutzereingabe, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) des Durchblätterns des zweiten Teiles der Informationen entsprechend einer dritten Benutzereingabe. Bei einigen Ausführungsformen handelt es sich bei der dritten Benutzereingabe um eine Wischbewegung auf der berührungsempfindlichen Oberfläche (z. B. auf der berührungsempfindlichen Oberflächeneinheit 2926). Bei einigen Ausführungsformen handelt es sich bei der dritten Benutzereingabe um eine Drehbewegung der drehbaren und druckbaren Eingabeeinheit 2906.
  • Bei einigen Ausführungsformen steht die dritte Benutzereingabe in Verbindung mit einer Abwärtsrichtung und ist die Recheneinheit 2908 ferner konfiguriert zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob ein Beginn der Informationen auf der Anzeigeeinheit 2902 angezeigt wird, und, entsprechend einer Feststellung, dass der Beginn der Informationen angezeigt wird, und in Reaktion auf das Erkennen der dritten Benutzereingabe, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Entfernung des zweiten Teiles der Informationen von der Anzeigeeinheit.
  • Bei einigen Ausführungsformen steht die dritte Benutzereingabe in Verbindung mit einer Aufwärtsrichtung und ist die Recheneinheit 2908 ferner konfiguriert zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob ein Ende der Informationen angezeigt wird, und, entsprechend einer Feststellung, dass das Ende der Informationen auf der Anzeigeeinheit 2902 angezeigt wird, und in Reaktion auf das Erkennen der dritten Benutzereingabe, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer ersten Vielzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit. Die Benutzerschnittstellenobjekte können zu Aktionen gehören, die einer zur Benachrichtigung gehörenden Anwendung entsprechen. Bei einigen Ausführungsformen werden die erste Vielzahl von Benutzerschnittstellenobjekten nach oben auf die Anzeige unter das Ende der Informationen geblättert, wenn die Informationen auf der Anzeigeeinheit nach oben geblättert werden.
  • Bei einigen Ausführungsformen umfasst die Aktivierung der Entfernung des zweiten Teiles der Informationen von der Anzeigeeinheit die Aktivierung des Ersatzes der Anzeige des zweiten Teiles der Mitteilung auf der Anzeigeeinheit durch die Anzeige eines Startbildschirmes auf der Anzeigeeinheit, der einen Hinweis auf die Uhrzeit gibt, wobei der angezeigte Startbildschirm keinen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist. Bei einigen Ausführungsformen umfasst die Aktivierung der Entfernung des zweiten Teiles der Informationen die Verschiebung des zweiten Teiles der Informationen von der Anzeigeeinheit in die zweite Richtung.
  • Bei einigen Ausführungsformen ist die elektronische Vorrichtung konfiguriert zum Erkennen einer Intensität von Berührungen auf der berührungsempfindlichen Anzeige (z. B. auf der berührungsempfindlichen Oberflächeneinheit 2926), und ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer fünften Berührung auf der berührungsempfindlichen Anzeige, und zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die charakteristische Intensität der fünften Berührung eine Intensitätsgrenze überschreitet. Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert: entsprechend einer Feststellung, dass die charakteristische Intensität der fünften Berührung die Intensitätsgrenze überschreitet, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer ersten Vielzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit 2902, wobei die Benutzerschnittstellenobjekte zu Aktionen gehören, die einer zur Benachrichtigung gehörenden Anwendung entsprechen, entsprechend einer Feststellung, dass die charakteristische Intensität der fünften Berührung die Intensitätsgrenze nicht überschreitet, zum Start (z. B. mit der Starteinheit 2920) einer zur Benachrichtigung gehörenden Anwendung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Auswahl eines ersten Benutzerschnittstellenobjektes aus der ersten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes, zur Aktivierung (z. B. mit der Sendeaktivierungseinheit 2922) der Übertragung von Daten an eine externe elektronische Vorrichtung, um die externe elektronische Vorrichtung zum Start (z. B. mit der Starteinheit 2920) der zur Benachrichtigung gehörenden Anwendung zu veranlassen.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob die Benutzereingabe innerhalb eines dritten vorher festgelegten Zeitraums empfangen wurde, während der zweite Teil der Informationen angezeigt wird, und entsprechend einer Feststellung, dass innerhalb des dritten vorher festgelegten Zeitraumes keine Benutzereingabe empfangen wurde, zur Deaktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeigeeinheit 2902.
  • Bei einigen Ausführungsformen wird die Mitteilung auf der Anzeigeeinheit 2902 neben dem zweiten Teil der Informationen angezeigt, umfasst die Mitteilung eine Anwendungsaufforderung, und ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl der Anwendungsaufforderung, während der zweite Teil der Informationen angezeigt wird, und, in Reaktion auf das Erkennen der Auswahl der Anwendungsaufforderung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer zweiten Vielzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines ersten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer dritten Vielzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen einer Eingabe über die Tasteneinheit 2928 und, in Reaktion auf das Erkennen der Eingabe über die Tasteneinheit 2928, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer dritten Vielzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines ersten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Benutzerschnittstelle zur Auswahl einer vorher festgelegten Antwortnachricht auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl einer ersten vorher festgelegten Antwortnachricht und, in Reaktion auf das Erkennen der Auswahl der ersten vorher festgelegten Antwortnachricht, zur Aktivierung (z. B. mit der Sendeaktivierungseinheit 2922) der Übertragung der ersten vorher festgelegten Antwortnachricht an eine Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen umfasst die Übertragung der ersten vorher festgelegten Antwortnachricht an die Quelle der Benachrichtigung die Anzeige einer Bestätigungsaufforderung, das Erkennen einer Auswahl der Bestätigungsaufforderung, und, in Reaktion auf das Erkennen der Auswahl der Bestätigungsaufforderung, die Aktivierung der Übertragung der ersten vorher festgelegten Antwortnachricht an die Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert, nach der Aktivierung der Übertragung der ersten vorher festgelegten Antwortnachricht an die Quelle, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige eines Nachricht-gesendet-Bestätigungsbildschirms auf der Anzeigeeinheit und zur Aktivierung des Ersatzes der Anzeige des Nachricht-gesendet-Bestätigungsbildschirms durch die Anzeige des Startbildschirms, wobei der Startbildschirm auf der Anzeigeeinheit ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines zweiten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Benutzerschnittstelle zur Auswahl eines Emoji-Symbols auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines ersten Emoji-Symbols und, in Reaktion auf das Erkennen der Auswahl des ersten Emoji-Symbols, zur Aktivierung (z. B. mit der Sendeaktivierungseinheit 2922) der Übertragung des ersten Emoji-Symbols an die Quelle der Benachrichtigung. Bei einigen Ausführungsformen umfasst die Aktivierung der Übertragung des Emoji-Symbols an die Quelle der Benachrichtigung die Aktivierung der Anzeige einer Bestätigungsaufforderung auf der Anzeigeeinheit 2902, das Erkennen einer Auswahl der Bestätigungsaufforderung, und, in Reaktion auf das Erkennen der Auswahl der Bestätigungsaufforderung, die Aktivierung der Übertragung des Emoji-Symbols an die Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob der zweite Teil der Informationen auf der Anzeigeeinheit 2902 angezeigt wurde; entsprechend einer Feststellung, dass der zweite Teil der Informationen angezeigt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Startbildschirms auf der Anzeigeeinheit, wobei der Startbildschirm ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist; und entsprechend einer Feststellung, dass der zweite Teil der Informationen nicht angezeigt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Startbildschirms, wobei der Startbildschirm einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: zur Feststellung (z. B. mit der Feststellungseinheit 2916), ob der zweite Teil der Informationen auf der Anzeigeeinheit 2902 angezeigt wurde; entsprechend einer Feststellung, dass der zweite Teil der Informationen angezeigt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Ziffernblattes, wobei das Ziffernblatt ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist; und entsprechend einer Feststellung, dass der zweite Teil der Informationen nicht angezeigt wurde, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Ziffernblattes, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Empfangseinheit 2914) einer Auswahl eines dritten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des dritten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer virtuellen Tastatur auf der Anzeige.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Auswahl eines vierten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten und, in Reaktion auf das Erkennen der Auswahl des vierten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: zur Aktivierung (z. B. mit der Audioaktivierungseinheit 2924) der Aufnahme einer Audioeingabe über die Mikrofoneinheit und zur Aktivierung (z. B. mit der Sendeaktivierungseinheit 2922) der Übertragung von Daten, die der aufgezeichneten Audioeingabe entsprechen, an die Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen umfasst die Aktivierung der Übertragung von Daten, die der aufgezeichneten Audioeingabe entsprechen, die Aktivierung der Anzeige (z. B. unter Zuhilfenahme der Anzeigeaktivierungseinheit 2918) eines Hinweises auf die aufgezeichnete Audioeingabe und einer Sendeaufforderung auf der Anzeigeeinheit, das Erkennen einer Auswahl der Sendeaufforderung, und in Reaktion auf das Erkennen der Auswahl der Sendeaufforderung, die Aktivierung der Übertragung der Daten, die der aufgezeichneten Audioeingabe entsprechen, an die Quelle der Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Betätigung der drehbaren und druckbaren Eingabeeinheit 2906 nach dem Start der Anwendung und zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Startbildschirmes auf der Anzeigeeinheit, in Reaktion auf das Erkennen der Betätigung.
  • Bei einigen Ausführungsformen handelt es sich bei der drehbaren und drückbaren Eingabeeinheit 2906 um eine drehbare mechanische Taste und die Betätigung steht für ein Drücken der mechanischen Taste. Bei einigen Ausführungsformen handelt es sich bei der drehbaren und druckbaren Eingabeeinheit 2906 um eine drehbare kapazitive Taste und die Betätigung steht für eine Berührung der kapazitiven Taste.
  • Bei einigen Ausführungsformen handelt es sich bei der Mitteilung um eine erste Mitteilung und ist die Recheneinheit 2908 ferner konfiguriert zum Empfang (z. B. mit der Empfangseinheit 2910) einer zweiten Benachrichtigung, die zweite Informationen enthält, während die erste Mitteilung auf der Anzeigeeinheit 2902 angezeigt wird, und, in Reaktion auf den Empfang der zweiten Benachrichtigung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) des Ersatzes der Anzeige der ersten Mitteilung durch die Anzeige einer zweiten Mitteilung auf der Anzeigeeinheit, wobei die zweite Mitteilung einen ersten Teil der zweiten Informationen enthält.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zur Aktivierung (z. B. mit der Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 2912) einer zweiten wahrnehmungsbasierten Ausgabe in Reaktion auf den Empfang der zweiten Benachrichtigung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Anfrage hinsichtlich der Ausblendung der zweiten Mitteilung und, in Reaktion auf das Erkennen der Anfrage, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Ausblendung der zweiten Mitteilung und zur Aktivierung der erneuten Anzeige der ersten Mitteilung auf der Anzeigeeinheit 2902.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Anfrage hinsichtlich der Ausblendung der zweiten Mitteilung und, in Reaktion auf das Erkennen der Anfrage, zur Aktivierung der Ausblendung der zweiten Mitteilung und zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Startbildschirms auf der Anzeigeeinheit, wobei der Startbildschirm einen Hinweis darauf enthält, dass die erste Benachrichtigung und die zweite Benachrichtigung ungelesen sind.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer Anfrage hinsichtlich der Ausblendung der zweiten Mitteilung und, in Reaktion auf das Erkennen der Anfrage, zur Aktivierung der Ausblendung der zweiten Mitteilung und zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige des Ziffernblattes auf der Anzeigeeinheit 2902, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die erste Benachrichtigung und die zweite Benachrichtigung ungelesen sind.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Empfang (z. B. mit der Empfangseinheit 2910) einer zweiten Benachrichtigung, die zweite Informationen enthält, während der zweite Teil der Informationen angezeigt wird, und, in Reaktion auf den Empfang der zweiten Benachrichtigung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) des Ersatzes der Anzeige des zweiten Teiles der Informationen durch die Anzeige einer zweiten Mitteilung auf der Anzeigeeinheit 2902, wobei die zweite Mitteilung einen ersten Teil der zweiten Informationen enthält.
  • Bei einigen Ausführungsformen handelt es sich bei der Benachrichtigung um eine erste Benachrichtigung, die von einer Quelle empfangen wurde, und ist die Recheneinheit 2908 ferner konfiguriert zum Empfang (z. B. mit der Empfangseinheit 2910) einer zweiten Benachrichtigung von der Quelle, während der zweite Teil der Informationen angezeigt wird, und, in Reaktion auf den Empfang der zweiten Benachrichtigung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer gruppierten Mitteilung, die die erste Benachrichtigung und die zweite Benachrichtigung darstellt. Bei einigen Ausführungsformen gehören die erste Benachrichtigung und die zweite Benachrichtigung zur selben Anwendung.
  • Bei einigen Ausführungsformen ist die Recheneinheit 2908 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 2914) einer sechsten Berührung der gruppierten Mitteilung und, in Reaktion auf das Erkennen der sechsten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) der Anzeige einer Liste mit Benachrichtigungen auf der Anzeigeeinheit, die von der Quelle empfangen wurden, wobei die Liste der Benachrichtigungen zur selben Anwendung gehört.
  • Bei einigen Ausführungsformen handelt es sich bei der Benachrichtigung um eine Trainingsbenachrichtigung und ist die Recheneinheit 2908 ferner konfiguriert, nach einem zweiten vorher festgelegten Zeitraum, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) des Ersatzes der Anzeige der Mitteilung auf der Anzeigeeinheit 2902 durch die Anzeige eines Benutzerschnittstellenobjektes, das für das Erreichen eines Trainingsziels steht, und, nach einem dritten vorher festgelegten Zeitraum, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 2918) des Ersatzes der Anzeige des Benutzerschnittstellenobjektes auf der Anzeigeeinheit durch die Anzeige eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Die unter Bezugnahme auf 25 oben stehend beschriebenen Abläufe können von in den 1A1B oder in 29 dargestellten Komponenten umgesetzt werden. Beispielsweise können die Abläufe Empfang 2502, Ausgabe 2504, Erkennung 2506, Feststellung 2508 und Anzeige 2510 vom Ereignissortierer 170, Ereigniserkenner 180 und Ereignissteuerungsprogramm 190 umgesetzt werden. Der Ereignismonitor 171 im Ereignissortierer 170 erkennt eine Berührung der berührungsempfindlichen Anzeige 112 und das Ereigniszuteilermodul 174 stellt der Anwendung 136-1 die Ereignisinformationen zur Verfügung. Ein entsprechender Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und stellt fest, ob eine erste Berührung an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob eine Drehung oder eine andere Bewegung der Vorrichtung) einem vorher festgelegten Ereignis oder Unterereignis entspricht, wie beispielsweise die Auswahl eines Objektes auf einer Benutzerschnittstelle oder die Drehung der Vorrichtung von einer Position in eine andere. Wird ein entsprechendes vorher festgelegtes Ereignis oder Unterereignis erkannt, aktiviert der Ereigniserkenner 180 ein Ereignissteuerungsprogramm 190, das mit dem Erkennen des Ereignisses oder Unterereignisses assoziiert ist. Das Ereignissteuerungsprogramm 190 kann das Datenaktualisierungsprogramm 176 oder das Objektaktualisierungsprogramm 177 verwenden oder aufrufen, um den anwendungsinternen Zustand 192 auf den neuesten Stand zu bringen. Bei einigen Ausführungsformen greift das Ereignissteuerungsprogramm 190 auf ein entsprechendes GUI-Aktualisierungsprogramm 178 zu, um die durch die Anwendung angezeigten Informationen zu aktualisieren. Gleichermaßen wäre einem durchschnittlichen Fachmann klar, wie andere Abläufe auf der Grundlage der Komponenten in den 1A1B umgesetzt werden können.
  • Entsprechend einiger Ausführungsformen zeigt 30 ein Funktionsblockdiagramm einer elektronischen Vorrichtung 3000, die entsprechend der Grundsätze der unterschiedlichen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung können durch Hardware, Software oder eine Kombination aus Hardware und Software umgesetzt werden, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Ein Fachmann wird verstehen, dass die in 30 beschriebenen Funktionsblöcke kombiniert oder in Teilblöcke aufgeteilt werden können, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Deshalb kann die Beschreibung in diesem Dokument jede mögliche Kombination oder Aufteilung oder weitere Definition der hierin beschriebenen Funktionsblöcke unterstützen.
  • Wie in 30 gezeigt, umfasst eine elektronische Vorrichtung 3000 eine Anzeigeeinheit 3002, die zur Anzeige einer grafischen Benutzerschnittstelle konfiguriert ist, und eine mit der Anzeigeeinheit 3002 gekoppelte Recheneinheit 3004. Bei einigen Ausführungsformen kann die elektronische Vorrichtung eine berührungsempfindliche Oberflächeneinheit 3016 umfassen, die zum Empfang von Berührungseingaben konfiguriert und mit der Anzeigeeinheit 3002 und der Recheneinheit 3004 gekoppelt ist. Bei einigen Ausführungsformen kann die Recheneinheit 3004 eine Empfangseinheit 3006, eine Feststellungseinheit 3008, eine Anzeigeaktivierungseinheit 3010, eine Erkennungseinheit 3012 und eine Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 3014 enthalten.
  • Die Recheneinheit 3004 ist konfiguriert zum Empfang (z. B. mit der Empfangseinheit 3006) einer Vielzahl von Benachrichtigungen und, in Reaktion auf den Empfang der Vielzahl von Benachrichtigungen, zur Feststellung (z. B. mit der Feststellungseinheit 3008), ob die Vielzahl von Benachrichtigungen ein Gruppierungskriterium erfüllen. Die Recheneinheit 3004 ist ferner konfiguriert, entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige einer gruppierten Mitteilung, die zur Vielzahl von Benachrichtigungen gehört, auf der Anzeigeeinheit 3002 und, in Reaktion auf eine Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium nicht erfüllt, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige einer Vielzahl von Mitteilungen, die zur Vielzahl von Benachrichtigungen gehören, auf der Anzeigeeinheit.
  • Bei einigen Ausführungsformen basiert das Gruppierungskriterium auf einem oder mehreren Kriterien, ausgewählt aus der Gruppe bestehend aus: ob die Vielzahl von Benachrichtigungen von derselben Quelle empfangen werden, ob die Vielzahl von Benachrichtigungen einen numerischen Grenzwert für Benachrichtigungen überschreiten, ob die Vielzahl von Benachrichtigungen zur selben Anwendung gehören und ob die Vielzahl von Benachrichtigungen innerhalb eines vorher festgelegten Zeitraums empfangen werden.
  • Bei einigen Ausführungsformen umfasst die Vielzahl von Benachrichtigungen eine erste Benachrichtigung und eine zweite Benachrichtigung, die von derselben Quelle empfangen werden und zur selben Anwendung gehören, erfüllen die erste Benachrichtigung und die zweite Benachrichtigung das Gruppierungskriterium, umfasst die erste Benachrichtigung erste Informationen und umfasst die zweite Benachrichtigung zweite Informationen und handelt es sich bei der Anzeigeeinheit um eine berührungsempfindliche Anzeigeeinheit. Bei einigen Ausführungsformen ist die Recheneinheit 3004 ferner konfiguriert: zum Erkennen (z. B. mit der Erkennungseinheit 3012) einer siebten Berührung auf der berührungsempfindlichen Anzeigeeinheit (z. B. auf der berührungsempfindlichen Oberflächeneinheit 3016) an einer Stelle, die der gruppierten Mitteilung entspricht, und, in Reaktion auf das Erkennen der siebten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige der ersten Informationen und der zweiten Informationen auf der Anzeigeeinheit 3002.
  • Bei einigen Ausführungsformen werden die erste Benachrichtigung und die zweite Benachrichtigung von unterschiedlichen Quellen empfangen und gehören zur selben Anwendung, und ist die Recheneinheit 3004 ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 3012) einer achten Berührung der berührungsempfindlichen Anzeigeeinheit (z. B. auf der berührungsempfindlichen Oberflächeneinheit 3016) an einer Stelle, die der gruppierten Mitteilung entspricht, und, in Reaktion auf das Erkennen der achten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige einer Liste mit zur Anwendung gehörenden Benachrichtigungen auf der Anzeigeeinheit 3002, wobei die Liste der Benachrichtigungen die erste Benachrichtigung und die zweite Benachrichtigung enthält.
  • Bei einigen Ausführungsformen gehören die Vielzahl von Benachrichtigungen zu einer Vielzahl von Anwendungen, wobei die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen und wobei es sich bei der Anzeigeeinheit um eine berührungsempfindliche Anzeigeeinheit handelt, und ist die Recheneinheit 3004 ferner konfiguriert zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige einer gruppierten Mitteilung, die zur Vielzahl von Benachrichtigungen gehört, zum Erkennen (z. B. mit der Erkennungseinheit 3012) einer neunten Berührung der berührungsempfindlichen Anzeige an einer Stelle, die der gruppierten Mitteilung entspricht, und, in Reaktion auf das Erkennen der neunten Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3010) der Anzeige einer Liste von Mitteilungen, die die Vielzahl von Benachrichtigungen darstellt, wobei die empfangenen Benachrichtigungen die erste Benachrichtigung und die zweite Benachrichtigung umfassen.
  • Bei einigen Ausführungsformen ist die Recheneinheit 3004 ferner konfiguriert zur Aktivierung (z. B. mit der Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 3014) einer wahrnehmungsbasierten Ausgabe in weiterer Reaktion auf den Empfang der Vielzahl von Benachrichtigungen. Bei einigen Ausführungsformen ist die Recheneinheit 3004 ferner konfiguriert, weiter entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium erfüllen, zur Aktivierung (z. B. mit der Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 3014) einer einzelnen wahrnehmungsbasierten Ausgabe und, weiter entsprechend einer Feststellung, dass die Vielzahl von Benachrichtigungen das Gruppierungskriterium nicht erfüllen, zur Aktivierung (z. B. mit der Einheit zur Aktivierung der wahrnehmungsbasierten Ausgabe 3014) einer Vielzahl von wahrnehmungsbasierten Ausgaben, die der Vielzahl von Benachrichtigungen entsprechen.
  • Die unter Bezugnahme auf 26 oben stehend beschriebenen Abläufe können von in den 1A1B oder in 30 dargestellten Komponenten umgesetzt werden. Beispielsweise können die Abläufe Empfang 2602, Feststellung 2604, Erkennung 2606 und Anzeige 2608 und 2610 vom Ereignissortierer 170, Ereigniserkenner 180 und Ereignissteuerungsprogramm 190 umgesetzt werden. Der Ereignismonitor 171 im Ereignissortierer 170 erkennt eine Berührung der berührungsempfindlichen Anzeige 112 und das Ereigniszuteilermodul 174 stellt der Anwendung 136-1 die Ereignisinformationen zur Verfügung. Ein entsprechender Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und stellt fest, ob eine erste Berührung an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob eine Drehung oder eine andere Bewegung der Vorrichtung) einem vorher festgelegten Ereignis oder Unterereignis entspricht, wie beispielsweise die Auswahl eines Objektes auf einer Benutzerschnittstelle oder die Drehung der Vorrichtung von einer Position in eine andere. Wird ein entsprechendes vorher festgelegtes Ereignis oder Unterereignis erkannt, aktiviert der Ereigniserkenner 180 ein Ereignissteuerungsprogramm 190, das mit dem Erkennen des Ereignisses oder Unterereignisses assoziiert ist. Das Ereignissteuerungsprogramm 190 kann das Datenaktualisierungsprogramm 176 oder das Objektaktualisierungsprogramm 177 verwenden oder aufrufen, um den anwendungsinternen Zustand 192 auf den neuesten Stand zu bringen. Bei einigen Ausführungsformen greift das Ereignissteuerungsprogramm 190 auf ein entsprechendes GUI-Aktualisierungsprogramm 178 zu, um die durch die Anwendung angezeigten Informationen zu aktualisieren. Gleichermaßen wäre einem durchschnittlichen Fachmann klar, wie andere Abläufe auf der Grundlage der Komponenten in den 1A1B umgesetzt werden können.
  • Entsprechend einiger Ausführungsformen zeigt 31 ein Funktionsblockdiagramm einer elektronischen Vorrichtung 3100, die entsprechend der Grundsätze der unterschiedlichen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung können durch Hardware, Software oder eine Kombination aus Hardware und Software umgesetzt werden, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Ein Fachmann wird verstehen, dass die in 31 beschriebenen Funktionsblöcke kombiniert oder in Teilblöcke aufgeteilt werden können, um die Grundsätze der unterschiedlichen beschriebenen Ausführungsformen umzusetzen. Deshalb kann die Beschreibung in diesem Dokument jede mögliche Kombination oder Aufteilung oder weitere Definition der hierin beschriebenen Funktionsblöcke unterstützen.
  • Wie in 31 gezeigt, umfasst eine elektronische Vorrichtung 3100 eine berührungsempfindliche Anzeigeeinheit 3102, die zum Empfang von Berührungen und zur Anzeige einer grafischen Benutzerschnittstelle konfiguriert ist, und eine mit der Anzeigeeinheit 3102 gekoppelte Recheneinheit 3104. Bei einigen Ausführungsformen kann die Recheneinheit 3104 eine Empfangseinheit 3106, eine Anzeigeaktivierungseinheit 3108 und eine Erkennungseinheit 3110 enthalten.
  • Die Recheneinheit 3104 ist konfiguriert zum Empfang (z. B. mit der Empfangseinheit 3106) einer Benachrichtigung, die Informationen enthält, während die Anzeigeeinheit Inhalt aktiv anzeigt, und, in Reaktion auf den Empfang der Benachrichtigung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3108) der Anzeige eines Mitteilungsbanners über einem Teil der berührungsempfindlichen Anzeigeeinheit 3102, wobei das Mitteilungsbanner einen ersten Teil der Informationen umfasst und wobei mindestens ein Teil des Inhaltes weiter angezeigt wird. Die Recheneinheit 3104 ist ferner konfiguriert zum Erkennen (z. B. mit der Erkennungseinheit 3110) einer Berührung der berührungsempfindlichen Anzeigeeinheit an einer Stelle, die dem Mitteilungsbanner entspricht, und, in Reaktion auf das Erkennen der Berührung, zur Aktivierung (z. B. mit der Anzeigeaktivierungseinheit 3108) der Anzeige eines zweiten Teiles der Informationen auf der Anzeigeeinheit, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  • Die unter Bezugnahme auf 27 oben stehend beschriebenen Abläufe können von in den 1A1B oder in 31 dargestellten Komponenten umgesetzt werden. Beispielsweise können die Abläufe Empfang 2702, Anzeige 2704 und 2708 und Erkennung 2706 vom Ereignissortierer 170, Ereigniserkenner 180 und Ereignissteuerungsprogramm 190 umgesetzt werden. Der Ereignismonitor 171 im Ereignissortierer 170 erkennt eine Berührung der berührungsempfindlichen Anzeige 112 und das Ereigniszuteilermodul 174 stellt der Anwendung 136-1 die Ereignisinformationen zur Verfügung. Ein entsprechender Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit entsprechenden Ereignisdefinitionen 186 und stellt fest, ob eine erste Berührung an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob eine Drehung oder eine andere Bewegung der Vorrichtung) einem vorher festgelegten Ereignis oder Unterereignis entspricht, wie beispielsweise die Auswahl eines Objektes auf einer Benutzerschnittstelle oder die Drehung der Vorrichtung von einer Position in eine andere. Wird ein entsprechendes vorher festgelegtes Ereignis oder Unterereignis erkannt, aktiviert der Ereigniserkenner 180 ein Ereignissteuerungsprogramm 190, das mit dem Erkennen des Ereignisses oder Unterereignisses assoziiert ist. Das Ereignissteuerungsprogramm 190 kann das Datenaktualisierungsprogramm 176 oder das Objektaktualisierungsprogramm 177 verwenden oder aufrufen, um den anwendungsinternen Zustand 192 auf den neuesten Stand zu bringen. Bei einigen Ausführungsformen greift das Ereignissteuerungsprogramm 190 auf ein entsprechendes GUI-Aktualisierungsprogramm 178 zu, um die durch die Anwendung angezeigten Informationen zu aktualisieren. Gleichermaßen wäre einem durchschnittlichen Fachmann klar, wie andere Abläufe auf der Grundlage der Komponenten in den 1A1B umgesetzt werden können.
  • Die oben stehenden Beschreibungen wurden zum Zwecke der Erläuterung unter Bezugnahme auf konkrete Ausführungsformen beschrieben. Die oben stehenden veranschaulichenden Erörterungen erheben jedoch keinerlei Anspruch auf Vollständigkeit und sind nicht gedacht, die Erfindung auf die offengelegten konkreten Formen zu beschränken. Viele Veränderungen und Variationen sind im Hinblick auf die oben stehenden Lehren möglich. Die Ausführungsformen wurden ausgewählt und beschrieben, um die Grundsätze der Erfindung und deren praktische Anwendungen bestmöglich zu erläutern, um einem Fachmann dadurch die Möglichkeit zu geben, die Erfindung und die verschiedenen beschriebenen Ausführungsformen bestmöglich mit verschiedenen Variationen zu nutzen, wie dies für den im konkreten Fall in Betracht gezogenen Nutzen angemessen ist.
  • HEBEGESTENERKENNUNG BEI EINER VORRICHTUNG
  • HINTERGRUND
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf elektronische Vorrichtungen und im Speziellen auf das Erkennen bestimmter Kategorien von Gesten, die ein Benutzer beim Tragen oder bei der anderweitigen Bedienung einer elektronischen Vorrichtung ausführt.
  • Verbraucher verlassen sich in zunehmendem Maße auf mobile Technologie. Beispielsweise besitzen viele Verbraucher mittlerweile Smartphones („schlaue Telefone”), bei denen die Mobilfunktechnologie mit einem hochleistungsfähigen Rechner verbunden ist, mit einem Formfaktor, der klein genug ist, damit der Benutzer es während der Bedienung in der Hand halten kann. Solche Vorrichtungen bieten eine große Bandbreite an Funktionen, einschließlich mobiler Telefonie, Datentransfer (z. B. SMS-/MMS-Nachrichten- oder ähnliche Dienste), Fotografie über die eingebaute Kamera, E-Mail, Internetzugang und eines schier endlosen Angebotes an Spezialanwendungsprogrammen, deren Funktionalität von der Verwaltung persönlicher Informationen (z. B. Kalender, Adressbuch, To-Do-Listen) über standortbezogene Navigation und Karten bis hin zu Spieleanwendungen reicht. Vorrichtungen dieser Art können dafür sorgen, dass eine ganze Welt an Informationen und Unterhaltung für den Benutzer jederzeit greifbar ist.
  • Scheinbar ist jedoch sogar das Smartphone unzureichend, um den Wunsch der Verbraucher nach einem einfachen Informationszugang zu erfüllen. Tragbare Technologie erfreut sich einer steigenden Beliebtheit. Das Ziel besteht darin, dass ein Verbraucher mit einer tragbaren Vorrichtung die Vorteile der mobilen Technologie nutzen kann, ohne Abstriche beim Komfort zu machen.
  • ZUSAMMENFASSUNG
  • Ein Hindernis für die weit verbreitete Akzeptanz von tragbarer Technologie besteht darin, dass die Nutzung der Mehrheit der vorhandenen tragbaren Vorrichtungen nicht bequemer ist als die eines Smartphones. Beispielsweise neigen tragbare Vorrichtungen zu einem niedrigen Formfaktor, wodurch die Größe der Batterie beschränkt ist, die in die Vorrichtung eingesetzt werden kann. Dies wiederum sorgt für eine Einschränkung der verfügbaren Betriebsleistung. Um eine Verschwendung der Energie zu vermeiden, schalten vorhandene tragbare Vorrichtungen im Allgemeinen verschiedene energieintensive Komponenten (z. B. eine Anzeige) ab oder schalten diesen in den Ruhemodus, wenn der Benutzer die Vorrichtung nicht aktiv bedient.
  • Da die Anzeige bzw. die Komponenten für die Benutzereingabe nicht ständig eingeschaltet sind, erfordern die vorhandenen tragbaren Vorrichtungen in der Regel eine Art vorbereitende Eingabe, wie beispielsweise die Berührung einer Taste an der tragbaren Vorrichtung, um anzuzeigen, dass der Benutzer die Vorrichtung bedienen möchte; diese vorbereitende Eingabe kann die tragbare Vorrichtung veranlassen, ihre Anzeige bzw. andere energieintensive Komponenten zu aktivieren. Diese vorbereitende Interaktion kann dazu führen, dass sich die Nutzung der Vorrichtung unnatürlich oder umständlich anfühlt, insbesondere im Gegensatz zu den natürlicheren, intuitiveren Interaktionen mit vertrauter älterer Technologie. Beispielsweise ist jeder, der einmal eine Armbanduhr getragen hat, mit der Geste vertraut, bei der man das Handgelenk anhebt bzw. dreht, um auf die Uhr zu schauen. Bei Trägern von Armbanduhren wird das Anheben des Handgelenks schnell zu einer natürlichen, automatischen Bewegung. Diese natürliche Bewegung funktioniert jedoch nur bei einer herkömmlichen Armbanduhr, da die Anzeige der Uhr stets „eingeschaltet” ist, so dass der Verbraucher die Anzeige der Uhr lediglich in die Sichtlinie bringen muss, um die angezeigten Informationen (in der Regel die Uhrzeit) abzulesen. Bei einer moderneren elektronischen Vorrichtung, wie beispielsweise ein tragbarer Rechner, kann eine stets eingeschaltete Anzeige die Lebensdauer der Batterie so begrenzen, dass sich dies auf das normale Tragen der Vorrichtung während des gesamten Tages auswirkt.
  • Dementsprechend kann es erstrebenswert sein, dass ein am Handgelenk tragbarer Rechner erkennt, wann ein Benutzer das Handgelenk, an dem die Vorrichtung getragen wird, anhebt, und, in Reaktion auf diese Bewegung, automatisch die Anzeige (bzw. andere Komponenten) aktiviert. Dadurch kann der Benutzer visuelle Informationen vom am Handgelenk tragbaren Rechner so einfach und intuitiv wie bei einer herkömmlichen Armbanduhr abrufen.
  • Bestimmte Ausführungsformen der vorliegenden Erfindung beziehen sich auf Rechner, die Hebegesten erkennen können, wie beispielsweise das Anheben des Handgelenks. Beispielsweise kann eine Vorrichtung Bewegungssensoren enthalten, wie beispielsweise einen Beschleunigungssensor bzw. ein Gyroskop, die eine Bewegung der Vorrichtung in Echtzeit erkennen und ferner Informationen hinsichtlich der räumlichen Anordnung der Vorrichtung ableiten können (z. B. durch Erkennen der auf die Vorrichtung wirkenden Erdbeschleunigung). Basierend auf den Signalen von den Bewegungssensoren können auf der Vorrichtung ausgeführte Algorithmen eine „Hebegeste” erkennen, die als Bewegungsmuster definiert werden kann, das anzeigt, dass der Benutzer die Anzeige der Vorrichtung in seine/ihre Sichtlinie bewegt bzw. bewegt hat. In Reaktion auf das Erkennen einer solchen Geste kann die Vorrichtung ihre Anzeige bzw. andere Komponenten aktivieren (z. B. eine Touchscreen-Einblendung, ein Sprachverarbeitungsteilsystem oder Ähnliches). Bei einigen Ausführungsformen kann das Erkennen einer Hebegeste stufenweise erfolgen und die unterschiedlichen Komponenten können zu unterschiedlichen Zeitpunkten aktiviert werden.
  • Eine Vielzahl von Techniken kann eingesetzt werden, um Hebegesten zu erkennen. Bei einigen Ausführungsformen können die Erkennungsalgorithmen heuristisch entwickelt werden und sowohl die angenommenen Eigenschaften einer „Fokusposition” (bei der es sich um die Ausrichtung des am Handgelenk getragenen Rechners handeln kann, in der der Benutzer, der die Vorrichtung trägt, auf die Anzeige schauen kann) als auch die bestimmte Ausgangsposition (bei der es sich um die Ausrichtung des am Handgelenk getragenen Rechners handeln kann, bevor sie in die Fokusposition gebracht wird) berücksichtigen. Dementsprechend kann eine Hebegeste beispielsweise unabhängig davon, ob der Benutzer mit dem Arm nach unten hängend (z. B. beim Stehen oder Laufen) oder mit dem Arm an der Seite (z. B. beim Tippen auf einer Tastatur) beginnt, erkannt werden. Ferner können die Algorithmen zum Erkennen einer Hebegeste für konkrete Aktivitäten der Benutzer optimiert werden. Beispielsweise kann die natürliche Bewegung der Arme des Benutzers beim Joggen zu einer Störung der Daten führen, die über einen Bewegungssensor mit geringem Stromverbrauch (z. B. ein Beschleunigungssensor) erfasst werden, die sich auf das Erkennen einer Hebegeste auswirken kann. Ein für das Joggen optimierter Algorithmus kann Daten von anderen Sensoren (z. B. von einem Gyroskop) aufnehmen, um ein zuverlässiges Erkennen einer Hebegeste zu erleichtern, ohne dass der Benutzer hierfür irgendwas anders macht.
  • Bei einigen Ausführungsformen können die Algorithmen zum Erkennen einer Hebegeste auf einem Coprozessor (z. B. ein Bewegungscoprozessor) der Vorrichtung ausgeführt werden. Dementsprechend kann, wenn die Vorrichtung nicht aktiv benutzt wird, ein Haupt- oder Zentralprozessor (in diesem Dokument auch als Anwendungsprozessor bezeichnet) der Vorrichtung in einen Ruhezustand, also einen Zustand mit einem niedrigen Energieverbrauch, überführt werden, um die Leistungsaufnahme der Vorrichtung weiter zu verringern. Das Erkennen einer Hebegeste durch auf dem Coprozessor ausgeführte Algorithmen kann verwendet werden, um den Anwendungsprozessor aufzuwecken. Bei einigen Ausführungsformen kann ein separater „Vorglühalgorithmus” eingesetzt werden, um festzustellen, ob der Anwendungsprozessor aufgeweckt werden soll, und dieser Algorithmus kann unabhängig von den Algorithmen zum Erkennen einer Hebegeste arbeiten, die zur Feststellung eingesetzt werden, ob die Anzeige bzw. andere Komponenten der Benutzerschnittstelle aktiviert werden sollen.
  • Ferner kann der Coprozessor, nachdem die Vorrichtung eine Fokusposition erreicht hat, Algorithmen ausführen, die feststellen, wann die Vorrichtung die Fokusposition verlässt, was darauf hindeutet, dass der Benutzer nicht mehr auf die Vorrichtung schaut. (Es ist anzumerken, dass der Zustand der Vorrichtung nicht immer mit der Ground-Truth dahingehend übereinstimmt, dass der Benutzer auf die Vorrichtung schaut oder nicht, wenngleich die hierin beschriebenen Algorithmen eine solche Übereinstimmung mit einer hohen, wenn auch nicht perfekten, Zuverlässigkeit erreichen können.) Das Erkennen, dass die Vorrichtung die Fokusposition verlassen hat (in diesem Dokument auch als ein Fokusverlustereignis bezeichnet), kann verschiedene Energiesparmaßnahmen auslösen, wie beispielsweise die Deaktivierung der Anzeige bzw. anderer Komponenten der Benutzerschnittstelle, Rückführung des Anwendungsprozessors in den Ruhezustand usw.
  • Bei einigen Ausführungsformen kann der Coprozessor eine Aktivierungssteuerlogik ausführen, um festzustellen, wann mit der bzw. wann die Ausführung verschiedener Algorithmen zum Erkennen von Hebegesten, Fokusverlustereignissen bzw. Vorglühereignissen begonnen bzw. beendet werden soll. Die Aktivierungssteuerlogik kann ferner Mitteilungen über Ereignisse empfangen, die von den verschiedenen Algorithmen erkannt wurden, und die entsprechenden Mitteilungen an andere Komponenten der Vorrichtung koordinieren, wie beispielsweise der Anwendungsprozessor bzw. die Komponenten der Benutzerschnittstelle. Beispielsweise kann die Aktivierungssteuerlogik den Anwendungsprozessor benachrichtigen, wenn eine Hebegeste erkannt wird, und der Anwendungsprozessor kann reagieren, indem er die Anzeige bzw. andere Komponenten der Benutzerschnittstelle aktiviert.
  • Die folgende detaillierte Beschreibung bietet in Verbindung mit den beiliegenden Zeichnungen ein besseres Verständnis für den Charakter und die Vorteile der vorliegenden Erfindung.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die 1A1D zeigen Beispiele typischer Anwendungsfälle für eine Ausführungsform der vorliegenden Erfindung.
  • 2A ist ein Blockdiagramm, das Komponenten einer Vorrichtung entsprechend einer Ausführung der vorliegenden Erfindung zeigt.
  • 2B ist ein Blockdiagramm, das Komponenten einer Vorrichtung entsprechend einer Ausführung der vorliegenden Erfindung zeigt.
  • 3 zeigt ein Beispiel eines auf die Vorrichtung bezogenen Koordinatensystems für eine am Handgelenk tragbare Vorrichtung.
  • 4 ist ein Flussdiagramm für einen Ablauf zum Erkennen einer Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 5 ist ein Flussdiagramm eines Ablaufs zum Bestätigen einer Hebegeste unter Zuhilfenahme eines Gestenklassifikators entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 6 ist ein Zustandsdiagramm, das Zustände eines Algorithmus zum Erkennen einer Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 7 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer natürlichen Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 8 ist ein Flussdiagramm eines anderen Ablaufs zum Erkennen einer Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 9 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer natürlichen Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • Die 10A10B zeigen ein Beispiel eines Anwendungsfalls für eine Ausführungsform der vorliegenden Erfindung.
  • 11 ist ein Flussdiagramm eines Ablaufs zum Erkennen einer bewussten Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 12 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer bewussten Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 13 ist ein Flussdiagramm eines Ablaufs zum Erkennen eines Fokusverlustereignisses entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 14 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen eines Fokusverlustes entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 15 ist ein Flussdiagramm eines Ablaufs zur Feststellung, ob der Anwendungsprozessor entsprechend einer Ausführungsform der vorliegenden Erfindung aktiviert werden soll.
  • 16 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen eines Vorglühereignisses entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • 17 ist ein Zustandsdiagramm, das Zustände der Aktivierungssteuerlogik entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 18 ist ein Flussdiagramm eines Ablaufs, der im Rahmen der Aktivierungssteuerlogik umgesetzt werden kann, entsprechend einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Bestimmte Ausführungsformen der vorliegenden Erfindung können Benutzern einer Vorrichtung, wie beispielsweise eine am Handgelenk tragbare Vorrichtung, deren Anzeige nicht ständig aktiviert ist, eine natürliche Interaktion bieten. Beispielsweise kann eine Vorrichtung Bewegungssensoren enthalten, wie beispielsweise einen Beschleunigungssensor bzw. ein Gyroskop, die eine Bewegung der Vorrichtung in Echtzeit erkennen und ferner Informationen hinsichtlich der räumlichen Anordnung der Vorrichtung ableiten können (z. B. durch Erkennen der auf die Vorrichtung wirkenden Erdbeschleunigung). Basierend auf den Signalen von den Bewegungssensoren können auf dem tragbaren Rechner ausgeführte Algorithmen eine „Hebegeste” erkennen, die als Bewegungsmuster definiert werden kann, das anzeigt, dass der Benutzer die Anzeige der Vorrichtung in seine/ihre Sichtlinie bewegt bzw. bewegt hat. (Es wird vorausgesetzt, dass der Zustand der Vorrichtung nicht immer mit der Ground-Truth dahingehend übereinstimmt, dass der Benutzer auf die Vorrichtung schaut oder nicht, wenngleich die hierin beschrieben Algorithmen eine solche Übereinstimmung mit einer hohen, wenn auch nicht perfekten, Zuverlässigkeit erreichen können.) Wird eine solche Geste erkannt, kann der tragbare Rechner seine Anzeige aktivieren. Andere Komponenten können ebenfalls auf der Grundlage des Erkennens einer Hebegeste aktiviert werden, wie beispielsweise Komponenten der Benutzereingabe (z. B. Touchscreen-Einblendung, Sprachverarbeitungsteilsystem oder Ähnliches). Bei einigen Ausführungsformen kann das Erkennen einer Hebegeste stufenweise erfolgen und die unterschiedlichen Komponenten können zu unterschiedlichen Zeitpunkten aktiviert werden.
  • In diesem Kontext bezieht sich die Wortgruppe „am Handgelenk tragbare Vorrichtung” (oder „am Handgelenk tragbarer Rechner”) im Allgemeinen auf eine elektronische Vorrichtung, deren Formfaktor zum Tragen am Handgelenk eines Benutzers geeignet ist und die dem Benutzer Informationen anzeigen und Informationen vom Benutzer empfangen kann, während sie am Handgelenk des Benutzers getragen wird. Bei einigen Ausführungsformen kann eine am Handgelenk tragbare Vorrichtung über eine Touchscreen-Anzeige verfügen, auf der die Informationen visuell dargestellt werden und die Benutzereingaben in Form von Kontaktgesten empfängt, die der Benutzer unter Zuhilfenahme eines Fingers (oder eines anderen Tools) auf dem Bildschirm oder auf bestimmten Bereichen des Bildschirms vornimmt. Andere Komponenten der Benutzerschnittstelle können zusätzlich zu oder anstelle einer Touchscreen-Anzeige bereitgestellt werden. Bei einigen Ausführungsformen kann eine am Handgelenk tragbare Vorrichtung als eigenständige Vorrichtung (z. B. eine Vorrichtung, die nicht mit anderen Vorrichtungen kommuniziert) oder als Begleitvorrichtung für eine andere elektronische Vorrichtung betrieben werden, mit der sie kommuniziert. Beispielsweise kann eine am Handgelenk tragbare Vorrichtung mit dem Mobiltelefon des Benutzers oder einer anderen persönlichen elektronischen Vorrichtung des Benutzers verbunden werden, und die am Handgelenk tragbare Vorrichtung kann die Funktionalität der anderen Vorrichtung wirksam einsetzen oder verbessern, wie beispielsweise die Benachrichtigung des Benutzers über eingehende Anrufe, Nachrichten oder andere Mitteilungen.
  • Am Handgelenk tragbare Vorrichtungen können für die Benutzer praktisch sein. Die Vorrichtung stört die normalen Aktivitäten des Benutzers minimal bzw. überhaupt nicht und durch die Anordnung der Vorrichtung am Handgelenk ist eine einfache Zugänglichkeit gegeben. Der Benutzer muss einfach nur das Handgelenk anheben bzw. drehen, um die Anzeige der Vorrichtung in seine/ihre Sichtlinie zu bringen. Die 1A und 1B zeigen einen typischen Anwendungsfall, bei dem ein Benutzer 100 eine am Handgelenk tragbare Vorrichtung 102 mit einer Anzeige 104 trägt. In 1A befindet sich der Arm des Benutzers 106 in einer natürlichen Position seitlich am Benutzer und die Anzeige 104 befindet sich nicht in der Sichtlinie des Benutzers. In dieser Position kann die Anzeige 104 inaktiv sein (z. B. abgeschaltet oder in einem Ruhezustand, so dass die Informationen nicht sichtbar sind), ohne die Nutzererfahrung zu beeinträchtigen. In 1B hat der Benutzer 100 seinen/ihren Arm 106 in eine Position angehoben und gedreht, in der sich die Anzeige 104 mittlerweile in der Sichtlinie des Benutzers befindet. In dieser Position ist es erstrebenswert, das die Anzeige 104 aktiv ist (z. B. eingeschaltet und beleuchtet, so dass der Benutzer die angezeigten Informationen sehen kann).
  • Die 1C und 1D zeigen einen weiteren typischen Anwendungsfall, bei dem der Benutzer 100 die am Handgelenk tragbare Vorrichtung 102 trägt, während er einer Beschäftigung nachgeht, wie beispielsweise Maschinenschreiben. In 1C hat der Benutzer seinen/ihren Arm 106 so positioniert, dass er/sie Eingaben über die Tastatur 120 vornehmen kann, wobei der Unterarm ungefähr parallel zum Boden und das Handgelenk leicht einwärts gedreht sind, damit die Finger die Tasten erreichen. In dieser Stellung, siehe 1A, kann die Anzeige 104 aktiv sein, ohne sich auf die Nutzererfahrung auszuwirken. In 1D hat der Benutzer 100 seinen/ihren Arm 106 nur leicht angehoben (genug, um den Kontakt zwischen den Fingern und der Tastatur 120 zu unterbrechen) und das Handgelenk weiter einwärts gedreht, damit sich die Anzeige 104 in der Sichtlinie befindet. In dieser Stellung, siehe 1B, ist es wünschenswert, dass die Anzeige 104 aktiv ist.
  • Eine Option ist es, dass die Anzeige 104 stets aktiv ist. Ausgehen davon, dass die Anzeige 104 im aktiven Zustand mehr Energie aufnimmt als im inaktiven Zustand, kann die Batterie, über die die Vorrichtung 102 versorgt wird, unter Umständen jedoch unnötig schnell entladen werden, wenn die Anzeige 104 auch bei Nichtbenutzung aktiv bleibt. Eine weitere Option besteht in der Aktivierung der Anzeige 104 nur in Reaktion auf eine Benutzereingabe, beispielsweise kann der Benutzer eine Taste auf der Vorrichtung 102 betätigen, um die Anzeige 104 zu aktivieren. Dies führt unter Umständen jedoch zu einer Abnahme des Nutzungskomforts der Vorrichtung 102. Wie in den 1A und 1B gezeigt, hält der Benutzer mit einer Hand beispielsweise die Tasche 108, wodurch es unter Umständen umständlich ist, eine Taste an der am Handgelenk tragbaren Vorrichtung 102 zu betätigen.
  • Entsprechend bestimmter Ausführungsformen der vorliegenden Erfindung kann eine Vorrichtung, wie beispielsweise die am Handgelenk tragbare Vorrichtung 102, automatisch erkennen, wenn der Benutzer auf die Vorrichtung schauen möchte. Auf der Grundlage dieser Erkennungsfunktion kann die Vorrichtung ihre Anzeige oder andere Strom verbrauchende Komponenten aktivieren. Bei einigen Ausführungsformen können auf einem Coprozessor mit niedriger Leistungsaufnahme (z. B. ein Bewegungscoprozessor) in der Vorrichtung ausgeführte Bewegungsanalysealgorithmen verwendet werden, um zu erkennen, dass sich ein Benutzer darauf vorbereitet, auf die Vorrichtung zu schauen. Dadurch kann ein Hauptprozessor (z. B. der Anwendungsprozessor) der Vorrichtung unter Umständen zumindest einen Teil der Zeit im Ruhezustand verbleiben, was zu weiteren Energieeinsparungen führt. Bei einigen Ausführungsformen kann ein Bewegungsanalysealgorithmus eine Kategorie von Bewegungen (in diesem Dokument als „Hebegesten” bezeichnet) erkennen, die mit der Vorbereitung eines Benutzers, auf die Vorrichtung zu schauen, in Zusammenhang stehen, wie beispielsweise das Anheben bzw. Drehen eines Arms bzw. des Handgelenks (z. B. der Unterschied hinsichtlich der Stellung des Arms zwischen den 1A und 1B oder zwischen den 1C und 1D), und das Erkennen einer Hebegeste oder einer damit verbundenen Bewegung kann verschiedene Aktionen auslösen, wie beispielsweise die Aktivierung der Anzeige. Die Algorithmen zum Erkennen einer Hebegeste können empfindlich im Hinblick auf eine „Ausgangsposition” des Benutzers sein und die konkrete Ausgangsposition kann sich auf die erwartete Hebegeste auswirken oder diese verändern. Beispielsweise kann die erwartete Hebegeste unterschiedlich sein, je nachdem, ob der Arm des Benutzers zu Beginn nach unten hängt (siehe 1A) oder der Ellbogen zu Beginn gebeugt ist (z. B. in 1B). Die Algorithmen können ferner verändert werden, um in einer hochdynamischen Umgebung zu funktionieren, wie beispielsweise wenn der Benutzer joggt, was sich auf die Art der Daten, die nützlich sind, auf die Ausgangsposition bzw. auf den Charakter der Bewegung auswirken kann, aus der die Hebegeste besteht.
  • In Situationen, in denen eine Hebegeste auf der Grundlage von natürlichen Bewegungen im Zusammenhang mit dem Blick auf die Vorrichtung erkannt werden kann, kann ein Benutzer das Handgelenk natürlich anheben bzw. drehen, um die Anzeige der Vorrichtung in die Sichtlinie zu bringen (z. B. siehe auch 1B oder 1D), und unmittelbar (oder nach einer vernachlässigbaren Verzögerung) die angezeigten Informationen sehen, ohne dass hierfür eine explizite Eingabe an der Vorrichtung durchgeführt werden muss. In einigen Situationen ist es unter Umständen jedoch unpraktisch, eine solche „natürliche” Hebegeste zu erkennen. Dementsprechend kann eine „bewusste” Hebegeste definiert werden und das Erkennen der bewussten Hebegeste kann zur Aktivierung der Anzeige bzw. anderer Komponenten führen. Die bewusste Hebegeste kann als eine konkrete Geste definiert werden, die ein Benutzer in der Absicht ausführen kann, die Anzeige der Vorrichtung zu aktivieren; die Geste kann auf der Grundlage von Annahmen über Bewegungen des Arms oder Handgelenks definiert werden, die ein Benutzer wahrscheinlich eher nicht ausführt, wenn er die Anzeige nicht aktivieren möchte. Beispielsweise kann eine bewusste Hebegeste, wie unten stehend beschrieben, als eine Geste definiert werden, die einer doppelten Pendelbewegung des Handgelenks innerhalb eines kurzen Zeitraums entspricht, nach der sich die Vorrichtung in einer finalen Position stabilisiert; andere Definitionen können ebenfalls herangezogen werden.
  • Sobald sich der Benutzer entschieden hat, auf die Vorrichtung zu schauen – egal ob durch das Erkennen einer natürlichen Hebegeste, einer bewussten Hebegeste oder irgendeiner anderen Interaktion zwischen Benutzer und Vorrichtung – kann die Benutzerschnittstelle der Vorrichtung aktiviert werden, wodurch der Benutzer mit der Vorrichtung interagieren kann. Beispielsweise kann der Benutzer auf der Anzeige angezeigte Informationen aufrufen, Eingabeelemente bedienen, um Informationen bzw. Befehle einzugeben, usw. Der Benutzer wird die Vorrichtung sehr wahrscheinlich in einer relativ festen Position halten, wenn er/sie auf die Anzeige schaut oder damit interagiert. Wenn der Benutzer die Interaktion abgeschlossen hat, ist es wahrscheinlich, dass der Arm des Benutzers in seine Ausgangsposition oder eine andere Position zurückkehren wird, in der sich die Anzeige der Vorrichtung nicht mehr in der Sichtlinie des Benutzers befindet. Bei einigen Ausführungsformen kann eine Bewegung, durch die sich die Vorrichtung aus der Sichtlinie des Benutzers bewegen würde, als eine „Fokusverlustgeste” erkannt werden und verschiedene Abläufe auslösen, durch die Energie gespart wird, wie beispielsweise die Deaktivierung der Anzeige bzw. Strom verbrauchender Komponenten.
  • Zusätzlich oder alternativ kann bei einigen Ausführungsformen ein Hauptprozessor der Vorrichtung (auch als ein „Anwendungsprozessor” bezeichnet) in einen Stromspar- oder Ruhezustand wechseln, wenn die Vorrichtung nicht aktiv benutzt wird, um die Leistungsaufnahme zu verringern. Der Abschluss des Übergangs vom Ruhezustand in einen aktiven Zustand, in dem sich die Vorrichtung aktiv benutzen lässt (auch als „Aufwecken” des Hauptprozessors bezeichnet) kann mit einer Latenzzeit verbunden sein. Dementsprechend kann es unter Umständen erstrebenswert sein, mit der Aktivierung des Hauptprozessors zu beginnen, bevor der Benutzer auf die Vorrichtung schaut, ohne dabei auch die Anzeige oder andere Komponenten der Benutzerschnittstelle zu aktivieren. Einige Ausführungsformen bieten einen „Vorglüherkennungsalgorithmus”, mit dem sich der wahrscheinliche Beginn einer Hebegeste erkennen lässt und die Aktivierung des Hauptprozessors vor dem Abschluss der Hebegeste begonnen werden kann. Dieser Ablauf kann für eine schnellere Reaktionszeit sorgen, wenn der Benutzer auf die Vorrichtung schaut. Ein Vorglüherkennungsalgorithmus kann gleichzeitig mit und im Allgemeinen unabhängig von einem Algorithmus zum Erkennen einer Hebegeste ablaufen; beispielsweise können die Algorithmen unterschiedliche Analysen mit denselben empfangenen Daten eines Bewegungssensors durchführen.
  • Das Erkennen der Hebegesten (einschließlich natürlicher bzw. bewusster Hebegesten) und Fokusverlustgesten kann in einer Vielzahl elektronischer Vorrichtungen umgesetzt werden. 2A ist ein Blockdiagramm, das Komponenten einer Vorrichtung 200 entsprechend einer Ausführung der vorliegenden Erfindung zeigt. Bei der Vorrichtung 200 kann es sich beispielsweise um eine Umsetzung der am Handgelenk tragbaren Vorrichtung 102 handeln, siehe 1A1D. Die Vorrichtung 200 kann eine Benutzerschnittstelle 202, einen Anwendungsprozessor 204, ein Speicherteilsystem 206, einen Coprozessor 208, einen Beschleunigungssensor (210) und ein Gyroskop umfasst.
  • Die Benutzerschnittstelle 202 kann Hardware- und Softwarekomponenten umfassen, die eine Interaktion des Benutzers mit der Vorrichtung 202 ermöglichen. Solche Komponenten können allgemein konventionell oder anders gestaltet sein. Beispielsweise kann die Benutzerschnittstelle 202 bei einigen Ausführungsformen eine Touchscreen-Schnittstelle umfassen, die aus einer Anzeige (z. B. LEC, LCD, OLED oder Ähnliches) mit einer berührungsempfindlichen Oberfläche (z. B. kapazitiv oder resistiv) besteht, mit der eine Berührung durch einen Finger eines Benutzers bzw. durch andere Objekte erkannt werden kann. Durch die Berührung bestimmter Bereiche des Bildschirms kann der Benutzer Aktionen auslösen, auf visuelle Aufforderungen von der Vorrichtung reagieren usw. Zusätzlich oder anstelle dessen kann die Benutzerschnittstelle 202 Audiokomponenten (z. B. Lautsprecher, Mikrofon), Tasten, Knöpfe, Wählvorrichtungen, haptische Eingabe- oder Ausgabevorrichtungen und dergleichen umfassen.
  • Beim Anwendungsprozessor 204, der unter Zuhilfenahme einer oder mehrerer allgemein konventionell oder anderweitig gestalteter integrierter Schaltungen (z. B. programmierbarer Mikrocontroller oder Mikroprozessor mit einem oder mehreren Kernen) umgesetzt werden kann, kann es sich um das primäre Rechenteilsystem der Vorrichtung 200 handeln. Das Speicherteilsystem 206 kann unter Zuhilfenahme von Speicherschaltungen (z. B. DRAM, SRAM, ROM, Flash-Speicher und dergleichen) oder anderen elektronisch lesbaren Speichermedien umgesetzt werden und Programmbefehle zur Ausführung durch den Anwendungsprozessor 204 speichern, sowie durch die Vorrichtung 200 im Laufe des Betriebs generierte oder an die Vorrichtung 200 im Laufe des Betriebs gelieferte Daten. Während des Betriebs kann der Anwendungsprozessor 204 Programmbefehle ausführen, die auf dem Speicherteilsystem 206 gespeichert sind, um den Betrieb der Vorrichtung 200 zu steuern. Beispielsweise kann Prozessor 204 ein Betriebssystem und verschiedene Anwendungsprogramme ausführen, die auf konkrete Aufgaben bezogen sind (z. B. Anzeige der Uhrzeit, Anzeige von Informationen für den Benutzer, Erhalt von Informationen vom Benutzer, Kommunikation mit einem verbundenen Gerät usw.). Es wird davon ausgegangen, dass der Anwendungsprozessor 204 alle gewünschten Rechenaufgaben ausführen kann, und Ausführungsformen der vorliegenden Erfindung können unabhängig von konkreten Anwendungen funktionieren.
  • Bei in diesem Dokument beschriebenen Ausführungsformen kann der Anwendungsprozessor 204 mindestens über einen Ruhezustand, in dem die Aktivität (und die Leistungsaufnahme) des Anwendungsprozessors 204 verringert oder minimiert werden kann, und einen aktiven Zustand verfügen, in dem der Anwendungsprozessor 204 voll funktionsfähig ist. Beispielsweise kann der Anwendungsprozessor 204 die Ausführung von Anwendungs- bzw. Betriebssystemprogrammen aussetzen, während der Anwendungsprozessor 204 im Ruhezustand ist, und die Ausführung nach der Rückkehr in den aktiven Zustand wieder aufnehmen.
  • Der Coprozessor 208 kann, wie der Anwendungsprozessor 204 auch, unter Zuhilfenahme einer oder mehrerer allgemein konventionell oder anderweitig gestalteter Schaltungen umgesetzt werden (z. B. ein Mikroprozessor bzw. Mikrocontroller). Der Coprozessor 208 kann Programmcodebefehle ausführen, die als Firmware im Coprozessor 208 gespeichert sind bzw. auf die der Coprozessor 208 anderweitig zugreifen kann, unabhängig davon, ob der Anwendungsprozessor 204 im Ruhezustand oder im aktiven Zustand läuft. Bei einigen Ausführungsformen kann der Coprozessor 208 im aktiven Betrieb eine wesentlich geringere Leistungsaufnahme aufweisen als der Anwendungsprozessor 204. Bei in diesem Dokument beschriebenen Beispielen kann der Coprozessor 208 Abläufe ausführen, die mit dem Erkennen und der Analyse von Bewegungen verbunden sind, einschließlich des Erkennens von Hebegesten bzw. Fokusverlustgesten. Bei einigen Ausführungsformen kann der Coprozessor 208 ferner andere Abläufe ausführen, die hierin nicht beschrieben sind.
  • Der Coprozessor 208 kann dem Anwendungsprozessor über die Anwendungsprozessorschnittstelle 214 Mitteilungen auf der Grundlage einer Bewegungsanalyse kommunizieren, bei der es sich um eine konventionell oder anderweitig gestaltete Kommunikationsschnittstelle handeln kann (z. B. ein Kommunikationsbus). Bei einigen Ausführungsformen können die Mitteilungen Signale enthalten, die den Anwendungsprozessor 204 aus dem Ruhezustand aktivieren bzw. die Benutzerschnittstelle 202 aktivieren. Bei einigen Ausführungsformen kann die Anwendungsprozessorschnittstelle 214 dem Anwendungsprozessor 204 ferner unbearbeitete oder teilweise unbearbeitete Daten vom Beschleunigungssensor 210 bzw. Gyroskop 212 zur Verfügung stellen.
  • Um das Erkennen und die Analyse von Bewegungen zu ermöglichen, kann der Coprozessor 208 Eingaben von integrierten Bewegungssensoren der Vorrichtung 200 erhalten, wie beispielsweise vom Beschleunigungssensor 210 und dem Gyroskopsensor (auch Gyroskop genannt) 212. Der Beschleunigungssensor 210 kann unter Zuhilfenahme konventioneller oder anderweitiger Designs umgesetzt werden und empfindlich gegenüber Beschleunigungen der Vorrichtung 200 (einschließlich der Erdbeschleunigung, sowie der Beschleunigung durch die Bewegung des Benutzers) entlang einer oder mehrerer Achsen sein. Bei einigen Ausführungsformen kann der Beschleunigungssensor 210 einen 3-achsigen MEMS-Beschleunigungsmesser mit geringem Stromverbrauch umfassen und Beschleunigungsdaten bei einer festen Abtastfrequenz bereitstellen (z. B. 100 Hz). Das Gyroskop 212 kann ebenfalls unter Zuhilfenahme konventioneller oder anderweitiger Designs umgesetzt werden und empfindlich gegenüber Veränderungen im Hinblick auf die Position der Vorrichtung 200 entlang einer oder mehrerer Achsen sein. Das Gyroskop 212 kann ferner Positionsdaten bei einer festen Abtastfrequenz bereitstellen (z. B. 100 Hz).
  • Bei in diesem Dokument beschriebenen Beispielen können der Beschleunigungssensor 210 und das Gyroskop 212 in einer Vorrichtung ausgerichtet sein, um ein Koordinatensystem mit Bezug auf die Vorrichtung zu definieren. 3 zeigt ein Beispiel eines Koordinatensystems mit Bezug auf die Vorrichtung für eine am Handgelenk tragbare Vorrichtung 300 (bei der es sich beispielsweise um die am Handgelenk tragbare Vorrichtung 102 aus den 1A1B handeln kann). Die am Handgelenk tragbare Vorrichtung 300 kann mit Hilfe eines Riemens oder Bandes 304 so am Handgelenk eines Benutzers 302 befestigt werden, dass der Benutzer die Anzeige 306 sehen kann. Wie gezeigt, können eine X-Achse, die im Wesentlichen parallel zum Unterarm des Benutzers 308 ist, wenn der Benutzer die Vorrichtung 300 trägt, eine Y-Achse, die senkrecht auf der X-Achse steht und in derselben Ebene wie Anzeige 306 liegt, und eine Z-Achse festgelegt werden, die senkrecht auf der Ebene der Anzeige 306 steht (in Richtung Betrachter zeigend). Bei einigen Ausführungsformen kann ein Beschleunigungssensor die durch die Schwerkraft bedingte Beschleunigung sowie die durch den Benutzer bedingte Bewegung erkennen. Wird der Unterarm 308 beispielsweise horizontal gehalten, kann ein Beschleunigungssensor die Drehung des Handgelenks eines Benutzers (oder die Drehung der am Handgelenk tragbaren Vorrichtung 300 um die X-Achse) als eine Änderung der Y-Komponente der Beschleunigung zwischen einer Startzeit und einer Endzeit erkennen, während sich der Winkel der Y-Achse in Relation zur Richtung der Schwerkraft ändert. Die Drehung des Handgelenks kann ferner unter Zuhilfenahme eines Gyroskops als Drehung um die X-Achse erkannt werden. Das in 3 dargestellte Koordinatensystem wird in der gesamten Offenlegung verwendet; es wird vorausgesetzt, dass andere Koordinatensysteme eingesetzt werden können.
  • Unter erneuter Bezugnahme auf 2A kann der Coprozessor 208 bei einigen Ausführungsformen verschiedene Module enthalten, die Abläufe und Algorithmen umsetzen (z. B. unter Zuhilfenahme von Software- oder Firmwareprogrammcode), um Signale vom Beschleunigungssensor 210 bzw. vom Gyroskop 212 zu analysieren. Einige dieser Module (wechselnd als „Gestenmodule” oder „Gestenerkennungsmodule” bezeichnet) können Abläufe und Algorithmen umsetzen, die zum Erkennen von Hebegesten bzw. Fokusverlustgesten gehören. Beispielsweise kann der Coprozessor 208 umfassen: ein Modul zum Erkennen eines Vorglühereignisses 220, um den möglichen Beginn einer Hebegeste zu erkennen, ein erstes „Haupterkennungsmodul” 222, um eine natürliche Hebegeste in Umgebungen mit niedriger Dynamik zu erkennen, ein zweites Haupterkennungsmodul 224, um eine natürliche Hebegeste in Umgebungen mit hoher Dynamik zu erkennen, ein Modul zum Erkennen einer Zitterbewegung 226, um eine bewusste Hebegeste zu erkennen, und ein Fokusverlustmodul 228, um zu erkennen, wenn der Benutzer die Vorrichtung aus einer angenommenen Sichtlinie entfernt. Beispielhafte Algorithmen, die in den Modulen 220, 222, 224, 226 und 228 ausgeführt werden können, werden unten stehend beschrieben.
  • Die Aktivierungssteuerlogik 230 kann den Betrieb der Analysemodule 220228 steuern und Feststellungen zum Zustand von Gesten empfangen, die von den Modulen 220228 gesendet werden. Beispielsweise kann die Aktivierungssteuerlogik auf der Grundlage des aktuellen Gestenzustandes bestimmen, welches der Module 220228 zu einem bestimmten Zeitpunkt aktiviert werden sollten, und ist in der Lage, verschiedene Algorithmen selektiv zu aktivieren oder deaktivieren. Durch die selektive Deaktivierung eines Algorithmus lässt sich die Leistungsaufnahme des Coprozessors 208 verringern. Zusätzlich kann die Aktivierungssteuerlogik 230 zusätzlich zu den Feststellungen des Zustandes der Gesten Mitteilungen an den Anwendungsprozessor 204 bzw. die Benutzerschnittstelle 202 senden, wozu die Anwendungsprozessorschnittstelle 214 eingesetzt wird.
  • Bei einigen Ausführungsformen kann die Aktivierungssteuerlogik 230 bzw. können die Module zur Analyse von Bewegungen 220228 zusätzliche unterstützende Module nutzen, die Algorithmen oder Abläufe selektiv oder fortlaufend ausführen können. Beispielsweise kann der Aktivitätsklassifikator 232 Daten von einem Beschleunigungssensor 210 bzw. einem Gyroskop 212 (sowie von anderen Sensoren, wie beispielsweise physiologische Sensoren, die in der Vorrichtung 200 vorhanden sein können) empfangen und die Daten auswerten, um die Art der Aktivität, mit der sich der Benutzer beschäftigt, zu bestimmen, z. B. Spazieren, Sitzen oder still Stehen, Joggen, Laufen, Fahrrad fahren, Auto fahren usw. Der Aktivitätsklassifikator 232 kann Algorithmen zum Anlernen von Maschinen umsetzen, die charakteristische Merkmale im Zusammenhang mit verschiedenen Arten von Aktivitäten erkennen, und die Algorithmen können durch die Erfassung von Sensordaten während bekannter Benutzeraktivitäten vor dem Einsatz des Aktivitätsklassifikators 232 geschult werden.
  • Bei einigen Ausführungsformen kann die Aktivierungssteuerlogik 230 die Ausgabe des Aktivitätsklassifikators 232 nutzen, um festzustellen, ob die Vorrichtung 200 in einer Umgebung mit niedriger Dynamik verwendet wird (z. B. Sitzen, Spazieren oder andere relativ langsame Bewegungen), in welchem Fall das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 eingesetzt werden kann, oder aber in einer Umgebung mit hoher Dynamik (z. B. Laufen), in welchem Fall das Haupterkennungsmodul für Umgebungen hoher Dynamik 224 eingesetzt werden sollte. Die Aktivierungssteuerlogik 230 kann Modul 222 oder 224 selektiv aktivieren oder deaktivieren, je nach Art der Umgebung, die durch den Aktivitätsklassifikator 232 angezeigt wird.
  • Bei einigen Ausführungsformen kann der Gestenklassifikator 234 eingesetzt werden, um das Erkennen einer natürlichen Hebegeste zu bestätigen, die durch das Haupterkennungsmodul 222 oder 224 erkannt wurde. Wie unten stehend beschrieben, können die Haupterkennungsmodule 222 und 224 die Position der Vorrichtung als eine Funktion der Zeit auswerten, um eine Hebegeste energieeffizient zu erkennen. Diese Algorithmen können aufgrund von Aktionen der Benutzer, die eine Bewegung umfassen, die dem Anheben der Vorrichtung 200 in die Sichtlinie gleicht, aber eigentlich nicht diese Wirkung hat, manchmal jedoch falsch positive Ergebnisse generieren. Beispielsweise kann der Benutzer einen Türknauf drehen, um eine Tür zu öffnen, oder ein Glas anheben, um etwas zu trinken. Der Gestenldassifikator 234 kann Algorithmen zum Anlernen von Maschinen umsetzen, die geschult wurden, um eine Hebegeste zuverlässig von anderen ähnlichen Bewegungen zu unterscheiden. Bei einigen Ausführungsformen kann der Gestenklassifikator 234 durch die Erfassung von Daten vom Beschleunigungssensor bzw. Gyroskop angelernt werden, während der Benutzer konkrete Aktionen ausführt (einschließlich der Hebegeste sowie anderer ähnlicher Aktionen), in Umständen, in denen die konkrete ausgeführte Aktion zusammen mit Daten vom Beschleunigungssensor bzw. Gyroskop aufgezeichnet werden kann. Diese Informationen können verwendet werden, um den Algorithmus zum Generieren einer Ausgabe anzulernen, die zuverlässig zwischen einer Hebegeste und anderen ähnlichen Gesten unterscheidet. Dementsprechend kann der Erkennungsalgorithmus (oder die Aktivierungssteuerlogik 230), wenn das Haupterkennungsmodul 222 oder 224 eine Geste erkennt, dem Gestenklassifikator 234 relevante Hauptdaten zur weiteren Bestätigung oder Einstellung bereitstellen. Beispiele für die Verwendung des Gestenklassifikators 234 sind unten stehend im Zusammenhang mit den Ausführungsformen des Haupterkennungsmoduls 22 aufgeführt. Bei einigen Ausführungsformen kann der Gestenklassifikator 234 auf dem Anwendungsprozessor 204 laufen, sofern der Anwendungsprozessor 204 in seinem aktiven Zustand ist.
  • 2B ist ein Blockdiagramm, das Komponenten einer Vorrichtung 250 entsprechend einer Ausführung der vorliegenden Erfindung zeigt. Bei der Vorrichtung 250 kann es sich beispielsweise um eine Umsetzung der am Handgelenk tragbaren Vorrichtung 102 handeln, siehe 1A1D. Die Vorrichtung 250 kann eine Benutzerschnittstellenkomponente 252, eine Anwendungsrecheneinheit 254, eine Bewegungsrecheneinheit 258 und einen Bewegungssensor 260 enthalten. Die Benutzerschnittstellenkomponente 252 kann der Benutzerschnittstelle 202 aus 2A (oder Komponenten davon, wie beispielsweise eine Touchscreen-Anzeige) ähnlich oder gleich sein. Die Hauptrecheneinheit 254 kann dem Anwendungsprozessor 204 aus 2A ähnlich oder gleich sein. Der Bewegungssensor 260 kann einen oder mehrere Bewegungssensoren enthalten, die dem Beschleunigungssensor 210 bzw. dem Gyroskopsensor 212 aus 2A ähnlich oder gleich sind. Andere Benutzerschnittstellenkomponenten bzw. Bewegungssensoren können auch Verwendung finden.
  • Die Bewegungsrecheneinheit 258 kann dem Coprozessor 208 aus 2A ähnlich oder gleich sein. Die Bewegungsrecheneinheit 258 kann verschiedene Module zum Erkennen von Gesten enthalten. Beispielsweise kann das Modul zum Erkennen eines Vorglühereignisses 270 dem Modul zum Erkennen eines Vorglühereignisses 220 aus 2A ähnlich oder gleich sein. Das Modul zum Erkennen einer natürlichen Hebegeste (niedrige Dynamik) 272 und das Modul zum Erkennen einer natürlichen Hebegeste (hohe Dynamik) 274 können dem Haupterkennungsmodul (niedrige Dynamik) 222 und dem Haupterkennungsmodul (hohe Dynamik) 224 aus 2A ähnlich oder gleich sein. Das Modul zum Erkennen einer bewussten Hebegeste 276 kann dem Modul zum Erkennen einer Zitterbewegung 226 aus 2A ähnlich oder gleich sein. Das Modul zum Erkennen eines Fokusverlustes 278 kann dem Modul zum Erkennen eines Fokusverlustes 228 aus 2A ähnlich oder gleich sein. Das Modul zum Erkennen einer bewussten Hebegeste 282 kann dem Modul zum Erkennen einer Zitterbewegung 232 aus 2A ähnlich oder gleich sein. Das Gestenklassifikatormodul 284 kann dem Gestenklassifikator 234 aus 2A ähnlich oder gleich sein. Zusätzliche oder andere Module können enthalten sein, und einige Ausführungsformen können mehr oder weniger Module als abgebildet enthalten.
  • Es wird darauf hingewiesen, dass die Vorrichtungen 200 und 250 veranschaulichenden Charakters sind und dass Variationen und Modifikationen möglich sind. Ausführungsformen der Vorrichtungen 200 oder 250 können zusätzlich zu den oder anstatt der gezeigten Komponenten andere Komponenten enthalten. Beispielsweise kann die Vorrichtung 200 oder 250 eine Stromquelle (z. B. eine Batterie) und Komponenten zur Stromverteilung bzw. Energieverwaltung enthalten. Die Vorrichtung 200 oder 250 kann andere Sensoren, wie beispielsweise einen Kompass, ein Thermometer oder einen anderen externen Temperatursensor, einen GPS-Empfänger oder dergleichen zur Bestimmung der absoluten Position, eine Kamera, um Bilder aufzunehmen, physiologische Sensoren (z. B. Herzfrequenzsensor, Blutdrucksensor, Hautleitfähigkeitssensor, Hauttemperatursensor) usw. enthalten. Die Vorrichtung 200 oder 250 kann Kommunikationskomponenten enthalten, um die Kommunikation mit anderen Vorrichtungen zu ermöglichen, einschließlich persönlicher Vorrichtungen bzw. Vorrichtungen für den Zugriff auf Netzwerke. Beispielsweise kann die Vorrichtung 200 oder 250 eine Funkfrequenz-Sende-Empfangsgerät und einen damit verbundenen Protokollstapel enthalten, der einen oder mehrere Standards zur drahtlosen Kommunikation umsetzt (z. B. Bluetooth-Standards; Standards der Familie IEEE 802.11; Standards der mobilen Datennetze, wie beispielsweise 3G, LTE usw.). Zusätzlich oder anstelle dessen kann die Vorrichtung 200 oder 250 eine drahtgebundene Kommunikationsschnittstelle enthalten, wie beispielsweise einen Buchsenstecker (z. B. mit Unterstützung für USB, UART, Ethernet oder andere drahtgebundene Kommunikationsprotokolle).
  • Ferner wird, während die Vorrichtungen 200 und 250 unter Bezugnahme auf konkrete Blöcke beschrieben werden, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Geräten umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden. Ferner sind die Vorrichtungen 200 und 250 vollständig austauschbar und es wird vorausgesetzt, dass jede Beschreibung, die sich auf die Vorrichtung 200 (oder Komponenten davon) bezieht, auch auf Vorrichtung 250 angewendet werden kann.
  • Während des Betriebs kann der Coprozessor 208 „immer eingeschaltet” sein (z. B. warm immer die Vorrichtung 200 getragen wird) und kann die Aktivierungssteuerlogik 230 ein oder alle Module (220, 222, 224, 226, 228) selektiv aktivieren, z. B. je nachdem, ob der Benutzer auf die Vorrichtung schaut. Diese Algorithmen können verschiedene Gestenzustandsereignisse erkennen und melden, einschließlich Hebegesten, Vorglühereignissen, Fokusverlustereignissen usw. Konkrete Beispiele sind unten stehend beschrieben. Meldet ein Algorithmus ein Ereignis, kann die Aktivierungssteuerlogik 230 den Anwendungsprozessor 204 über die Anwendungsprozessorschnittstelle 214 über das Ereignis in Kenntnis setzen. In Abhängigkeit vom Ereignis kann der Anwendungsprozessor 204 verschiedene Maßnahmen ergreifen, wie beispielsweise den Übergang vom Ruhezustand in einen aktiven Zustand bzw. die Überführung der Komponenten der Benutzerschnittstelle 202 vom aktiven in den Ruhezustand und umgekehrt.
  • Beispiele konkreter Algorithmen zum Erkennen von Ereignissen im Zusammenhang mit Gesten werden unten stehend beschrieben. In diesem Kontext bezieht sich der Begriff „Ereignis im Zusammenhang mit einer Geste” im Allgemeinen auf einen beliebigen mit einer Geste zusammenhängenden Übergang, der durch ein Modul oder einen Algorithmus erkannt wurde, wie beispielsweise Module 220, 222, 224, 226, 228. Beispiele für solche Ereignisse sind unter anderem Hebegesten (einschließlich der Bestimmung „möglicher”, „erkannter” bzw. „bestätigter” Hebegesten, siehe unten stehende Beschreibung), Vorglühgesten bzw. Fokusverlustgesten. Algorithmen entsprechend der unten stehenden Beschreibung können beispielsweise durch die Bereitstellung von geeignetem Programmcode für einen programmierbaren Prozessor (z. B. Coprozessor 208) bzw. durch die Bereitstellung von fest zugeordneten logischen Schaltungen zur Durchführung der oben stehend beschriebenen Abläufe umgesetzt werden.
  • Bei einigen Ausführungsformen kann ein Algorithmus zum Erkennen einer Hebegeste über eine Reihe von Zuständen steigenden Vertrauens, dass eine Hebegeste erfolgte, fortschreiten. Beispielsweise kann ein Algorithmus zum Erkennen einer Hebegeste eine Menge an Datenproben von einem Bewegungssensor auswählen (einschließlich Daten von einem Beschleunigungssensor bzw. einem Gyroskop), die einem Zeitraum von Interesse entsprechen (z. B. die Zeit, die ein Benutzer wahrscheinlich benötigen würde, um eine Hebegeste auszuführen). Durch die Berücksichtigung der ältesten Datenprobe(n) in der Menge, kann der Algorithmus eine „Ausgangsposition” festlegen, die die räumliche Ausrichtung der Vorrichtung zu Beginn des Zeitraums widerspiegeln kann. Die Ausrichtung kann in Relation zur angenommenen vertikalen Schwerpunktachse definiert werden. Auf der Grundlage der Ausgangsposition kann der Algorithmus den Umfang bzw. die Richtung(en) der Bewegung bestimmen, die wahrscheinlich erfolgt/erfolgen würden, um die Anzeige der Vorrichtung in die Sichtlinie des Benutzers zu bringen (auch als die Bewegung bezeichnet, mit der die Vorrichtung in eine „Fokusposition” gebracht wird). Der wahrscheinliche Umfang bzw. die wahrscheinliche(n) Richtung(en) der Bewegung können als Kriterien zur Bestimmung einer „möglichen” Hebegeste ausgedrückt werden, wobei diese Kriterien verwendet werden können, um festzustellen, auf der Grundlage einiger oder aller Datenproben des Bewegungssensors in der Menge, ob eine mögliche Hebegeste erfolgt ist. Die mögliche Hebegeste kann ferner als eine „erkannte” Hebegeste bestimmt werden, indem festgestellt wird, ob die Vorrichtung, nach Erreichen einer Fokusposition, mindestens über einen Mindestzeitraum in einer Fokusposition verbleibt. Eine weitere Bestätigung kann, sofern gewünscht, unter Zuhilfenahme eines Gestenklassifikators erfolgen. Der Algorithmus zum Erkennen einer Hebegeste kann andere Komponenten der Vorrichtung in Kenntnis setzen, wenn er eine mögliche, eine erkannte bzw. eine bestätigte Hebegeste feststellt.
  • Anhand eines konkreten Beispiels einer abgestuften Herangehensweise an das Erkennen einer Hebegeste zeigt 4 ein Flussdiagramm für einen Ablauf zum Erkennen einer Hebegeste 400 entsprechend einer Ausführungsform der vorliegenden Erfindung. Der Ablauf 400 kann beispielsweise im Haupterkennungsmodul (niedrige Dynamik) 222 in 2A angewendet werden. Der Ablauf zum Erkennen einer Hebegeste 400 kann über eine Reihe von Gestenzuständen (möglich, erkannt, bestätigt) fortschreiten und jeden Übergang zwischen den Zuständen melden, z. B. an die Aktivierungssteuerlogik 230 in 2A. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 die Übergänge zwischen den Gestenzuständen nutzen, um festzustellen, ob und wann der Anwendungsprozessor 204 aktiviert werden soll bzw. ob und wann der Anwendungsprozessor 204 instruiert werden soll, die Benutzerschnittstelle 202 zu aktivieren.
  • Der Ablauf 400 kann beginnen (Block 402), wenn die Benutzerschnittstelle 202 aktiviert wurde. Zu diesem Zeitpunkt kann sich der Anwendungsprozessor 204 in einem Ruhezustand oder einem aktiven Zustand befinden. Der Beschleunigungssensor 210 kann bei einer regelmäßigen Abtastfrequenz (z. B. 100 Hz) aktualisierte Daten bereitstellen und die Daten können Vektorkomponenten der Beschleunigung anzeigen (ax, ay, az), unter Zuhilfenahme von auf die Vorrichtung bezogenen Koordinaten, siehe 3. Empfangene Daten können gepuffert werden, z. B. unter Zuhilfenahme eines zirkulären Puffers oder FIFO oder Ähnlichem.
  • Bei Block 404 kann der Ablauf 400 Datenproben aus dem Datenpuffer des Beschleunigungssensors lesen. Die Menge an Daten kann von der Abtastfrequenz und vom gewünschten Zeitraum zur Auswertung der Bewegung abhängen. Beispielsweise kann der Ablauf 400 die Daten entsprechend eines festen Zeitraums oder Zeitfensters lesen, beispielsweise 0,5 Sekunden, 1 Sekunde oder Ähnliches.
  • Bei Block 406 kann der Ablauf 400 eine Ausgangsposition für die Vorrichtung abschätzen, z. B. auf der Grundlage der ältesten Proben, die aus dem Puffer ausgelesen wurden, die dem Beginn des Zeitraums entsprechen kann. Bei einigen Ausführungsformen umfassen die Ablesewerte des Beschleunigungssensors die Erdbeschleunigung (1 g, in eine Richtung, die von der Ausrichtung der Vorrichtung abhängt). Dementsprechend kann die Ausrichtung der Vorrichtung in Relation zur Erdanziehungskraft auf der Grundlage der Daten vom Beschleunigungssensor bestimmt werden, wenn andere Beschleunigungen relativ gering sind. Beispielsweise kann der Beschleunigungssensor 210 in der Position in 1A, in der der Arm locker herabhängt, ein ax von circa 1 g und ein ay und az von circa Null feststellen. In der Position in 1C, in der der Benutzer auf einer Tastatur schreibt, kann der Beschleunigungssensor 210 ein ax von circa 0, ein ay zwischen 0 und 1 g und ein az zwischen 0 und –1 g feststellen. Dementsprechend kann Block 406 einen Vergleich der ältesten Proben (z. B. Durchschnitt von 5–10 Proben) mit Probenmustern im Zusammenhang mit bestimmten kanonischen Ausgangspositionen umfassen. Die kanonischen Ausgangspositionen können vor dem Einsatz der Vorrichtung festgelegt werden, beispielsweise auf der Grundlage von Messungen des Beschleunigungssensors unter Bedingungen, unter denen von einem Träger der Vorrichtung bekannt ist, dass er/sie sich in einer bestimmten Position befindet (z. B. die Position in 1A oder 1C). Bei einigen Ausführungsformen kann die Ausgangsposition als eine Mischung aus mehreren kanonischen Ausgangspositionen festgelegt werden. Beispielsweise kann die Mischung als ein gewichteter Durchschnittswert der kanonischen Ausgangspositionen definiert werden, wobei die Wichtung für jede kanonische Ausgangsposition auf einem Maß des Ähnlichkeitsgrades der gemessenen Ausrichtung der Vorrichtung zu einer Ausrichtung der Vorrichtung im Zusammenhang mit der kanonischen Ausgangsposition basiert.
  • Bei Block 408 kann der Ablauf 400 auf der Grundlage der geschätzten Ausgangsposition Kriterien zur Feststellung einer „möglichen” Hebegeste auswählen, die aus dieser Ausgangsposition ausgeführt wird. Unterschiedliche Kriterien können für unterschiedliche Ausgangspositionen vorgegeben werden. Hängt der Arm in der Ausgangsposition beispielsweise locker nach unten (z. B. siehe 1A), würde man von einer Hebegeste erwarten, dass der Unterarm bei dieser angehoben und das Handgelenk gedreht werden, wobei beide Bewegungen hauptsächlich durch eine Bezugnahme auf Änderungen hinsichtlich ax und ay erkannt werden können, wenngleich eine gewisse Auswirkung auf az ebenfalls zu erwarten ist. Handelt es sich bei der Ausgangsposition um eine Position, in der der Benutzer auf einer Tastatur schreibt (z. B. 1C), kann sich der Unterarm gar nicht oder nur wenig anheben (was letztendlich zu einer kleinen Änderung hinsichtlich ax führt), es würde aber wahrscheinlich eine Änderung der Neigung auftreten, die sich unter Umständen am zuverlässigsten als eine Änderung hinsichtlich ay feststellen lässt. Andere Kriterien, die sich von den Daten des Beschleunigungssensors im Puffer ableiten lassen, können ebenfalls eingesetzt werden, wie beispielsweise der Parameter, der die Gleichmäßigkeit der Bewegung quantifiziert (unter der Annahme, dass eine absichtliche Geste gleichmäßig ausgeführt würde, im Gegensatz zum unbeabsichtigten Rütteln oder anderen zufälligen Bewegungen, die der Benutzer unter Umständen erlebt). Bei einigen Ausführungsformen kann eine Menge von Kriterien zur Feststellung einer möglichen Hebegeste bei vorgegebener Ausgangsposition heuristisch bestimmt werden. Beispielsweise können mehrere Benutzer gebeten werden, ausgehend von einer bestimmten Ausgangsposition, Hebegesten auszuführen, wobei die dadurch erhaltenen Daten vom Beschleunigungssensor während der gesamten Bewegung vom Ausgangspunkt bis zum Abschluss der Hebegeste gesammelt werden können. Statistische Algorithmen können angewendet werden, um diese Daten mit dem Ziel auszuwerten, bestimmte Kriterien herauszuarbeiten (z. B. Grenzwerte für die Änderung von ay, der Gleichmäßigkeit der Bewegung usw.), um eine mögliche Hebegeste zu erkennen, die von dieser bestimmten Ausgangsposition ausgeführt wird. Die Kriterien können in dieser Phase roh sein, so dass einige falsch positive Ergebnisse auftreten können, während falsch negative Ergebnisse auf einem relativ niedrigen Niveau gehalten werden. Die heuristische Übung kann für eine beliebige Anzahl kanonischer Ausgangspositionen wiederholt werden, um positionsabhängige Grenzwertkriterien zu erarbeiten. Bei einigen Ausführungsformen können die Ergebnisse der Auswertung verwendet werden, um eine Tabelle mit solchen Kriterien dahingehend zu erstellen, dass unter Vorgabe einer Ausgangsposition, die bei Block 406 geschätzt wurde, eine entsprechende Menge von Kriterien zur Bestimmung einer möglichen Hebegeste bei Block 408 unter Bezugnahme auf die Tabelle ausgewählt werden können. Bei einigen Ausführungsformen kann die Ausgangsposition als eine Mischung aus mehreren kanonischen Ausgangspositionen definiert werden. Wo dies der Fall ist, kann Block 408 Mischungsauswahlkriterien enthalten, die für mehrere kanonische Ausgangspositionen definiert sind.
  • Bei Block 410 kann der Ablauf 400 feststellen, ob eine mögliche Hebegeste erkannt wird. z. B. ob die bei Block 408 ausgewählten Kriterien erfüllt sind. Bei einigen Ausführungsformen kann die Feststellung einen Vergleich bestimmter Datenproben vom Beschleunigungssensor bzw. anderer aufgrund der Datenproben des Beschleunigungssensors berechneten Parameter mit den bei Block 408 ausgewählten Grenzwertkriterien mit einer möglichen Hebegeste umfassen, die erkannt wird, wenn die Grenzwertkriterien erfüllt sind. Darüber hinaus kann erwartet werden, dass die Vorrichtung, wenn eine Hebegeste ausgeführt wird, nach Abschluss der Geste in einer Ausrichtung zur Ruhe kommt, in der ihre Anzeige in der Sichtlinie des Benutzers liegt. Dementsprechend kann Block 410 die Abschätzung einer Endposition für die Vorrichtung umfassen, z. B. auf der Grundlage der neuesten Proben, die aus dem Puffer ausgelesen wurden, die dem Ende des Zeitraums entsprechen kann. Die Endposition kann mit einer Reihe von Positionen verglichen werden, in denen die Anzeige in der Sichtlinie des Benutzers liegt (z. B. eine Reihe von Neigungswinkeln in Y- bzw. X-Richtung in Relation zur horizontalen Richtung), wobei die mögliche Hebegeste dann erkannt wird, wenn die Endposition innerhalb dieser Reihe liegt. Der Begriff „Fokusposition” bezieht sich in diesem Dokument im Allgemeinen auf eine beliebige Position innerhalb der Reihe von Positionen, bei denen laut Einschätzung die Vorrichtung in der Sichtlinie des Benutzers ist (z. B. basierend auf den Neigungswinkeln).
  • Wird eine mögliche Hebegeste nicht erkannt, kann der Ablauf 400 zu Block 404 zurückkehren, um zusätzliche Daten vom Beschleunigungssensor auszulesen. Wie oben stehend erwähnt, kann es sich bei den bei Block 404 gelesenen Daten um ein Fenster mit unveränderbarer Länge handeln, das einem festen Zeitraum der Echtzeit entspricht. Nachfolgende Datenfenster, die während nachfolgender Durchläufe von Block 404 gelesen wurden, können eingeblendet werden. Wenn das Fenster beispielsweise 1 Sekunde der Echtzeit entspricht, können nachfolgende Durchläufe alle 0,1 Sekunden oder Ähnliches erfolgen (oder schneller; solange das Fenster zwischen den Durchläufen um mindestens eine Probe verschiebt, wird die Auswertung nachfolgender Durchläufe von den Blöcken 406 und 408 nicht redundant). Dadurch sinkt unter Umständen die Wahrscheinlichkeit, dass ein falsch negatives Ergebnis durch Fensterungseffekte auftritt.
  • Wenn eine mögliche Hebegeste bei Block 410 erkannt wird, kann der Ablauf 400 bei Block 412 die Aktivierungssteuerlogik 230 darüber informieren, dass eine mögliche Hebegeste erkannt wurde. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Benachrichtigung des Anwendungsprozessors 204 bzw. der Benutzerschnittstelle 202. Bei Block 414 kann der Ablauf 400 zusätzliche Datenproben vom Beschleunigungssensor überwachen (z. B. einschließlich neu empfangener Proben außerhalb des ursprünglichen Fensters), um festzustellen, ob die Vorrichtung in einer Fokusposition verbleibt (z. B. die Vorrichtung behält eine ungefähr konstante Position bei) oder sich weiter bewegt. Wie oben stehend aufgeführt, kann die Fokusposition beispielsweise auf der Grundlage eines bestimmten Bereichs an Neigungswinkeln definiert werden, die zu erwarten sind, wenn ein Benutzer auf die Vorrichtung schaut. Neigungswinkel lassen sich aus den Daten vom Beschleunigungssensor ableiten und wenn der Neigungswinkel diesen Bereich erreicht und darin verbleibt, kann diese Bedingung einem Verweilen in der Fokusposition entsprechen.
  • Bei einigen Ausführungsformen kann der Bereich der Datenwerte vom Beschleunigungssensor, welcher der Fokusposition entspricht, zumindest teilweise von der Ausgangsposition abhängen. Der Übergang von einer Ausgangsposition in eine Fokusposition kann beispielsweise das Auflaufen einer bestimmten Menge an Neigung entlang der Y-Achse umfassen (in diesem Dokument auch „Y-Neigung” genannt). Die aufgelaufene Y-Neigung lässt sich beispielsweise als eine Nettoänderung von einer Ausgangskomponente ay messen, die größer oder gleich Null ist (während das Handgelenk des Benutzers weggedreht ist), gegenüber einer Endkomponente ay, die kleiner als Null ist (wenn das Handgelenk so gedreht ist, dass die Anzeige in Richtung Gesicht des Benutzers zeigt). Bei Block 414 kann überwacht werden, ob die Y-Neigung konstant bleibt, weiter aufläuft oder in der Richtung umkehrt, wobei eine Abnahme der aufgelaufenen Y-Neigung auf eine Bewegung in einen Bereich außerhalb der Fokusposition hindeutet.
  • Der Ablauf 400 kann die Verweildauer bei Block 414 überwachen, bis die Verweildauer einen Grenzwert erreicht oder diesen überschreitet (z. B. 0,1 Sekunde, 0,5 Sekunden oder Ähnliches) oder bis die Daten des Beschleunigungssensors darauf hindeuten, dass die Fokusposition verlassen wurde. Bei Block 416 kann der Ablauf 400, sofern die Fokusposition verlassen wurde, bevor die Verweildauer den Grenzwert erreicht, zu Block 404 zurückkehren, um eine neue Ausgangsposition festzulegen und zu versuchen, eine weitere mögliche Hebegeste zu erkennen.
  • Überschreitet bei Block 416 die Verweildauer in der Fokusposition einen Grenzwert, kann eine vorher erkannte mögliche Hebegeste als eine erkannte Hebegeste neu klassifiziert werden. Bei Block 418 kann der Ablauf 400 die Aktivierungssteuerlogik 230 darüber in Kenntnis setzen, dass eine erkannte Hebegeste erfolgt ist. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Aktivierung der Benutzerschnittstelle 202, die Benachrichtigung des Anwendungsprozessors 204 usw.
  • Bei einigen Ausführungsformen kann eine weitere Bestätigung einer Hebegeste zur Verringerung falsch positiver Ergebnisse unter Umständen wünschenswert sein. Dementsprechend kann der Ablauf 400 bei Block 420, nachdem eine Hebegeste erkannt wurde, einen weiteren Analyseablauf anstoßen, z. B. Gestenklassifikator 234 in 2A. Wie oben stehend beschrieben, kann es sich bei dem Gestenklassifikator 234 um einen Algorithmus zum Maschinenlernen handeln, der vorher geschult wurde, um eine Hebegeste von anderen ähnlichen Gesten zu unterscheiden. Der Gestenklassifikator 234 kann die durch Ablauf 400 bei Block 420 bereitgestellten Daten analysieren, um die erkannte Hebegeste entweder zu bestätigen oder nicht zu bestätigen. Bei Block 422 kann der Ablauf 400, sofern die Hebegeste bestätigt wurde, somit die Aktivierungssteuerlogik 230 bei Block 424 informieren, wonach der Ablauf 400 enden kann (Block 426). Wird die Hebegeste bei Block 422 nicht bestätigt, kann der Ablauf 400 somit die Aktivierungssteuerlogik 230 bei Block 428 informieren, wonach der Ablauf 400 zu Block 404 zurückkehren kann, um zu versuchen, eine andere mögliche Hebegeste zu erkennen. Bei einigen Ausführungsformen kann der Ablauf 400, nachdem er bei Block 426 geendet ist, jederzeit neu gestartet werden (bei Block 402), z. B. wenn ein Fokusverlust erkannt wird (siehe oben stehende Beschreibung) oder wenn die Benutzerschnittstelle 202 aus irgendeinem Grund inaktiv wird.
  • 5 ist ein Flussdiagramm eines Ablaufs 500 zum Bestätigen einer Geste unter Zuhilfenahme eines Gestenklassifikators entsprechend einer Ausführungsform der vorliegenden Erfindung. Der Ablauf 500 kann in Verbindung mit dem oben stehend beschriebenen Ablauf 400 aus 4 angewendet werden. Der Ablauf 500 kann beispielsweise durch ein Hauptgestenerkennungsmodul 222 ausgeführt werden, wodurch ein Gestenldassifikator 234 aufgerufen werden kann.
  • Der Ablauf 500 kann bei Block 502 beginnen, wenn das Hauptgestenerkennungsmodul 222 eine Hebegeste erkennt, z. B. bei Block 416 von Ablauf 400. Bei Block 504 kann das Hauptgestenerkennungsmodul 222 der erkannten Hebegeste eine Vertrauensbewertung zuweisen. Bei einigen Ausführungsformen kann die Vertrauensbewertung auf einer Kombination dessen basieren, wie gut die Position der Vorrichtung mit den erwarteten Eigenschaften einer Fokusposition (z. B. ob die Position der Vorrichtung in der Nähe der Grenze oder Mitte des Bereiches der Datenwerte vom Beschleunigungssensor bzw. den Neigungswerten liegt, die für eine Fokusposition erwartet werden) und der Verweildauer in der Fokusposition übereinstimmt.
  • Bei Block 506 kann der Ablauf 500 einen auffallenden Ausgangspunkt (hinsichtlich der Zeit) für den Gestenklassifikator auswählen. Der auffallende Ausgangspunkt kann auf einem Trend der Datenproben vom Beschleunigungssensor basieren, der zur Fokusposition führt. Beispielsweise kann der Ablauf 500 den Zeitpunkt kenntlich machen, an dem die Datenproben vom Beschleunigungssensor begannen, sich zu so verändern, dass diese Änderung auf die Hebegeste schließen ließ. Dadurch kann der Ablauf 500 die Tatsache berücksichtigen, dass ein Benutzer eine Hebegeste unterschiedlich schnell ausführen kann. Hat sich der Benutzer schnell bewegt, liegt der auffallende Ausgangspunkt näher an der aktuellen Position (d. h. letzte Probe) als bei einer langsamen Bewegung des Benutzers. Dementsprechend kann das für die Klassifizierung der Gesten relevante Datenfenster unterschiedlich sein.
  • Bei Block 508 kann der Ablauf 500 Eigenschaften von Interesse für den Gestenklassifikator aus einem Datenfenster extrahieren, das vom auffallenden Ausgangspunkt bis zur aktuellen Position reicht. Die Eigenschaften von Interesse für eine Hebegeste können davon abhängen, wie der Gestenklassifikator angelernt wurde. Bei einigen Ausführungsformen, bei denen ein Gestenldassifikator auf der Grundlage von Daten vom Beschleunigungssensor arbeitet, können Eigenschaften von Interesse Folgendes umfassen: die eigentlichen Proben vom Beschleunigungssensor (ax, ay, az); einen Gleichmäßigkeitsparameter (z. B. auf der Grundlage einer standardmäßigen Abweichung der Änderungen zwischen aufeinander folgenden Proben vom Beschleunigungssensor); eine aufgelaufene Neigung (z. B. Y-Neigung) als Funktion der Zeit; und die Ausgangs- und Endausrichtung oder -stellung der Vorrichtung (z. B. Neigungswerte zu Beginn und am Ende). Bei einigen Ausführungsformen, bei denen ein Gestenklassifikator auf der Grundlage von Daten vom Gyroskop arbeitet, können Eigenschaften von Interesse Folgendes umfassen: die eigentlichen Proben vom Gyroskop (rx, ry, rz); eine in der horizontalen Ebene durchquerte Bogenlänge (d. h. die Ebene, die senkrecht zur Richtung der Schwerkraft steht); und einen Gleichmäßigkeitsparameter (z. B. auf der Grundlage einer standardmäßigen Abweichung der Änderungen zwischen aufeinander folgenden Proben vom Gyroskop).
  • Bei Block 510 kann der Ablauf 500 den Gestenldassifikator 234 dazu bringen, die extrahierten Eigenschaften zu verarbeiten. Bei einigen Ausführungsformen kann es sich bei dem Gestenklassifikator 234 um einen Bayes-Klassifikator handeln, der eine lineare Diskriminanzanalyse durchführt. Wie oben stehend beschrieben, kann der Algorithmus für die lineare Diskriminanzanalyse vor seiner Verwendung angelernt werden, wodurch der Gestenldassifikator 234 schnell eine Wahrscheinlichkeit berechnen kann, dass die Eigenschaften einer Hebegeste entsprechen. Bei Block 512 kann der Ablauf 500 eine Ausgabe vom Gestenldassifikator 234 empfangen. Die Ausgabe kann beispielsweise eine Wahrscheinlichkeit (zwischen 0 und 1) dafür umfassen, dass eine Hebegeste ausgeführt wurde.
  • Bei Block 514 kann der Ablauf 500 feststellen, ob die Hebegeste bestätigt wird oder nicht. Bei einigen Ausführungsformen kann die Feststellung auf einem Grenzwert im Hinblick auf die Wahrscheinlichkeitsausgabe des Gestenklassifikators 234 basieren, wobei der Grenzwert beispielsweise auf 0,5, 0,75, 0,85 oder auf irgendeinen anderen gewünschten Grenzwert eingestellt werden kann. Höhere Grenzwerte liefern in der Regel weniger falsch positive Ergebnisse, aber mehr falsch negative Ergebnisse, und der optimale Grenzwert kann auf der Grundlage von annehmbaren Niveaus an falsch positiven bzw. falsch negativen Ergebnissen in einer bestimmten Umsetzung ausgewählt werden. Bei einigen Ausführungsformen kann der Grenzwert als eine Funktion der Vertrauensbewertung ausgewählt werden, die bei Block 504 zugewiesen wurde. Beispielsweise führt eine höhere Vertrauensbewertung bei Block 515 unter Umständen zu einem niedrigeren Grenzwert hinsichtlich der durch den Gestenklassifikator zugewiesenen Wahrscheinlichkeit, wohingegen eine niedrigere Vertrauensbewertung unter Umständen zu einem höheren Grenzwert hinsichtlich der durch den Gestenklassifikator zugewiesenen Wahrscheinlichkeit führt.
  • Bei Block 516 kann der Ablauf 500 feststellen, ob eine Entscheidung ausgegeben oder auf weitere Daten gewartet werden soll. Wird die Geste beispielsweise nicht bestätigt, liegt die Wahrscheinlichkeitsausgabe vom Gestenklassifikator jedoch Nahe des Grenzwertes, kann es wünschenswert sein, auf zusätzliche Daten zu warten. In diesem Fall kann der Ablauf 500 bei Block 518 enden, ohne die Hebegeste zu bestätigen oder nicht zu bestätigen, und die Steuerung kann zu Block 414 des oben stehend beschriebenen Ablaufs 400 zurückkehren. Alternativ, kann der Ablauf 500 bei Block 520 enden, entweder mit einer Bestätigung oder einem Abbruch, und die Steuerung kann zu Block 422 des oben stehend beschriebenen Ablaufs 400 zurückkehren.
  • Es wird darauf hingewiesen, dass der Ablauf 500 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Beispielsweise können andere Bestätigungsalgorithmen verwendet werden. Bei einigen Ausführungsformen kann der Ablauf 500 immer zu einer Entscheidung „bestätigen” oder „nicht bestätigen” führen, ohne eine Warteoption.
  • Bei einigen Ausführungsformen kann eine Bestätigung oder Nicht-Bestätigung des Gestenklassifikators 234 das Verhalten der Vorrichtung beeinflussen. Beispielsweise kann die Aktivierung einiger oder aller Benutzerschnittstellenkomponenten verzögert werden, bis eine erkannte Hebegeste bestätigt wurde. Ferner kann ein anschließender Abbruch des Gestenklassifikators 234 zur Deaktivierung dieser Benutzerschnittstellenkomponenten führen, wenn eine Benutzerschnittstelle in Reaktion auf eine erkannte Hebegeste aktiviert wurde.
  • 6 ist ein Zustandsdiagramm, das Gestenzustände für das Modul zum Erkennen einer Hebegeste 222, das den Ablauf 400 ausführt, entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt. Die Übergänge zwischen diesen Zuständen können der Aktivierungssteuerlogik 230 gemeldet oder anderweitig verwendet werden, um den Status der Benutzerschnittstelle 202 bzw. anderer Komponenten der Vorrichtung 200 zu beeinflussen.
  • Bei Zustand 602 kann es sich um einen „Null”-Zustand handeln, bei dem das Modul zum Erkennen einer Hebegeste 222 eine mögliche Hebegeste nicht erkannt hat. Hierbei kann es sich beispielsweise um den anfänglichen Zustand von Ablauf 400 in 4 handeln, und das Modul 222 kann in diesem Zustand bleiben, bis eine mögliche Hebegeste erkannt wurde (z. B. bei Block 410 in 4). Bei Zustand 604 kann es sich um einen Zustand „mögliche Geste” handeln, bei dem das Modul 222 eine mögliche Hebegeste erkannt hat (z. B. bei Block 410 in 4). Wird die mögliche Hebegeste anschließend abgelehnt, kann das Modul 222 zum „Null”-Zustand 602 zurückkehren. Wird aus der möglichen Hebegeste eine erkannte Hebegeste (z. B. bei Block 416 in 4), kann das Modul 222 auf einen Zustand „erkannte Geste” 606 übergehen. Dies spiegelt das steigende Vertrauen wider, dass eine Hebegeste erfolgt ist. Im Zustand 606 kann eine weitere Analyse durchgeführt werden (z. B. bei den Blöcken 420 und 422 von Ablauf 400), um die erkannte Hebegeste zu bestätigen. Wird die erkannte Hebegeste nicht bestätigt, kann das Modul 222 zum „Null”-Zustand 602 zurückkehren. Wird die erkannte Hebegeste bestätigt, kann das Modul 222 zum Zustand „bestätigte Geste” 608 übergehen. Zu diesem Zeitpunkt ist das Erkennen der Hebegeste abgeschlossen und eine weitere Ausführung des Moduls 222 kann unterbunden werden. Wie oben stehend ausgeführt, kann das Modul 222 neu gestartet werden, wenn das Erkennen einer Hebegeste wieder nützlich wird (z. B. wenn ein Fokusverlust erkannt wird oder wenn die Benutzerschnittstelle 202 anderweitig inaktiv wird). Ferner können, wie unten stehend beschrieben, andere Algorithmen, wie beispielsweise das Fokusverlusterkennungsmodul 228, eingesetzt werden, wenn der Zustand „bestätigte Geste” 608 erreicht wurde, um den Gestenzustand weiterhin zu überwachen und einen Übergang vom Zustand „bestätigte Geste” 608 zum „Null”-Zustand zu erkennen. Es wird vorausgesetzt, dass der Ablauf 400 ein Beispiel von Modul 222 bietet, das die Zustände und Übergänge aus 6 enthält, wobei jedoch andere Algorithmen substituiert werden können.
  • 7 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer natürlichen Hebegeste 700 entsprechend einer Ausführungsform der vorliegenden Erfindung. Wie gezeigt, kann das Modul zum Erkennen einer natürlichen Hebegeste 700 in der Bewegungsverarbeitungseinheit 258 in 2B beispielsweise als Modul zum Erkennen einer natürlichen Hebegeste 272 umgesetzt werden. Das Modul zum Erkennen einer natürlichen Hebegeste 700 kann ferner als Haupterkennungsmodul (niedrige Dynamik) 222 aus 2A umgesetzt werden. Das Modul zum Erkennen einer natürlichen Hebegeste 700 kann eine Einheit zum Schätzen der Ausgangsposition 702, eine Kriterienfeststellungseinheit 704, eine Einheit zur Feststellung einer möglichen Hebegeste 706, eine Einheit zur Feststellung einer erkannten Hebegeste 708 und eine Bestätigungseinheit 710 umfassen. Jede Einheit kann beispielsweise unter Zuhilfenahme von Programmcode umgesetzt werden, der auf einem Prozessor bzw. auf fest zugeordneten logischen Schaltungen ausführbar ist.
  • Die Einheit zum Schätzen der Ausgangsposition 702 kann Daten vom Bewegungssensor empfangen und auf der Grundlage der Daten vom Bewegungssensor eine Ausgangsposition schätzen. Beispielsweise kann die Einheit zum Schätzen der Ausgangsposition 702 Block 406 des oben stehend beschriebenen Ablaufs 400 umsetzen. Die Einheit zum Schätzen der Ausgangsposition 702 kann eine geschätzte Ausgangsposition der Kriterienfeststellungseinheit 704 zur Verfügung stellen.
  • Die Kriterienfeststellungseinheit 704 kann die Kriterien zum Erkennen einer möglichen Hebegeste mindestens teilweise auf der Grundlage der durch die Einheit zum Schätzen der Ausgangsposition 702 geschätzten Ausgangsposition bestimmen. Beispielsweise kann die Kriterienfeststellungseinheit 704 Block 408 des oben stehend beschriebenen Ablaufs 400 umsetzen. Die Kriterienfeststellungseinheit 704 kann die Kriterien zum Erkennen einer möglichen Hebegeste der Einheit zur Feststellung einer möglichen Hebegeste 706 zur Verfügung stellen.
  • Die Einheit zur Feststellung einer möglichen Hebegeste 706 kann Daten vom Bewegungssensor empfangen und feststellen, ob die empfangenen Daten die durch die Kriterienfeststellungseinheit 704 festgestellten Kriterien erfüllen. Beispielsweise kann die Einheit zur Feststellung einer möglichen Hebegeste 706 Block 410 des oben stehend beschriebenen Ablaufs 400 umsetzen. Sind die Kriterien erfüllt, kann die Einheit zur Feststellung einer möglichen Hebegeste 706 andere Systemkomponenten darüber in Kenntnis setzen (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Einheit zur Feststellung einer möglichen Hebegeste 706 Block 412 des oben stehend beschriebenen Ablaufs 400 umsetzen. Die Einheit zur Feststellung einer möglichen Hebegeste 706 kann ferner die Einheit zur Feststellung einer erkannten Hebegeste 708 informieren, wenn die Kriterien erfüllt sind.
  • Die Einheit zur Feststellung einer erkannten Hebegeste 708 kann die Mitteilung über eine mögliche Hebegeste von der Einheit zur Feststellung einer möglichen Hebegeste 706 empfangen und zusätzliche Daten vom Beschleunigungssensor überwachen, um festzustellen, ob eine Mindestverweildauer in der Fokusposition vorliegt bzw. andere Bedingungen für eine erkannte Hebegeste erfüllt sind. Beispielsweise kann die Einheit zur Feststellung einer erkannten Hebegeste 708 die Blöcke 414 und 416 des oben stehend beschriebenen Ablaufs 400 umsetzen. Sind die Bedingungen für eine erkannte Hebegeste erfüllt, kann die Einheit zur Feststellung einer erkannten Hebegeste 708 andere Systemkomponenten darüber in Kenntnis setzen (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Einheit zur Feststellung einer erkannten Hebegeste 708 Block 418 des Ablaufs 400 umsetzen. Die Einheit zur Feststellung einer erkannten Hebegeste 708 kann ferner die Bestätigungseinheit 710 informieren, wenn die Bedingungen für eine erkannte Hebegeste erfüllt sind.
  • Die Bestätigungseinheit 710 kann auf der Grundlage von Daten vom Bewegungssensor im Zusammenhang mit einer erkannten Hebegeste eine Gestenbestätigung durchführen. Beispielsweise kann die Bestätigungseinheit 710 die Blöcke 420 und 422 des oben stehend beschriebenen Ablaufs 400 bzw. die Blöcke 504520 des oben stehend beschriebenen Ablaufs 500 umsetzen. Bei einigen Ausführungsformen kann die Bestätigungseinheit 710 den Gestenldassifikator 234 aus 2A oder das Gestenklassifikatormodul 284 aus 2B aufrufen. Die Bestätigungseinheit 710 kann andere Systemkomponenten (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B) darüber in Kenntnis setzen, ob die erkannte Hebegeste bestätigt oder nicht bestätigt ist.
  • Es wird darauf hingewiesen, dass das Modul zum Erkennen einer natürlichen Hebegeste 700 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Beispielsweise wird, während das Modul zum Erkennen einer natürlichen Hebegeste 700 unter Bezugnahme auf konkrete Blöcke oder Einheiten beschrieben wird, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Geräten umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden.
  • Ein weiteres Beispiel eines Algorithmus zum Erkennen einer natürlichen Hebegeste ist das hochdynamische Haupterkennungsmodul 224 aus 2A, das zum Erkennen natürlicher Hebegesten angepasst werden kann, wenn der Benutzer einer hochdynamischen Beschäftigung nachgeht, wie beispielsweise Laufen. In diesem Kontext kann sich der Begriff „hochdynamische Beschäftigung” auf irgendeine Aktivität beziehen, die grundsätzlich eine signifikante Bewegung des Arms oder Handgelenks erfordert, so dass die Daten vom Beschleunigungssensor im Hinblick auf das Erkennen einer Hebegeste unzuverlässig werden können. Geht der Benutzer einer hochdynamischen Beschäftigung nach, kann das hochdynamische Erkennungsmodul 224 die Daten vom Beschleunigungssensor um bzw. durch Daten von anderen Sensoren ergänzen oder ersetzen, wie beispielsweise vom Gyroskopsensor 212.
  • Ob das Erkennungsmodul niedriger Dynamik 222 oder das hochdynamische Erkennungsmodul 224 zu verwenden ist, lässt sich beispielsweise mit Hilfe der Aktivierungssteuerlogik 230 bestimmen. Beispielsweise kann die Aktivierungssteuerlogik 230 Informationen vom Aktivitätsklassifikator 232 empfangen, die anzeigen, ob der Benutzer aktuell einer hochdynamischen Beschäftigung (z. B. Laufen) oder einer anderen Beschäftigung (z. B. Walken) oder keiner Beschäftigung nachgeht. Ferner kann der Benutzer bei einigen Ausführungsformen beispielsweise einen indirekten Hinweis darauf geben, dass eine hochdynamische Beschäftigung kurz bevorsteht. Beispielsweise kann der Benutzer anzeigen, dass er/sie im Begriff ist, loszulaufen (z. B. durch Interaktion mit einem Anwendungsprogramm zur Verfolgung eines Trainings auf der Vorrichtung), wodurch der Rückschluss erlaubt wird, dass das hochdynamische Erkennungsmodul 222 verwendet werden sollte, bis die Trainingseinheit beendet ist. Eine beliebige Kombination aus verfügbaren Eingaben, einschließlich der Eingaben vom Aktivitätsklassifikator 232 bzw. direkter Benutzereingaben, können durch die Aktivierungssteuerlogik 230 verwendet werden, um zu folgern, ob der Benutzer einer hochdynamischen Beschäftigung nachgeht. In Reaktion auf dieses Eingreifen kann die Aktivierungssteuerlogik 230 entweder das Erkennungsmodul niedriger Dynamik 222 (wenn der Benutzer keiner hochdynamischen Beschäftigung nachgeht) oder das hochdynamische Erkennungsmodul 224 auswählen. Bei einigen Ausführungsformen können unterschiedliche Algorithmen für eine Verwendung während unterschiedlicher Aktivitätsarten zur Verfügung gestellt werden; beispielsweise können mehrere hochdynamische Erkennungsalgorithmen vorhanden sein (z. B. zum Laufen oder Rudern usw.).
  • 8 ist ein Flussdiagramm eines Ablaufs 800 zum Erkennen einer natürlichen Hebegeste während einer hochdynamischen Beschäftigung (z. B. Laufen) entsprechend einer Ausführungsform der vorliegenden Erfindung. Der Ablauf 800 kann beispielsweise im hochdynamischen Erkennungsmodul 224 in der Vorrichtung 200 aus 2A umgesetzt werden. In diesem Beispiel kann der hochdynamische Erkennungsablauf 800 über eine Reihe von Gestenzuständen fortschreiten (die den Zuständen aus 6 ähnlich oder gleich sein können) und jeden Zustandsübergang melden, z. B. an die Aktivierungssteuerlogik 230 aus 2A. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 die Übergänge zwischen den Gestenzuständen nutzen, um festzustellen, ob und wann der Anwendungsprozessor 204 aktiviert werden soll bzw. ob und wann der Anwendungsprozessor 204 instruiert werden soll, die Benutzerschnittstelle 202 zu aktivieren. In diesem Beispiel kann der Ablauf 800 hauptsächlich auf Daten vom Gyroskop zurückgreifen (z. B. vom Gyroskopsensor 212 aus 2A), ergänzt mit gefilterten Daten vom Beschleunigungssensor (z. B. vom Beschleunigungssensor 210 aus 2A).
  • Analog zu Ablauf 400, kann der Ablauf 800 beginnen (Block 802), wenn die Benutzerschnittstelle 202 aktiviert wurde. Zu diesem Zeitpunkt kann sich der Anwendungsprozessor 204 in einem Ruhezustand oder einem aktiven Zustand befinden. Der Gyroskopsensor 212 kann aktiviert werden und kann aktualisierte Datenproben (auch „Daten vom Gyroskop” genannt) bei einer regelmäßigen Abtastfrequenz (z. B. 100 Hz) zur Verfügung stellen, und jede Datenprobe vom Gyroskop kann Drehkomponenten anzeigen (rx, ry, rz) unter Zuhilfenahme der auf die Vorrichtung bezogenen Koordinaten aus 3, wobei rx für die Drehung um die X-Achse in 3 steht usw. Empfangene Gyroskop-Daten können gepuffert werden, z. B. unter Zuhilfenahme eines zirkulären Puffers oder FIFO oder Ähnlichem.
  • Bei Block 804 kann der Ablauf 800 Datenproben aus dem Datenpuffer des Gyroskops lesen. Die Menge an Daten kann von der Abtastfrequenz, der Puffergröße und vom gewünschten Zeitraum zur Auswertung der Bewegung abhängen. Beispielsweise kann der Ablauf 800 ein Datenfenster einer festen Länge entsprechend eines festen Zeitraums oder Zeitfensters lesen, beispielsweise 0,5 Sekunden, 1 Sekunde oder Ähnliches.
  • Bei Block 806 kann der Ablauf 800 eine Ausgangsposition für die Vorrichtung schätzen. Beispielsweise kann im Laufkontext angenommen werden, dass die Arme des Benutzers in einer natürlich gebeugten Position gehalten würden, wobei die Handfläche nach innen zeigt (in Richtung Körper des Benutzers). Die 10A und 10B zeigen ein Beispiel eines laufenden Benutzers, der die am Handgelenk tragbare Vorrichtung 102 trägt. Wie in 10 gezeigt, zeigt die Anzeige 104 in einer normalen natürlich Laufposition nach außen (weg vom Körper des Benutzers). Der genaue Winkel wird vom Benutzer abhängen und es kann durch die natürliche Schwingung der Arme des Benutzers eine kleine oszillatorische Drehung um die X-Achse auftreten (siehe Definition in 3). Um während des Laufens auf die Vorrichtung zu schauen, kann der Benutzer das Handgelenk drehen (die Handfläche nach unten drehen) und eventuell den Arm anheben, wie in 10B gezeigt, um die Anzeige 104 in die Sichtlinie zu bringen. Eine solche Geste umfasst eine umfangreichere Drehung um die X-Achse als das typische Schwingen des Arms eines Läufers. Dementsprechend kann eine aufgelaufene Drehung um die X-Achse ein guter erster Indikator einer möglichen Hebegeste sein, und bei Block 808 kann der Ablauf 800 die gepufferten Daten vom Gyroskop auswerten, um die aufgelaufene Drehung um die X-Achse zu bestimmen.
  • Bei Block 810 kann der Ablauf 800, auf der Grundlage der aufgelaufenen Drehung, feststellen, ob eine mögliche Hebegeste erkannt wurde. Bei einigen Ausführungsformen kann diese Feststellung ferner die Feststellung umfassen, ob sich die Drehbewegung signifikant verlangsamt oder am Ende des Zeitraums angehalten hat, was nahe legen würde, dass der Benutzer den Arm ausreichend stabil hält, um auf die Vorrichtung zu schauen. Wird eine mögliche Hebegeste nicht erkannt, kann der Ablauf 800 zu Block 804 zurückkehren, um zusätzliche Daten einzulesen. Wie oben stehend erwähnt, kann es sich bei den bei Block 804 gelesenen Daten um ein Fenster mit unveränderbarer Länge handeln. Nachfolgende Datenfenster, die während nachfolgender Durchläufe von Block 804 gelesen wurden, können eingeblendet werden. Wenn das Fenster beispielsweise 0,5 Sekunden der Echtzeit entspricht, können nachfolgende Durchläufe alle 0,1 Sekunden oder Ähnliches erfolgen (oder schneller; solange das Fenster zwischen den Durchläufen um mindestens eine Probe verschiebt, wird die Auswertung nachfolgender Durchläufe von den Blöcken 806 und 808 nicht redundant). Überlappende Fenster senken unter Umständen die Wahrscheinlichkeit, dass ein falsch negatives Ergebnis durch Fensterungseffekte auftritt.
  • Wenn eine mögliche Hebegeste bei Block 810 erkannt wird, kann der Ablauf 800 bei Block 812 die Aktivierungssteuerlogik 230 darüber informieren, dass eine mögliche Hebegeste erkannt wurde. Im Zustandsdiagramm in 6 kann dies einem Übergang von einem Null-Zustand 602 auf den Zustand „mögliche Geste” 604 entsprechen. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Benachrichtigung des Anwendungsprozessors 204. Bei Block 814 kann der Ablauf 800 die gefilterten Daten vom Beschleunigungssensor verwenden, um eine Schätzung hinsichtlich der Endposition zu bestätigen. Die Daten vom Beschleunigungssensor können stark gefiltert werden, um Artefakte von Armbewegungen herauszufiltern, die mit dem Laufen zusammenhängen, und können verwendet werden, um zu bestätigen, dass die Position einer Position entspricht, in der die Anzeige der Vorrichtung wahrscheinlich für den Benutzer sichtbar ist. Auf der Grundlage der Schätzung hinsichtlich der Endposition kann der Ablauf 800 bei Block 816 feststellen, ob die mögliche Hebegeste als eine erkannte Hebegeste neu klassifiziert werden muss. Ist dies nicht erforderlich, kann der Ablauf 800 zu Block 804 zurückkehren, um zu versuchen, eine andere mögliche Hebegeste zu erkennen.
  • Wenn die Hebegeste bei Block 816 erkannt wird, kann der Ablauf 800 bei Block 818 die Aktivierungssteuerlogik 230 darüber informieren, dass eine erkannte Hebegeste erfolgt ist. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Benachrichtigung des Anwendungsprozessors 204 bzw. die Aktivierung der Benutzerschnittstelle 202. Der Ablauf 800 kann in diesem Zustand enden (Block 820). Alternativ (nicht in 8 gezeigt), kann der Gestenklassifikator 234 verwendet werden, um die erkannte Hebegeste zu bestätigen. Wie oben stehend beschrieben, kann der Gestenklassifikator 234 angelernt werden, natürliche Hebegesten von anderen ähnlichen Aktionen zu unterscheiden, die ein Benutzer während des Laufens unter Umständen ausführt (z. B. der Benutzer trinkt Wasser aus einer Wasserflasche, der Benutzer wischt sich den Schweiß von der Stirn), und die Ergebnisse können dem Bestätigungsteil des oben stehend beschriebenen Ablaufs 400 ähnlich sein.
  • Es wird darauf hingewiesen, dass die Abläufe zum Erkennen einer Hebegeste 400 und 800 veranschaulichenden Charakters sind und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Unterschiedliche Grenzwerte, Kriterien und Sensoreingaben könne verwendet werden und unterschiedliche Mengen an Zuständen können nach Bedarf definiert werden. Bei einigen Ausführungsformen können die Abläufe 400 und 800 in der Alternative aufgerufen werden, je nachdem, was der Benutzer gerade macht. Beispielsweise kann ein Gyroskopsensor mehr Strom aufnehmen als ein Beschleunigungssensor. Dementsprechend ist es unter Umständen wünschenswert, den Gyroskopsensor abzuschalten und den Ablauf 800 in Situationen zu deaktivieren (bei dem die Daten vom Gyroskopsensor als Eingaben genutzt werden), bei denen die Daten vom Beschleunigungssensor ausreichend zuverlässig sind, um Ablauf 400 zu verwenden, wie beispielsweise wenn der Benutzer sitzt, steht oder geht. Wie oben stehend beschrieben, kann die Aktivierungssteuerlogik 230 auf der Grundlage von Informationen vom Aktivitätsklassifikator 232 feststellen, welche(r) Algorithmus/Algorithmen zum Erkennen einer Geste zu einem bestimmten Zeitpunkt aktiviert sein sollten, und kann den/die gewünschten Algorithmus/Algorithmen aktivieren. Andere Quellen, die Aktivitätsinformationen liefern, können ebenfalls verwendet werden. Beispielsweise kann die Aktivierungssteuerlogik 230 bei einigen Ausführungsformen eine Datenqualitätsanalyse hinsichtlich der empfangenen Daten vom Beschleunigungssensor durchführen, um festzustellen, ob der Ablauf 400 wahrscheinlich zuverlässig ist. Der Ablauf 400 kann bevorzugt werden, wenn er wahrscheinlich zuverlässig ist, und der Ablauf 800 kann verwendet werden, wenn der Ablauf 400 wahrscheinlich nicht zuverlässig ist.
  • 9 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer natürlichen Hebegeste 900 entsprechend einer Ausführungsform der vorliegenden Erfindung. Wie gezeigt, kann das Modul zum Erkennen einer natürlichen Hebegeste 900 in der Bewegungsverarbeitungseinheit 258 in 2B beispielsweise als Modul zum Erkennen einer natürlichen Hebegeste 274 umgesetzt werden. Das Modul zum Erkennen einer natürlichen Hebegeste 900 kann ferner als Haupterkennungsmodul (hohe Dynamik) 224 aus 2A umgesetzt werden. Das Modul zum Erkennen einer natürlichen Hebegeste 900 kann eine Einheit zum Schätzen der Ausgangsposition 902, eine Einheit zur Feststellung einer möglichen Hebegeste 906 und eine Einheit zur Feststellung einer erkannten Hebegeste 908 umfassen. Jede Einheit kann beispielsweise unter Zuhilfenahme von Programmcode umgesetzt werden, der auf einem Prozessor bzw. auf fest zugeordneten logischen Schaltungen ausführbar ist.
  • Die Einheit zum Schätzen der Ausgangsposition 902 kann Daten vom Bewegungssensor empfangen und auf der Grundlage der Daten vom Bewegungssensor eine Ausgangsposition schätzen. Beispielsweise kann die Einheit zum Schätzen der Ausgangsposition 902 Block 806 des oben stehend beschriebenen Ablaufs 800 umsetzen. Die Einheit zum Schätzen der Ausgangsposition 902 kann eine geschätzte Ausgangsposition der Einheit zur Feststellung einer möglichen Hebegeste 906 zur Verfügung stellen.
  • Die Einheit zur Feststellung einer möglichen Hebegeste 906 kann die Daten zur geschätzten Ausgangsposition und die Daten vom Bewegungssensor empfangen und feststellen, ob die empfangenen Daten die Kriterien für eine mögliche Hebegeste erfüllen. Beispielsweise kann die Einheit zur Feststellung einer möglichen Hebegeste 906 die Blöcke 808 und 810 des oben stehend beschriebenen Ablaufs 800 umsetzen. Sind die Kriterien erfüllt, kann die Einheit zur Feststellung einer möglichen Hebegeste 906 andere Systemkomponenten darüber in Kenntnis setzen (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Einheit zur Feststellung einer möglichen Hebegeste 906 Block 812 des oben stehend beschriebenen Ablaufs 800 umsetzen. Die Einheit zur Feststellung einer möglichen Hebegeste 906 kann ferner die Einheit zur Feststellung einer erkannten Hebegeste 908 informieren, wenn die Kriterien erfüllt sind.
  • Die Einheit zur Feststellung einer erkannten Hebegeste 908 kann die Mitteilung über eine mögliche Hebegeste von der Einheit zur Feststellung einer möglichen Hebegeste 906 empfangen und zusätzliche Daten vom Bewegungssensor überwachen, um festzustellen, ob die Bedingungen für eine erkannte Hebegeste erfüllt sind. Beispielsweise kann die Einheit zur Feststellung einer erkannten Hebegeste 908 die Blöcke 814 und 816 des oben stehend beschriebenen Ablaufs 800 umsetzen. Sind die Bedingungen für eine erkannte Hebegeste erfüllt, kann die Einheit zur Feststellung einer erkannten Hebegeste 908 andere Systemkomponenten darüber in Kenntnis setzen (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Einheit zur Feststellung einer erkannten Hebegeste 908 Block 818 des Ablaufs 800 umsetzen.
  • Es wird darauf hingewiesen, dass das Modul zum Erkennen einer natürlichen Hebegeste 900 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Beispielsweise wird, während das Modul zum Erkennen einer natürlichen Hebegeste 900 unter Bezugnahme auf konkrete Blöcke oder Einheiten beschrieben wird, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Geräten umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden. Zusätzliche Blöcke können hinzugefügt werden (z. B. ein Block, der der Bestätigungseinheit 710 ähnlich ist, wenn eine Bestätigung gewünscht ist).
  • Die Abläufe 400 und 800 können, entweder einzeln oder in Kombination verwendet, natürliche Hebegesten unter einer Vielzahl von Bedingungen erkennen. Ein Benutzer kann jedoch unter Umständen nach wie vor eine Hebegeste ausführen, die nicht erkannt wird. Beispielsweise kann, je nach Details der Algorithmen, das Erkennen einer natürlichen Hebegeste weniger zuverlässig sein, wenn der Benutzer liegt (was zu einer Verletzung der Annahmen hinsichtlich der Ausrichtung in Relation zur Schwerkraft führen kann, durch die die Vorrichtung in die Sichtlinie des Benutzers gelangt), wenn der Benutzer die Vorrichtung so trägt, dass die Anzeige auf der Innenseite des Handgelenks ist (was zu einer Verletzung der Annahmen hinsichtlich der Menge bzw. Richtung der Drehbewegung führen kann, die erforderlich ist, um die Vorrichtung in die Sichtlinie des Benutzers zu bringen), wenn sich der Benutzer in einer beschleunigten Umgebung befindet (wie beispielsweise in einer Achterbahn) usw.
  • Dementsprechend können einige Ausführungsformen zusätzliche Algorithmen zum Erkennen einer bewussten Hebegeste liefern. Dadurch kann der Benutzer die Anzeige dadurch aktivieren, dass er/sie eine vorher festgelegte Geste ausführt, die der Benutzer wahrscheinlich nur dann ausführt, wenn er/sie die Anzeige aktivieren möchte. Beispielsweise kann die bewusste Hebegeste als eine doppelte Oszillation des Handgelenks definiert werden, bei der die Vorrichtung um die X-Achse nach vorne und hinten gedreht wird (siehe Definition in 3). Der Benutzer kann eine Oszillation beispielsweise durchführen, indem er/sie das Handgelenk aus der Ausgangsposition dreht und die Drehbewegung dann unterbricht, damit das Handgelenk wieder in die Ausgangsposition zurückkehren kann. Eine doppelte Oszillation kann folgende Reihenfolge aufweisen: drehen, entspannen, drehen, entspannen. Oszillationen stellen sich als Impulsspitzen in den Daten vom Bewegungssensor dar (z. B. Daten vom Beschleunigungssensor oder Gyroskop). Da für jede Oszillation eine Mindestmenge an Drehbewegung auflaufen und verloren gehen und ein maximaler Zeitraum zwischen den Oszillationen liegen muss, lässt sich eine bewusste Hebegeste von der Mehrheit der anderen Bewegungen unterscheiden, die ein Benutzer unter Umständen gewohnheitsmäßig ausführt (z. B. das Öffnen einer Tür und die Benutzung eines Schraubendrehers), wodurch es unwahrscheinlich wird, dass die bewusste Hebegeste in Fällen erkannt wird, in denen der Benutzer die Anzeige nicht aktivieren möchte. Andere Gesten können an die Stelle der oben stehenden Geste treten.
  • 11 ist ein Flussdiagramm eines Ablaufs 1100 zum Erkennen einer bewussten Hebegeste entsprechend einer Ausführungsform der vorliegenden Erfindung. Bei diesem Beispiel wird die bewusste Hebegeste als eine „Zittergeste” definiert, bei der der Benutzer eine doppelte Oszillation des Handgelenks (die Vorrichtung wird aus der Sichtlinie weggedreht und anschließend wieder in Richtung der Sichtlinie gedreht) innerhalb eines kurzen Zeitraums ausfüihrt. Der Ablauf 1100 kann beispielsweise im Modul zum Erkennen einer Zitterbewegung 226 in 2A ausgeführt werden. Bei diesem Beispiel kann der Ablauf zum Erkennen einer Zitterbewegung 1100 von einem Null-Zustand (keine Geste erkannt) direkt auf einen Zustand „erkannte Geste” fortschreiten, ohne einen Zustand „mögliche Geste” dazwischen. Andere Zustände können bei Bedarf ebenfalls definiert werden. Der Ablauf 1100 kann den Zustandsübergang melden, z. B. an die Aktivierungssteuerlogik 230 aus 2A. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 die Übergänge zwischen den Gestenzuständen nutzen, um festzustellen, ob und wann der Anwendungsprozessor 204 aktiviert werden soll bzw. ob und warm der Anwendungsprozessor 204 instruiert werden soll, die Benutzerschnittstelle 202 zu aktivieren.
  • Der Ablauf 1100 kann beginnen (Block 1102), wenn die Benutzerschnittstelle 202 aktiviert wurde. Zu diesem Zeitpunkt kann sich der Anwendungsprozessor 204 in einem Ruhezustand oder einem aktiven Zustand befinden. Der Beschleunigungssensor 210 kann bei einer regelmäßigen Abtastfrequenz (z. B. 100 Hz) aktualisierte Daten bereitstellen und die Daten können Vektorkomponenten der Beschleunigung anzeigen (ax, ay, az), unter Zuhilfenahme von auf die Vorrichtung bezogenen Koordinaten, siehe 3. Empfangene Daten können gepuffert werden, z. B. unter Zuhilfenahme eines zirkulären Puffers oder FIFO oder Ähnlichem.
  • Bei Block 1104 kann der Ablauf 1100 Datenproben aus dem Datenpuffer des Beschleunigungssensors lesen. Die Menge an Daten kann von der Abtastfrequenz, der Puffergröße und vom gewünschten Zeitraum zur Auswertung der Bewegung abhängen. Beispielsweise kann der Ablauf 1100 ein Datenfenster einer festen Länge entsprechend eines festen Zeitraums oder Zeitfensters lesen, beispielsweise 0,1 Sekunde, 0,5 Sekunden, 1 Sekunde oder Ähnliches.
  • Bei Block 1106 kann der Ablauf 1100 die Armposition über die Daten des Beschleunigungssensors bestimmen. Dementsprechend kann Block 1106 die Feststellung einer Ausrichtung der Vorrichtung (in Relation zur Erdanziehungskraft) auf der Grundlage von Daten vom Beschleunigungssensor umfassen, von denen eine Armposition abgeleitet werden kann.
  • Bei Block 1108 kann der Ablauf 1100 feststellen, ob der Arm des Benutzers für die Ausführung einer Zittergeste „vorbereitet” ist. Beispielsweise kann angenommen werden, dass ein Benutzer eine bewusste Hebegeste nur dann ausführen würde, wenn sich die Vorrichtung bereits in der Sichtlinie befindet. In diesem Kontext kann der Arm des Benutzers als vorbereitet betrachtet werden, wenn die Vorrichtung über einen kurzen Zeitraum relativ ruhig gehalten wird (z. B. 0,2 Sekunden, 0,5 Sekunden, 1,0 Sekunde), was nahe legt, dass der Benutzer unter Umständen versucht, auf die Vorrichtung zu schauen. Die Feststellung, ob der Arm des Benutzers vorbereitet ist, kann die Analyse einiger oder aller der Datenproben im Puffer umfassen. Beispielsweise können die ältesten Proben analysiert werden. Zusätzliche Kriterien können ebenfalls angewendet werden, wie beispielsweise Kriterien auf der Grundlage der räumlichen Ausrichtung der Vorrichtung. Verläuft die Erdbeschleunigung beispielsweise hauptsächlich entlang der Z-Achse (siehe Definition in 3) und erfolgt entlang der X-Achse wenig bis keine Beschleunigung, kann dies darauf hindeuten, dass die Anzeige der Vorrichtung ungefähr parallel zum Boden ist, eine übliche Position für einen Benutzer, der auf eine am Handgelenk tragbare Vorrichtung schaut (oder viele andere Vorrichtungen). Dementsprechend können zusätzliche Kriterien auf der Grundlage der Richtung der Erdbeschleunigung definiert werden. Die Erfordernis, dass ein vorbereitendes Kriterium erfüllt sein muss, kann die Anzahl falsch positiver Ergebnisse verringern, die durch zufällige Bewegungen des Handgelenks verursacht werden können, wodurch Strom gespart wird. Bei einigen Ausführungsformen kann das vorbereitende Kriterium dahingehend aufgeweicht werden, dass es Situationen berücksichtigt, in denen der Kopf des Benutzers unter Umständen nicht normal vertikal ausgerichtet ist (z. B. wenn der Benutzer liegt), wenngleich ein Aufweichen der Kriterien die Anzahl der falsch positiven Ergebnisse ansteigen lassen kann. Bei einigen Ausführungsformen können andere Informationen verfügbar sein, um darauf hinzudeuten, ob der Kopf des Benutzers vertikal positioniert ist oder nicht (z. B. kann es unter Umständen möglich sein, über physiologische Sensoren festzustellen, dass der Benutzer liegt, beispielsweise über ein Herzfrequenzmessgerät), wobei solche Informationen in das vorbereitende Kriterium einfließen können.
  • Ist der Arm bei Block 1108 nicht vorbereitet, kann der Ablauf 1100 zu Block 1104 zurückkehren, um zusätzliche Daten vom Beschleunigungssensor auszulesen. Wie oben stehend erwähnt, kann es sich bei den bei Block 1104 gelesenen Daten um ein Fenster mit unveränderbarer Länge handeln. Nachfolgende Datenfenster, die während nachfolgender Durchläufe von Block 1104 gelesen wurden, können eingeblendet werden. Wenn das Fenster beispielsweise 1 Sekunde der Echtzeit entspricht, können nachfolgende Durchläufe alle 0,1 Sekunde oder Ähnliches erfolgen (oder schneller; solange das Fenster zwischen den Durchläufen um mindestens eine Probe verschiebt, wird die Auswertung nachfolgender Durchläufe von den Blöcken 1106 und 1108 nicht redundant). Dadurch sinkt unter Umständen die Wahrscheinlichkeit, dass ein falsch negatives Ergebnis durch Fensterungseffekte auftritt.
  • Ist der Arm bei Block 1108 vorbereitet, kann der Ablauf 1100 versuchen, eine Zittergeste zu erkennen. Die Zittergeste erfordert bei diesem Beispiel zwei Oszillationen um die X-Achse. Da das Auslösen oder Beenden einer Drehbewegung um die X-Achse eine Beschleunigung entlang der Y-Achse zur Folge hat (siehe 3), lässt sich die oszillatorische Bewegung von Interesse bei diesem Beispiel auf der Grundlage von Impulsspitzen in der Y-Komponente der Beschleunigung erkennen. Dementsprechend kann der Ablauf 1100 bei Block 1110 die Daten vom Beschleunigungssensor auswerten, um eine solche Spitze zu erkennen. Bei einigen Ausführungsformen kann eine Spitze oder Zacke in der Y-Komponente des Rucks (Zeitableitung der Beschleunigung) verwendet werden, um die Oszillation zu erkennen. Vorausgesetzt, dass die zu erkennende Geste absichtlich ausgeführt wird, wird erwartet, dass die Spitze sich gegen jede Hintergrundvariation von Probe zu Probe abhebt, die durch zufällige Bewegungen entsteht, die unter Umständen auftreten (z. B. weil der Benutzer läuft, in einem Fahrzeug sitzt, joggt usw.). Dementsprechend lassen sich die Kriterien zum Erkennen einer Drehung oder Oszillation in Relation zu den Hintergrundvariationen von Probe zu Probe erkennen, die ungefähr zum selben Zeitpunkt gemessen wurden. Besondere Kriterien zum Erkennen von Spitzen können heuristisch definiert werden, beispielsweise dadurch, dass eine Reihe von Benutzern die Zittergeste ausführt und die Daten vom Beschleunigungssensor ausgewertet werden, um konkrete Grenzwerte für Beschleunigung bzw. Ruck herauszuarbeiten. Die Grenzwerte können auf der Grundlage von absoluten Werten oder Werten bezogen auf das aktuelle Ausmaß der Hintergrundvariation definiert werden.
  • Wird bei Block 1112 eine erste Spitze nicht erkannt, kann der Ablauf 1100 zu Block 1104 zurückkehren, um die Daten vom Beschleunigungssensor weiter zu überwachen. Wird eine erste Spitze erkannt, kann der Ablauf 1100 bei Block 1114 versuchen, eine zweite Spitze zu erkennen. Bei diesem Beispiel sollte die zweite Spitze in dieselbe Richtung zeigen wie die erste Spitze und dadurch anzeigen, dass der Benutzer die oszillatorische Bewegung wiederholt hat, und die Kriterien können den bei Block 1112 verwendeten Kriterien ähnlich sein oder entsprechen.
  • Wird bei Block 1116 keine zweite Spitze erkannt, kann der Ablauf 1100 bei Block 1118 feststellen, ob eine Zeitüberschreitung abgelaufen ist, seitdem die erste Spitze bei Block 1112 erkannt wurde. Diese Zeitüberschreitung kann verwendet werden, um eine bewusste Zitterbewegung von anderen Drehbewegungen des Handgelenks zu unterscheiden und kann auf der Grundlage der Messung der Zeit ausgewählt werden, die benötigt wird, damit mehrere Einzelpersonen eine doppelte Oszillation ausführen. Beispielsweise kann die Zeitüberschreitung 0,2 Sekunden, 0,5 Sekunden oder Ähnliches umfassen.
  • Der Ablauf 1100 kann weiterhin nach der zweiten Spitze suchen, bis die zweite Spitze entdeckt wird oder die Zeitüberschreitung abläuft. Läuft die Zeitüberschreitung bei Block 1118 ab, kann der Ablauf 1100 zu Block 1104 zurückkehren, um die zusätzlichen Daten vom Beschleunigungssensor zu erfassen und erneut nach zwei Spitzen zu suchen.
  • Wird bei Block 1116 eine zweite Spitze erkannt, kann der Ablauf 1100 bei Block 1120 die zusätzlichen Daten vom Beschleunigungssensor auswerten, um festzustellen, ob sich die Position der Vorrichtung stabilisiert hat. Hat sich die Position bei Block 1122 nicht stabilisiert, kann dies darauf hindeuten, dass die Oszillation aus irgendeinem anderen Grund erfolgte, der nicht mit dem Blick auf die Vorrichtung zusammenhängt, und kann der Ablauf 1100 zu Block 1104 zurückkehren, um die zusätzlichen Daten vom Beschleunigungssensor zu erfassen und erneut nach zwei Spitzen zu suchen.
  • Hat sich die Position bei Block 1122 stabilisiert, kann dies dem Erkennen der Zittergeste entsprechen und kann der Ablauf 1100 bei Block 1124 die Aktivierungssteuerlogik 230 informieren, dass die Zittergeste erkannt wurde. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Aktivierung der Benutzerschnittstelle 202 bzw. die Aktivierung des Anwendungsprozessors 204.
  • Es wird darauf hingewiesen, dass der Ablauf 1100 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Unterschiedliche Grenzwerte, Kriterien und Sensoreingaben könne verwendet werden und unterschiedliche Mengen an Zuständen können nach Bedarf definiert werden. Bei einigen Ausführungsformen kann das Erkennen der ersten Spitze als eine mögliche Hebegeste gemeldet werden bzw. kann das Erkennen von zwei Spitzen als eine mögliche Hebegeste gemeldet werden, bevor festgestellt wird, ob sich die Position der Vorrichtung stabilisiert hat. Andere bewusste Hebegesten können durch Definition unterschiedlicher Kriterien erkannt werden (z. B. mehr oder weniger Impulsspitzen, Beschleunigungen in unterschiedliche Richtungen usw.). Bei einigen Ausführungsformen kann der Ablauf 1100 gleichzeitig entweder mit Ablauf 400 oder mit Ablauf 800 ausgeführt werden, so dass der Benutzer die Anzeige jederzeit vom inaktiven in den aktiven Zustand schalten kann, indem er/sie entweder eine natürliche oder eine bewusste Hebegeste ausführt.
  • 12 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen einer bewussten Hebegeste 1200 entsprechend einer Ausführungsform der vorliegenden Erfindung. Wie gezeigt, kann das Modul zum Erkennen einer bewussten Hebegeste 1200 in der Bewegungsverarbeitungseinheit 258 in 2B beispielsweise als Modul zum Erkennen einer bewussten Hebegeste 276 umgesetzt werden. Das Modul zum Erkennen einer natürlichen Hebegeste 700 kann ferner als Modul zum Erkennen einer Zitterbewegung 226 aus 2A umgesetzt werden. Das Modul zum Erkennen einer bewussten Hebegeste 1200 kann eine Vorbereitungserkennungseinheit 1202, eine Einheit zum Erkennen von Impulsspitzen 1204 und eine Stabilitätserkennungseinheit 1206 umfassen. Jede Einheit kann beispielsweise unter Zuhilfenahme von Programmcode umgesetzt werden, der auf einem Prozessor bzw. auf fest zugeordneten logischen Schaltungen ausführbar ist.
  • Die Vorbereitungserkennungseinheit 1202 kann Daten vom Bewegungssensor empfangen und anhand der Daten festlegen, ob der Arm des Benutzers zum Ausführen einer bewussten Hebegeste vorbereitet ist. Beispielsweise kann die Vorbereitungserkennungseinheit 1202 die Blöcke 1106 und 1108 des oben stehend beschriebenen Ablaufs 1100 umsetzen. Erkennt die Vorbereitungserkennungseinheit 1202, dass der Arm des Benutzers vorbereitet ist, kann die Vorbereitungserkennungseinheit 1202 die Einheit zum Erkennen von Impulsspitzen 1204 benachrichtigen.
  • Die Einheit zum Erkennen von Impulsspitzen 1204 kann zusätzliche Daten vom Bewegungssensor empfangen und die Anwesenheit einer Sollanzahl (z. B. eine, zwei, drei) von Impulsspitzen auf der Grundlage der Daten feststellen. Beispielsweise kann die Einheit zum Erkennen von Impulsspitzen 1204 die Blöcke 11101118 des oben stehend beschriebenen Ablaufs 1100 umsetzen. Wurde gerade die Anzahl der Impulsspitzen erkannt, die auf eine Hebegeste hinweisen (z. B. zwei im oben stehenden Beispiel), kann die Einheit zum Erkennen von Impulsspitzen 1204 eine Mitteilung an die Stabilitätserkennungseinheit 1206 senden.
  • Die Stabilitätserkennungseinheit 1206 kann zusätzliche Daten vom Bewegungssensor empfangen und feststellen, ob die Daten darauf hindeuten, dass sich die Position der Vorrichtung nach der/den erkannten Impulsspitze/n stabilisiert hat. Beispielsweise kann die Stabilitätserkennungseinheit 1206 die Blöcke 1120 und 1122 des oben stehend beschriebenen Ablaufs 1100 umsetzen. Wird die Stabilität erkannt, kann die Stabilitätserkennungseinheit 1206 andere Systemkomponenten informieren (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Stabilitätserkennungseinheit 1206 den Block 1124 des oben stehend beschriebenen Ablaufs 1100 umsetzen.
  • Es wird darauf hingewiesen, dass das Modul zum Erkennen einer bewussten Hebegeste 1200 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Beispielsweise wird, während das Modul zum Erkennen einer bewussten Hebegeste 1200 unter Bezugnahme auf konkrete Blöcke oder Einheiten beschrieben wird, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Geräten umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden.
  • Sobald eine Hebegeste (natürlich oder bewusst) erkannt wurde, kann davon ausgegangen werden, dass sich der Benutzer jetzt auf die Vorrichtung konzentriert und unter Umständen mit dieser interagiert. Es kann jede Art der Benutzerinteraktion unterstützt werden und die Dauer der Interaktion kann vollständig den Wünschen des Benutzers angepasst werden. Es wird erwartet, dass die Interaktion irgendwann einmal endet. Endet die Interaktion, kann es wünschenswert sein, die Anzeige wieder in den inaktiven Zustand zu schalten, um Strom zu sparen.
  • Bei einigen Ausführungsformen kann ein Benutzer ausdrücklich das Ende einer Interaktion anzeigen, beispielsweise durch Drücken einer Taste auf der Vorrichtung, um die Anzeige zu deaktivieren. Zusätzlich oder anstelle davon kann eine Vorrichtung auf der Grundlage eines ausreichend lange andauernden Mangels an Benutzereingaben folgern, dass die Interaktion beendet ist, wenngleich ein solches Eingreifen unter Umständen nicht richtig ist, wenn der Benutzer sich nach wie vor dargestellte Informationen anschaut. Dementsprechend kann eine Vorrichtung bei einigen Ausführungsformen auf der Grundlage der Daten vom Bewegungssensor automatisch erkennen, wenn der Benutzer die Vorrichtung aus dem Blickfeld verliert. Bewegt der Benutzer die Anzeige der Vorrichtung beispielsweise aus der Sichtlinie heraus, kann dies darauf hindeuten, dass ein Fokusverlust vorliegt. Eine solche Bewegung wird in diesem Dokument als „Fokusverlustgeste” bezeichnet.
  • Das automatische Erkennen von Fokusverlustgesten (in diesem Dokument auch als „Fokusverlustereignisse” bezeichnet) kann durch den Einsatz von auf Bewegungen basierenden Algorithmen erleichtert werden. 13 ist ein Flussdiagramm eines Ablaufs 1300 zum Erkennen eines Fokusverlustereignisses entsprechend einer Ausführungsform der vorliegenden Erfindung. Der Ablauf 1300 kann beispielsweise im Fokusverlusterkennungsmodul 228 in 2A ausgeführt werden. Bei diesem Beispiel kann der Ablauf 1300 durchgeführt werden, während sich die Vorrichtung in einem Fokus-Zustand befindet (z. B. nach dem Erkennen bzw. der Bestätigung einer Hebegeste unter Zuhilfenahme eines der oben stehend beschriebenen Abläufe 400, 800 oder 1100). Ein Fokusverlust lässt sich auf der Grundlage von Änderungen hinsichtlich des Neigungswinkels oder der Drehung der Vorrichtung erkennen, insbesondere Änderungen hinsichtlich der Y-Neigung. Der Ablauf 1300 kann ein erkanntes Fokusverlustereignis melden, z. B. an die Aktivierungssteuerlogik 230 aus 2A. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 das gemeldete Ereignis nutzen, um festzustellen, ob die Benutzerschnittstelle 202 deaktiviert werden soll.
  • Der Ablauf 1300 kann beginnen (Block 1302), wenn die Benutzerschnittstelle 202 aktiviert wurde. Der aktive Zustand kann als Ergebnis eines der Abläufe zum Erkennen einer Geste, die oben stehend beschrieben sind, als Ergebnis anderer Abläufe zum Erkennen einer Geste oder in Reaktion auf die manuelle Anzeige durch den Benutzer (z. B. Berührung einer Taste auf der Vorrichtung 200) erreicht werden. Zu diesem Zeitpunkt kann sich der Anwendungsprozessor 200 ebenfalls in einem aktiven Zustand befinden. Der Beschleunigungssensor 210 kann bei einer regelmäßigen Abtastfrequenz (z. B. 100 Hz) aktualisierte Daten bereitstellen und die Daten können Vektorkomponenten der Beschleunigung anzeigen (ax, ay, az), unter Zuhilfenahme von auf die Vorrichtung bezogenen Koordinaten, siehe 3. Empfangene Daten können gepuffert werden, z. B. unter Zuhilfenahme eines zirkulären Puffers oder FIFO oder Ähnlichem.
  • Bei Block 1304 kann der Ablauf 1300 Datenproben aus dem Datenpuffer des Beschleunigungssensors lesen. Die Menge an Daten kann von der Abtastfrequenz, der Puffergröße und vom gewünschten Zeitraum zur Auswertung der Bewegung abhängen. Beispielsweise kann der Ablauf 400 ein Datenfenster einer festen Länge entsprechend eines festen Zeitraums oder Zeitfensters lesen, beispielsweise 0,5 Sekunden, 1 Sekunde oder Ähnliches.
  • Bei Block 1306 kann der Ablauf 1300 eine anfängliche Neigung bestimmen, z. B. auf der Grundlage der gemessenen X-Komponente bzw. Y-Komponente der Beschleunigung oder Drehwinkel für Proben in der Nähe des Beginns des Puffers. Während der Zeiten, in denen der Benutzer die Vorrichtung in der Sichtlinie hält, wird erwartet, dass die Neigung (oder zumindest die Y-Neigung) ungefähr konstant bleibt und, wenn der Ablauf 1300 beginnt, eine Bezugsneigung definiert werden kann. Bei einigen Ausführungsformen kann das automatische Erkennen einer Hebegeste das Erkennen des Auflaufens von Neigungen (z B. Y-Neigung) umfassen, und kann die anfängliche Neigung oder Bezugsneigung auf der Grundlage der aufgelaufenen Neigung definiert werden, die bei Block 1306 erkannt wurde.
  • Bei Block 1308 ist der Ablauf 1300 in der Lage, eine Änderung der Neigung beispielsweise in Relation zur anfänglichen Neigung bzw. Bezugsneigung zu erkennen. Bei einigen Ausführungsformen kann die Änderung ignoriert werden, es sei denn, die Änderung erfolgt in eine Richtung, in der sich die Anzeige aus der Sichtlinie des Benutzers entfernen würde. Beispielsweise neigt ein Benutzer, der sich gerade die Vorrichtung 300 aus 3 ansieht, unter Umständen dazu, seinen/ihren Arm so zu halten, dass die Vorrichtung 300 parallel zum Boden oder geneigt ist, so dass die Erdbeschleunigung entlang der Y-Achse eine negative Beschleunigungskomponente verleihen würde. Eine Änderung von einem Nullwert oder negativen Wert für ay auf einen Positiven Wert für ay kann darauf hindeuten, dass der Benutzer die Vorrichtung 300 aus der Sichtlinie gedreht hat. Bei einigen Ausführungsformen kann das automatische Erkennen einer Hebegeste das Erkennen des Auflaufens von Neigungen umfassen (z. B. siehe oben stehende Beschreibung unter Bezugnahme von 4), und Block 1308 kann das Erkennen einer Negierung der aufgelaufenen Neigung (z. B. Y-Neigung) umfassen, was darauf hindeutet, dass der Benutzer die Vorrichtung wieder in die untere Position bringt.
  • Wurde bei Block 1310 eine ausreichend große Änderung der Neigung erkannt, kann der Ablauf 1300 bei Block 1312 die Aktivierungssteuerlogik 230 darüber benachrichtigen, dass ein Fokusverlustereignis erkannt wurde. Wie unten stehend beschrieben, kann die Aktivierungssteuerlogik 230 in Reaktion auf diese Mitteilung Maßnahmen ergreifen, wie beispielsweise die Deaktivierung der Benutzerschnittstelle 202 bzw. die Benachrichtigung des Anwendungsprozessors 204.
  • Wird bei Block 1310 keine große Änderung der Neigung erkannt, kann der Ablauf 1300 bei Block 1314 eine Armposition für den Benutzer auf der Grundlage der Daten vom Beschleunigungssensor schätzen. Beispielsweise besteht die Möglichkeit, dass der Benutzer den Arm senkt, ohne dabei das Handgelenk zu drehen. Die Armposition lässt sich auf der Grundlage der Daten vom Beschleunigungssensor und dahingehenden Annahmen abschätzen, wie der Benutzer die Vorrichtung trägt, siehe oben stehende Beschreibung. Bei Block 1316 kann der Ablauf 1300 feststellen, ob der Arm des Benutzers abgesenkt wurde. Beispielsweise kann im Koordinatensystem in 3 ein abgesenkter Arm daran erkannt werden, dass die Erdbeschleunigung ungefähr mit der X-Achse übereinstimmt. Bei einigen Ausführungsform kann Block 1316 einen Vergleich der Ausgangs- und Endpositionen des Arms umfassen, um eine Änderung zu erkennen, die darauf hindeutet, dass der Benutzer den Arm in einer abgesenkte Position bewegt hat. Wird ein abgesenkter Arm erkannt, kann der Ablauf 1300 bei Block 1312 die Aktivierungssteuerlogik 230 über ein Fokusverlustereignis informieren. Sobald ein Fokusverlustereignis erkannt wurde, kann der Ablauf 1300 enden.
  • Es wird darauf hingewiesen, dass der Ablauf 1300 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Es können unterschiedliche Grenzwerte, Kriterien und Sensoreingaben verwendet werden; beispielsweise können die Daten vom Gyroskop zusätzlich zu den oder anstelle der Daten vom Beschleunigungssensor verwendet werden. Bei einigen Ausführungsformen können die zu verwendenden Sensoren (z. B. Beschleunigungssensor bzw. Gyroskop) dynamisch auf der Grundlage der aktuellen Beschäftigung des Benutzers ausgewählt werden, wie diese vom Aktivitätsklassifikator 232 gemeldet wird. Wenn der Benutzer beispielsweise läuft, können die Daten vom Gyroskop unter Umständen zuverlässiger sein; wenn der Benutzer sitzt, können die Nutzung der Daten vom Beschleunigungssensor und die Abschaltung des Gyroskopsensors 212 eine höhere Energieeffizienz bieten. Zusätzlich können die Kriterien zum Erkennen eines Fokusverlustes auf der Grundlage der aktuellen Aktivität des Benutzers variiert werden. Beispielsweise können die Kriterien modifiziert werden, damit, während der Benutzer läuft, ein Fokusverlust weniger wahrscheinlich erkannt wird, da der Arm erwartungsgemäß weniger stationär wäre.
  • Ferner kann es bei einigen Ausführungsformen wünschenswert sein, zu vermeiden, dass ein Fokusverlust aufgrund vorübergehender Bewegungen fälschlicherweise erkannt wird. Dementsprechend kann das Erkennen eines Fokusverlustes eine derartige Hysterese umfassen, dass ein Fokusverlust erst erkannt wird, wenn die Vorrichtung nicht mehr in der Fokusposition ist und dort über einen Mindestzeitraum verbleibt. Gelangt die Vorrichtung zurück in die Fokusposition, bevor dieser Zeitraum abläuft, kann der Algorithmus zum Erkennen eines Fokusverlustes zurückgesetzt werden. Der Mindestzeitraum kann davon abhängen, wie lange die Vorrichtung in der Fokusposition gewesen ist, wobei eine längere Verweildauer in der Fokusposition mit einem längeren Zeitraum außerhalb der Fokusposition korreliert, damit ein Fokusverlustereignis ausgelöst wird. Es ist anzumerken, dass erwartet wird, dass das verzögerte Erkennen eines Fokusverlustereignisses (und die Deaktivierung der Anzeige) den Benutzer weniger stört als das frühzeitige Erkennen eines Fokusverlustereignisses (und die Deaktivierung der Anzeige), wenn der Benutzer eigentlich noch auf die Anzeige schaut. Dementsprechend kann der Fokusverlustalgorithmus an der Seite auf „err” gesetzt werden, wenn ein Fokusverlust verzögert erkannt werden soll.
  • 14 ist ein Funktionsblockdiagramm eines Moduls zum Erkennen eines Fokusverlustes 1400 entsprechend einer Ausführungsform der vorliegenden Erfindung. Wie gezeigt, kann das Modul zum Erkennen eines Fokusverlustes 1400 in der Bewegungsverarbeitungseinheit 258 in 2B beispielsweise als Modul zum Erkennen eines Fokusverlustes 278 umgesetzt werden. Das Modul zum Erkennen eines Fokusverlustes 1400 kann ferner als Modul zum Erkennen eines Fokusverlustes 228 aus 2A umgesetzt werden. Das Modul zum Erkennen eines Fokusverlustes 1400 kann eine Einheit zur Feststellung der Ausrichtung 1402, eine Einheit zur Feststellung einer Änderung der Ausrichtung 1404, eine Einheit zum Schätzen der Armposition 1406 und eine Fokusfeststellungseinheit 1408 umfassen. Jede Einheit kann beispielsweise unter Zuhilfenahme von Programmcode umgesetzt werden, der auf einem Prozessor bzw. auf fest zugeordneten logischen Schaltungen ausführbar ist.
  • Die Einheit zur Feststellung der Ausrichtung 1402 kann Daten vom Bewegungssensor empfangen und anhand dieser Daten eine Ausrichtung der Vorrichtung feststellen. Beispielsweise kann die Einheit zur Feststellung der Ausrichtung 1402 Block 1306 des oben stehend beschriebenen Ablaufs 1300 umsetzen, wobei die Ausrichtung durch die Neigung geprägt ist (die sich anhand von Daten vom Beschleunigungssensor, Drehwinkeln des Gyroskops oder Ähnlichem bestimmen lässt). Die Einheit zur Feststellung der Ausrichtung 1402 kann die festgestellte Ausrichtung der Einheit zur Feststellung einer Änderung der Ausrichtung 1404 zur Verfügung stellen.
  • Die Einheit zur Feststellung einer Änderung der Ausrichtung 1404 kann beispielsweise auf der Grundlage von im Laufe der Zeit von der Einheit zur Feststellung der Ausrichtung 1402 empfangenen Daten feststellen, ob eine Änderung der Ausrichtung erfolgt ist. Beispielsweise kann die Einheit zur Feststellung einer Änderung der Ausrichtung 1404 den Block 1308 des oben stehend beschriebenen Ablaufs 1300 umsetzen. Die Einheit zur Feststellung einer Änderung der Ausrichtung 1404 kann Informationen zur Änderung der Ausrichtung (z. B. eine quantitative Messung der Änderung) der Fokusfeststellungseinheit 1408 zur Verfügung stellen.
  • Die Einheit zum Schätzen der Armposition 1406 kann Daten vom Bewegungssensor empfangen und auf der Grundlage der Daten eine geschätzte Armposition eines Arms feststellen, von dem angenommen wird, dass die Vorrichtung an diesem getragen wird. Beispielsweise kann die Einheit zum Schätzen der Armposition 1406 Block 1314 des oben stehend beschriebenen Ablaufs 1300 umsetzen. Die Einheit zum Schätzen der Armposition 1406 kann Informationen zur Armposition (z. B. eine geschätzte Armposition oder eine Änderung hinsichtlich der Armposition) der Fokusfeststellungseinheit 1408 zur Verfügung stellen.
  • Die Fokusfeststellungseinheit 1408 kann Informationen zur Änderung der Ausrichtung von der Einheit zur Feststellung einer Änderung der Ausrichtung 1404 und Informationen zur Armposition von der Einheit zum Schätzen der Armposition 1406 empfangen. Auf der Grundlage der empfangenen Informationen kann die Fokusfeststellungseinheit 1408 feststellen, ob ein Fokusverlust aufgetreten ist. Beispielsweise kann die Fokusfeststellungseinheit 1408 die Blöcke 1310 bzw. 1316 des oben stehend beschriebenen Ablaufs 1300 umsetzen. Stellt die Fokusfeststellungseinheit 1408 fest, dass ein Fokusverlust aufgetreten ist, kann die Fokusfeststellungseinheit 1408 andere Systemkomponenten benachrichtigen (z. B. die Aktivierungssteuerlogik 239 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Fokusfeststellungseinheit 1408 den Block 1312 des oben stehend beschriebenen Ablaufs 1300 umsetzen.
  • Es wird darauf hingewiesen, dass das Modul zum Erkennen eines Fokusverlustes 1400 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Beispielsweise wird, während das Modul zum Erkennen eines Fokusverlustes 1400 unter Bezugnahme auf konkrete Blöcke oder Einheiten beschrieben wird, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Vorrichtungen umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden.
  • Werden die oben stehend beschriebenen Abläufe und Module gemeinsam verwendet, kann eine Vorrichtung durch diese in der Lage sein, zu erkennen, wann ein Benutzer auf die Vorrichtung schaut und warm ein Benutzer nicht mehr auf die Vorrichtung schaut. Die Benutzerschnittstelle kann je nachdem, ob der Benutzer gerade auf die Vorrichtung schaut oder nicht, aktiviert oder deaktiviert sein. Bei einigen Ausführungsformen können dieselben oder ähnliche Abläufe angewendet werden, um den Anwendungsprozessor 204 bzw. andere Komponenten der Vorrichtung aus einem Zustand geringen Stromverbrauchs (Ruhezustand) zu aktivieren, damit dieser mit der Benutzer interagieren können. Je nach Umsetzung kann die Aktivierung des Anwendungsprozessors 204 jedoch mit einer längeren Latenzzeit als bei der Aktivierung der Benutzerschnittstelle 202 verbunden sein, und die Aktivierung des Anwendungsprozessors 204 über einen bestimmten Zeitraum kann weniger Strom verbrauchen als die Aktivierung der Benutzerschnittstelle 202. Dementsprechend kann es wünschenswert sein, mit der Aktivierung des Anwendungsprozessors 204 (ohne dabei die Benutzerschnittstelle 202 zu aktivieren) in einer früheren Phase zu beginnen und nicht erst darauf zu warten, dass eine Hebegeste, wie oben stehend beschrieben, erkannt oder bestätigt wird.
  • 15 ist ein Flussdiagramm eines Ablaufs 1500 zur Feststellung, ob der Anwendungsprozessor 204 entsprechend einer Ausführungsform der vorliegenden Erfindung aktiviert werden soll. Der Ablauf 1500 kann beispielsweise im Modul zum Erkennen eines Vorglühereignisses 220 in 2A ausgeführt werden. Bei diesem Beispiel kann der Ablauf 1500 eine Reihe von Proben des Beschleunigungssensors in Übereinstimmung mit frühen Stadien einer natürlichen (oder bewussten) Geste erkennen und die Aktivierungssteuerlogik 230 informieren, wenn eine solche Reihe erkannt wird. Der Ablauf 1500 kann gleichzeitig mit, aber unabhängig von anderen Algorithmen zum Erkennen von Gesten laufen (z. B. die oben stehend beschriebenen Abläufe 400, 800, 1100). Beispielsweise kann der Ablauf 1500 eingesetzt werden, um festzustellen, ob der Anwendungsprozessor 204 zu aktivieren ist, während ein anderer Algorithmus (z. B. Ablauf 400 oder Ablauf 800) verwendet wird, um festzustellen, ob die Benutzerschnittstelle 202 aktiviert werden soll.
  • Der Ablauf 1500 kann beginnen (Block 1502), wenn der Anwendungsprozessor 204 im Ruhezustand ist. Der Beschleunigungssensor 210 kann bei einer regelmäßigen Abtastfrequenz (z. B. 100 Hz) aktualisierte Daten bereitstellen und die Daten können Vektorkomponenten der Beschleunigung anzeigen (ax, ay, az), unter Zuhilfenahme von auf die Vorrichtung bezogenen Koordinaten, siehe 3. Empfangene Daten können gepuffert werden, z. B. unter Zuhilfenahme eines zirkulären Puffers oder FIFO oder Ähnlichem.
  • Bei Block 1504 kann der Ablauf 1500 eine zuletzt empfangene Probe vom Beschleunigungssensor bewerten (oder ein kurzes Fenster an Proben), um eine aktuelle Position festzustellen. Bei Block 1506 kann der Ablauf 1500 feststellen, ob die Proben eine Bedingung erfüllen, die einen möglichen Beginn einer Hebegeste anzeigt. Bei einigen Ausführungsformen kann die Feststellung von einer Änderung der gemessenen Beschleunigung zwischen zwei aufeinander folgenden Proben abhängen. Dreht der Benutzer beispielsweise sein/ihr Handgelenk, um die Vorrichtung in die Sichtlinie zu bringen, kann man erwarten, dass die ay-Komponente von einem Null- oder positiven (durch die Erdbeschleunigung) Ausgangszustand abfällt. Hängt der Arm des Benutzers zusätzlich anfangs nach unten, kann sich die ax-Komponente ferner von einem positiven Wert (durch die Erdbeschleunigung) auf Null ändern, wenn der Benutzer seinen/ihren Arm hebt. Dementsprechend kann die Bedingung bei Block 1506 von einer gewichteten Summe der Änderung hinsichtlich ax und einer Änderung hinsichtlich ay zwischen zwei aufeinander folgenden Proben abhängen, wobei die ay-Komponente höher gewichtet wird. Bei einigen Ausführungsformen kann die Bedingung von der Ausgangsposition (z. B. das relative Gewicht von ax kann bei einer Ausgangsposition, bei der der Arm nach unten hängt, größer sein als bei einer Ausgangsposition, bei der der Arm horizontal ist). Der Ablauf 1500 kann weiterhin die Daten vom Beschleunigungssensor überwachen, bis ein möglicher Beginn einer Hebegeste bei Block 1506 erkannt wird. Beispielsweise können die Blöcke 1504 und 1506 bei Empfang jeder neuen Datenprobe vom Beschleunigungssensor durchgeführt werden.
  • Sobald ein möglicher Beginn einer Hebegeste bei Block 1506 erkannt wird, kann der Ablauf 1500 folgende Proben überwachen, um festzustellen, ob die Hebegeste weiter voranschreitet. Der Ablauf 1500 kann beispielsweise bei Block 1508 zwei Zähler starten, NNO und NYES genannt. Die Zähler können beispielsweise bei Null beginnen. Bei Block 1510 kann der Ablauf 1500 die nächste Probe vom Beschleunigungssensor bewerten, und bei Block 1512 kann der Ablauf 1500 feststellen, ob die Probe mit einer gerade stattfindenden Hebegeste übereinstimmt. Die Feststellung kann auf verschiedenen Kriterien basieren, wie beispielsweise ob die Änderung der Position der Vorrichtung (z. B. Neigung oder Armwinkel) mit der Fortführung einer Hebegeste, der Gleichmäßigkeit der Bewegung (unter der Annahme, dass eine zufällige Bewegung nicht so gleichmäßig abläuft wie eine Hebegeste) usw. übereinstimmt. Bei einigen Ausführungsformen können die Kriterien von der Ausgangsposition abhängen. Beispielsweise würde ausgehend von einer Ausgangsposition, bei der der Arm nach unten hängt (z. B. wie in 1A), eine größere Änderung hinsichtlich ax erwartet als bei einer Ausgangsposition, bei der der Unterarm horizontal ist (z. B. wie in 1C). Dementsprechend kann die Entscheidung die aktuelle Probe vom Beschleunigungssensor, sowie eine Bewegungskurve der Vorrichtung umfassen, die von vorhergehenden Proben abgeleitet wird.
  • Stimmt bei Block 1512 die nächste Probe mit der Geste überein, kann der Zähler NYES bei Block 1514 erhöht werden. Bei Block 1516, kann NYES mit einem Grenzwert „MinYes” verglichen werden (z. B. zehn Proben, elf Proben, vierzehn Proben oder Ähnliches), um festzustellen, ob die Anzahl der erkannten Proben, die mit einer Hebegeste übereinstimmen, ausreicht. Hat NYES den Grenzwert „MinYes” erreicht, kann der Ablauf 1500 bei Block 1518 die Aktivierungslogik 230 über ein Vorglühereignis informieren (in diesem Dokument auch als eine „Vorglühgeste” bezeichnet). In Reaktion darauf aktiviert die Aktivierungslogik 230 beispielsweise den Anwendungsprozessor 204. Bei dieser Ausführungsform führt ein Vorglühereignis nicht zur Aktivierung der Benutzerschnittstelle 202 und der Benutzer muss nicht wissen, wann oder ob Vorglühereignisse auftreten. Wird der Grenzwert bei Block 1516 nicht überschritten, kann der Ablauf 1500 zu Block 1510 zurückkehren, um Datenproben vom Beschleunigungssensor weiter zu sammeln und zu bewerten.
  • Stimmt bei Block 1512 die nächste Datenprobe des Beschleunigungssensors nicht mit einer Hebegeste überein, kann der Zähler NNO bei Block 1520 erhöht werden. Bei Block 1522, kann NNO mit einem Grenzwert „MinNo” verglichen werden (z. B. zwei Proben, vier Proben, fünf Proben oder Ähnliches), um festzustellen, ob zu viele Proben, die nicht mit einer Hebegeste übereinstimmen, erkannt wurden. Erreicht NNO den Grenzwert MaxNo, kann der Ablauf 1500 bei Block 1524 zurücksetzen und dadurch zu Block 1504 zurückkehren, um nach einem neuen möglichen Beginn einer Hebegeste zu suchen.
  • So kann die Frage, ob der Ablauf 1500 ein Vorglühereignis erkennt, davon abhängen, ob der Grenzwert MinVes vor dem Grenzwert MaxNo erreicht wird. Beispielsweise können der Grenzwert MinVes bei einer Ausführungsform auf 11 und der Grenzwert MaxNo auf 5 gesetzt werden. Werden, nachdem bei Block 1506 ein möglicher Beginn einer Hebegeste erkannt wurde, elf Proben empfangen, die mit der Geste übereinstimmen, bevor fünf Proben empfangen werden, die nicht mit der Geste übereinstimmen, erzeugt der Ablauf 1500 ein Vorglühereignis. Werden, bevor fünf Proben empfangen werden, die nicht mit der Geste übereinstimmen, keine elf Proben empfangen, die mit der Geste übereinstimmen, erzeugt der Ablauf 1500 kein Vorglühereignis und kehrt stattdessen zu Block 1504 zurück, um faktisch von vorn anzufangen. Werden neue Proben bei 100 Hz empfangen, kann der Ablauf 1500 den Beginn einer Hebegeste innerhalb von 150 ms nach dem Beginn erkennen.
  • Es wird darauf hingewiesen, dass der Ablauf 1500 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Beispielsweise können die Abtastfrequenzen und die Entscheidungskriterien variiert werden. Die Empfindlichkeit der Vorglüherkennung kann eingestellt werden, je nachdem wie viel Zeit erforderlich ist, damit der Anwendungsprozessor vom Ruhezustand in den aktiven Zustand wechseln kann. Das Vorglühereignis kann so früh erkannt werden, dass, wenn der Benutzer die Hebegeste abgeschlossen hat, der Anwendungsprozessor im aktiven Zustand und bereit ist, Benutzereingaben zu verarbeiten. Bei einigen Ausführungsformen können das frühzeitige Erkennen eines Vorglühereignisses und die frühzeitige Aktivierung des Anwendungsprozessors dabei behilflich sein, die für den Benutzer wahrnehmbare Verzögerung der Reaktion der Vorrichtung auf eine natürliche Hebegeste zu verringern oder zu beseitigen. Das frühere Erkennen kann zu mehr falsch positiven Ergebnissen führen und die Empfindlichkeit kann so eingestellt werden, dass ein Vorglühereignis so spät wie möglich während der Geste erkannt wird, während dennoch ausreichend Zeit zur Verfügung steht, damit der Anwendungsprozessor in den aktiven Zustand übergehen kann.
  • Bei einigen Ausführungsformen wird kein spezifischer Algorithmus zum Erkennen eines Vorglühverlustes umgesetzt. Beispielsweise kann der Anwendungsprozessor 204 automatisch wieder in den Ruhezustand zurückkehren, wenn innerhalb eines bestimmten Zeitraums nach der Aktivierung keine Benutzereingabe, kein Erkennen einer Hebegeste oder einer anderen Aktivität erfolgt, die anzeigt, dass der Benutzer mit der Vorrichtung 200 interagiert. Alternativ kann die Aktivierungssteuerlogik 230 den Anwendungsprozessor 204 benachrichtigen, wenn eine mögliche Hebegeste nicht innerhalb eines bestimmten Zeitraums nach einem Vorglühereignis empfangen wird, und kann der Anwendungsprozessor 204 diese Informationen nutzen, um festzustellen, ob eine Rückkehr in den Ruhezustand erforderlich ist. Einige Ausführungsformen können einen Algorithmus für einen Vorglühverlust bieten, der beispielsweise erkennt, ob die empfangenen Proben weiterhin mit einer Hebegeste übereinstimmen, und einen Vorglühverlust anzeigt, wenn die Proben nicht weiterhin mit einer Hebegeste übereinstimmen oder wenn das Vorglühereignis nicht innerhalb eines vorgegebenen Zeitraums von einer erkannten Hebegeste gefolgt wird.
  • 16 ist ein Funktionsblockdiagramm eines Vorglüherkennungsmoduls 1600 entsprechend einer Ausführungsform der vorliegenden Erfindung. Wie gezeigt, kann das Vorglüherkennungsmodul 1600 in der Bewegungsverarbeitungseinheit 258 in 2B beispielsweise als Vorglüherkennungsmodul 270 umgesetzt werden. Das Vorglüherkennungsmodul 1600 kann ferner als Vorglüherkennungsmodul 220 aus 2A umgesetzt werden. Das Vorglüherkennungsmodul 1600 kann eine Einheit zur Feststellung des Beginns einer möglichen Geste 1602, eine Probenbewertungseinheit 1604, eine Zählereinheit 1606 und eine Vorglühfeststellungseinheit 1608 umfassen. Jede Einheit kann beispielsweise unter Zuhilfenahme von Programmcode umgesetzt werden, der auf einem Prozessor bzw. auf fest zugeordneten logischen Schaltungen ausführbar ist.
  • Die Einheit zur Feststellung des Beginns einer möglichen Geste 1602 kann Datenproben vom Bewegungssensor empfangen und anhand der Datenproben feststellen, ob der Beginn einer möglichen Geste erfolgt ist. Beispielsweise kann die Einheit zur Feststellung des Beginns einer möglichen Geste 1602 Block 1504 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Wird der Beginn einer möglichen Geste erkannt, kann die Einheit zur Feststellung des Beginns einer möglichen Geste die Probenbewertungseinheit 1604 und die Zählereinheit 1606 benachrichtigen.
  • Die Probenbewertungseinheit 1604 kann Datenproben vom Bewegungssensor empfangen und jede Probe bei Empfang bewerten, um festzustellen, ob die Probe mit einer Fortführung einer möglichen Hebegeste übereinstimmt oder nicht übereinstimmt. Beispielsweise kann die Probenbewertungseinheit 1604 die Blöcke 1510 und 1512 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Die Probenbewertungseinheit 1604 kann der Zählereinheit 1606 eine Entscheidungsausgabe bereitstellen, die anzeigt, ob die Probe mit einer Fortführung einer möglichen Hebegeste übereinstimmt oder nicht übereinstimmt.
  • Die Zählereinheit 1606 kann einen ersten Zähler unterstützen, um die Proben zu zählen, bei denen die Probenbewertungseinheit 1604 festgestellt hat, dass sie mit einer Fortführung einer möglichen Hebegeste übereinstimmen, und einen zweiten Zähler unterstützen, um Proben zu zählen, bei denen die Probenbewertungseinheit 1604 festgestellt hat, dass sie mit einer Fortführung einer möglichen Hebegeste nicht übereinstimmen. Diese Zähler können den oben stehend beschriebenen NYES- und NNO-Zählern entsprechen. Die Zählereinheit 1606 kann die beiden Zähler in Reaktion auf die Benachrichtigung über den Beginn der möglichen Geste durch die Einheit zur Feststellung des Beginns einer möglichen Geste 1602 initialisieren (z. B. auf Null). Beispielsweise kann die Zählereinheit 1606 den Block 1508 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Nach der Initialisierung der beiden Zähler kann die Zählereinheit 1606 einen der beiden Zähler in Reaktion auf jede Entscheidungsausgabe erhöhen, die sie von der Probenbewertungseinheit 1604 empfängt, wobei der erste Zähler erhöht wird, wenn die Entscheidungsausgabe darauf hindeutet, dass die Probe mit einer Fortsetzung einer möglichen Hebegeste übereinstimmt, und der zweite Zähler erhöht wird, wenn die Entscheidungsausgabe darauf hindeutet, dass die Probe nicht mit einer Fortsetzung einer möglichen Hebegeste übereinstimmt. Beispielsweise kann die Zählereinheit 1606 die Blöcke 1540 und 1520 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Die Zählereinheit 1606 kann der Vorglühfeststellungseinheit 1608 den ersten und den zweiten Zählerwert zur Verfügung stellen.
  • Die Vorglühfeststellungseinheit 1608 kann den ersten und den zweiten Zählerwert von der Zählereinheit 1606 empfangen und kann feststellen, ob entweder ein Vorglühereignis oder ein Rücksetzereignis erfolgt ist. Beispielsweise kann die Vorglühfeststellungseinheit 1608 die Blöcke 1516 und 1522 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Ist ein Vorglühereignis aufgetreten (z. B. wenn der erste Zähler den Wert MinYes, wie oben stehend beschrieben, überschritten hat), kann die Vorglühfeststellungseinheit 1608 andere Systemkomponenten benachrichtigen (z. B. die Aktivierungssteuerlogik 230 aus 2A oder das Aktivierungssteuerlogikmodul 280 aus 2B). Beispielsweise kann die Vorglühfeststellungseinheit 1608 den Block 1518 des oben stehend beschriebenen Ablaufs 1500 umsetzen. Ist ein Rücksetzereignis aufgetreten (z. B. wenn der zweite Zähler den Wert MaxNO, wie oben stehend beschrieben, überschritten hat), kann die Vorglühfeststellungseinheit 1608 die Einheit zur Feststellung des Beginns einer möglichen Geste 1602 informieren und kann die Einheit zur Feststellung des Beginns einer möglichen Geste 1602 damit beginnen, erneut festzustellen, ob ein Beginn einer möglichen Geste aufgetreten ist. Zusätzlich kann die Vorglühfeststellungseinheit 1608 ferner die Probenbewertungseinheit 1604 bzw. die Zählereinheit 1606 über ein Vorglüh- oder Rücksetzereignis informieren, und die benachrichtigten Einheiten können entsprechend reagieren; beispielsweise kann die Probenbewertungseinheit 1604 die Bewertung von Proben nach einem Vorglüh- oder Rücksetzereignis beenden, bis der nächste Beginn einer möglichen Geste auftritt. Es wird vorausgesetzt, dass nicht jede von der Probenbewertungseinheit 1604 bewertete Probe entweder zu einem Vorglüh- oder zu einem Rücksetzereignis führen muss, da unter Umständen mehrere Proben erforderlich sind, damit der erste oder der zweite Zähler den entsprechenden Grenzwert erreicht.
  • Es wird darauf hingewiesen, dass das Vorglüherkennungsmodul 1600 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Beispielsweise wird, während das Vorglüherkennungsmodul 1600 unter Bezugnahme auf konkrete Blöcke oder Einheiten beschrieben wird, vorausgesetzt, dass diese Blöcke zum Zwecke der Beschreibung definiert werden und nicht dazu gedacht sind, eine konkrete physikalische Anordnung der Komponententeile zu implizieren. Ferner müssen die Blöcke nicht zwangsläufig physikalisch unterschiedlichen Komponenten entsprechen und können dieselben physikalischen Komponenten zur Umsetzung der Aspekte mehrerer Blöcke eingesetzt werden. Blöcke können zur Durchführung verschiedener Abläufe konfiguriert werden, z. B. durch die Programmierung eines Prozessors oder die Bereitstellung der entsprechenden Steuerschaltung, und verschiedene Blöcke können neu konfiguriert oder nicht neu konfiguriert werden, je nachdem, wie die erste Konfiguration erreicht wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielzahl von Geräten umgesetzt werden, einschließlich elektronischer Vorrichtungen, die unter Zuhilfenahme einer beliebigen Kombination aus Schaltungen und Software umgesetzt wurden.
  • Unter Verwendung der verschiedenen oben stehend beschriebenen Gestenerkennungsmodule bzw. -abläufe kann die Aktivierungssteuerlogik 230 aus 2A (oder das Aktivierungssteuerlogikmodul 280 aus 2B) das Zustandsverhalten der Maschine umsetzen, wie in 17 beschrieben, wobei es sich um ein Zustandsdiagramm handelt, das Zustände der Aktivierungssteuerlogik 230 entsprechend einer Ausführungsform der vorliegenden Erfindung zeigt. Die Übergänge zwischen den Zuständen können in Reaktion auf Benachrichtigungen vom Vorglüherkennungsmodul 220 (z. B. bei Ausführung von Ablauf 1500), vom Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 (z. B. Ablauf 400), vom hochdynamischen Haupterkennungsmodul 224 (z. B. Ablauf 800), vom Modul zum Erkennen einer Zitterbewegung 226 (z. B. Ablauf 1100) und vom Modul zum Erkennen eines Fokusverlustes (z. B. Ablauf 1300) erfolgen.
  • Zustand 1702 kann ein „Null”-Zustand sein, in dem die Vorrichtung 200 inaktiv ist, wobei der Anwendungsprozessor 204 im Ruhezustand und die Benutzerschnittstelle 202 in einem aktiven Zustand sind. Bei einigen Ausführungsformen kann die Vorrichtung auf der Grundlage einer Inaktivität, eines Fokusverlustes bzw. anderer Kriterien in den Zustand 1702 gelangen.
  • Der Zustand 1704 kann ein „Vorglüh”-Zustand sein, der in Reaktion auf ein Vorglühereignis aufgerufen werden kann, das durch das Vorglüherkennungsmodul 220 gemeldet wurde (z. B. bei Block 1518 aus 15). Nachdem der Vorglühzustand 1704 aufgerufen wurde, kann die Aktivierungssteuerlogik 230 dem Anwendungsprozessor 204 signalisieren, dass dieser mit der Aktivierung aus dem Ruhezustand beginnt. Bei einigen Ausführungsformen hat die Aktivierung des Anwendungsprozessors 204 keinerlei für den Benutzer wahrnehmbare Auswirkungen (außer vielleicht einen Anstieg der Leistungsaufnahme); der Benutzer muss nicht darauf hingewiesen werden, ob der Anwendungsprozessor 204 aktiv oder inaktiv ist.
  • Bei Zustand 1706 kann es sich um einen Zustand „mögliche Geste” handeln, der in Reaktion auf eine Benachrichtigung über eine mögliche Hebegeste aufgerufen wird (z. B. bei Block 412 in 4 oder Block 812 in 8). Der Zustand 1706 kann vom Vorglühzustand 1704 oder direkt vom Null-Zustand 1702 aufgerufen werden. Nach dem Übergang in den Zustand „mögliche Geste” 1706 kann die Aktivierungssteuerlogik 230 den Anwendungsprozessor 204 aktivieren (sofern dies nicht bereits im Vorglühzustand 1704 durchgeführt wurde) und kann ferner die Benutzerschnittstelle 202 aktiviert werden.
  • Bei Zustand 1708 kann es sich um einen Zustand „erkannte Geste” handeln, der in Reaktion auf eine Benachrichtigung über eine erkannte Hebegeste aufgerufen wird (z. B. bei Block 418 in 4, Block 818 in 8 oder Block 1124 in 11). Der Zustand 1708 kann vom Zustand „mögliche Geste” 1706 oder direkt vom Null-Zustand 1702 oder vom Vorglühzustand 1704 aufgerufen werden. Beispielsweise benachrichtigt bei der oben stehend beschriebenen Ausführungsform der Ablauf 1100 zum Erkennen einer bewussten Hebegeste die Aktivierungssteuerlogik 230 nur über eine erkannte Hebegeste, die entweder im Null-Zustand 1702 oder im Vorglühzustand 1704 erfolgen kann. In diesem Fall kann der Zustand „mögliche Geste” 1706 unter Umständen übersprungen werden. Bei anderen Ausführungsformen kann der Ablauf 1100 die Aktivierungssteuerlogik 230 über eine mögliche Aktivierungsgeste benachrichtigen (z. B. nach dem Erkennen einer ersten oder zweiten Spitze) und kann es unter Umständen zu einem direkten Übergang vom Null-Zustand 1702 oder Vorglühzustand 1704 auf den Zustand „erkannte Geste” 1708 kommen. Nach dem Übergang in den Zustand „erkannte Geste” 1708 kann die Aktivierungssteuerlogik 230 den Anwendungsprozessor 204 bzw. die Benutzerschnittstelle 202 aktivieren, wenn entweder eines von beiden oder beides vorher noch nicht erfolgt ist.
  • Bei Zustand 1710 kann es sich um einen Zustand „bestätigte Geste” handeln, der in Reaktion auf eine Benachrichtigung über eine bestätigte Hebegeste aufgerufen wird (z. B. bei Block 424 in 4). Bei einigen Ausführungsformen muss die Aktivierungssteuerlogik 230 in Reaktion auf einen Übergang auf den Zustand „bestätigte Hebegeste” 1710 nicht aktiv werden. Die Aktivierungssteuerlogik 230 kann jedoch, sofern gewünscht, verschiedene Maßnahmen ergreifen, wie beispielsweise eine Benachrichtigung über die Bestätigung an den Anwendungsprozessor 204 senden, und verschiedene Anwendungen oder andere Abläufe, die auf dem Anwendungsprozessor 204 ausgeführt werden, können, sofern gewünscht, in Reaktion auf eine bestätigte Hebegeste anders reagieren als auf eine erkannte (aber nicht bestätigte) Hebegeste.
  • Bei Zustand 1712 kann es sich um einen Fokusverlustzustand handeln, der in Reaktion auf eine Benachrichtigung über ein Fokusverlustereignis aufgerufen wird (z. B. bei Block 1312 in 13). Nach dem Übergang in den Fokusverlustzustand 1712 kann die Aktivierungssteuerlogik die Benutzerschnittstelle 202 deaktivieren und den Anwendungsprozessor 204 über den Fokusverlust informieren. Bei einigen Ausführungsformen geht der Anwendungsprozessor 204 in Reaktion auf einen Fokusverlust unter Umständen nicht direkt in den Ruhezustand über. Beispielsweise kann der Anwendungsprozessor 204 einen Ablauf weiter ausführen, der begonnen wurde, während die Vorrichtung 200 im Fokuszustand war (z. B. einer der Zustände 1706, 1708, 1710), bis dieser Ablauf abgeschlossen ist, und anschließend in den Ruhezustand übergehen.
  • Vom Fokusverlustzustand 1712 kann die Aktivierungssteuerlogik 230 zurück in den Null-Zustand 1702 wechseln, wenn der Anwendungsprozessor 204 im Anschluss in den Ruhezustand wechselt. Bei einigen Ausführungsformen kann ein anderes mit dem Blickfeld zusammenhängendes Ereignis auftreten (z. B. Vorglühen, mögliche Hebegeste, erkannte Hebegeste), bevor der Anwendungsprozessor 204 in seinen Ruhezustand zurückkehrt, in welchen Fall die Aktivierungssteuerlogik 230 in den entsprechenden Zustand 1704, 1706 oder 1708 wechseln kann, ohne zuerst in den Null-Zustand zu wechseln, wie durch die gestrichelten Pfeile dargestellt.
  • Es wird vorausgesetzt, dass die in 17 dargestellten Zustände veranschaulichenden Charakters sind und dass andere Ausführungsformen mehr, weniger oder andere Zustände definieren können.
  • Bei einigen Ausführungsformen kann die Aktivierungssteuerlogik 230 selektiv verschiedene Algorithmen oder Module zum Erkennen einer Geste aktivieren oder deaktivieren, einschließlich ein oder alle der Folgenden: Vorglüherkennungsmodul 220 (z. B. bei Umsetzung von Ablauf 1500), Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 (z. B. bei Umsetzung von Ablauf 400), hochdynamisches Haupterkennungsmodul 224 (z. B. bei Umsetzung von Ablauf 800), Modul zum Erkennen einer Zitterbewegung 226 (z. B. bei Umsetzung von Ablauf 1100) und Modul zum Erkennen eines Fokusverlustes 228 (z. B. bei Umsetzung von Ablauf 1300), je nach aktuellem Zustand der Aktivierungssteuerlogik 230.
  • 18 ist ein Flussdiagramm eines Ablaufs 1800, der im Rahmen der Aktivierungssteuerlogik 230 umgesetzt werden kann, entsprechend einer Ausführungsform der vorliegenden Erfindung. Der Ablauf 1800 kann (bei Block 1802) im Null-Zustand in 17 beginnen. Zum Zwecke der Beschreibung wird davon ausgegangen, dass der Anwendungsprozessor 204 in dieser Phase im Ruhezustand und die Benutzerschnittstelle 202 inaktiv sind.
  • Bei Block 1804 kann die Aktivierungssteuerlogik 230 einen oder mehrere Algorithmen bzw. ein oder mehrere Module zum Erkennen einer Geste aktivieren, um eine Hebegeste zu erkennen. Beispielsweise kann die Aktivierungssteuerlogik 230 das Vorglüherkennungsmodul 220, das Modul zum Erkennen einer Zitterbewegung 226 und entweder das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 oder das hochdynamische Haupterkennungsmodul 224 aktivieren. Bei einigen Ausführungsformen wird das hochdynamische Haupterkennungsmodul 224 nur aktiviert, wenn der Benutzer einer hochdynamischen Beschäftigung nachgeht, die wie oben stehend beschrieben festgestellt werden kann, und wird das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 aktiviert, wenn der Benutzer keiner hochdynamischen Aktivität nachgeht. Ändert sich die Beschäftigung des Benutzers, kann die Aktivierungssteuerlogik 230 den aktivieren Algorithmus ändern.
  • Bei Block 1806 kann der Ablauf 1800 warten, bis einer der Algorithmen bzw. eines der Module zum Erkennen einer Geste eine Benachrichtigung über ein Ereignis liefert. Beispielsweise kann das Vorglüherkennungsmodul 220 die Aktivierungssteuerlogik 230 über ein Vorglühereignis informieren bzw. kann das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 oder das hochdynamische Haupterkennungsmodul 224 die Aktivierungssteuerlogik 230 über eine mögliche Hebegeste informieren. Wird eine solche Mitteilung empfangen, kann der Ablauf bei Block 1808 den Anwendungsprozessor 204 aktivieren (ausgehend von der Annahme, dass dieser noch nicht aktiviert ist) und das Vorglüherkennungsmodul 220 deaktivieren. Andere Algorithmen oder Module zum Erkennen einer Geste können weiterlaufen. Je nach Umsetzung kann der Anwendungsprozessor 204 die Benutzerschnittstelle 202 aktivieren oder nicht aktivieren. Beispielsweise aktiviert der Anwendungsprozessor 204 bei einigen Ausführungsformen die Benutzerschnittstelle 202 in Reaktion auf eine mögliche Hebegeste, aber nicht in Reaktion auf ein Vorglühereignis.
  • Bei Block 1810 kann die Aktivierungssteuerlogik feststellen, ob eine Mitteilung über eine erkannte Hebegeste empfangen wurde. Eine solche Mitteilung kann beispielsweise vom Modul zum Erkennen einer Zitterbewegung 226 oder vom Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 oder vom hochdynamischen Haupterkennungsmodul 224 empfangen werden. Bei einigen Ausführungsformen kann die Aktivierungssteuerlogik 230, wenn innerhalb einer Zeitüberschreitung nach dem Vorglühereignis oder der möglichen Hebegeste keine Mitteilung über eine erkannte Hebegeste empfangen wird, folgern, dass das Vorglühereignis oder die mögliche Hebegeste ein falsch positives Ergebnis war. Dementsprechend kann die Aktivierungssteuerlogik 230 bei Block 1812 den Anwendungsprozessor 204 über das falsch positive Ergebnis informieren, das Vorglüherkennungsmodul 220 wieder aktivieren und zu Block 1804 zurückkehren. Bei einigen Ausführungsformen kann das Vorglüherkennungsmodul 220, wenn innerhalb eines kurzen Zeitraumes die Anzahl falsch positiver Vorglühereignisse einen Grenzwert erreicht, in einen Zustand „zurückweichen” übergehen, in dem keine Vorglühmitteilungen mehr versendet werden (bzw. die Aktivierungssteuerlogik 230 kann die Vorglühmitteilungen ignorieren), bis die Zahl der falsch positiven Ergebnisse einen Grenzwert unterschreitet. Dadurch lässt sich ein unnötiger Energieverbrauch durch den Anwendungsprozessor verringern.
  • Wird bei Block 1810 eine Mitteilung über eine erkannte Hebegeste empfangen, kann der Ablauf 1800 bei Block 1814 den Gestenklassifikator 234 aktivieren, um die erkannte Hebegeste zu bestätigen, und das Modul zum Erkennen einer Zitterbewegung 226 deaktivieren. In einigen Fällen kann vor einer Mitteilung über ein Vorglühereignis oder eine mögliche Hebegeste eine Mitteilung über eine erkannte Hebegeste versendet werden (z. B. wenn das Modul zum Erkennen einer Zitterbewegung 226 die Mitteilung über die erkannte Hebegeste erzeugt). Wenngleich dies nicht konkret aus 18 hervorgeht, wird vorausgesetzt, dass, sofern dieser Fall eintritt, der Ablauf 1800 die Abläufe von Block 1808 gemeinsam mit den Abläufen von Block 1814 ausführen kann.
  • Bei Block 1816 kann der Ablauf 1800 feststellen, ob die erkannte Hebegeste bestätigt wurde. In einigen Fällen kann die Bestätigung bei Block 1816 angenommen werden (z. B. wenn die Mitteilung über eine erkannte Hebegeste bei Block 1810 vom Modul zum Erkennen einer Zitterbewegung 226 empfangen wurde) und ist eine Verwendung des Gestenklassifikators 234 oder dergleichen zur Bestätigung einer Hebegeste nicht erforderlich. In anderen Fällen kann die Bestätigung zumindest unter einigen Umständen erforderlich sein (z. B. wenn die Mitteilung über eine erkannte Hebegeste bei Block 1810 vom Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 empfangen wurde). Wird keine Bestätigung empfangen (und wird davon auch nicht ausgegangen) oder wird ein Abbruch empfangen, kann die Aktivierungssteuerlogik 230 bei Block 1818 den Anwendungsprozessor 204 über die unbestätigte oder nicht bestätigte Hebegeste informieren, das Vorglüherkennungsmodul 220 und das Modul zum Erkennen einer Zitterbewegung 226 wieder aktivieren und den Gestenklassifikator 234 deaktivieren. Der Ablauf 1800 kann zu Block 1804 zurückkehren, um weiterhin auf eine bestätigte Hebegeste zu warten.
  • Wird die Geste bei Block 1816 bestätigt, kann der Ablauf bei Block 1820 den Anwendungsprozessor 204 anweisen, die Benutzerschnittstelle 202 zu aktivieren (sofern diese nicht bereits aktiv ist), das Modul zum Erkennen eines Fokusverlustes 228 zu aktivieren und das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 oder das hochdynamische Haupterkennungsmodul 224 zu deaktivieren. Sind das Modul zum Erkennen einer Zitterbewegung 226 oder das Vorglühmodul 220 nach wie vor aktiviert, können diese Module auch bei Block 1820 deaktiviert werden.
  • Der Ablauf 1800 kann bei Block 1822 warten, bis eine Mitteilung über eine Fokusverlustgeste empfangen wird, z. B. vom Modul zum Erkennen eines Fokusverlustes 228. Während dieses Zeitraums kann die Vorrichtung 200 als sich im Blickfeld befindlich betrachtet werden. Der Anwendungsprozessor 204 kann im aktiven Zustand bleiben und die Benutzerschnittstelle 204 kann aktiv bleiben.
  • Sobald der Fokus verloren geht, kann der Ablauf 1800 bei Block 1824 den Anwendungsprozessor 204 informieren, die Benutzerschnittstelle 202 deaktivieren und das Modul zum Erkennen eines Fokusverlustes 228 deaktivieren. Der Ablauf 1800 kann zu Block 1804 zurückkehren, um verschiedene Module zum Erkennen einer Hebegeste erneut zu aktivieren (z. B. das Modul zum Erkennen einer Zitterbewegung 226 und entweder das Haupterkennungsmodul für Umgebungen niedriger Dynamik 222 oder das hochdynamische Haupterkennungsmodul 224). Kehrt der Anwendungsprozessor 204 in den Ruhezustand zurück, kann der Ablauf 1800 das Vorglüherkennungsmodul 220 erneut aktivieren.
  • Es wird darauf hingewiesen, dass der Ablauf 1800 veranschaulichenden Charakters ist und dass Variationen und Modifikationen möglich sind. Die als aufeinander folgend beschriebenen Schritte können parallel ausgeführt werden, die Reihenfolge der Schritte kann variiert werden und die Schritte können verändert, miteinander kombiniert, hinzugefügt oder weggelassen werden. Die Aktivierung der Benutzerschnittstelle 204 lässt sich optional durch die Aktivierungssteuerlogik 230 oder durch einen Ablauf im Anwendungsprozessor 204 steuern. Das Vorglüherkennungsmodul 220 kann durchgehend laufen, während der Anwendungsprozessor 204 im Ruhezustand ist, und kann jederzeit deaktiviert werden, wenn der Anwendungsprozessor 204 im aktiven Zustand ist. Bei einigen Ausführungsformen führt ein Fokusverlust nicht dazu, dass der Anwendungsprozessor 204 direkt in den Ruhezustand übergeht. Beispielsweise können alle Verarbeitungsaufgaben, die gerade auf dem Anwendungsprozessor 204 laufen, weiter ausgeführt werden und der Anwendungsprozessor 204 wieder in den Ruhezustand zurückkehren, wenn solche Aufgaben abgeschlossen sind (ausgehend davon, dass keine weitere Hebegeste oder kein weiteres Vorglühereignis aufgetreten ist). Der Anwendungsprozessor 204 kann die Aktivierungssteuerlogik 230 jedes Mal informieren, wenn er zwischen dem aktiven und dem Ruhezustand wechselt, und die Aktivierungssteuerlogik 230 kann ferner über Zustandsänderungen der Benutzerschnittstelle 202 informiert werden (z. B. Wechsel zwischen aktiv und inaktiv). Die Aktivierungssteuerlogik 230 kann Module oder Algorithmen zum Erkennen einer Geste auf der Grundlage von Mitteilungen vom Anwendungsprozessor 204 aktivieren oder deaktivieren, neben den Mitteilungen von Modulen oder Algorithmen zum Erkennen einer Geste.
  • In dem in 18 gezeigten Beispiel wird die Benutzerschnittstelle erst aktiviert, wenn eine Hebegeste erkannt und bestätigt wurde. Bei einigen Ausführungsformen ist es unter Umständen wünschenswert, die Benutzerschnittstelle früher zu aktivieren (z. B. wenn eine mögliche Hebegeste oder eine erkannte Hebegeste gemeldet wird); dies kann zu mehr falsch positiven Ergebnissen aber weniger falsch negativen Ergebnissen (ihren und eine zugänglichere und zufrieden stellendere Nutzererfahrung bieten. Zusätzlich kann die Benutzerschnittstelle stufenweise aktiviert werden. Beispielsweise kann die Schnittstelle teilweise aktiviert werden (z. B. die Anzeige ist eingeschaltet, aber gedimmt, die Einblendung auf dem Touchscreen ist aktiviert oder deaktiviert, bei verringerter Auflösung), wenn eine Mitteilung über eine mögliche Hebegeste empfangen wird, und vollständig aktiviert werden, wenn eine Mitteilung über eine erkannte Hebegeste empfangen wird.
  • Während die Erfindung unter Bezugnahme auf konkrete Ausführungsformen beschrieben wurde, wird ein Fachmann erkennen, dass eine Vielzahl von Modifikationen möglich sind. Beispielsweise wird der Fachmann erkennen, wenngleich verschiedene Algorithmen oder Module oben stehend so beschrieben werden, dass sie auf einem Coprozessor in der Vorrichtung ausgeführt werden, dass ein Hauptprozessor (z. B. Anwendungsprozessor) ebenfalls einen oder alle der oben stehend beschriebenen Algorithmen bzw. ein oder alle der oben stehend beschriebenen Module zum Erkennen einer Geste ausführen kann. Beispielsweise kann der Gestenklassifikator bei den oben stehend beschriebenen Ausführungsformen selektiv aufgerufen werden, wenn der Anwendungsprozessor im aktiven Zustand ist, und kann der Gestenklassifikator auf dem Anwendungsprozessor ausgeführt werden, anstelle auf dem Coprozessor. Andere Algorithmen können ferner ganz oder teilweise auf dem Anwendungsprozessor ausgeführt werden, vorausgesetzt, dass der Anwendungsprozessor aktiv ist. Bei anderen Ausführungsformen kann der Anwendungsprozessor über mehrere Betriebszustände verfingen. Beispielsweise kann der Ruhezustand einen Zustand umfassen, in dem ein Teil des Prozessors Algorithmen zum Erkennen einer Geste ausführen kann, wie die oben stehend beschriebenen Algorithmen, während andere Teile des Prozessors deaktiviert sind, um Strom zu sparen. (Beispielsweise kann bei einem Anwendungsprozessor mit mehreren Kernen ein Kern aktiv sein, während die anderen Kerne inaktiv sind.)
  • Für die Parameter, die zum Erkennen möglicher oder tatsächlicher Hebegesten, zum Bestätigen erkannter Hebegesten bzw. zum Erkennen von Vorglühereignissen oder Fokusverlustereignissen verwendet werden, steht eine adaptive Steuerung zur Verfügung. Durch die adaptive Steuerung können die Parameter auf mildere oder strengere Erkennungskriterien eingestellt werden. Mildere Kriterien können eine schnellere Reaktion und ein früheres Auslösen hervorrufen, während strengere Kriterien weniger falsch positive Ergebnisse liefern (was zu einer zusätzlichen Energieersparnis führt). Parameter, die angepasst werden können, sind der erforderliche Umfang der aufgelaufenen Y-Neigung, der Bereich an Fokuspositionen der Vorrichtung und Kriterien im Hinblick auf die Bewegungskurve der Vorrichtung während der Ausführung der Hebegeste. Bei einigen Ausführungsformen können die einstellbaren Parameter über einen Konfigurationsdatenblock verändert werden und können neue Konfigurationsdaten gelegentlich auf die Vorrichtung heruntergeladen werden. Ferner kann eine Benutzerschnittstelle bereitgestellt werden, um die einstellbaren Parameter einzustellen (z. B. auf einer Gleitskala von mild bis streng).
  • Beispielsweise erfordert ein oben stehend beschriebener Algorithmus für eine Hebegeste ferner, dass die Vorrichtung über eine Mindestverweildauer in einer Fokusposition verbleibt, bevor eine Geste erkannt wird. Bei einigen Ausführungsformen kann die Verweildauer gegen die Genauigkeit der Fokusposition getauscht werden. Bleibt die Vorrichtung beispielsweise in der Nähe des für die Fokusposition definierten Bereiches, aber nicht im Bereich, (z. B. drei von vier Kriterien sind erfüllt) und läuft eine ausreichend lange Verweildauer in dieser Position auf, kann dies als eine Hebegeste erkannt werden. Beispielsweise kann eine signifikante Drehbewegung, gefolgt von einer stationären Phase in einer Endposition, erkannt werden, selbst wenn die Y-Neigung nicht Null sondern positiv ist, vorausgesetzt, dass die Endposition ausreichend lange gehalten wird. Wenn die Verweildauer auf diese Art und Weise verwendet wird, um auszugleichen, dass nicht alle Kriterien für die Fokusposition erfüllt sind, können strengere Kriterien für die Fokusposition vorgegeben werden.
  • Die in diesem Dokument beschriebenen Abläufe können verwendet werden, um festzustellen, wann eine Benutzerschnittstelle für eine Vorrichtung aktiviert werden soll. Sobald die Benutzerschnittstelle aktiviert ist, kann sie in irgendeinem gewünschten Zustand angezeigt werden. Beispielsweise kann die Benutzerschnittstelle in einem standardmäßigen Grundzustand, mit dem letzten Zustand, den sie inne hatte, bevor sie deaktiviert wurde, in einem Zustand, der eine zuletzt empfangene Mitteilung oder Information über Mitteilungen anzeigt, die empfangen wurden, seitdem die Benutzerschnittstelle zuletzt aktiv war, oder in irgendeinem anderen Zustand angezeigt werden.
  • Bei einigen Ausführungsformen kann eine Benutzerschnittstelle oder eine Komponente davon stufenweise aktiviert werden. Wird beispielsweise eine mögliche Hebegeste erkannt (z. B. wie oben stehend beschrieben), kann die Benutzerschnittstelle zu einer teilweisen Aktivierung übergehen. Eine solche teilweise Aktivierung kann die Aktivierung einer Anzeige, die jedoch nur schwach beleuchtet ist (wobei „schwach beleuchtet” eine beliebige Beleuchtungsstärke umfassen kann, die unter der Helligkeit der Anzeige im normalen Betrieb liegt, was unter Umständen beispielsweise vom Umgebungslicht, den Wünschen des Benutzers oder dergleichen abhängig ist) oder die Aktivierung einer Anzeige ohne eine berührungsempfindliche Einblendung, die Aktivierung einer Anzeige ohne eine Schaltung für Spracheingaben usw. umfassen. Wenn die mögliche Hebegeste zu einer erkannten Hebegeste wird, kann die Benutzerschnittstelle voll aktiviert werden, z. B. die Anzeige ist mit der standardmäßigen Helligkeit eingeschaltet, die berührungsempfindliche Einblendung ist aktiv, die Schaltung für Spracheingaben ist aktiv usw. Unterschiedliche Komponenten einer Benutzerschnittstelle können beispielsweise ferner in unterschiedlichen Phasen des Erkennens einer Hebegeste aktiviert werden. Wird beispielsweise eine mögliche Hebegeste erkannt (z. B. wie oben stehend beschrieben), können eine oder mehrere Benutzerschnittstellenkomponenten (z. B. ein Mikrofon oder eine Anzeige) aktiviert werden, während andere Benutzerschnittstellenkomponenten (z. B. eine berührungsempfindliche Einblendung auf der Anzeige, ein Lautsprecher, ein Coprozessor zur Spracherkennung und dergleichen) inaktiv bleiben. Wird die mögliche Hebegeste zu einer erkannten Hebegeste, können eine oder mehrere andere Benutzerschnittstellenkomponenten (z. B. eine berührungsempfindliche Einblendung) aktiviert werden. Ferner können eine oder mehrere andere Benutzerschnittstellenkomponenten (z. B. Coprozessor für Spracherkennung) inaktiv bleiben, bis aus der erkannten Hebegeste eine bestätigte Hebegeste wird. Andere Aktivierungssequenzen können ebenfalls umgesetzt werden, wobei unterschiedliche Benutzerschnittstellenkomponenten in Reaktion auf unterschiedliche Gestenzustandsübergänge in den aktiven Zustand übergehen.
  • Bei einigen Ausführungsformen kann die Aktivierungssteuerlogik 230 dem Anwendungsprozessor 204 Informationen zur Verfügung stellen, die darauf hindeuten, wie lange die Vorrichtung 200 in einem Fokuszustand gewesen ist (z. B. die Zeit, die seit der zuletzt erkannten oder bestätigten Hebegeste verstrichen ist). Zusätzlich oder anstelle dessen kann der Anwendungsprozessor 204 die Dauer eines Fokuszustandes auf der Grundlage der Zeit ableiten, die verstrichen ist, seitdem die Aktivierungssteuerlogik 204 einen Übergang in den Fokuszustand angezeigt hat (z. B. durch die Benachrichtigung des Anwendungsprozessors 204 über eine erkannte oder bestätigte Hebegeste), bzw. auf der Grundlage von anderen Informationen, die dem Anwendungsprozessor 204 zur Verfügung stehen. Die Dauer des Fokuszustandes kann eingesetzt werden, um die Nutzererfahrung zu beeinflussen. Nehmen wir beispielsweise an, dass die Vorrichtung 200 ins Blickfeld rückt und dabei eine Mitteilung anzeigt (z. B. „Neue Textnachricht von Fred.”). Je nachdem, wie lange der Benutzer auf die Mitteilung schaut, kann der Anwendungsprozessor 204 entscheiden, zusätzliche Informationen zur Mitteilung anzuzeigen (z. B. den Inhalt der Textnachricht), ohne dass der Benutzer hierfür ein Bedienelement benutzen muss. Der Anwendungsprozessor 204 kann ferner beispielsweise folgern, dass die Mitteilung gelesen wurde, wenn der Benutzer länger als vorher festgelegt auf die Anzeige schaut, und kann die Mitteilung automatisch ausblenden, ohne dass der Benutzer hierfür ein Bedienelement benutzen muss. Andere Aktionen auf der Grundlage der zeitlichen Dauer, in der der Benutzer die Fokusposition hält, können umgesetzt werden, wie beispielsweise ein Durchblättern oder Seitenwechsel durch eine Liste von Mitteilungen oder anderen Punkten oder durch den Inhalt einer Nachricht.
  • Wird eine Fokusverlustgeste erkannt, kann dies verschiedene Folgen haben. Eine Benutzerschnittstelle kann beispielsweise, wie oben stehend beschrieben, deaktiviert werden. Zusätzlich kann jede Mitteilung, die zum Zeitpunkt des Fokusverlustes angezeigt wurde, ausgeblendet bzw. kann der Zustand gelesen/ungelesen einer Mitteilung aufrechterhalten werden.
  • Ferner kann der Anwendungsprozessor 204, wie oben stehend beschrieben, von der Aktivierungssteuerlogik 230 über Gestenzustandsübergänge oder Gestenereignisse informiert werden (z. B. eine mögliche Hebegeste, eine erkannte Hebegeste, eine bestätigte Hebegeste, einen Fokusverlust). Bei einigen Ausführungsformen kann der Anwendungsprozessor 204 ferner seine Clients (z. B. jedwede Anwendungen bzw. Prozesse des Betriebssystems, die auf dem Anwendungsprozessor unter Umständen ausgeführt werden) über diese Übergänge informieren, und die Clients können wie gewünscht reagieren.
  • Es wird vorausgesetzt, dass einige Ausführungsformen der Erfindung weniger als alle der in diesem Dokument beschriebenen Module zum Erkennen einer Geste nutzen können. Beispielsweise umfassen einige Ausführungsformen unter Umständen nur ein Vorglüherkennungsmodul. Einige Ausführungsformen umfassen unter Umständen nur ein einzelnes Modul zum Erkennen einer natürlichen Hebegeste (wobei es sich beispielsweise entweder um das oben stehend beschriebene Erkennungsmodul für Umgebungen niedriger Dynamik oder das hochdynamische Erkennungsmodul handeln kann) oder mehrere Module zum Erkennen einer natürlichen Hebegeste, ohne andere Module. Einige Ausführungsformen umfassen unter Umständen nur ein Modul zum Erkennen einer bewussten Hebegeste (z. B. ein Modul zum Erkennen einer Zitterbewegung, wie oben stehend beschrieben). Einige Ausführungsformen umfassen unter Umständen nur ein Modul zum Erkennen eines Fokusverlustes. Einige Ausführungsformen umfassen unter Umständen ein Vorglüherkennungsmodul und ein oder mehrere Module zum Erkennen einer natürlichen Hebegeste. Einige Ausführungsformen umfassen unter Umständen ein Vorglüherkennungsmodul und Module zum Erkennen einer bewussten Hebegeste. Einige Ausführungsformen umfassen unter Umständen ein Vorglüherkennungsmodul und Module zum Erkennen eines Fokusverlustes. Einige Ausführungsformen umfassen unter Umständen ein Vorglüherkennungsmodul, ein oder mehrere Module zum Erkennen einer natürlichen Hebegeste und ein Modul zum Erkennen einer bewussten Hebegeste. Einige Ausführungsformen umfassen unter Umständen ein oder mehrere Module zum Erkennen einer natürlichen Hebegeste und ein Modul zum Erkennen einer bewussten Hebegeste. Einige Ausführungsformen umfassen unter Umständen ein oder mehrere Module zum Erkennen einer natürlichen Hebegeste, ein Modul zum Erkennen einer bewussten Hebegeste und ein Modul zum Erkennen eines Fokusverlustes. Einige Ausführungsformen umfassen unter Umständen ein Modul zum Erkennen einer bewussten Hebegeste und ein Modul zum Erkennen eines Fokusverlustes. Zusätzlich umfassen einige Ausführungsformen unter Umständen zusätzliche Module zum Erkennen einer Geste, die oben stehend nicht konkret beschrieben wurden.
  • Es wird ferner vorausgesetzt, dass eine Vorrichtung, die eine Hebegeste bzw. eine Fokusverlustgeste automatisiert erkennt, wie oben stehend beschrieben, ferner ein durch den Benutzer bedienbares manuelles Bedienelement bietet (z. B. eine physikalische Taste, ein Berührungssensor oder dergleichen), das eingesetzt werden kann, um die Benutzerschnittstelle zu aktivieren bzw. deaktivieren. Wird ein solches Bedienelement geboten, kann die Aktivierungssteuerlogik 230 Mitteilungen über Änderungen hinsichtlich des Zustandes der Benutzerschnittstelle empfangen, die durch die Bedienung des manuellen Bedienelementes durch den Benutzer entstehen, und kann ihren eigenen Zustand entsprechend anpassen (z. B. Aktivierung oder Deaktivierung verschiedener oben stehend beschriebener Algorithmen). Während die in diesem Dokument beschriebenen automatisierten Abläufe die Benutzerinteraktion vereinfachen können, muss die Vorrichtung (und der Benutzer) demzufolge nicht ausschließlich auf diese zurückgreifen.
  • Verschiedene in diesem Dokument beschriebene Algorithmen und Parameter (z. B. Gewichte, Grenzwerte, andere Kriterien) können heuristisch eingestellt werden, z. B. unter Zuhilfenahme des Maschinenlernens bzw. anderer oben stehend beschriebener Techniken). Es wird in Betracht gezogen, dass eine Übungsphase des Maschinenlernens während der Entwicklung der Vorrichtung durchgeführt werden kann (z. B. vor dem ausgedehnten Vertrieb) und die Ergebnisse der Übungsphase in die Firmware der Vorrichtung einfließen können. Dementsprechend ist es nicht notwendig, dass die Benutzer die Vorrichtung anlernen. Bei einigen Ausführungsformen kann die Vorrichtung in der Lage sein, Rückmeldungen im normalen Betrieb zu erfassen, z. B. Aufzeichnung relevanter Intervalle der Daten vom Bewegungssensor in Fällen, bei denen der Benutzer die bewusste Hebegeste ausführt oder ein manuelles Bedienelement bedient, was darauf hindeuten kann, dass ein Algorithmus zum Erkennen einer natürlichen Hebegeste ein falsch negatives Ergebnis produziert hat. Die Vorrichtung ist unter Umständen in der Lage, Übungsalgorithmen im Hintergrund auszuführen, um ihre eigenen Algorithmen und Parameter auf der Grundlage solcher aufgezeichneter Daten zu verfeinern. Bei einigen Ausführungsformen kann ein Hersteller einer Vorrichtung solche Daten über eine große Menge an Vorrichtungen ansammeln und die Informationen nutzen, um die Algorithmen bzw. Parameter zum Erkennen einer Geste zu aktualisieren. (Zum Schutz der Privatsphäre des Benutzers kann die Sammlung anonym erfolgen und auf die Daten vom Bewegungssensor und einen Hinweis darauf beschränkt sein, dass die Daten einem falsch negativen Ergebnis entsprechen können.)
  • Die vorliegende Offenlegung verwendet Begriffe wie „ungefähr” oder „im Wesentlichen”, um bestimmte Maße zu qualifizieren, wie beispielsweise die Stabilität in der Fokusposition. Ein Fachmann wird erkennen, dass die Mehrheit der Benutzer nicht in der Lage ist, ihren Arm ganz ruhig zu halten, und dass diese Begriffe verwendet werden, um anzuzeigen, dass die Auswirkungen der natürlichen Instabilität des Benutzers und die inhärente Genauigkeit der verschiedenen Bewegungssensoren Berücksichtigung finden müssen. Andere Begriffe, wie beispielsweise horizontal, vertikal und parallel können ähnlich qualifiziert werden, um darauf hinzudeuten, dass physikalische Perfektion nicht notwendig ist. Ferner beziehen sich Begriffe, wie beispielsweise „in der Sichtlinie”, in diesem Kontext im Allgemeinen auf Annahmen im Hinblick auf die Ausrichtung des Kopfes des Benutzers in Relation zur Vorrichtung, wobei solche Annahmen nicht immer der Ground-Truth dahingehend entsprechen, dass der Benutzer auf die Vorrichtung schaut oder nicht.
  • Während in der Beschreibung konkrete Verweise auf tragbare Vorrichtungen und am Handgelenk tragbare Vorrichtungen enthalten sind, sind die Ausführungsformen der Erfindung ferner nicht auf tragbare oder am Handgelenk tragbare Vorrichtungen beschränkt. Beispielsweise können die oben stehend beschriebenen Algorithmen und Module in anderen tragbaren Vorrichtungen umgesetzt sein, wie beispielsweise Mobiltelefone, Tablets oder dergleichen, die der Benutzer eventuell aufnimmt und während der Interaktion mit der Vorrichtung festhält. Die oben stehend beschriebenen Algorithmen bzw. Module können bei Umsetzung in einer tragbaren Vorrichtung Änderungen im Hinblick auf die Ausrichtung der Vorrichtung im Einklang damit erkennen, dass die Vorrichtung aufgenommen und in der Sichtlinie eines Benutzers gehalten wird (oder, im umgekehrten Fall, dass die Vorrichtung ab- oder weggelegt wird), und das Erkennen solcher Änderungen kann verwendet werden, um Änderungen des Zustandes der Vorrichtung auszulösen (z. B. Aktivierung einer Anzeige oder einer anderen Benutzerschnittstellenkomponente, Aktivierung eines Prozessors aus einem Ruhezustand usw.).
  • Die Ausführungsformen der vorliegenden Erfindung können unter Zuhilfenahme einer beliebigen Kombination fest zugeordneter Komponenten bzw. programmierbarer Prozessoren bzw. anderer programmierbarer Vorrichtungen umgesetzt werden. Die verschiedenen in diesem Dokument beschriebenen Abläufe können auf demselben Prozessor oder auf unterschiedlichen Prozessoren in einer beliebigen Kombination umgesetzt werden. Wenn die Komponenten so beschrieben werden, dass sie zur Durchführung bestimmter Abläufe konfiguriert sind, kann eine solche Konfiguration beispielsweise durch die Gestaltung der elektronischen Schaltkreise zur Durchführung des Ablaufs, die Programmierung programmierbarer elektronischer Schaltkreise (wie beispielsweise Mikroprozessoren) zur Durchführung des Ablaufs oder eine beliebige Kombination daraus umgesetzt werden. Während die oben stehend beschriebenen Ausführungsformen unter Umständen auf konkrete Hardware- und Softwarekomponenten verweisen, kann ein Fachmann ferner erkennen, dass unterschiedliche Kombinationen aus Hardware- bzw. Softwarekomponenten auch verwendet werden können und dass bestimmte Abläufe, die als in der Hardware umgesetzt beschrieben sind, unter Umständen in Software umgesetzt werden können und umgekehrt.
  • Computerprogramme, die unterschiedliche Eigenschaften der aktuellen Erfindung umfassen, können kodiert und auf verschiedenen elektronisch lesbaren Speichermedien gespeichert werden; geeignete Medien sind: Plattenspeicher oder Magnetbänder, optische Speichermedien, wie beispielsweise CDs oder DVDs, Flash-Speicher und andere nichtflüchtige Speicher. (Es wird vorausgesetzt, dass die „Speicherung” von Daten getrennt von der Verbreitung von Daten unter Zuhilfenahme flüchtiger Medien erfolgt, wie beispielsweise Trägerwellen. Elektronisch lesbare Medien, die mit dem Programmcode kodiert sind, können mit einer kompatiblen elektronischen Vorrichtung verpackt werden bzw. wird der Programmcode getrennt von elektronischen Vorrichtungen geliefert (z. B. via Internetdownload oder als separat gepacktes elektronisch lesbares Speichermedium.
  • Wenngleich die Erfindung unter Bezugnahme auf konkrete Ausführungsformen beschrieben wird, wird dennoch vorausgesetzt, dass die Erfindung alle Modifikationen und Äquivalente innerhalb des Geltungsbereiches der folgenden Ansprüche abdeckt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2013/040061 [0002, 0158]
    • US 2013/069483 [0002, 0158]
    • US 7657849 [0073]
    • US 6323846 [0077]
    • US 6570557 [0077]
    • US 6677932 [0077]
    • US 2002/0015024 A1 [0077]
    • US 0190059 [0086]
    • US 0017692 [0086]
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0070]
    • IEEE 802.11b [0070]
    • IEEE 802.11g [0070]
    • IEEE 802.11n [0070]
    • IEEE 802.11ac [0070]
    • IEEE 802.11 [0410]

Claims (73)

  1. Eine elektronische Vorrichtung, umfassend: eine Anzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme im Speicher abgelegt und so konfiguriert sind, dass sie durch den einen oder die mehreren Prozessoren ausgeführt werden können, wobei das eine oder die mehreren Programme Befehle enthalten für: den Empfang einer Benachrichtigung, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, die Ausgabe einer wahrnehmungsbasierten Ausgabe. das Erkennen einer Benutzereingabe; die Feststellung, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; und entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, die Anzeige einer Mitteilung auf der Anzeige, wobei die Mitteilung einen ersten Teil der Informationen enthält.
  2. Die elektronische Vorrichtung nach Anspruch 1, wobei die elektronische Vorrichtung ferner einen haptischen Mechanismus umfasst und wobei der haptische Mechanismus durch die Ausgabe der wahrnehmungsbasierten Ausgabe veranlasst wird, eine haptische Ausgabe auszugeben.
  3. Die elektronische Vorrichtung nach einem der Ansprüche 1–2, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten mm: entsprechend einer Feststellung, dass die Benutzereingabe nach dem vorher festgelegten Zeitraum nach der wahrnehmungsbasierten Ausgabe erkannt wurde, Anzeigen eines Ziffernblattes, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  4. Die elektronische Vorrichtung nach einem der Ansprüche 1–2, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten mm: entsprechend einer Feststellung, dass die Benutzereingabe nach dem vorher festgelegten Zeitraum nach der wahrnehmungsbasierten Ausgabe erkannt wurde, Anzeigen eines Startbildschirmes, wobei der Startbildschirm eine Vielzahl von Benutzerschnittstellenobjekten enthält, die für eine Vielzahl von Anwendungen stehen, die Benutzerschnittstellenobjekte bei Aktivierung die entsprechende Anwendung starten und wobei der Startbildschirm einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  5. Die elektronische Vorrichtung nach einem der Ansprüche 1–4, wobei das Anzeigen der Mitteilung die Aktivierung der Anzeige aus einem inaktiven Zustand umfasst.
  6. Die elektronische Vorrichtung nach einem der Ansprüche 1–4, wobei das Anzeigen der Mitteilung den Ersatz der Anzeige eines Startbildschirmes durch die Anzeige der Mitteilung umfasst.
  7. Die elektronische Vorrichtung nach einem der Ansprüche 1–6, wobei das Anzeigen der Mitteilung das Anzeigen einer Animation umfasst, die die Mitteilung in einer ersten Richtung auf der Anzeige verschiebt.
  8. Die elektronische Vorrichtung nach einem der Ansprüche 1–7, wobei die Mitteilung eine Anwendungsaufforderung zum Start einer zur Benachrichtigung gehörenden Anwendung umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl der Anwendungsaufforderung zu erkennen; und in Reaktion auf das Erkennen einer Auswahl, die zur Benachrichtigung gehörende Anwendung zu starten.
  9. Die elektronische Vorrichtung nach einem der Ansprüche 1–8, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: in Reaktion auf den Empfang der Benachrichtigung, festzustellen, ob ein Beschäftigungsgrad des Benutzers ein Beschäftigungskriterium erfüllt, wobei die Ausgabe der wahrnehmungsbasierten Ausgabe verzögert wird, bis der Beschäftigungsgrad des Benutzers das Beschäftigungskriterium erfüllt.
  10. Die elektronische Vorrichtung nach einem der Ansprüche 1–2, wobei es sich bei der Anzeige um eine berührungsempfindliche Anzeige handelt und wobei die Vorrichtung zum Erkennen einer Intensität von Berührungen auf der berührungsempfindlichen Anzeige konfiguriert ist, und wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während die Mitteilung angezeigt wird, eine Berührung auf der Anzeige zu erkennen; festzustellen, ob die charakteristische Intensität der Berührung eine Intensitätsgrenze überschreitet; entsprechend einer Feststellung, dass die charakteristische Intensität der Berührung die Intensitätsgrenze überschreitet, n eine Option zur Unterdrückung einer oder mehrerer nachfolgender Benachrichtigungen anzuzeigen, die ein Stummschaltkriterium erfüllen; und entsprechend einer Feststellung, dass die charakteristische Intensität der Berührung die Intensitätsgrenze nicht überschreitet, und entsprechend einer Feststellung, dass die Berührung an einer Stelle der Anzeige erfolgt, die der Anwendungsaufforderung entspricht, die zur Benachrichtigung gehörende Anwendung zu starten.
  11. Die elektronische Vorrichtung nach Anspruch 10, wobei das Stummschaltkriterium auf der Quelle der Benachrichtigung basiert.
  12. Die elektronische Vorrichtung nach einem der Ansprüche 1–9, wobei es sich bei der Anzeige um eine berührungsempfindliche Anzeige handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während die Mitteilung angezeigt wird, eine zweite Berührung auf der berührungsempfindlichen Anzeige zu erkennen; festzustellen, ob die zweite Berührung ein Ausblendungskriterium erfüllt; und entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium erfüllt, die Mitteilung von der Anzeige zu entfernen.
  13. Die elektronische Vorrichtung nach Anspruch 12, wobei die zweite Berührung das Ausblendungskriterium erfüllt, wenn die zweite Berührung eine Wischbewegung umfasst.
  14. Die elektronische Vorrichtung nach einem der Ansprüche 12–13, wobei die zweite Berührung das Ausblendungskriterium erfüllt, wenn die zweite Berührung eine Bewegung der zweiten Berührung umfasst, bei der eine Grenzlänge überschritten wird.
  15. Die elektronische Vorrichtung nach einem der Ansprüche 12–14, wobei das Anzeigen der Mitteilung ein Anzeigen einer Animation umfasst, die die Mitteilung auf der Anzeige in einer ersten Richtung verschiebt, und wobei die zweite Berührung das Ausblendungskriterium erfüllt, wenn die zweite Berührung eine Bewegung der Berührung in eine zweite Richtung entgegengesetzt zur ersten Richtung umfasst.
  16. Die elektronische Vorrichtung nach einem der Ansprüche 12–15, wobei die zweite Berührung eine Bewegung der zweiten Berührung und eine Unterbrechung der zweiten Berührung umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten zum: in Reaktion auf das Erkennen der Bewegung der zweiten Berührung: Verschieben der Mitteilung auf der Anzeige entsprechend der Bewegung der zweiten Berührung, und Anzeige einer Ausblendungsanzeige neben der Mitteilung; entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium erfüllt, und in Reaktion auf das Erkennen der Unterbrechung der zweiten Berührung, Entfernen der Ausblendungsanzeige und der Mitteilung von der Anzeige; und entsprechend einer Feststellung, dass die zweite Berührung das Ausblendungskriterium nicht erfüllt, und in Reaktion auf das Erkennen der Unterbrechung der zweiten Berührung: Anzeigen einer Animation, die die Mitteilung auf ihre ursprüngliche Position auf der Anzeige verschiebt, und Entfernen der Ausblendungsanzeige von der Anzeige.
  17. Die elektronische Vorrichtung nach einem der Ansprüche 15–16, wobei die Entfernung der Mitteilung ein Anzeigen einer Animation umfasst, die die Mitteilung in der zweiten Richtung von der Anzeige schiebt.
  18. Die elektronische Vorrichtung nach einem der Ansprüche 12–17, wobei die Entfernung der Mitteilung von der Anzeige die Deaktivierung der Anzeige umfasst.
  19. Die elektronische Vorrichtung nach einem der Ansprüche 12–17, wobei die Entfernung der Mitteilung von der Anzeige den Ersatz der Anzeige der Mitteilung durch die Anzeige eines Startbildschirmes umfasst, wobei der Startbildschirm einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  20. Die elektronische Vorrichtung nach einem der Ansprüche 12–17, wobei die Entfernung der Mitteilung von der Anzeige den Ersatz der Anzeige der Mitteilung durch die Anzeige eines Ziffernblattes umfasst, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  21. Die elektronische Vorrichtung nach einem der Ansprüche 1–11, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten zum: Feststellen, ob eine zweite Benutzereingabe innerhalb eines zweiten vorher festgelegten Zeitraums nach der Anzeige der Mitteilung erkannt wurde; entsprechend einer Feststellung, dass die zweite Benutzereingabe innerhalb des zweiten vorher festgelegten Zeitraums erkannt wurde, Entfernen der Mitteilung von der Anzeige; und entsprechend einer Feststellung, dass die zweite Benutzereingabe nicht innerhalb des zweiten vorher festgelegten Zeitraums erkannt wurde, Anzeigen eines zweiten Teiles der Informationen auf der Anzeige, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  22. Die elektronische Vorrichtung nach einem der Ansprüche 1–11, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten zum: Feststellen, ob die Benutzereingabe nach einem zweiten vorher festgelegten Zeitraum nach der Anzeige der Mitteilung weiterhin erkannt wird; entsprechend einer Feststellung, dass die Benutzereingabe nach dem zweiten vorher festgelegten Zeitraum weiterhin erkannt wird, Anzeigen eines zweiten Teiles der Informationen, wobei der zweite Teil und der erste Teil unterschiedlich sind; und entsprechend einer Feststellung, dass die Benutzereingabe nach dem zweiten vorher festgelegten Zeitraum nicht weiterhin erkannt wird, Entfernen der Mitteilung von der Anzeige.
  23. Die elektronische Vorrichtung nach einem der Ansprüche 1–11, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während die Mitteilung angezeigt wird, eine dritte Berührung auf der Anzeige zu erkennen; und in Reaktion auf das Erkennen der dritten Berührung, einen zweiten Teil der Informationen anzuzeigen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  24. Die elektronische Vorrichtung nach einem der Ansprüche 22–23, wobei der zweite Teil neben der Mitteilung angezeigt wird.
  25. Die elektronische Vorrichtung nach Anspruch 23, wobei es sich bei der dritten Berührung um eine Wischbewegung in die erste Richtung handelt und wobei die Anzeige des zweiten Teiles der Informationen die Verschiebung des zweiten Teiles der Informationen auf der Anzeige in die erste Richtung umfasst.
  26. Die elektronische Vorrichtung nach einem der Ansprüche 21–23, wobei die Anzeige des zweiten Teiles der Informationen ferner umfasst: das Abrufen von Konfigurationsdaten, aus denen hervorgeht, ob der zweite Teil der Informationen angezeigt werden soll, und die Anzeige des zweiten Teiles der Informationen in Reaktion auf eine Feststellung, dass die Konfigurationsdaten darauf hindeuten, dass der zweite Teil der Informationen angezeigt werden soll.
  27. Die elektronische Vorrichtung nach einem der Ansprüche 1–10, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während die Mitteilung angezeigt wird, eine Auswahl der Anwendungsaufforderung zu erkennen; und in Reaktion auf das Erkennen der Auswahl der Anwendungsaufforderung, eine zur Benachrichtigung gehörende Anwendung zu starten.
  28. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei es sich bei der Benachrichtigung um eine elektronische Nachricht handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, eine vierte Berührung auf der Anzeige zu erkennen; und in Reaktion auf das Erkennen der vierten Berührung, mindestens einen Teil einer Nachrichtenkonversation anzuzeigen, einschließlich elektronischer Nachrichten, die an eine und von einer Quelle der elektronischen Nachricht geschickt und empfangen wurden.
  29. Die elektronische Vorrichtung nach einem der Ansprüche 20–24, wobei die Benachrichtigung Audioinhalt umfasst, und wobei die Anzeige des zweiten Teiles der Informationen die Anzeige einer Option zur Wiedergabe des Audioinhaltes umfasst, und wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl der Option zur Wiedergabe des Audioinhaltes zu erkennen; und in Reaktion auf das Erkennen der Auswahl, den Audioinhalt wiederzugeben.
  30. Die elektronische Vorrichtung nach Anspruch 29, wobei es sich bei dem Audioinhalt um einen ersten Audioinhalt handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: nach dem Erkennen der Auswahl der Option zur Wiedergabe des Audioinhaltes, eine zweite Benachrichtigung zu empfangen, die einen zweiten Audioinhalt umfasst; und in Reaktion auf den Empfang der zweiten Benachrichtigung, den zweiten Audioinhalt wiederzugeben.
  31. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, eine dritte Benutzereingabe zu erkennen; und in Reaktion auf das Erkennen der dritten Benutzereingabe, den zweiten Teil der Informationen entsprechend einer dritten Benutzereingabe durchzublättern.
  32. Die elektronische Vorrichtung nach Anspruch 31, wobei es sich bei der dritten Benutzereingabe um eine Wischbewegung auf der Anzeige handelt.
  33. Die elektronische Vorrichtung nach Anspruch 31, wobei die Vorrichtung ferner einen drehbaren Eingabemechanismus umfasst, und wobei die dritte Benutzereingabe eine Drehbewegung des drehbaren Eingabemechanismus ist.
  34. Die elektronische Vorrichtung nach einem der Ansprüche 31–33, wobei die dritte Benutzereingabe in Verbindung mit einer Abwärtsrichtung steht, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: festzustellen, ob ein Beginn der Informationen angezeigt wird; und entsprechend einer Feststellung, dass der Beginn der Informationen angezeigt wird, und in Reaktion auf das Erkennen der dritten Benutzereingabe, den zweiten Teil der Informationen zu entfernen.
  35. Die elektronische Vorrichtung nach einem der Ansprüche 31–33, wobei die dritte Benutzereingabe in Verbindung mit einer Aufwärtsrichtung steht, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: festzustellen, ob ein Ende der Informationen angezeigt wird; und entsprechend einer Feststellung, dass das Ende der Informationen angezeigt wird, und in Reaktion auf das Erkennen der dritten Benutzereingabe, eine erste Vielzahl von Benutzerschnittstellenobjekten auf der Anzeige anzuzeigen, wobei die Benutzerschnittstellenobjekte zu Aktionen gehören, die einer zur Benachrichtigung gehörenden Anwendung entsprechen.
  36. Die elektronische Vorrichtung nach Anspruch 35, wobei die erste Vielzahl von Benutzerschnittstellenobjekten nach oben auf die Anzeige unter das Ende der Informationen geblättert werden, wenn die Informationen auf der Anzeige nach oben geblättert werden.
  37. Die elektronische Vorrichtung nach Anspruch 34, wobei die Entfernung des zweiten Teiles der Informationen von der Anzeige das Ersetzen der Anzeige des zweiten Teiles der Mitteilung durch die Anzeige eines Startbildschirmes auf der Anzeige umfasst, der einen Hinweis auf die Uhrzeit gibt, wobei der angezeigte Startbildschirm keinen Hinweis darauf enthält, dass die Benachrichtigung ungelesen ist.
  38. Die elektronische Vorrichtung nach Anspruch 12349, wobei das Entfernen des zweiten Teiles der Informationen die Verschiebung des zweiten Teiles der Informationen von der Anzeige in die zweite Richtung umfasst.
  39. Die elektronische Vorrichtung nach einem der Ansprüche 21–23, wobei die Vorrichtung zum Erkennen einer Intensität von Berührungen auf der berührungsempfindlichen Anzeige konfiguriert ist, und wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine fünfte Berührung auf der berührungsempfindlichen Anzeige zu erkennen; festzustellen, ob die charakteristische Intensität der fünften Berührung eine Intensitätsgrenze überschreitet; entsprechend einer Feststellung, dass die charakteristische Intensität der fünften Berührung die Intensitätsgrenze überschreitet, eine erste Vielzahl von Benutzerschnittstellenobjekten auf der berührungsempfindlichen Anzeige anzuzeigen, wobei die Benutzerschnittstellenobjekte zu Aktionen gehören, die einer zur Benachrichtigung gehörenden Anwendung entsprechen; und entsprechend einer Feststellung, dass die charakteristische Intensität der fünften Berührung die Intensitätsgrenze nicht überschreitet, eine zur Benachrichtigung gehörende Anwendung zu starten.
  40. Die elektronische Vorrichtung nach Anspruch 35 oder 39, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines ersten Benutzerschnittstellenobjektes aus der ersten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes, Daten an eine externe elektronische Vorrichtung zu senden, um die externe elektronische Vorrichtung zum Start der zur Benachrichtigung gehörenden Anwendung zu veranlassen.
  41. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, festzustellen, ob die Benutzereingabe innerhalb eines dritten vorher festgelegten Zeitraums empfangen wurde; und entsprechend einer Feststellung, dass innerhalb des dritten vorher festgelegten Zeitraumes keine Benutzereingabe empfangen wurde, die Anzeige zu deaktivieren.
  42. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei die Mitteilung neben dem zweiten Teil der Informationen angezeigt wird, und wobei die Mitteilung eine Anwendungsaufforderung umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, eine Auswahl der Anwendungsaufforderung zu erkennen; und in Reaktion auf das Erkennen der Auswahl der Anwendungsaufforderung, eine zweite Vielzahl von Benutzerschnittstellenobjekten anzuzeigen.
  43. Die elektronische Vorrichtung nach Anspruch 42, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines ersten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes, eine dritte Vielzahl von Benutzerschnittstellenobjekten anzuzeigen.
  44. Die elektronische Vorrichtung nach einem der Ansprüche 1–11 oder 21–23, wobei die elektronische Vorrichtung eine Hardware-Taste umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Eingabe über die Tasteneinheit zu erkennen; und in Reaktion auf das Erkennen der Eingabe über die Hardware-Taste, eine dritte Vielzahl von Benutzerschnittstellenobjekten anzuzeigen.
  45. Die elektronische Vorrichtung nach Anspruch 43–44, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines ersten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des ersten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten, eine Benutzerschnittstelle zur Auswahl einer vorher festgelegten Antwortnachricht anzuzeigen.
  46. Die elektronische Vorrichtung nach Anspruch 45, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl einer ersten vorher festgelegten Antwortnachricht zu erkennen; und in Reaktion auf das Erkennen der Auswahl der ersten vorher festgelegten Antwortnachricht, die erste vorher festgelegte Antwortnachricht an eine Quelle der Benachrichtigung zu senden.
  47. Die elektronische Vorrichtung nach Anspruch 46, wobei das Senden der ersten vorher festgelegten Antwortnachricht an die Quelle der Benachrichtigung umfasst: die Anzeige einer Bestätigungsaufforderung; das Erkennen einer Auswahl der Bestätigungsaufforderung; und in Reaktion auf das Erkennen der Auswahl der Bestätigungsaufforderung, die Übertragung der ersten vorher festgelegten Antwortnachricht an die Quelle der Benachrichtigung.
  48. Die elektronische Vorrichtung nach einem der Ansprüche 46–47, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: nach der Übertragung der ersten vorher festgelegten Antwortnachricht an die Quelle, einen Nachricht-gesendet-Bestätigungsbildschirm anzuzeigen; und die Anzeige des Nachricht-gesendet-Bestätigungsbildschirms durch die Anzeige des Startbildschirms zu ersetzen, wobei der Startbildschirm ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist.
  49. Die elektronische Vorrichtung nach Anspruch 43–44, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines zweiten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der dritten Vielzahl von Benutzerschnittstellenobjekten, eine Benutzerschnittstelle zur Auswahl eines Emoji-Symbols anzuzeigen.
  50. Die elektronische Vorrichtung nach Anspruch 49, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines ersten Emoji-Symbols zu erkennen; und in Reaktion auf das Erkennen der Auswahl des ersten Emoji-Symbols, das erste Emoji-Symbol an die Quelle der Benachrichtigung zu senden.
  51. Die elektronische Vorrichtung nach Anspruch 50, wobei das Senden des Emoji-Symbols an die Quelle der Benachrichtigung umfasst: Anzeigen einer Bestätigungsaufforderung; das Erkennen einer Auswahl der Bestätigungsaufforderung; und in Reaktion auf das Erkennen der Auswahl der Bestätigungsaufforderung, Senden des Emoji-Symbols an die Quelle der Benachrichtigung.
  52. Die elektronische Vorrichtung nach Anspruch 42, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: festzustellen, ob der zweite Teil der Informationen angezeigt wurde; entsprechend einer Feststellung, dass der zweite Teil der Informationen angezeigt wurde, den Startbildschirm anzuzeigen, wobei der Startbildschirm ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist; und entsprechend einer Feststellung, dass der zweite Teil der Informationen nicht angezeigt wurde, den Startbildschirm anzuzeigen, wobei der Startbildschirm einen Hinweis darauf umfasst, dass die Benachrichtigung ungelesen ist.
  53. Die elektronische Vorrichtung nach Anspruch 42, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: festzustellen, ob der zweite Teil der Informationen angezeigt wurde; entsprechend einer Feststellung, dass der zweite Teil der Informationen angezeigt wurde, das Ziffernblatt anzuzeigen, wobei das Ziffernblatt ohne einen Hinweis darauf angezeigt wird, dass die Benachrichtigung ungelesen ist; und entsprechend einer Feststellung, dass der zweite Teil der Informationen nicht angezeigt wurde, das Ziffernblatt anzuzeigen, wobei das Ziffernblatt einen Hinweis darauf umfasst, dass die Benachrichtigung ungelesen ist.
  54. Die elektronische Vorrichtung nach Anspruch 42, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines dritten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des zweiten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten, eine virtuelle Tastatur auf der Anzeige anzuzeigen.
  55. Die elektronische Vorrichtung nach Anspruch 42, wobei die Vorrichtung ein Mikrofon umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Auswahl eines vierten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten zu erkennen; und in Reaktion auf das Erkennen der Auswahl des vierten Benutzerschnittstellenobjektes aus der zweiten Vielzahl von Benutzerschnittstellenobjekten: eine Audioeingabe über das Mikrofon aufzuzeichnen; und Daten, die der aufgezeichneten Audioeingabe entsprechen, an die Quelle der Benachrichtigung zu senden.
  56. Die elektronische Vorrichtung nach Anspruch 55, wobei das Senden der Daten, die der aufgezeichneten Audioeingabe entsprechen, umfasst: die Anzeige eines Hinweises auf die aufgezeichnete Audioeingabe und einer Sendeaufforderung auf der Anzeige; das Erkennen einer Auswahl der Sendeaufforderung; und in Reaktion auf das Erkennen der Auswahl der Sendeaufforderung, das Senden der Daten, die der aufgezeichneten Audioeingabe entsprechen, an die Quelle der Benachrichtigung.
  57. Die elektronische Vorrichtung nach Anspruch 8, 27 oder 39, wobei die elektronische Vorrichtung einen drehbaren und druckbaren Eingabemechanismus umfasst, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: nach dem Start der Anwendung, eine Betätigung des drehbaren und druckbaren Eingabemechanismus zu erkennen; und in Reaktion auf das Erkennen der Betätigung, den Startbildschirm auf der Anzeige anzuzeigen.
  58. Die elektronische Vorrichtung nach Anspruch 57, wobei der drehbare und druckbare Eingabemechanismus eine drehbare mechanische Taste umfasst, und wobei die Betätigung für ein Drücken der mechanischen Taste steht.
  59. Die elektronische Vorrichtung nach Anspruch 58, wobei der drehbare und druckbare Eingabemechanismus eine drehbare kapazitive Taste umfasst, und wobei die Betätigung für eine Berührung der kapazitiven Taste steht.
  60. Die elektronische Vorrichtung nach einem der Ansprüche 1–2, wobei es sich bei der Mitteilung um eine erste Mitteilung handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während die erste Mitteilung angezeigt wird, eine zweite Benachrichtigung zu empfangen, die zweite Informationen enthält; und in Reaktion auf den Empfang der zweiten Benachrichtigung, die Anzeige der ersten Mitteilung durch die Anzeige einer zweiten Mitteilung zu ersetzen, wobei die zweite Mitteilung einen ersten Teil der zweiten Informationen enthält.
  61. Die elektronische Vorrichtung nach Anspruch 60, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: in Reaktion auf den Empfang der zweiten Benachrichtigung, eine zweite wahrnehmungsbasierte Ausgabe auszugeben.
  62. Die elektronische Vorrichtung nach einem der Ansprüche 60–61, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Anfrage zum Ausblenden der zweiten Mitteilung zu erkennen; in Reaktion auf das Erkennen der Anfrage: die zweite Mitteilung auszublenden; und die erste Mitteilung erneut anzuzeigen.
  63. Die elektronische Vorrichtung nach einem der Ansprüche 60–61, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Anfrage zum Ausblenden der zweiten Mitteilung zu erkennen; in Reaktion auf das Erkennen der Anfrage: die zweite Mitteilung auszublenden; und den Startbildschirm anzuzeigen, wobei der Startbildschirm einen Hinweis darauf enthält, dass die erste Benachrichtigung und die zweite Benachrichtigung ungelesen sind.
  64. Die elektronische Vorrichtung nach einem der Ansprüche 60–61, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine Anfrage zum Ausblenden der zweiten Mitteilung zu erkennen; in Reaktion auf das Erkennen der Anfrage: die zweite Mitteilung auszublenden; und das Ziffernblatt anzuzeigen, wobei das Ziffernblatt einen Hinweis darauf enthält, dass die erste Benachrichtigung und die zweite Benachrichtigung ungelesen sind.
  65. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, eine zweite Benachrichtigung zu empfangen, die zweite Informationen enthält; und in Reaktion auf den Empfang der zweiten Benachrichtigung, die Anzeige des zweiten Teiles der Informationen durch die Anzeige einer zweiten Mitteilung zu ersetzen, wobei die zweite Mitteilung einen ersten Teil der zweiten Informationen enthält.
  66. Die elektronische Vorrichtung nach einem der Ansprüche 21–25, wobei es sich bei der Benachrichtigung um eine erste Benachrichtigung von einer Quelle handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: während der zweite Teil der Informationen angezeigt wird, eine zweite Benachrichtigung von der Quelle zu empfangen; und in Reaktion auf den Empfang der zweiten Benachrichtigung, eine gruppierte Mitteilung anzuzeigen, die die erste Benachrichtigung und die zweite Benachrichtigung darstellt.
  67. Die elektronische Vorrichtung nach Anspruch 66, wobei die erste Benachrichtigung und die zweite Benachrichtigung zur selben Anwendung gehören.
  68. Die elektronische Vorrichtung nach Anspruch 67, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: eine sechste Berührung der gruppierten Mitteilung zu erkennen; und in Reaktion auf das Erkennen der sechsten Berührung, eine Liste mit Benachrichtigungen anzuzeigen, die von der Quelle empfangen wurden, wobei die Liste der Benachrichtigungen zur selben Anwendung gehört.
  69. Die elektronische Vorrichtung nach einem der Ansprüche 1–2, wobei es sich bei der Benachrichtigung um eine Trainingsbenachrichtigung handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten, um: nach einem zweiten vorher festgelegten Zeitraum, die Anzeige der Mitteilung durch die Anzeige eines Benutzerschnittstellenobjektes zu ersetzen, das für das Erreichen eines Trainingsziels steht; und nach einem dritten vorher festgelegten Zeitraum, die Anzeige des Benutzerschnittstellenobjektes durch die Anzeige eines zweiten Teiles der Informationen zu ersetzen, wobei der zweite Teil und der erste Teil unterschiedlich sind.
  70. Die elektronische Vorrichtung nach einem der Ansprüche 3, 4, 19, 20, 52, 53, 63 und 64, wobei der Hinweis darauf, dass die Benachrichtigung ungelesen ist, die Anzeige eines Fischgrätenmusters umfasst.
  71. Die elektronische Vorrichtung nach Anspruch 70, wobei die Anzeige des Fischgrätenmusters animiert ist.
  72. Die elektronische Vorrichtung nach Anspruch 70, wobei das Fischgrätenmuster in eine erste Richtung zeigt und es sich bei der Anzeige um eine berührungsempfindliche Anzeige handelt, wobei das eine oder die mehreren Programme ferner Instruktionen beinhalten zum: in Reaktion auf das Erkennen einer Wischbewegung auf der Anzeige in die erste Richtung, Anzeigen der Mitteilung auf der Anzeige.
  73. Ein nichtflüchtiges elektronisch lesbares Speichermedium, auf dem ein oder mehrere Programme gespeichert sind, wobei das eine oder die mehreren Programme Befehle enthalten, die bei Ausführung durch einen oder mehrere Prozessoren einer elektronischen Vorrichtung mit einer Anzeige die Vorrichtung veranlassen: eine Benachrichtigung zu empfangen, die Informationen enthält; in Reaktion auf den Empfang der Benachrichtigung, eine wahrnehmungsbasierte Ausgabe auszugeben. eine Benutzereingabe zu erkennen; festzustellen, ob die Benutzereingabe innerhalb eines vorher festgelegten Zeitraums nach der wahrnehmungsbasierten Ausgabe erkannt wurde; und entsprechend einer Feststellung, dass die Benutzereingabe innerhalb des vorher festgelegten Zeitraums erkannt wurde, eine Mitteilung auf der Anzeige anzuzeigen, wobei die Mitteilung einen ersten Teil der Informationen enthält.
DE202015006066.8U 2014-09-02 2015-08-06 Kleinere Schnittstellen zur Handhabung von Benachrichtigungen Active DE202015006066U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462044894P 2014-09-02 2014-09-02
US62/044,894 2014-09-02
US201562129818P 2015-03-07 2015-03-07
US62/129,818 2015-03-07

Publications (1)

Publication Number Publication Date
DE202015006066U1 true DE202015006066U1 (de) 2015-12-14

Family

ID=54064567

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202015006066.8U Active DE202015006066U1 (de) 2014-09-02 2015-08-06 Kleinere Schnittstellen zur Handhabung von Benachrichtigungen

Country Status (12)

Country Link
US (5) US9575591B2 (de)
EP (3) EP3189409B1 (de)
JP (5) JP6349030B2 (de)
KR (3) KR102016160B1 (de)
CN (6) CN205334368U (de)
AU (7) AU2015312369B2 (de)
DE (1) DE202015006066U1 (de)
DK (3) DK178964B1 (de)
HK (1) HK1220525A1 (de)
NL (2) NL2015354B1 (de)
TW (1) TWI625646B (de)
WO (1) WO2016036472A1 (de)

Families Citing this family (147)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US8893033B2 (en) * 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
US9009619B2 (en) 2012-09-19 2015-04-14 JBF Interlude 2009 Ltd—Israel Progress bar for branched videos
USD763860S1 (en) * 2013-03-04 2016-08-16 Tixtrack, Inc. Display panel or portion thereof with graphical user interface
US9257148B2 (en) 2013-03-15 2016-02-09 JBF Interlude 2009 LTD System and method for synchronization of selectably presentable media streams
KR101419764B1 (ko) * 2013-06-07 2014-07-17 정영민 휴대단말기의 음성 이모티콘 제어방법
US10448119B2 (en) 2013-08-30 2019-10-15 JBF Interlude 2009 LTD Methods and systems for unfolding video pre-roll
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9792026B2 (en) 2014-04-10 2017-10-17 JBF Interlude 2009 LTD Dynamic timeline for branched video
US11343335B2 (en) 2014-05-29 2022-05-24 Apple Inc. Message processing by subscriber app prior to message forwarding
WO2015183336A1 (en) 2014-05-30 2015-12-03 Apple Inc. Battery usage tracking user interface
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
WO2016014601A2 (en) 2014-07-21 2016-01-28 Apple Inc. Remote user interface
US10228751B2 (en) 2014-08-06 2019-03-12 Apple Inc. Low power mode
WO2016022496A2 (en) 2014-08-06 2016-02-11 Apple Inc. Reduced-size user interfaces for battery management
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
US9647489B2 (en) 2014-08-26 2017-05-09 Apple Inc. Brownout avoidance
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
WO2016036603A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced size configuration interface
EP3189409B1 (de) 2014-09-02 2020-01-29 Apple Inc. Schnittstellen mit reduzierter grösse zur verwaltung von alarmen
CN111210891B (zh) 2014-09-02 2023-08-25 苹果公司 身体活动和健身监视器
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US11412276B2 (en) 2014-10-10 2022-08-09 JBF Interlude 2009 LTD Systems and methods for parallel track transitions
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
WO2016165135A1 (zh) * 2015-04-17 2016-10-20 华为技术有限公司 联系人信息添加方法及用户设备
US10582265B2 (en) 2015-04-30 2020-03-03 JBF Interlude 2009 LTD Systems and methods for nonlinear video playback using linear real-time video players
TW201642110A (zh) * 2015-05-22 2016-12-01 富智康(香港)有限公司 通知介面控制系統及方法
US20160342327A1 (en) * 2015-05-22 2016-11-24 Lg Electronics Inc. Watch-type mobile terminal and method of controlling therefor
KR20160143338A (ko) * 2015-06-05 2016-12-14 엘지전자 주식회사 이동단말기 및 그 제어방법
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
JP6696737B2 (ja) 2015-06-26 2020-05-20 シャープ株式会社 コンテンツ表示装置及びプログラム
KR20170007940A (ko) * 2015-07-13 2017-01-23 삼성전자주식회사 커버를 착용한 전자 장치 및 그의 표시 제어 방법
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
EP4321088A2 (de) 2015-08-20 2024-02-14 Apple Inc. Übungsbasiertes uhrengesicht und komplikationen
US10460765B2 (en) 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US10353504B2 (en) * 2015-09-08 2019-07-16 Samsung Electronics Co., Ltd. User interface for computing devices equipped with pressure-sensitive displays
JP2017079042A (ja) * 2015-10-22 2017-04-27 富士通株式会社 注意喚起対処支援プログラム、注意喚起対処支援装置、及び注意喚起対処支援方法
DE102015016152A1 (de) * 2015-12-12 2017-06-14 Daimler Ag Haptische Rückmeldung bei einer Nutzerschnittstelle
US11128853B2 (en) 2015-12-22 2021-09-21 JBF Interlude 2009 LTD Seamless transitions in large-scale video
US11164548B2 (en) 2015-12-22 2021-11-02 JBF Interlude 2009 LTD Intelligent buffering of large-scale video
US20170185275A1 (en) * 2015-12-28 2017-06-29 Sap Se Method and system for integrated application notifications
US10739863B2 (en) 2015-12-31 2020-08-11 Huawei Technologies Co., Ltd. Method for responding to gesture acting on touchscreen and terminal
US10169560B2 (en) * 2016-02-04 2019-01-01 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Stimuli-based authentication
US10839572B2 (en) * 2016-03-10 2020-11-17 FlyInside, Inc. Contextual virtual reality interaction
US10983624B2 (en) 2016-03-15 2021-04-20 Huawei Technologies Co., Ltd. Man-machine interaction method, device, and graphical user interface for activating a default shortcut function according to pressure input
US10462202B2 (en) 2016-03-30 2019-10-29 JBF Interlude 2009 LTD Media stream rate synchronization
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
US20170329467A1 (en) * 2016-05-13 2017-11-16 Google Inc. Coalescing Notifications Associated with Interactive Digital Content
USD842336S1 (en) 2016-05-17 2019-03-05 Google Llc Display screen with animated graphical user interface
US10345986B1 (en) * 2016-05-17 2019-07-09 Google Llc Information cycling in graphical notifications
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US10218760B2 (en) 2016-06-22 2019-02-26 JBF Interlude 2009 LTD Dynamic summary generation for real-time switchable videos
US9736810B1 (en) * 2016-06-24 2017-08-15 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Systems and methods for managing user notifications based on user interaction with a computing device
JP6493329B2 (ja) * 2016-07-29 2019-04-03 京セラドキュメントソリューションズ株式会社 電子機器及び画像形成装置
US11831492B2 (en) * 2016-08-16 2023-11-28 Nicira, Inc. Group-based network event notification
CN106469041A (zh) * 2016-08-30 2017-03-01 北京小米移动软件有限公司 推送消息的方法及装置、终端设备
DK180050B1 (en) * 2016-09-06 2020-02-04 Apple Inc. Devices, methods and graphical user interfaces for generating tactile outputs
US10736543B2 (en) 2016-09-22 2020-08-11 Apple Inc. Workout monitor interface
KR102432019B1 (ko) 2016-09-23 2022-08-12 애플 인크. 워치 극장 모드
US10416717B2 (en) * 2016-10-24 2019-09-17 Hewlett-Packard Development Company, L.P. Configuring docks
US9788298B1 (en) * 2016-12-01 2017-10-10 Immersion Corporation Smart surfaces for visuo-haptics notifications
US10848483B2 (en) * 2016-12-08 2020-11-24 Ricoh Company, Ltd. Shared terminal, communication system, and display control method, and recording medium
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
WO2018182805A1 (en) 2017-03-27 2018-10-04 Google Llc Dismissing displayed elements
CN108737147B (zh) * 2017-04-25 2021-09-03 中国移动通信集团广东有限公司 一种网络告警事件处理方法及装置
US11402909B2 (en) 2017-04-26 2022-08-02 Cognixion Brain computer interface for augmented reality
US11237635B2 (en) 2017-04-26 2022-02-01 Cognixion Nonverbal multi-input and feedback devices for user intended computer control and communication of text, graphics and audio
US10169979B2 (en) * 2017-05-04 2019-01-01 General Electric Company Communicating alarm trigger status
DK179412B1 (en) * 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
KR102068620B1 (ko) * 2017-05-12 2020-01-21 애플 인크. 상황 특정 사용자 인터페이스
US10845955B2 (en) * 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
DK179555B1 (en) 2017-05-16 2019-02-13 Apple Inc. USER INTERFACE FOR A FLASHLIGHT MODE ON AN ELECTRONIC DEVICE
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US11765114B2 (en) 2017-05-16 2023-09-19 Apple Inc. Voice communication method
WO2018213506A2 (en) * 2017-05-16 2018-11-22 Apple Inc. Voice communication method
KR102636696B1 (ko) 2017-05-16 2024-02-15 애플 인크. 피어 투 피어 전송들을 위한 사용자 인터페이스들
US10819840B2 (en) 2017-05-16 2020-10-27 Apple Inc. Voice communication method
US10466889B2 (en) * 2017-05-16 2019-11-05 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
US10511707B2 (en) 2017-05-16 2019-12-17 Apple Inc. Voice communication method
US10951043B2 (en) 2017-06-04 2021-03-16 Apple Inc. Multi-device charging user interface
US10650567B2 (en) 2017-06-09 2020-05-12 FlyInside, Inc. Optimizing processing time of a simulation engine
US10347193B2 (en) * 2017-06-23 2019-07-09 Blackberry Limited Electronic device including display and method of applying privacy filter
US10395638B2 (en) 2017-07-08 2019-08-27 International Business Machines Corporation Natural language processing to merge related alert messages for accessibility
KR102349681B1 (ko) * 2017-07-28 2022-01-12 삼성전자주식회사 결여된 파라미터를 획득하고 기록하는 전자 장치
US10589960B2 (en) 2017-07-31 2020-03-17 Otis Elevator Company User device including secondary-touch elevator service request interface
US20190068771A1 (en) * 2017-08-24 2019-02-28 Microsoft Technology Licensing, Llc External device for communicating with conferencing client using notification api
US10817307B1 (en) 2017-12-20 2020-10-27 Apple Inc. API behavior modification based on power source health
US10599199B1 (en) 2017-12-20 2020-03-24 Apple Inc. Systems and methods for power management at device shutdown
US11363133B1 (en) 2017-12-20 2022-06-14 Apple Inc. Battery health-based power management
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
DK180241B1 (en) 2018-03-12 2020-09-08 Apple Inc User interfaces for health monitoring
AU2019261524C1 (en) * 2018-04-27 2022-05-05 Dropbox, Inc. Aggregated Details Displayed Within File Browser Interface
US11249950B2 (en) 2018-04-27 2022-02-15 Dropbox, Inc. Aggregated details displayed within file browser interface
US11317833B2 (en) 2018-05-07 2022-05-03 Apple Inc. Displaying user interfaces associated with physical activities
US11327650B2 (en) 2018-05-07 2022-05-10 Apple Inc. User interfaces having a collection of complications
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
JP7173814B2 (ja) * 2018-09-28 2022-11-16 キヤノン株式会社 情報処理装置、制御方法およびプログラム
CN109739669B (zh) * 2019-01-15 2020-09-18 维沃移动通信有限公司 一种未读消息提示方法及移动终端
EP3949332A1 (de) * 2019-05-06 2022-02-09 Apple Inc. Konfiguration und schnittstelle einer eigenständigen wearable-vorrichtung
DK201970532A1 (en) 2019-05-06 2021-05-03 Apple Inc Activity trends and workouts
JP6921338B2 (ja) 2019-05-06 2021-08-18 アップル インコーポレイテッドApple Inc. 電子デバイスの制限された動作
US11131967B2 (en) 2019-05-06 2021-09-28 Apple Inc. Clock faces for an electronic device
US11646591B2 (en) 2019-05-09 2023-05-09 Apple Inc. Indication for protective charging mode
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
JP7097515B2 (ja) * 2019-05-31 2022-07-07 アップル インコーポレイテッド オーディオを共有するための方法及びユーザインタフェース
KR20220027295A (ko) 2019-05-31 2022-03-07 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
DK201970533A1 (en) 2019-05-31 2021-02-15 Apple Inc Methods and user interfaces for sharing audio
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
JP7073592B1 (ja) * 2019-06-01 2022-05-23 アップル インコーポレイテッド オーディオ露出を管理するためのユーザインタフェース
US11152100B2 (en) * 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US11144176B2 (en) * 2019-06-01 2021-10-12 Apple Inc. User interfaces for electronic voice communications
DK180684B1 (en) 2019-09-09 2021-11-25 Apple Inc Techniques for managing display usage
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
CN113127613B (zh) * 2020-01-10 2024-01-09 北京搜狗科技发展有限公司 聊天信息处理方法及装置
DK202070612A1 (en) 2020-02-14 2021-10-26 Apple Inc User interfaces for workout content
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11188202B2 (en) 2020-03-10 2021-11-30 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
JP2021152879A (ja) * 2020-03-19 2021-09-30 カシオ計算機株式会社 情報処理装置、情報処理方法およびプログラム
CN115552375A (zh) 2020-05-11 2022-12-30 苹果公司 用于管理用户界面共享的用户界面
US11372659B2 (en) 2020-05-11 2022-06-28 Apple Inc. User interfaces for managing user interface sharing
DK202070625A1 (en) 2020-05-11 2022-01-04 Apple Inc User interfaces related to time
US11340707B2 (en) * 2020-05-29 2022-05-24 Microsoft Technology Licensing, Llc Hand gesture-based emojis
DK181037B1 (en) 2020-06-02 2022-10-10 Apple Inc User interfaces for health applications
US11816194B2 (en) 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
US11698710B2 (en) 2020-08-31 2023-07-11 Apple Inc. User interfaces for logging user activities
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
US11694590B2 (en) 2020-12-21 2023-07-04 Apple Inc. Dynamic user interface with time indicator
CN112612626A (zh) * 2020-12-28 2021-04-06 北京小米移动软件有限公司 信息处理方法及装置、存储介质
US11720239B2 (en) 2021-01-07 2023-08-08 Apple Inc. Techniques for user interfaces related to an event
US11921992B2 (en) 2021-05-14 2024-03-05 Apple Inc. User interfaces related to time
EP4323992A1 (de) 2021-05-15 2024-02-21 Apple Inc. Benutzerschnittstellen für gruppenausarbeitungen
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11847378B2 (en) 2021-06-06 2023-12-19 Apple Inc. User interfaces for audio routing
US20230063173A1 (en) 2021-08-31 2023-03-02 Apple Inc. Methods and interfaces for initiating communications
WO2023044044A1 (en) * 2021-09-20 2023-03-23 Apple Inc. Requests to add assets to an asset account
US11784956B2 (en) 2021-09-20 2023-10-10 Apple Inc. Requests to add assets to an asset account
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
EP4273677A1 (de) 2022-05-06 2023-11-08 Apple Inc. Vorrichtungen, verfahren und grafische benutzeroberflächen zur aktualisierung einer sitzungsregion
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
US20230390627A1 (en) 2022-06-05 2023-12-07 Apple Inc. User interfaces for physical activity information

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US17692A (en) 1857-06-30 Fence
US190059A (en) 1877-04-24 Improvement in screw-cutting dies
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20130040061A1 (en) 2011-08-09 2013-02-14 Kateeva, Inc. Face-down printing apparatus and method
US20130069483A1 (en) 2011-09-19 2013-03-21 Chief Land Electronic Co., Ltd. Transducer and transducer module

Family Cites Families (569)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
JPS5580084A (en) 1978-12-12 1980-06-16 Seiko Instr & Electronics Ltd Electronic wrist watch with computer
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
KR910007197B1 (ko) 1988-08-23 1991-09-19 삼성전자 주식회사 리모트 콘트롤회로
US5404295A (en) 1990-08-16 1995-04-04 Katz; Boris Method and apparatus for utilizing annotations to facilitate computer retrieval of database material
GB9220404D0 (en) 1992-08-20 1992-11-11 Nat Security Agency Method of identifying,retrieving and sorting documents
US5444823A (en) 1993-04-16 1995-08-22 Compaq Computer Corporation Intelligent search engine for associated on-line documentation having questionless case-based knowledge base
US5495604A (en) 1993-08-25 1996-02-27 Asymetrix Corporation Method and apparatus for the modeling and query of database structures using natural language-like constructs
US5479378A (en) * 1993-12-17 1995-12-26 Seiko Telecommunication Systems Inc. Analog wristwatch paging receiver
US6191807B1 (en) 1994-05-27 2001-02-20 Canon Kabushiki Kaisha Communication apparatus and method for performing a file transfer operation
US5655094A (en) 1995-09-29 1997-08-05 International Business Machines Corporation Pop up scroll bar
US5801700A (en) 1996-01-19 1998-09-01 Silicon Graphics Incorporated System and method for an iconic drag and drop interface for electronic file transfer
US6014429A (en) 1996-08-12 2000-01-11 Lucent Technologies, Inc. Two-way wireless messaging system with transaction server
US6002402A (en) 1997-04-09 1999-12-14 Symantec Corporation System and method for producing a drag-and-drop object from a popup menu item
US6137864A (en) 1997-07-25 2000-10-24 Lucent Technologies Inc. Specifiable delete times for voice messaging
JPH1145117A (ja) 1997-07-25 1999-02-16 Mitsubishi Electric Corp メッセージ表示システム
US6266098B1 (en) 1997-10-22 2001-07-24 Matsushita Electric Corporation Of America Function presentation and selection using a rotatable function menu
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP3511462B2 (ja) 1998-01-29 2004-03-29 インターナショナル・ビジネス・マシーンズ・コーポレーション 操作画像表示装置およびその方法
US6253075B1 (en) 1998-05-19 2001-06-26 Nokia Mobile Phones Ltd. Method and apparatus for incoming call rejection
US6484027B1 (en) * 1998-06-15 2002-11-19 Sbc Technology Resources, Inc. Enhanced wireless handset, including direct handset-to-handset communication mode
BR9913963A (pt) 1998-09-15 2003-04-01 In Touch Technologies Ltd Plataforma incrementada de comunicação e método de comunicação correlato que usa a plataforma
US20020126135A1 (en) 1998-10-19 2002-09-12 Keith Ball Image sharing for instant messaging
EP1052566A1 (de) 1999-05-14 2000-11-15 Alcatel Graphische Benutzerschnittstelle
GB2350523B (en) 1999-05-26 2003-11-26 Nokia Mobile Phones Ltd Communication device
US20030181201A1 (en) 1999-07-09 2003-09-25 Daniel S. Bomze Mobile communication device for electronic commerce
US7149893B1 (en) 1999-09-07 2006-12-12 Poofaway.Com, Inc. System and method for enabling the originator of an electronic mail message to preset an expiration time, date, and/or event, and to control processing or handling by a recipient
US20040169722A1 (en) 1999-10-16 2004-09-02 Pena Martin Rangel Method and system for computer-aided telecommunication and financial transactions
CA2321014C (en) 1999-10-20 2012-06-19 Paul M. Toupin Single action audio prompt interface utilising binary state time domain multiple selection protocol
EP2264895A3 (de) 1999-10-27 2012-01-25 Systems Ltd Keyless Integriertes Tastatursystem
US6941345B1 (en) 1999-12-03 2005-09-06 Nortel Networks Limited Real-time, text-based messaging between devices in plural communities
US7089292B1 (en) 1999-12-20 2006-08-08 Vulcan Patents, Llc Interface including non-visual display for use in browsing an indexed collection of electronic content
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6809724B1 (en) 2000-01-18 2004-10-26 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6597378B1 (en) 2000-01-18 2003-07-22 Seiko Epson Corporation Display device, portable information processing apparatus, information storage medium, and electronic apparatus
US6587835B1 (en) 2000-02-09 2003-07-01 G. Victor Treyz Shopping assistance with handheld computing device
CN1591399B (zh) 2000-03-16 2011-03-09 微软公司 通知平台总体结构
US6694297B2 (en) 2000-03-30 2004-02-17 Fujitsu Limited Text information read-out device and music/voice reproduction device incorporating the same
CN1193570C (zh) 2000-06-21 2005-03-16 精工爱普生株式会社 协同处理呼入的移动电话和无线电通信装置
US20020057284A1 (en) 2000-06-29 2002-05-16 Dalby Richard Sean Methods and systems for delivering announcements to users of an information system
US7081905B1 (en) 2000-06-30 2006-07-25 International Business Machines Corporation Method and apparatus for dynamically controlling scroller speed employed for a user interface of a wearable appliance
US6662023B1 (en) 2000-07-06 2003-12-09 Nokia Mobile Phones Ltd. Method and apparatus for controlling and securing mobile phones that are lost, stolen or misused
AU2001271968B2 (en) 2000-07-10 2007-03-15 Paypal, Inc. System and method for verifying a financial instrument
US7302280B2 (en) 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US7450969B1 (en) 2000-08-28 2008-11-11 Wideray, Inc. Two radio interface for mobile communication device for electronic commerce
US20070037605A1 (en) 2000-08-29 2007-02-15 Logan James D Methods and apparatus for controlling cellular and portable phones
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6590303B1 (en) 2000-10-26 2003-07-08 Motorola, Inc. Single button MP3 player
US7334267B2 (en) 2001-02-28 2008-02-19 Hall Aluminum Llc Email viewing security
JP4860057B2 (ja) * 2001-06-06 2012-01-25 京セラ株式会社 通信端末装置
US8050997B1 (en) 2001-08-23 2011-11-01 Paypal Inc. Instant availability of electronically transferred funds
JP4123757B2 (ja) 2001-10-30 2008-07-23 ソニー株式会社 ユーザ間の通信機能を備えた情報処理装置及びこれに用いるプログラム並びに情報処理方法
JP2003173226A (ja) 2001-11-27 2003-06-20 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
US7095442B2 (en) 2002-01-31 2006-08-22 Hewlett-Packard Development Company, L.P. Method and apparatus for capturing an image
US20030158737A1 (en) 2002-02-15 2003-08-21 Csicsatka Tibor George Method and apparatus for incorporating additional audio information into audio data file identifying information
US7461378B2 (en) 2002-06-11 2008-12-02 Siemens Communications, Inc. Methods and apparatus for processing an instant message
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7822688B2 (en) 2002-08-08 2010-10-26 Fujitsu Limited Wireless wallet
US20040041841A1 (en) * 2002-08-27 2004-03-04 Lemogne Stephane Enhanced contact navigator with interactive tabs for managing network events in real time
KR100532273B1 (ko) 2002-10-11 2005-11-29 삼성전자주식회사 복합 단말기에서 동작 모드에 따른 배터리 가용 시간 알림방법
KR100403196B1 (en) 2002-12-11 2003-10-30 Hasung Data System Co Ltd Settling system using mobile communication terminal, method therefor, and recording medium storing program for the setting system
US7111253B2 (en) * 2002-12-16 2006-09-19 Palo Alto Research Center Incorporated Method and apparatus for displaying hierarchical information
EP1435620A1 (de) 2003-01-06 2004-07-07 Thomson Licensing S.A. Verfahren zum Herstellen von und zum Zugriff auf ein Menü für Audiodaten, ohne Verwendung eines Bildschirms
US7300429B2 (en) * 2003-03-18 2007-11-27 Catharos Medical Systems, Inc. Methods and devices for retrieval of a medical agent from a physiological efferent fluid collection site
JP4812234B2 (ja) 2003-03-19 2011-11-09 ソニー株式会社 決済管理装置、携帯情報端末、並びにプログラム
US7457879B2 (en) * 2003-04-01 2008-11-25 Microsoft Corporation Notification platform architecture
KR100504828B1 (ko) 2003-04-11 2005-07-29 엘지전자 주식회사 휴대폰의 단문 메시지 관리 방법
US20050045373A1 (en) 2003-05-27 2005-03-03 Joseph Born Portable media device with audio prompt menu
DE60326775D1 (de) 2003-05-28 2009-04-30 Nokia Corp Verfahren und funkendgeräteanordnung zur anzeige einer ankommenden verbindung
US7130664B1 (en) 2003-06-12 2006-10-31 Williams Daniel P User-based signal indicator for telecommunications device and method of remotely notifying a user of an incoming communications signal incorporating the same
US7715593B1 (en) 2003-06-16 2010-05-11 Uru Technology Incorporated Method and system for creating and operating biometrically enabled multi-purpose credential management devices
US7707255B2 (en) * 2003-07-01 2010-04-27 Microsoft Corporation Automatic grouping of electronic mail
US7757173B2 (en) 2003-07-18 2010-07-13 Apple Inc. Voice menu system
US7353413B2 (en) 2003-08-18 2008-04-01 Intel Corporation Computer system power policy adjustment in response to an affirmative indication from a user
US8952895B2 (en) 2011-06-03 2015-02-10 Apple Inc. Motion-based device operations
US8078481B2 (en) 2003-12-05 2011-12-13 John Steinbarth Benefits administration system and methods of use and doing business
US7454716B2 (en) 2003-12-22 2008-11-18 Microsoft Corporation Clustering messages
US7904510B2 (en) 2004-02-23 2011-03-08 Microsoft Corporation Systems and methods for managing discussion threads based on ratings
US7645108B2 (en) 2004-02-26 2010-01-12 Benko John C Stack loading and unloading cart
US7365736B2 (en) 2004-03-23 2008-04-29 Fujitsu Limited Customizable gesture mappings for motion controlled handheld devices
US11475436B2 (en) 2010-01-08 2022-10-18 Blackhawk Network, Inc. System and method for providing a security code
US7697960B2 (en) * 2004-04-23 2010-04-13 Samsung Electronics Co., Ltd. Method for displaying status information on a mobile terminal
JP2007536634A (ja) * 2004-05-04 2007-12-13 フィッシャー−ローズマウント・システムズ・インコーポレーテッド プロセス制御システムのためのサービス指向型アーキテクチャ
WO2005109829A1 (en) 2004-05-06 2005-11-17 Koninklijke Philips Electronics N.V. Method device and program for seamlessly transferring the execution of a software application from a first to a second device
US7353466B2 (en) * 2004-05-28 2008-04-01 Microsoft Corporation System and method for generating message notification objects on dynamically scaled timeline
US7222307B2 (en) 2004-06-16 2007-05-22 Scenera Technologies, Llc Multipurpose navigation keys for an electronic imaging device
EP1766885B1 (de) 2004-06-21 2010-04-21 Research In Motion Limited System und verfahren zur handhabung sicherer elektronischer nachrichten
US20060021003A1 (en) 2004-06-23 2006-01-26 Janus Software, Inc Biometric authentication system
US20060026245A1 (en) * 2004-07-07 2006-02-02 Ivy Cunningham System and method for data organization and display in an instant-messaging interface
US20060019649A1 (en) 2004-07-21 2006-01-26 Feinleib David A System and method for remote telephone ringer
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7519670B2 (en) 2004-08-12 2009-04-14 International Business Machines Corporation Method for disappearing ink for text messaging
JP2006072489A (ja) 2004-08-31 2006-03-16 Toshiba Corp 情報処理装置および表示制御プログラム
JP2006079427A (ja) * 2004-09-10 2006-03-23 Toshiba Tec Corp 携帯情報機器
JP2006129429A (ja) 2004-10-01 2006-05-18 Haatec:Kk 通信システムの端末機
US7778671B2 (en) 2004-10-08 2010-08-17 Nokia Corporation Mobile communications terminal having an improved user interface and method therefor
JP4127833B2 (ja) 2004-10-12 2008-07-30 株式会社東芝 携帯端末
US20060092177A1 (en) * 2004-10-30 2006-05-04 Gabor Blasko Input method and apparatus using tactile guidance and bi-directional segmented stroke
US7735012B2 (en) 2004-11-04 2010-06-08 Apple Inc. Audio user interface for computing devices
JP2006135667A (ja) 2004-11-05 2006-05-25 Toshiba Corp データ送信機、データ送信方法、データ受信機、及びデータ受信処理方法
US7434230B2 (en) 2004-12-02 2008-10-07 International Business Machines Corporation Method and system for time bounding notification delivery in an event driven system
JP2006163960A (ja) 2004-12-09 2006-06-22 Sharp Corp 決済機能付き携帯通信端末、課金決済システム及び課金決済における認証方法
EP1832125B1 (de) 2004-12-28 2013-02-13 Samsung Electronics Co., Ltd. Verfahren und vorrichtung zur verwaltung von multimedia-nachrichten
EP1844403A4 (de) 2005-01-16 2010-06-23 Zlango Ltd Bildzeichenkommunikation
US8856223B2 (en) 2005-01-18 2014-10-07 International Business Machines Corporation Limiting access to instant messaging content on a display screen
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
US20060179404A1 (en) 2005-02-08 2006-08-10 Microsoft Corporation Method for a browser auto form fill
US8107599B2 (en) 2005-02-15 2012-01-31 Fastvdo, Llc Methods and apparatus for the composition and communication of digital composition coded multisensory messages (DCC MSMS)
US7783065B2 (en) 2005-03-18 2010-08-24 Nyko Technologies, Inc. Wireless headphone kit for media players
JP4983005B2 (ja) 2005-04-12 2012-07-25 富士通株式会社 電子機器、優先接続装置、優先接続方法及び優先接続プログラム
CN100502415C (zh) * 2005-04-22 2009-06-17 英华达(上海)电子有限公司 手机中语音自动处理外来通信事件的方法
JP4507980B2 (ja) 2005-05-24 2010-07-21 株式会社リコー 画像形成装置および画像表示方法
NO324406B1 (no) 2005-06-20 2007-10-08 Telenor Asa SIM RFID-leser med WLAN-tilgang
JP2007006373A (ja) 2005-06-27 2007-01-11 Konica Minolta Business Technologies Inc 書類データ管理システム、画像形成装置、書類データ管理方法、およびコンピュータプログラム
US7831054B2 (en) 2005-06-28 2010-11-09 Microsoft Corporation Volume control
US7831520B2 (en) 2005-06-28 2010-11-09 Ebay Inc. Mobile device communication system
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
US9160658B1 (en) 2005-07-12 2015-10-13 Brixham Solutions Ltd. Proxies for pseudo-wire allocation and distribution
US7697926B2 (en) * 2005-07-29 2010-04-13 Research In Motion Limited Device and method for generating user notifications associated with tasks that are pending completion
US9629384B2 (en) 2005-09-14 2017-04-25 S & P Ingredient Development, Llc Low sodium salt composition
US20070073823A1 (en) 2005-09-29 2007-03-29 International Business Machines Corporation Method and apparatus to secure and retrieve instant messages
US7728316B2 (en) 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US20070117549A1 (en) 2005-10-06 2007-05-24 Arnos Reed W Wireless handset and methods for use therewith
US7894580B2 (en) 2005-10-26 2011-02-22 Research In Motion Limited Methods and apparatus for reliable voicemail message deletion alerts at mobile communication devices
US20070135043A1 (en) 2005-12-12 2007-06-14 Motorola, Inc. Method and system for accessible contact information on a locked electronic device
US20070131759A1 (en) 2005-12-14 2007-06-14 Cox Mark A Smartcard and magnetic stripe emulator with biometric authentication
EP1801689A1 (de) 2005-12-23 2007-06-27 Sap Ag Verfahren, Systeme und Softwareanwendungen mit Tabpanelelementen
EP1971113B1 (de) * 2005-12-27 2014-05-14 Kyocera Corporation Kommunikationsgerät und kommunikationssteuerverfahren
US7552399B2 (en) 2005-12-27 2009-06-23 International Business Machines Corporation Extensible icons with multiple drop zones
US7684991B2 (en) 2006-01-05 2010-03-23 Alpine Electronics, Inc. Digital audio file search method and apparatus using text-to-speech processing
JP2009524357A (ja) 2006-01-20 2009-06-25 カンバーセイショナル コンピューティング コーポレイション 着用型ディスプレーインターフェースクライエント装置
US8175656B2 (en) * 2006-02-24 2012-05-08 Qualcomm Incorporated System and method of displaying incoming communication alerts at a wireless device
US10521022B2 (en) 2006-03-17 2019-12-31 Conversant Wireless Licensing S.a.r.l. Mobile communication terminal and method therefor
CN100462909C (zh) 2006-03-31 2009-02-18 腾讯科技(深圳)有限公司 一种控制窗口界面显示的方法及装置
US9395905B2 (en) 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US20070260558A1 (en) 2006-04-17 2007-11-08 Look Thomas F Methods and systems for secure transactions with electronic devices
CA2545339C (en) * 2006-05-01 2014-07-08 Lms Medical Systems Ltd. Method and apparatus for displaying labour related information associated to an obstetrics patient
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
US8989778B2 (en) 2006-06-01 2015-03-24 Green Dot Corporation Secure and private location sharing for location-aware mobile communication devices
CN101489469B (zh) 2006-07-10 2012-12-12 埃森哲环球服务有限公司 用于提供反馈的移动个人服务平台
US7702282B2 (en) 2006-07-13 2010-04-20 Sony Ericsoon Mobile Communications Ab Conveying commands to a mobile terminal through body actions
US7789225B2 (en) 2006-07-27 2010-09-07 David Whiteis Jewelry box
KR100778367B1 (ko) 2006-08-02 2007-11-22 삼성전자주식회사 휴대 단말기 및 그의 이벤트 처리 방법
KR100764649B1 (ko) 2006-08-18 2007-10-08 삼성전자주식회사 휴대용 단말기에서 미디어 플레이어를 제어하기 위한 장치및 방법
US20080052181A1 (en) 2006-08-23 2008-02-28 Taram Devitt-Carolan Integrated system for providing user services
US7996792B2 (en) 2006-09-06 2011-08-09 Apple Inc. Voicemail manager for portable multifunction device
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US8014760B2 (en) 2006-09-06 2011-09-06 Apple Inc. Missed telephone call management for a portable multifunction device
CN101356493A (zh) * 2006-09-06 2009-01-28 苹果公司 用于照片管理的便携式电子装置
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US9304675B2 (en) 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
KR100774927B1 (ko) 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
US7768415B2 (en) 2006-09-28 2010-08-03 Nike, Inc. Sensor device with persistent low power beacon
US20130212655A1 (en) 2006-10-02 2013-08-15 Hector T. Hoyos Efficient prevention fraud
JP2008104068A (ja) 2006-10-20 2008-05-01 Sky Kk 着信通知システムとこのシステムに用いられる携帯通信端末
US8090087B2 (en) 2006-10-26 2012-01-03 Apple Inc. Method, system, and graphical user interface for making conference calls
US7908219B2 (en) 2006-11-03 2011-03-15 Microsoft Corporation Inbox management
KR20080043472A (ko) 2006-11-14 2008-05-19 삼성전자주식회사 휴대용 단말기의 메시지 관리 방법 및 장치
TW200823678A (en) 2006-11-22 2008-06-01 Acer Inc Method and electronic device for sharing data via instant message
US20080120707A1 (en) 2006-11-22 2008-05-22 Alexander Ramia Systems and methods for authenticating a device by a centralized data server
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
US20080146289A1 (en) 2006-12-14 2008-06-19 Motorola, Inc. Automatic audio transducer adjustments based upon orientation of a mobile communication device
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
EP2490432A1 (de) 2007-05-29 2012-08-22 Research In Motion Limited Vorrichtung und Verfahren zur Integration von Image-Upload-Objekten in eine Nachrichtenliste
US9933937B2 (en) * 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8068925B2 (en) 2007-06-28 2011-11-29 Apple Inc. Dynamic routing of audio among multiple audio devices
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US20090003552A1 (en) 2007-06-29 2009-01-01 Lucent Technologies Inc. Personal message expiration
EP2020648A3 (de) * 2007-07-25 2010-06-09 TTE Indianapolis Verfahren und Vorrichtung für Ereignismeldungen über ein konfigurierbares Notfallalarmsystem
US7996473B2 (en) 2007-07-30 2011-08-09 International Business Machines Corporation Profile-based conversion and delivery of electronic messages
JP5480137B2 (ja) 2007-07-31 2014-04-23 インターナショナル・ビジネス・マシーンズ・コーポレーション 生体認証装置、ポータブル電子装置及び生体認証方法
US8990400B2 (en) 2007-08-17 2015-03-24 The Invention Science Fund I, Llc Facilitating communications among message recipients
US9261979B2 (en) 2007-08-20 2016-02-16 Qualcomm Incorporated Gesture-based mobile interaction
JP2009053758A (ja) * 2007-08-23 2009-03-12 Toshiba Corp 通信端末装置
US8265665B2 (en) * 2007-09-21 2012-09-11 Research In Motion Limited Color differentiating a portion of a text message shown in a listing on a handheld communication device
CN101809581B (zh) 2007-09-24 2014-12-10 苹果公司 电子设备中的嵌入式验证系统
US20090098914A1 (en) 2007-10-15 2009-04-16 Research In Motion Limited Method and system for enabling or disabling features based on a battery level threshold
US8910073B2 (en) 2007-11-26 2014-12-09 Qualcomm Incorporated Enhancing visual continuity in scrolling operations
WO2009071112A1 (en) 2007-12-03 2009-06-11 Nokia Corporation Media embedded in mobile messaging
CN101903870A (zh) 2007-12-18 2010-12-01 朗讯科技公司 电子消息系统中用于到期处置的方法和系统
US8112281B2 (en) 2007-12-19 2012-02-07 Enbiomedic Accelerometer-based control of wearable audio recorders
US8970633B2 (en) 2007-12-26 2015-03-03 Qualcomm Incorporated Touch wheel zoom and pan
US7802720B2 (en) 2008-01-04 2010-09-28 Intuit Inc. Method and system for performing a card-present transaction using image capture on a portable device
US8407603B2 (en) 2008-01-06 2013-03-26 Apple Inc. Portable electronic device for instant messaging multiple recipients
US7996046B2 (en) * 2008-01-10 2011-08-09 Microsoft Corporation Smart alert charms for wireless devices
US20090187842A1 (en) 2008-01-22 2009-07-23 3Dlabs Inc., Ltd. Drag and Drop User Interface for Portable Electronic Devices with Touch Sensitive Screens
US9154606B2 (en) * 2008-01-30 2015-10-06 Google Inc. Notification of mobile device events
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US8910299B2 (en) 2008-02-08 2014-12-09 Steven Charles Michalske Emergency information access on portable electronic devices
US8676224B2 (en) 2008-02-19 2014-03-18 Apple Inc. Speakerphone control for mobile device
EP2105330B1 (de) 2008-03-26 2011-04-27 Honda Motor Co., Ltd. Vorrichtung zur Regelung einer Radaufhängung
US8077157B2 (en) 2008-03-31 2011-12-13 Intel Corporation Device, system, and method of wireless transfer of files
US20090248751A1 (en) 2008-04-01 2009-10-01 Myman Darin M Destroyable Instant Message (IM)
US8312380B2 (en) 2008-04-04 2012-11-13 Yahoo! Inc. Local map chat
EP2109055A1 (de) 2008-04-11 2009-10-14 Universiteit Maastricht Tragbares psychologisches Überwachungsgerät
US20090265643A1 (en) 2008-04-18 2009-10-22 Alcatel Lucent Instant messaging reception indication
CN101276255A (zh) 2008-05-05 2008-10-01 中兴通讯股份有限公司 一种移动终端菜单的显示装置及显示方法
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20140025520A1 (en) 2008-06-06 2014-01-23 Ebay Inc. Biometric authentication of mobile financial transactions by trusted service managers
US20090307140A1 (en) 2008-06-06 2009-12-10 Upendra Mardikar Mobile device over-the-air (ota) registration and point-of-sale (pos) payment
US9516116B2 (en) 2008-06-06 2016-12-06 Apple Inc. Managing notification service connections
US20090313582A1 (en) 2008-06-11 2009-12-17 Raul Rupsingh System, Method and Computer Program for User-Friendly Social Interaction
US9269010B2 (en) 2008-07-14 2016-02-23 Jumio Inc. Mobile phone payment system using integrated camera credit card reader
US8662401B2 (en) 2008-07-25 2014-03-04 First Data Corporation Mobile payment adoption by adding a dedicated payment button to mobile device form factors
JP4748257B2 (ja) 2008-08-04 2011-08-17 ソニー株式会社 生体認証装置
US20130144653A1 (en) 2008-08-05 2013-06-06 Net.Orange, Inc. System and method for visualizing patient treatment history in a network environment
US20130310089A1 (en) 2008-08-05 2013-11-21 Vasileios John Gianoukos Voice texting over sms
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
US8121586B2 (en) 2008-09-16 2012-02-21 Yellowpages.Com Llc Systems and methods for voice based search
US8620869B2 (en) 2008-09-25 2013-12-31 Microsoft Corporation Techniques to manage retention policy tags
US20100078471A1 (en) 2008-09-30 2010-04-01 Apple Inc. System and method for processing peer-to-peer financial transactions
US10380573B2 (en) 2008-09-30 2019-08-13 Apple Inc. Peer-to-peer financial transaction devices and methods
US20100082485A1 (en) 2008-09-30 2010-04-01 Apple Inc. Portable point of purchase devices and methods
KR101428429B1 (ko) 2008-09-30 2014-08-07 애플 인크. 피어 대 피어 금융 트랜잭션 장치들 및 방법들
US20100078472A1 (en) 2008-09-30 2010-04-01 Apple Inc. Group peer-to-peer financial transactions
KR102339297B1 (ko) 2008-11-10 2021-12-14 구글 엘엘씨 멀티센서 음성 검출
US20100124906A1 (en) 2008-11-14 2010-05-20 Nokia Corporation Method and Apparatus for Transmitting and Receiving Data
US8103250B2 (en) 2008-12-04 2012-01-24 At&T Mobility Ii Llc System and method for sharing location data in a wireless communication network
US20100162169A1 (en) * 2008-12-23 2010-06-24 Nokia Corporation Method, Apparatus and Computer Program Product for Providing a Dynamic Slider Interface
US20100162138A1 (en) 2008-12-23 2010-06-24 At&T Mobility Ii Llc Conversation bubbles including visual cues for threaded messaging applications
CN101770299B (zh) 2008-12-26 2013-11-06 深圳富泰宏精密工业有限公司 导航键功能实现系统及方法
US8619083B2 (en) 2009-01-06 2013-12-31 Microsoft Corporation Multi-layer image composition with intermediate blending resolutions
US20110306393A1 (en) 2010-06-15 2011-12-15 Tomasz Goldman Headset base with display and communications base
US8543081B2 (en) 2009-01-28 2013-09-24 Blackberry Limited Method of integrating emergency information in a mobile device
US8572493B2 (en) 2009-01-29 2013-10-29 Rick Qureshi Mobile device messaging application
US8862252B2 (en) 2009-01-30 2014-10-14 Apple Inc. Audio user interface for displayless electronic device
EP2401711A4 (de) 2009-02-25 2016-12-28 Miri Systems Llc Zahlungssystem und -verfahren
US8315606B2 (en) * 2009-02-27 2012-11-20 Research In Motion Limited System and method for intelligent call identification on a mobile communication device
US8606638B2 (en) 2009-03-02 2013-12-10 First Data Corporation Systems, methods and apparatus for facilitating transactions using a mobile device
US9846533B2 (en) 2009-03-16 2017-12-19 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US8131258B2 (en) 2009-04-20 2012-03-06 Boku, Inc. Systems and methods to process transaction requests
US20100281409A1 (en) 2009-04-30 2010-11-04 Nokia Corporation Apparatus and method for handling notifications within a communications device
US8200323B2 (en) 2009-05-18 2012-06-12 Adidas Ag Program products, methods, and systems for providing fitness monitoring services
US9734496B2 (en) 2009-05-29 2017-08-15 Paypal, Inc. Trusted remote attestation agent (TRAA)
CN101567109B (zh) 2009-06-03 2012-01-04 普天信息技术研究院有限公司 一种集成支付和收款功能的装置、系统和交易方法
US8930438B2 (en) 2009-06-17 2015-01-06 Apple Inc. Push-based location update
KR101590766B1 (ko) * 2009-06-26 2016-02-02 삼성전자주식회사 메시지를 그룹화하고 디스플레이하는 장치 및 방법
US8548523B2 (en) 2009-07-01 2013-10-01 At&T Intellectual Property I, L.P. Methods, apparatus, and computer program products for changing ring method based on type of connected device
US9519417B2 (en) 2009-08-31 2016-12-13 Twin Harbor Labs, LLC System and method for orientation-based object monitoring and device for the same
TWI554076B (zh) 2009-09-04 2016-10-11 普露諾洛股份有限公司 遠距離的電話管理器
US8675084B2 (en) 2009-09-04 2014-03-18 Apple Inc. Systems and methods for remote camera control
KR101651128B1 (ko) 2009-10-05 2016-08-25 엘지전자 주식회사 이동 단말기 이것의 애플리케이션 실행 제어 방법
US8924893B2 (en) 2009-10-14 2014-12-30 At&T Mobility Ii Llc Locking and unlocking of an electronic device using a sloped lock track
JP5419153B2 (ja) 2009-10-22 2014-02-19 Necカシオモバイルコミュニケーションズ株式会社 タッチ検出装置、電子機器、および、プログラム
CA2783988A1 (en) 2009-11-11 2011-05-19 Lifestream Corporation Wireless device emergency services connection and panic button, with crime and safety information system
JP2011107823A (ja) 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
WO2011063011A2 (en) * 2009-11-17 2011-05-26 Tip Solutions, Inc. Communication management features
GB0920084D0 (en) * 2009-11-23 2009-12-30 Mcalpine & Co Ltd Non-return device
EP2511797A1 (de) 2009-12-11 2012-10-17 Sharp Kabushiki Kaisha Optische sensorschaltung, vorrichtung zur erkennung zweidimensionaler koordinaten, informationsverarbeitungsvorrichtung und verfahren zur neuaktivierung eines optischen sensorelements
US8922485B1 (en) 2009-12-18 2014-12-30 Google Inc. Behavioral recognition on mobile devices
KR101626621B1 (ko) 2009-12-30 2016-06-01 엘지전자 주식회사 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기
US8972892B2 (en) 2010-01-05 2015-03-03 Qualcomm Incorporated Notification in immersive applications
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8301121B2 (en) * 2010-01-22 2012-10-30 Sony Ericsson Mobile Communications Ab Regulating alerts generated by communication terminals responsive to sensed movement
DE102010008622A1 (de) 2010-02-19 2011-08-25 Airbus Operations GmbH, 21129 Gehäuseloses Staufach
US8589815B2 (en) * 2010-03-10 2013-11-19 Microsoft Corporation Control of timing for animations in dynamic icons
CN102859544B (zh) 2010-03-11 2016-09-14 沃尔玛百货有限公司 用于使用移动设备进行交易支付的系统和方法
US20110231499A1 (en) 2010-03-22 2011-09-22 Research In Motion Limited Management and display of grouped messages on a communication device
US9275376B2 (en) * 2010-03-25 2016-03-01 Nokia Technologies Oy Method and apparatus for providing soft reminders
CN102215374B (zh) 2010-04-07 2015-09-02 苹果公司 在多照相机移动设备的视频会议期间切换照相机
US8380177B2 (en) 2010-04-09 2013-02-19 Paydiant, Inc. Mobile phone payment processing methods and systems
US20110254684A1 (en) * 2010-04-20 2011-10-20 Vito Antoci Bag Attachment for Alert Notification and Device Retrieval
US8719730B2 (en) * 2010-04-23 2014-05-06 Ganz Radial user interface and system for a virtual world game
US20110276901A1 (en) 2010-05-04 2011-11-10 Qwest Communications International Inc. Family chat
US8587476B2 (en) 2010-05-11 2013-11-19 Blackberry Limited System and method for providing location information on mobile devices
CN101873386A (zh) 2010-06-13 2010-10-27 华为终端有限公司 一种移动终端及其来电提示方法
US9417665B2 (en) 2010-06-28 2016-08-16 Apple Inc. Providing an alternative human interface
CN101877745B (zh) 2010-06-30 2014-04-09 中兴通讯股份有限公司 移动终端节电的系统及方法
US8549617B2 (en) * 2010-06-30 2013-10-01 Juniper Networks, Inc. Multi-service VPN network client for mobile device having integrated acceleration
US8285258B2 (en) 2010-07-07 2012-10-09 Research In Motion Limited Pushed content notification and display
US8284748B2 (en) 2010-07-07 2012-10-09 Apple Inc. Ad hoc formation and tracking of location-sharing groups
JP5676762B2 (ja) 2010-07-26 2015-02-25 セブン ネットワークス インコーポレイテッド モバイルアプリケーショントラフィック最適化
WO2013015835A1 (en) 2011-07-22 2013-01-31 Seven Networks, Inc. Mobile application traffic optimization
US20120028609A1 (en) 2010-07-27 2012-02-02 John Hruska Secure financial transaction system using a registered mobile device
US20130268353A1 (en) 2010-08-23 2013-10-10 MobileBits Corporation System and methods for delivering targeted marketing content to mobile device users based on geolocation
CN103080889B (zh) 2010-08-26 2018-10-02 京瓷株式会社 字符串检索装置
KR20120019531A (ko) 2010-08-26 2012-03-07 삼성전자주식회사 휴대 단말기의 gui제공 방법 및 장치
US8768309B2 (en) 2010-09-29 2014-07-01 At&T Intellectual Property I, L.P. Reminders based on device presence
US20120209677A1 (en) 2010-10-20 2012-08-16 Mehta Kaushal N Person-2-person social network marketing apparatuses, methods and systems
US20120102437A1 (en) * 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
US20120108215A1 (en) * 2010-10-29 2012-05-03 Nader Kameli Remote notification device
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
WO2012068031A1 (en) 2010-11-15 2012-05-24 Quid Fit Llc Automated alert generation in response to a predetermined communication on a telecommunication device
US10303357B2 (en) 2010-11-19 2019-05-28 TIVO SOLUTIONS lNC. Flick to send or display content
US8874665B2 (en) * 2010-12-13 2014-10-28 At&T Mobility Ii Llc Systems, apparatus and methods for facilitating display and management of information for communication devices
US20140156531A1 (en) 2010-12-14 2014-06-05 Salt Technology Inc. System and Method for Authenticating Transactions Through a Mobile Device
US8798648B2 (en) 2010-12-14 2014-08-05 Qualcomm Incorporated Methods and apparatus for managing messages
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US8797350B2 (en) 2010-12-20 2014-08-05 Dr Systems, Inc. Dynamic customizable human-computer interaction behavior
US20120158511A1 (en) 2010-12-21 2012-06-21 Microsoft Corporation Provision of contextual advertising
US8369893B2 (en) * 2010-12-31 2013-02-05 Motorola Mobility Llc Method and system for adapting mobile device to accommodate external display
US9471145B2 (en) * 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US8380637B2 (en) 2011-01-16 2013-02-19 Yerucham Levovitz Variable fractions of multiple biometrics with multi-layer authentication of mobile transactions
CN201928419U (zh) 2011-01-21 2011-08-10 青岛海信移动通信技术股份有限公司 一种耳机及配置有所述耳机的移动通信终端
US8666895B2 (en) 2011-01-31 2014-03-04 Bank Of America Corporation Single action mobile transaction device
US8195576B1 (en) 2011-01-31 2012-06-05 Bank Of America Corporation Mobile transaction device security system
US8972286B2 (en) 2011-01-31 2015-03-03 Bank Of America Corporation Transaction authorization system for a mobile commerce device
US10133388B2 (en) * 2011-02-10 2018-11-20 Kyocera Corporation Input device
SG193481A1 (en) 2011-02-16 2013-10-30 Visa Int Service Ass Snap mobile payment apparatuses, methods and systems
US9588669B2 (en) * 2011-02-17 2017-03-07 T-Mobile Usa, Inc. Sticky messages
US10146329B2 (en) 2011-02-25 2018-12-04 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different motion gestures and motion properties
US20130063383A1 (en) 2011-02-28 2013-03-14 Research In Motion Limited Electronic device and method of displaying information in response to detecting a gesture
CN102111505B (zh) * 2011-03-04 2013-06-05 中山大学 一种移动终端短信息提示显示方法
US20120239949A1 (en) 2011-03-14 2012-09-20 Research In Motion Limited Electronic device and method for application and profile sensitive battery power management
JP6034551B2 (ja) 2011-03-16 2016-11-30 任天堂株式会社 情報処理システム、情報処理装置、情報処理プログラム、および画像表示方法
WO2012128824A1 (en) * 2011-03-18 2012-09-27 Villa-Real Antony-Euclid C Global multi-purpose voice-controlled trans-lingual electronic talking and singing watch
JP5729759B2 (ja) * 2011-03-22 2015-06-03 埼玉日本電気株式会社 携帯電子機器、その制御方法及びプログラム
US8880625B2 (en) 2011-03-31 2014-11-04 Loment, Inc. Automatic expiration of messages communicated among end user communication devices
US9331972B2 (en) 2011-03-31 2016-05-03 Loment, Inc. Automatic expiration of messages communicated to an end user communication device
US10402898B2 (en) 2011-05-04 2019-09-03 Paypal, Inc. Image-based financial processing
US10949844B2 (en) 2011-05-09 2021-03-16 Intuit Inc. Processing electronic payment involving mobile communication device
EP2707847A4 (de) 2011-05-10 2015-04-01 Dynamics Inc Systeme, vorrichtungen und verfahren für mobilen zahlungsempfang, mobile berechtigungen, mobile brieftaschen und kontaktlose kommunikationsmechanismen
KR101891803B1 (ko) 2011-05-23 2018-08-27 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 편집 방법 및 장치
US8971924B2 (en) 2011-05-23 2015-03-03 Apple Inc. Identifying and locating users on a mobile network
US20120310760A1 (en) 2011-06-03 2012-12-06 Simon Phillips Mobile device automatic card account selection for a transaction
KR102023801B1 (ko) 2011-06-05 2019-09-20 애플 인크. 다수의 애플리케이션들로부터 수신된 통지들을 디스플레이하기 위한 시스템들 및 방법들
US20160270717A1 (en) 2011-06-10 2016-09-22 Aliphcom Monitoring and feedback of physiological and physical characteristics using wearable devices
KR101121441B1 (ko) 2011-06-16 2012-03-16 에이큐 주식회사 엔에프시 통신방식의 이동통신단말기 및 그 제어방법
KR101121440B1 (ko) 2011-06-16 2012-03-16 에이큐 주식회사 엔에프시 통신방식의 이동통신단말기 및 제어방법
US9372556B2 (en) 2011-06-28 2016-06-21 Kyocera Corporation Electronic device, informing control method, and storage medium storing control program
JP5762850B2 (ja) * 2011-06-28 2015-08-12 京セラ株式会社 携帯端末装置
CN102395128B (zh) 2011-06-30 2015-12-09 北京邮电大学 一种移动智能终端的恶意信息发送防御方法及其系统
US9355393B2 (en) 2011-08-18 2016-05-31 Visa International Service Association Multi-directional wallet connector apparatuses, methods and systems
WO2013008649A1 (ja) 2011-07-11 2013-01-17 Kddi株式会社 指の接触による入力を複数のモードで実行可能なユーザインタフェース装置、入力操作判定方法及びプログラム
EP2551784A1 (de) 2011-07-28 2013-01-30 Roche Diagnostics GmbH Verfahren zur Steuerung der Anzeige eines Datensatzes
US20150172393A1 (en) 2011-07-29 2015-06-18 Google Inc. Temporal Location Sharing
US9355394B2 (en) 2011-08-11 2016-05-31 Visa International Service Association Systems and methods of aggregating split payments using a settlement ecosystem
EP2748927B1 (de) 2011-08-26 2017-05-17 Azoteq (Pty) Limited Intelligenter kapazitiver streichschalter
JP2013048389A (ja) * 2011-08-29 2013-03-07 Fujitsu Mobile Communications Ltd 電子装置、そのカメラ制御プログラムおよびカメラ制御方法
KR101873415B1 (ko) 2011-09-08 2018-07-02 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR20130028598A (ko) 2011-09-09 2013-03-19 삼성전자주식회사 장치 및 장치의 이미지 파일의 sns 업로드방법
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US20130078958A1 (en) 2011-09-23 2013-03-28 Research In Motion Limited System and method for managing transient notifications using sensors
US9576284B2 (en) 2011-09-29 2017-02-21 Paypal, Inc. Social proximity payments
EP2761860B1 (de) 2011-09-30 2019-10-23 Apple Inc. Automatische anpassung von benutzeroberflächen für freihändige interaktion
US9678578B2 (en) 2011-10-03 2017-06-13 Furuno Electric Co., Ltd. Device having touch panel, display control program and display control method
US8880055B1 (en) 2011-10-06 2014-11-04 Marvell International Ltd. Method and apparatus for using near field communication (NFC) to perform transactions on a mobile device
US9031540B2 (en) 2011-10-07 2015-05-12 Newaer Inc. Automatication of a user transaction based upon scanned wireless signals
KR101789626B1 (ko) 2011-10-10 2017-10-25 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
SG10201602840WA (en) * 2011-10-10 2016-05-30 Talko Inc Communication system
US8848932B2 (en) 2011-10-13 2014-09-30 Blackberry Limited Proximity sensing for user detection and automatic volume regulation with sensor interruption override
EP2582120A1 (de) 2011-10-14 2013-04-17 Research In Motion Limited Benutzerschnittstellenverfahren und -vorrichtung für die Übermittlung von Text- und Fotonachrichten
US8819154B2 (en) 2011-10-14 2014-08-26 Blackberry Limited User interface methods and apparatus for use in communicating text and photo messages
US20130097566A1 (en) 2011-10-17 2013-04-18 Carl Fredrik Alexander BERGLUND System and method for displaying items on electronic devices
US20160180305A1 (en) 2011-10-24 2016-06-23 Bc Investments & Leasing, Inc. Payment Method Linked To A Mobile Number
US9305312B2 (en) 2011-10-25 2016-04-05 Theodosios Kountotsis Express easy-pass checkout at grocery stores and retail establishments for preferred members
US10510056B2 (en) 2011-11-02 2019-12-17 Mastercard International Incorporated Method and system for multiple payment applications
US20130120106A1 (en) 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US8594921B2 (en) 2011-11-30 2013-11-26 At&T Mobility Ii Llc Comparison of multi-dimensional datasets
US9154901B2 (en) 2011-12-03 2015-10-06 Location Labs, Inc. System and method for disabling and enabling mobile device functional components
EP2795440A4 (de) * 2011-12-21 2015-08-19 Nokia Technologies Oy Vorrichtung und verfahren zur zuordnung von anwendungsereignissen zu kontakten in einer elektronischen vorrichtung
US9467834B2 (en) 2011-12-23 2016-10-11 Microsoft Technology Licensing, Llc Mobile device emergency service
CN102404458A (zh) * 2011-12-27 2012-04-04 上海华勤通讯技术有限公司 移动终端和联系人信息排序方法
CN104137048B (zh) 2011-12-28 2019-10-25 诺基亚技术有限公司 提供应用的打开实例
EP2610701B1 (de) 2011-12-29 2015-04-01 Research in Motion Corporation Stromversorgungsmanagement für tragbare elektronische Vorrichtungen
AU2013207407A1 (en) 2012-01-05 2013-10-24 Visa International Service Association Transaction visual capturing apparatuses, methods and systems
EP2817863A1 (de) 2012-01-08 2014-12-31 Powermat Technologies Ltd. System und verfahren zur bereitstellung und steuerung von induktiver energieaufladung
US20130198112A1 (en) 2012-01-30 2013-08-01 Verizon Patent And Licensing Inc. Capacity Management Methods and Systems
US8995960B2 (en) 2012-02-10 2015-03-31 Dedo Interactive, Inc. Mobile device authentication
US10289660B2 (en) 2012-02-15 2019-05-14 Apple Inc. Device, method, and graphical user interface for sharing a content object in a document
EP2631743B1 (de) * 2012-02-24 2018-05-02 BlackBerry Limited Tragbare Vorrichtung mit Benachrichtigungsmeldungsanzeige
KR101891536B1 (ko) 2012-02-24 2018-08-27 삼성전자주식회사 휴대단말기의 응급콜 발신 방법 및 장치
KR101921203B1 (ko) 2012-03-02 2018-11-22 삼성전자 주식회사 녹음 기능이 연동된 메모 기능 운용 방법 및 장치
EP2823438A4 (de) 2012-03-05 2015-05-06 Visa Int Service Ass Authentifizierung mittels biometrischer technologie durch eine verbrauchervorrichtung
US9189062B2 (en) 2012-03-07 2015-11-17 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof based on user motion
EP2825943A1 (de) 2012-03-13 2015-01-21 Telefonaktiebolaget LM Ericsson (Publ) Vorrichtung und verfahren zur navigation auf einem berührungsempfindlichen bildschirm dafür
US9247525B2 (en) * 2012-03-16 2016-01-26 Qualcomm Incorporated Systems and methods for providing notifications
CN103327159B (zh) 2012-03-19 2016-07-06 联想(北京)有限公司 一种低电提示方法及电子设备
KR20130107974A (ko) 2012-03-23 2013-10-02 삼성전자주식회사 플로팅 사용자 인터페이스 제공 장치 및 방법
US9934713B2 (en) 2012-03-28 2018-04-03 Qualcomm Incorporated Multifunction wristband
US20130275924A1 (en) 2012-04-16 2013-10-17 Nuance Communications, Inc. Low-attention gestural user interface
CN102663303A (zh) 2012-04-17 2012-09-12 李凯 移动设备行使权限的方法
JP2013222410A (ja) 2012-04-18 2013-10-28 Fujitsu Frontech Ltd 非接触icカード機能付携帯端末、そのプログラム
US20130282564A1 (en) 2012-04-21 2013-10-24 Research In Motion Limited System and method for transmitting application data between two communication devices
US20130282844A1 (en) 2012-04-23 2013-10-24 Contact Solutions LLC Apparatus and methods for multi-mode asynchronous communication
US20130297414A1 (en) 2012-05-07 2013-11-07 Flint Mobile, Inc. Method, apparatus, and computer-readable medium for managing mobile payment transactions
EP2847659B1 (de) * 2012-05-09 2019-09-04 Apple Inc. Vorrichtung, verfahren und grafische benutzerschnittstelle zum übergang zwischen anzeigezuständen als reaktion auf eine geste
WO2013169875A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US9953310B2 (en) 2012-05-10 2018-04-24 Mastercard International Incorporated Systems and method for providing multiple virtual secure elements in a single physical secure element of a mobile device
CN103425119B (zh) * 2012-05-23 2018-10-19 株式会社堀场制作所 测试系统、设备管理装置和车辆性能测试系统
US9191988B2 (en) 2012-05-26 2015-11-17 Qualcomm Incorporated Smart pairing using bluetooth technology
US8948821B2 (en) 2012-05-27 2015-02-03 Qualcomm Incorporated Notification based on user context
KR101395480B1 (ko) * 2012-06-01 2014-05-14 주식회사 팬택 필기 입력에 기초하여 어플리케이션을 실행하는 방법 및 그 단말
US9170667B2 (en) 2012-06-01 2015-10-27 Microsoft Technology Licensing, Llc Contextual user interface
US9800532B2 (en) 2012-06-04 2017-10-24 International Business Machines Corporation Intelligent presentation of multiple proximate audible alerts
US10156455B2 (en) * 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
KR102071692B1 (ko) 2012-06-11 2020-01-31 삼성전자주식회사 모바일 디바이스 및 그 제어 방법
US20130332358A1 (en) 2012-06-12 2013-12-12 Ebay, Inc. Fraud detection system
KR101941510B1 (ko) 2012-06-13 2019-01-23 삼성전자주식회사 전력 소모를 줄이기 위한 방법 및 그 전자 장치
CN102695302B (zh) 2012-06-15 2014-12-24 吴芳 用于扩展便携终端电子设备移动通信功能的系统和方法
US8949363B2 (en) * 2012-06-19 2015-02-03 Blackberry Limited Delayed or suspended alerts with multiple devices in proximity
US20130347018A1 (en) 2012-06-21 2013-12-26 Amazon Technologies, Inc. Providing supplemental content with active media
US20130346922A1 (en) 2012-06-26 2013-12-26 Google Inc. Insitu actions within presentation of notifications
US9461833B1 (en) * 2012-07-13 2016-10-04 Google Inc. Coalesced notifications for social groups
CN102799382A (zh) 2012-07-16 2012-11-28 华为终端有限公司 用户设备的系统栏的控制方法和用户设备
US8666361B2 (en) 2012-07-17 2014-03-04 Blackberry Limited System and method of providing information access on a portable device
EP2688283B1 (de) 2012-07-20 2020-03-18 BlackBerry Limited Dynamische Anpassung eines relevanten Bereichs und Bildaufnahmevorrichtung damit
US9953584B2 (en) 2012-07-24 2018-04-24 Nook Digital, Llc Lighting techniques for display devices
US9560006B2 (en) 2012-07-26 2017-01-31 Google Inc. Method and apparatus for expiring messages in electronic communications
CN103581413A (zh) * 2012-08-01 2014-02-12 中兴通讯股份有限公司 一种会话管理方法及终端
US20140036099A1 (en) 2012-08-03 2014-02-06 Be Labs, Llc Automated Scanning
US9779396B2 (en) 2012-08-14 2017-10-03 Chijioke Chukwuemeka UZO Method of making mobile payments to a recipient lacking a wireless or contactless terminal
CN103596126A (zh) 2012-08-15 2014-02-19 中兴通讯股份有限公司 一种个性化的增强服务方法及网络侧设备及移动用户设备
CN102843681A (zh) 2012-08-15 2012-12-26 腾讯科技(深圳)有限公司 信息交互方法和装置
US20140058935A1 (en) 2012-08-21 2014-02-27 Noel Mijares Mobile contactless digital watch payment
US20140058873A1 (en) * 2012-08-22 2014-02-27 Scanavo North America Ltd. Virtual packaging and electronic gifting system and methodology
CA3202407A1 (en) 2012-08-24 2014-02-27 Samsung Electronics Co., Ltd. Apparatus and method for providing interaction information by using image on device display
KR102020335B1 (ko) 2012-08-27 2019-09-10 삼성전자 주식회사 메시지 운용 방법 및 이를 지원하는 단말기
KR101901919B1 (ko) 2012-08-27 2018-09-27 삼성전자주식회사 휴대 단말기 및 메신저 영상 서비스 운용 방법
US8787888B2 (en) 2012-08-29 2014-07-22 Facebook, Inc. Sharing location information during a communication session
KR101399112B1 (ko) 2012-08-31 2014-05-30 주식회사 팬택 휴대용 전자 기기 및 이를 위한 배터리 관리 방법
US8826415B2 (en) 2012-09-04 2014-09-02 Apple Inc. Automated device access
US9131332B2 (en) 2012-09-10 2015-09-08 Qualcomm Incorporated Method of providing call control information from a mobile phone to a peripheral device
JP5884689B2 (ja) * 2012-09-11 2016-03-15 カシオ計算機株式会社 携帯機器及びその制御方法、並びに、携帯機器の制御プログラム
US8823507B1 (en) 2012-09-19 2014-09-02 Amazon Technologies, Inc. Variable notification alerts
US10042603B2 (en) 2012-09-20 2018-08-07 Samsung Electronics Co., Ltd. Context aware service provision method and apparatus of user device
KR102013443B1 (ko) 2012-09-25 2019-08-22 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
EP2717552A1 (de) 2012-10-04 2014-04-09 Nagravision S.A. Tragbare Nahkommunikationsvorrichtung
US9792035B2 (en) 2012-10-09 2017-10-17 Mastercard International Incorporated System and method for payment using a mobile device
US8745755B2 (en) 2012-10-12 2014-06-03 Citrix Systems, Inc. Controlling device access to enterprise resources in an orchestration framework for connected devices
US10158391B2 (en) * 2012-10-15 2018-12-18 Qualcomm Incorporated Wireless area network enabled mobile device accessory
US8942420B2 (en) 2012-10-18 2015-01-27 Qualcomm Incorporated Detecting embossed characters on form factor
KR20140051640A (ko) 2012-10-23 2014-05-02 삼성전자주식회사 휴대 단말에서의 결제 수행 방법 및 장치와 그 방법에 대한 프로그램 소스를 저장한 기록 매체
WO2014065846A1 (en) 2012-10-25 2014-05-01 Blackberry Limited Electronic device and method of displaying information in response to detecting a gesture
US9152211B2 (en) 2012-10-30 2015-10-06 Google Technology Holdings LLC Electronic device with enhanced notifications
US20140129441A1 (en) 2012-11-02 2014-05-08 German Blanco Systems and methods for authorizing sensitive purchase transactions with a mobile device
US20140129007A1 (en) 2012-11-06 2014-05-08 Aliphcom General health and wellness management method and apparatus for a wellness application using data associated with a data-capable band
US9250660B2 (en) 2012-11-14 2016-02-02 Laserlock Technologies, Inc. “HOME” button with integrated user biometric sensing and verification system for mobile device
WO2014078598A1 (en) 2012-11-14 2014-05-22 invi Labs, Inc. System for and method of embedding rich media into text messages
US9628424B2 (en) * 2012-11-15 2017-04-18 Samsung Electronics Co., Ltd. Apparatus and method for sharing time-sensitive data between devices with intermittent connectivity
CA2886182C (en) 2012-11-20 2018-01-16 Ebay Inc. Environment and methods for enabling electronic transactions
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
CA2892614C (en) 2012-11-22 2021-06-08 8303142 Canada Inc. System and method for managing several mobile devices simultaneously
JP6144354B2 (ja) * 2012-11-28 2017-06-07 モントレー・ラドー・エス アー 携帯用タッチ式電子物品
US9549323B2 (en) 2012-12-03 2017-01-17 Samsung Electronics Co., Ltd. Method and mobile terminal for controlling screen lock
JP6075055B2 (ja) * 2012-12-20 2017-02-08 カシオ計算機株式会社 表示端末装置、情報表示システム、情報表示制御方法、及び、プログラム
JP5796789B2 (ja) 2012-12-20 2015-10-21 カシオ計算機株式会社 情報処理システムにおける無線端末、無線端末による携帯情報端末の起動方法
US9769106B2 (en) 2012-12-28 2017-09-19 Intel Corporation Displaying notifications on a mobile computing device
WO2014105276A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for transitioning between touch input to display output relationships
US20140189533A1 (en) * 2012-12-30 2014-07-03 Avaya Inc. Dynamic notification system and method
US20140187856A1 (en) 2012-12-31 2014-07-03 Lee D. Holoien Control System For Modular Imaging Device
WO2014120948A1 (en) * 2013-01-30 2014-08-07 Whoozat Inc. Systems and methods for location-based group tracking and notifications
CN103199311B (zh) 2013-02-05 2015-08-12 北京奇虎科技有限公司 便携式电子产品的电池省电方法、设备及移动终端
KR102097495B1 (ko) 2013-02-06 2020-04-06 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
JP2014165663A (ja) * 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
US10122827B2 (en) 2013-02-25 2018-11-06 Microsoft Technology Licensing, Llc Interaction between devices displaying application status information
US20140279554A1 (en) 2013-03-12 2014-09-18 Seth Priebatsch Distributed authenticity verification for consumer payment transactions
FI20135248L (fi) 2013-03-14 2014-09-15 Op Palvelut Oy Mobiililaite transaktioinformaation kera
US20140279728A1 (en) * 2013-03-15 2014-09-18 Gary Skole System and Method for Caring for a Person Afflicted with Dementia
US9183371B2 (en) 2013-03-15 2015-11-10 Tyfone, Inc. Personal digital identity device with microphone
CN103207674B (zh) 2013-03-21 2016-06-22 苏州展科光电科技有限公司 基于体感技术的电子演示系统
WO2014157893A1 (en) 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for providing a private page
JP6052004B2 (ja) 2013-03-27 2016-12-27 富士通株式会社 端末装置および端末制御プログラム
KR102171444B1 (ko) 2013-04-22 2020-10-29 엘지전자 주식회사 스마트 워치 및 제어 방법
CN103260059B (zh) 2013-04-26 2016-03-30 华为技术有限公司 控制机顶盒设备、位置信息确定和信息发布的方法和设备
US9075612B2 (en) 2013-05-10 2015-07-07 Jinrong Yang System and method for managing display power consumption
US10019710B2 (en) 2013-05-16 2018-07-10 Avant-Garde Ip Llc System, method and article of manufacture to facilitate a financial transaction without unlocking a mobile device
US9300617B2 (en) 2013-05-17 2016-03-29 Blackberry Limited Method and device for graphical indicator of electronic messages
US20140365944A1 (en) 2013-06-09 2014-12-11 Apple Inc. Location-Based Application Recommendations
EP3014406A4 (de) * 2013-06-27 2017-01-04 Hewlett-Packard Enterprise Development LP Vorrichtung zur anzeige der von kommunikationsdiensten empfangenen elektronischen kommunikation
US9338116B2 (en) * 2013-06-28 2016-05-10 Blackberry Limited Device and method for displaying and interacting with display objects
US20150012417A1 (en) 2013-07-08 2015-01-08 Raymond Anthony Joao Apparatus and method for providing transaction security and/or account security
US9254633B2 (en) 2013-07-09 2016-02-09 Apple Inc. Environmental seal maximizing sensor space beneath a button positioned in trim
KR101474467B1 (ko) * 2013-07-09 2014-12-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
CN103440247A (zh) 2013-07-19 2013-12-11 张佳佩 发送照片的方法及其设备
US9419935B2 (en) 2013-08-02 2016-08-16 Whatsapp Inc. Voice communications with real-time status notifications
KR102047703B1 (ko) 2013-08-09 2019-11-22 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9100944B2 (en) 2013-08-28 2015-08-04 Qualcomm Incorporated Wireless connecting mobile devices and wearable devices
KR102194795B1 (ko) 2013-08-29 2020-12-23 삼성전자주식회사 전력 제어를 위한 전자 장치 및 방법
KR101670808B1 (ko) 2013-09-03 2016-10-31 삼성전자주식회사 알림을 제공하는 방법 및 그 전자 장치
US10143425B1 (en) 2013-09-09 2018-12-04 Scanadu Incorporated Methods of data acquisition quality and data fusion for personal portable wireless vital signs scanner
CN203520050U (zh) 2013-09-09 2014-04-02 李晓 具有超级电容的智能手表
WO2015038684A1 (en) * 2013-09-10 2015-03-19 Polyera Corporation Attachable article with signaling, split display and messaging features
US9959431B2 (en) * 2013-09-16 2018-05-01 Google Technology Holdings LLC Method and apparatus for displaying potentially private information
KR102109617B1 (ko) 2013-09-16 2020-05-13 주식회사 팬택 지문 인식기를 구비한 단말 및 이 지문 인식기를 통한 사용자 입력의 처리 방법
CN103500079A (zh) 2013-09-17 2014-01-08 小米科技有限责任公司 通知消息显示方法、装置及电子设备
CN103576902A (zh) 2013-09-18 2014-02-12 酷派软件技术(深圳)有限公司 控制终端设备的方法及系统
US9723354B2 (en) 2013-09-20 2017-08-01 Echostar Technologies L.L.C. Wireless tuner sharing
US9727752B2 (en) 2013-09-25 2017-08-08 Kairos Social Solutions, Inc. Device, system, and method of identifying a specific user from a profile image containing multiple people
US20150100537A1 (en) 2013-10-03 2015-04-09 Microsoft Corporation Emoji for Text Predictions
US9230486B2 (en) 2013-10-10 2016-01-05 Google Technology Holdings LLC Method and apparatus for displaying content on a display of an electronic device during different device operating modes
KR102125834B1 (ko) 2013-11-29 2020-06-23 삼성전자주식회사 모바일 단말기 및 그의 전력 관리 방법
CN103677520B (zh) 2013-12-04 2017-07-21 深圳市朗强科技有限公司 基于Android平台的应用程序评论方法及装置
KR102114616B1 (ko) 2013-12-06 2020-05-25 엘지전자 주식회사 스마트 와치 및 제어 방법
US9785794B2 (en) 2013-12-12 2017-10-10 Citrix Systems, Inc. Securing sensitive data on a mobile device
JP6644466B2 (ja) 2013-12-31 2020-02-12 イマージョン コーポレーションImmersion Corporation 触覚通知を提供するシステム及び方法
US10033679B2 (en) 2013-12-31 2018-07-24 Google Llc Systems and methods for displaying unseen labels in a clustering in-box environment
US8811951B1 (en) 2014-01-07 2014-08-19 Google Inc. Managing display of private information
WO2015107681A1 (ja) 2014-01-17 2015-07-23 任天堂株式会社 情報処理システム、情報処理サーバ、情報処理プログラム、および情報提供方法
CN104811423B (zh) 2014-01-24 2019-03-01 腾讯科技(深圳)有限公司 位置信息的共享方法和装置
US10013601B2 (en) * 2014-02-05 2018-07-03 Facebook, Inc. Ideograms for captured expressions
US20160012465A1 (en) 2014-02-08 2016-01-14 Jeffrey A. Sharp System and method for distributing, receiving, and using funds or credits and apparatus thereof
US20150227245A1 (en) * 2014-02-10 2015-08-13 Polyera Corporation Attachable Device with Flexible Electronic Display Orientation Detection
CN103793075B (zh) 2014-02-14 2017-02-15 北京君正集成电路股份有限公司 一种应用在智能手表上的识别方法
US9483529B1 (en) 2014-02-14 2016-11-01 Twitter, Inc. Selection and presentation of unviewed messages
US9031812B2 (en) 2014-02-27 2015-05-12 Fitbit, Inc. Notifications on a user device based on activity detected by an activity monitoring device
US9772985B2 (en) * 2014-02-28 2017-09-26 Microsoft Technology Licensing, Llc Communications control for resource constrained devices
CN103838992B (zh) 2014-03-03 2017-07-14 宇龙计算机通信科技(深圳)有限公司 一种指纹识别方法及终端
US20150264303A1 (en) 2014-03-17 2015-09-17 Microsoft Corporation Stop Recording and Send Using a Single Action
CN104123333B (zh) 2014-03-17 2017-02-15 腾讯科技(深圳)有限公司 用于位置共享的数据处理方法和装置
EP3382443B1 (de) 2014-03-21 2023-07-26 Samsung Electronics Co., Ltd. Kopfmontierte anzeige und verfahren zu deren steuerung
US9722962B2 (en) 2014-03-21 2017-08-01 Facebook, Inc. Providing message status notifications during electronic messaging
WO2015149346A1 (en) * 2014-04-04 2015-10-08 Microsoft Technology Licensing, Llc Expandable application representation and taskbar
US20150286391A1 (en) * 2014-04-08 2015-10-08 Olio Devices, Inc. System and method for smart watch navigation
US20150301506A1 (en) 2014-04-22 2015-10-22 Fahad Koumaiha Transparent capacitive touchscreen device overlying a mechanical component
CN105005457B (zh) 2014-04-25 2019-04-09 腾讯科技(深圳)有限公司 地理位置展示方法及装置
US10845982B2 (en) 2014-04-28 2020-11-24 Facebook, Inc. Providing intelligent transcriptions of sound messages in a messaging application
KR102069629B1 (ko) 2014-05-08 2020-01-23 삼성전기주식회사 칩 전자부품 및 그 제조방법
CN103944811B (zh) * 2014-05-15 2018-09-21 广州博冠信息科技有限公司 一种邮件提示方法和设备
CN104023126B (zh) 2014-05-16 2017-01-25 北京金山安全软件有限公司 签到方法及其装置
US9614804B2 (en) 2014-05-16 2017-04-04 Dropbox, Inc. Managing messages based on expiration dates
CN104038256A (zh) 2014-05-28 2014-09-10 南京邮电大学 一种基于生物特征识别的nfc传输方法
CN105303372B (zh) 2014-05-29 2022-08-09 苹果公司 用于支付的用户接口
US11343335B2 (en) 2014-05-29 2022-05-24 Apple Inc. Message processing by subscriber app prior to message forwarding
US11404146B2 (en) 2014-05-30 2022-08-02 Apple Inc. Managing user information—data type extension
EP4053767A1 (de) 2014-05-30 2022-09-07 Apple Inc. Verfahren zur anzeige und auswahl von daten
WO2015183756A1 (en) 2014-05-31 2015-12-03 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
US10382378B2 (en) 2014-05-31 2019-08-13 Apple Inc. Live location sharing
EP3584671B1 (de) 2014-06-27 2022-04-27 Apple Inc. Handhabung einer kalenderanwendung in einer vorrichtung mit berührungsbildschirm
US20160036996A1 (en) 2014-08-02 2016-02-04 Sony Corporation Electronic device with static electric field sensor and related method
WO2016022496A2 (en) 2014-08-06 2016-02-11 Apple Inc. Reduced-size user interfaces for battery management
CN111210891B (zh) 2014-09-02 2023-08-25 苹果公司 身体活动和健身监视器
EP3189409B1 (de) 2014-09-02 2020-01-29 Apple Inc. Schnittstellen mit reduzierter grösse zur verwaltung von alarmen
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
WO2016036545A1 (en) * 2014-09-02 2016-03-10 Apple Inc. Reduced-size notification interface
US20160073223A1 (en) 2014-09-10 2016-03-10 Microsoft Corporation Real-time location sharing to facilitate a physical meet-up
US20160088146A1 (en) 2014-09-23 2016-03-24 Mcafee, Inc. Device lock while in motion
US20160098522A1 (en) 2014-10-07 2016-04-07 David Roey Weinstein Method and system for creating and managing permissions to send, receive and transmit patient created health data between patients and health care providers
US9648615B2 (en) 2014-12-02 2017-05-09 Cisco Technology, Inc. Location measurement optimized off-channel scanning and grouping of access points
KR102256642B1 (ko) 2014-12-04 2021-05-27 삼성전자주식회사 메시지 송수신 장치 및 메시지 송수신 방법
KR20160076264A (ko) 2014-12-22 2016-06-30 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9954991B2 (en) 2014-12-31 2018-04-24 Xiaomi Inc. Status notification method and device
AU2016209318A1 (en) 2015-01-21 2017-04-20 Dexcom, Inc. Continuous glucose monitor communication with multiple display devices
US20160224973A1 (en) 2015-02-01 2016-08-04 Apple Inc. User interface for payments
CN104567863A (zh) 2015-02-11 2015-04-29 英华达(上海)科技有限公司 智能进场导引系统与方法
US10254911B2 (en) 2015-03-08 2019-04-09 Apple Inc. Device configuration user interface
KR20160142527A (ko) 2015-06-03 2016-12-13 엘지전자 주식회사 디스플레이 장치 및 제어 방법
US9661117B2 (en) 2015-07-16 2017-05-23 Plantronics, Inc. Wearable devices for headset status and control
US10003938B2 (en) 2015-08-14 2018-06-19 Apple Inc. Easy location sharing
KR102469562B1 (ko) 2015-12-18 2022-11-22 삼성전자주식회사 개인의 전자 헬스 자료를 공유하기 위한 장치 및 방법
CN107534837B (zh) 2015-12-31 2020-06-02 华为技术有限公司 基于位置的提醒方法、指示设备、提醒设备和移动终端
US10549173B2 (en) 2016-03-28 2020-02-04 Apple Inc. Sharing updatable graphical user interface elements
JP6490023B2 (ja) 2016-03-30 2019-03-27 富士フイルム株式会社 生体情報通信装置、サーバ、生体情報通信方法及び生体情報通信プログラム
US9769610B1 (en) 2016-05-12 2017-09-19 Google Inc. Adaptive location sharing based on proximity
US20170364637A1 (en) 2016-05-24 2017-12-21 ICmed, LLC Mobile health management database, targeted educational assistance (tea) engine, selective health care data sharing, family tree graphical user interface, and health journal social network wall feed, computer-implemented system, method and computer program product
US10817488B2 (en) 2016-09-16 2020-10-27 Oracle International Corporation Historical data representation in cloud service
US11221749B2 (en) 2016-10-31 2022-01-11 Lenovo (Singapore) Pte. Ltd. Electronic device with touchpad display
EP3602943A1 (de) 2017-03-24 2020-02-05 Intel IP Corporation Techniken zur ermöglichung einer physikalischen abwärtsstreckensteuerkanalkommunikation
GB201706543D0 (en) 2017-04-25 2017-06-07 Anitech Solutions Ltd Geo-location fences-based transient messages
US10481856B2 (en) 2017-05-15 2019-11-19 Microsoft Technology Licensing, Llc Volume adjustment on hinged multi-screen device
US10845955B2 (en) 2017-05-15 2020-11-24 Apple Inc. Displaying a scrollable list of affordances associated with physical activities
KR102390342B1 (ko) 2017-08-31 2022-04-26 삼성전자주식회사 사용자의 체중 관리를 위한 방법 및 그 전자 장치
CN110932673A (zh) 2018-09-19 2020-03-27 恩智浦美国有限公司 一种包含并联陷波滤波器的斩波稳定放大器
US11477609B2 (en) 2019-06-01 2022-10-18 Apple Inc. User interfaces for location-related communications
US11152100B2 (en) 2019-06-01 2021-10-19 Apple Inc. Health application user interfaces
US11481094B2 (en) 2019-06-01 2022-10-25 Apple Inc. User interfaces for location-related communications

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US17692A (en) 1857-06-30 Fence
US190059A (en) 1877-04-24 Improvement in screw-cutting dies
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20130040061A1 (en) 2011-08-09 2013-02-14 Kateeva, Inc. Face-down printing apparatus and method
US20130069483A1 (en) 2011-09-19 2013-03-21 Chief Land Electronic Co., Ltd. Transducer and transducer module

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11
IEEE 802.11a
IEEE 802.11ac
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Also Published As

Publication number Publication date
JP2017526073A (ja) 2017-09-07
CN205334368U (zh) 2016-06-22
CN105388998B (zh) 2019-08-27
EP3189409B1 (de) 2020-01-29
JP7198849B2 (ja) 2023-01-04
AU2017100197B4 (en) 2017-10-26
US9977579B2 (en) 2018-05-22
KR20190101510A (ko) 2019-08-30
CN105388998A (zh) 2016-03-09
NL2015354B1 (en) 2017-11-16
JP6464299B2 (ja) 2019-02-06
AU2018204430C1 (en) 2020-01-30
US20190286301A1 (en) 2019-09-19
WO2016036472A8 (en) 2017-03-30
AU2016102002A4 (en) 2016-12-15
US11379071B2 (en) 2022-07-05
CN117519533A (zh) 2024-02-06
JP6349030B2 (ja) 2018-06-27
AU2015101188B4 (en) 2016-10-20
US20220300108A1 (en) 2022-09-22
CN117519532A (zh) 2024-02-06
US20170153795A1 (en) 2017-06-01
AU2015101188A4 (en) 2015-10-08
NL2015354A (en) 2016-08-18
WO2016036472A1 (en) 2016-03-10
US20160062540A1 (en) 2016-03-03
EP3189409A1 (de) 2017-07-12
US20170147197A1 (en) 2017-05-25
KR20170029014A (ko) 2017-03-14
EP3373122A1 (de) 2018-09-12
HK1220525A1 (zh) 2017-05-05
AU2015312369B2 (en) 2018-04-05
DK201770126A1 (en) 2017-03-20
CN109062463B (zh) 2023-12-15
DK179417B1 (en) 2018-06-18
NL2019878B1 (en) 2018-08-31
EP4027227A1 (de) 2022-07-13
AU2017100197A4 (en) 2017-03-23
AU2015312369A1 (en) 2017-03-23
KR101901796B1 (ko) 2018-09-28
AU2019246830B1 (en) 2019-11-07
AU2017100198B4 (en) 2017-10-26
AU2017100198A4 (en) 2017-03-23
NL2019878A (en) 2017-12-20
DK201770125A1 (en) 2017-03-13
JP6852952B2 (ja) 2021-03-31
TWI625646B (zh) 2018-06-01
KR102143308B1 (ko) 2020-08-10
DK178964B1 (en) 2017-07-10
CN109062463A (zh) 2018-12-21
EP3373122B1 (de) 2022-04-06
JP2018152085A (ja) 2018-09-27
US9575591B2 (en) 2017-02-21
US10379714B2 (en) 2019-08-13
AU2018204430A1 (en) 2018-07-05
JP2021108132A (ja) 2021-07-29
TW201633063A (zh) 2016-09-16
DK201570550A1 (en) 2016-03-14
AU2018204430B2 (en) 2019-07-11
CN206649467U (zh) 2017-11-17
JP2019083036A (ja) 2019-05-30
KR102016160B1 (ko) 2019-08-29
JP2023051982A (ja) 2023-04-11
AU2016102002B4 (en) 2017-01-19
KR20180107296A (ko) 2018-10-01

Similar Documents

Publication Publication Date Title
DE202015006066U1 (de) Kleinere Schnittstellen zur Handhabung von Benachrichtigungen
US11782598B2 (en) Methods and interfaces for media control with dynamic feedback
DE212015000194U1 (de) Verkleinerte Benutzeroberflächen für Batteriemanagement
DE112015007285B4 (de) Monitor für physische aktivität und training
CN110622120B (zh) 语音通信方法
CN205176822U (zh) 电子设备
DE202015006141U1 (de) Elektronische Touch-Kommunikation
US20220382440A1 (en) User interfaces for managing media styles
CN115668120A (zh) 用于支持电子设备上的排定模式变化的系统、方法和用户界面
KR20210002617A (ko) 전자 디바이스 상의 시스템 사용자 인터페이스들에 대한 액세스
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
CN113939795A (zh) 用于更新主屏幕用户界面和唤醒屏幕用户界面的背景的设备、方法和图形用户界面
US20230319413A1 (en) User interfaces for camera sharing
US20230368750A1 (en) Low power display state
DE102015208532B4 (de) Verfahren, computerlesbares Speichermedium und elektronisches Gerät zum Anzeigen der Benutzung einer Anwendung auf einem externen Gerät
CN112219238A (zh) 用于电子设备上的屏幕保护程序的媒体控制

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years