DE112013002387T5 - Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle - Google Patents

Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle Download PDF

Info

Publication number
DE112013002387T5
DE112013002387T5 DE112013002387.3T DE112013002387T DE112013002387T5 DE 112013002387 T5 DE112013002387 T5 DE 112013002387T5 DE 112013002387 T DE112013002387 T DE 112013002387T DE 112013002387 T5 DE112013002387 T5 DE 112013002387T5
Authority
DE
Germany
Prior art keywords
user interface
interface object
touch
sensitive surface
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112013002387.3T
Other languages
English (en)
Inventor
c/o Apple Inc. Bernstein Jeffrey T.
c/o Apple Inc. Missig Julian K.
c/o Apple Inc. Cieplinski Avi E.
c/o Apple Inc. Khoe Mai-Li
c/o Apple Inc. Costanzo Bianca
c/o Apple Inc. Roth Rachel A.
c/o Apple Inc. Evans Matthew
c/o Apple Inc. Roberts Samuel M.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112013002387T5 publication Critical patent/DE112013002387T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Ein elektronisches Gerät mit einem berührungsempfindlichen Oberfläche und einer Anzeige eine Benutzerschnittstellenobjekt auf dem Display, erkennt einen Kontakt auf der berührungsempfindlichen Oberfläche, und erfasst eine erste Bewegung der Kontakt über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht zur Durchführung einer Operation auf der Benutzerschnittstellenobjekt, und in Reaktion auf das Erfassen des ersten Satzes ist, führt das Gerät den Betrieb und erzeugt eine erste taktile Ausgabe auf der berührungsempfindlichen Oberfläche. Das Gerät erkennt auch eine zweite Bewegung des Kontakt über die berührungsempfindliche Oberfläche, wobei die zweite entsprechende Bewegung Umkehrung der Operation auf der Benutzerschnittstellenobjekt und in Reaktion auf das Detektieren der zweiten Bewegung, kehrt das Gerät den Betrieb und erzeugt ein zweites taktiles Ausgabe auf der berührungsempfindlichen Oberfläche, wobei das zweite taktile Ausgabe von der ersten verschiedenen taktiles ausgegeben wird.

Description

  • Verwandte Anmeldungen
  • Diese Anmeldung beansprucht die Priorität der US Provisional Patentanmeldung Serien Nummer 61/778.284, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung Taktile Rückkopplung für Operationen in einem User Interface durchgeführt werden;” Vorläufigen US-Patentanmeldung Nr 61/747.278, eingereicht 29. Dezember 2012, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Manipulation von User Interface Objekte mit visuellen und/oder haptische Rückmeldung;” und der vorläufigen US-Patentanmeldung Nr 61/688.227, eingereicht am 9. Mai 2012 mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Manipulation von User Interface Objekte mit visuellen und/oder haptisches Feedback”, die Anwendungen durch Bezugnahme hierin eingeschlossen sind ihre Gesamtheit. US Provisional Patent:
    Diese Anmeldung ist auch mit dem folgenden Zusammenhang Anmeldung mit der Seriennummer 61/778.092, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für die Auswahl Objekt innerhalb einer Ansammlung von Gegenständen;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.125, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Navigation Benutzeroberfläche Hierarchien;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.156, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für die Manipulation Gerahmte Grafische Objekte;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.179, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für Scrolling Nested Regionen;” US Vorläufigen Patentanmeldung mit der Seriennummer 61/778.171, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf eine Benutzer Kontakt;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.191, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für Angezeigte Benutzeroberfläche Objekte Entsprechend einer Anwendung; ”vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.211, am 12. März 2013 eingereicht wurde, mit dem Titel” Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Erleichterung der Benutzerinteraktion mit Controls in einer Benutzerschnittstelle;” vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.239, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für Der Verzicht Erzeugung von taktilen Ausgabe für eine Multi-Contact Geste;” vorläufigen US-Patentanmeldung Nr 61/778.287, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für Senden von Feedback zum Ändern Aktivierungszustände eines User Interface Objekt;” US Vorläufigen Patentanmeldung mit der Seriennummer 61/778.363, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für die Überführung zwischen Touch Input zu Output Beziehungen Anzeige;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.367, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface zum Bewegen eines User Interface-Objekt basierend auf einer Intensität eines Presse-Eingang;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.265, am 12. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für die Überführung zwischen Anzeige Staaten in Reaktion auf eine Gesture; ”vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.373, am 12. März 2013 eingereicht wurde, mit dem Titel” Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Verwaltung Aktivierung einer Steuerung auf der Basis Kontakt Intensität; ”vorläufigen US-Patentanmeldung Serial No. 61/778.412, am 13. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für die angezeigte Inhalt verknüpft mit einer entsprechenden Affordance;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.413, am 13. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface für die Auswahl User Interface Objects;” US Vorläufigen Patentanmeldung mit der Seriennummer 61/ 778.414, am 13. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzeroberfläche für Verschieben und Löschen eines Benutzerschnittstellenobjekt;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.416, am 13. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und Graphical User Interface zur Bestimmung, ob Blättern oder Wählen Inhalt;” und US Provisional Patent Application Serial No. 61/778.418, am 13. März 2013 eingereicht wurde, mit dem Titel ”Vorrichtung, Verfahren und grafischen Benutzeroberfläche zum Umschalten zwischen Benutzerschnittstellen”, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen sind. US Provisional Patent:
    Diese Anmeldung ist auch mit dem folgenden Zusammenhang Anmeldung mit der Seriennummer 61/645.033, am 9. Mai 2012 eingereicht wurde, mit dem Titel ”Adaptive haptisches Feedback für elektronische Geräte;” Vorläufigen US-Patentanmeldung mit der Seriennummer 61/665.603, am 28. Juni 2012 eingereicht wurde, mit dem Titel ”Adaptive haptisches Feedback für elektronische Geräte;” und US Vorläufigen Patentanmeldung mit der Seriennummer 61/681.098, am B. August 2012 eingereicht wurde, mit dem Titel ”Adaptive haptisches Feedback für elektronische Geräte”, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden.
  • Technisches Gebiet
  • Dies bezieht sich allgemein auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich, aber nicht auf elektronische Vorrichtungen mit berührungsempfindlichen Flächen, die Eingaben für die Manipulation von Benutzerschnittstellen zu erfassen beschränkt.
  • HINTERGRUND
  • Die Verwendung von berührungsempfindlichen Flächen als Eingabevorrichtungen für Computer und andere elektronische Rechenvorrichtungen hat in den letzten Jahren zugenommen. Beispielhafte berührungsempfindlichen Oberflächen umfassen Touchpads und Touchscreen-Displays. Solche Oberflächen werden häufig verwendet, um Benutzerschnittstellenobjekten auf einer Anzeige zu manipulieren.
  • Beispielhafte Manipulationen gehören das Einstellen der Position und/oder Größe eines oder mehrerer Objekte der Benutzeroberfläche oder Aktivierungstasten oder Öffnen von Dateien/Anwendungen vom User-Interface-Objekte dargestellt, sowie die Metadaten eines oder mehrere Objekte der Benutzeroberfläche oder anderweitig manipulieren Benutzer Schnittstellen. Beispielhafte Objekte der Benutzeroberfläche sind digitale Bilder, Videos, Text, Symbolen, Bedienelemente wie Buttons und andere Grafiken. Ein Benutzer wird, in einigen Fällen müssen solche Manipulationen an Benutzerschnittstellenobjekten in einem Dateiverwaltungsprogramm durchführen (zB Finder von Apple Inc. aus Cupertino, Kalifornien), einer Bildverwaltungsanwendung (zB Aperture oder iPhoto von Apple Inc. Cupertino, Kalifornien), einem digitalen Inhalten (zB Videos und Musik) Management-Anwendung (zB iTunes von Apple Inc. aus Cupertino, Kalifornien), ein Zeichenprogramm, ein Präsentationsprogramm (zB Keynote von Apple Inc., Cupertino, Kalifornien), ein Textverarbeitungsprogramm (zB Seiten von Apple Inc. aus Cupertino, Kalifornien), einer Website Anwendungserstellung (zB iWeb von Apple Inc. aus Cupertino, Kalifornien), einer Festplatte-Authoring-Anwendung (zB iDVD von Apple Inc. aus Cupertino, Kalifornien), oder einem Tabellenkalkulationsprogramm (zB Zahlen von Apple Inc. aus Cupertino, Kalifornien).
  • Aber bestehenden Verfahren für diese Manipulationen sind schwerfällig und ineffizient. Darüber hinaus bestehende Methoden dauern länger als nötig, damit Energie verschwenden. Dieser letztere Aspekt ist bei batteriebetriebenen Geräten besonders wichtig.
  • ZUSAMMENFASSUNG
  • Dementsprechend besteht ein Bedarf für elektronische Vorrichtungen mit schneller, effizienter Methoden und Schnittstellen für die Manipulation von Benutzerschnittstellen. Derartige Verfahren und Schnittstellen Gegebenenfalls enthalten ergänzen oder ersetzen herkömmliche Methoden zur Manipulation Benutzeroberflächen. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Geräte, wie Methoden und Schnittstellen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen.
  • Die oben genannten Mängel und andere Probleme mit Benutzerschnittstellen für elektronische Geräte mit berührungsempfindlichen Oberflächen assoziiert werden reduziert oder durch die offenbarten Vorrichtungen eliminiert. In einigen Ausführungsformen ist die Vorrichtung ein Desktop-Computer. In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. einem Notebook-Computer, Tablet-Computer oder Handheld). In einigen Ausführungsformen weist die Vorrichtung ein Touchpad. In einigen Ausführungsformen weist die Vorrichtung eine berührungsempfindliche Display (auch als ”Touch-Screen” oder ”Touch-Screen-Display” bekannt). In einigen Ausführungsformen weist die Vorrichtung eine grafische Benutzerschnittstelle (GUI), einen oder mehrere Prozessoren, Speicher und ein oder mehrere Module, Programme oder Anweisungssätze im Speicher zum Durchführen mehrerer Funktionen gespeichert. In einigen Ausführungsformen interagiert der Benutzer mit der GUI primär durch Fingerkontakte und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen können die Funktionen wahlweise Bildbearbeitung, Zeichnen, Präsentation, Textverarbeitung, Website Erstellung, Plattenerstellung, Tabellenkalkulation machen, Spiele spielen, Telefonieren, Videokonferenzen, E-Mail, Instant Messaging, Training Support, digitale Fotografieren, digitale videoing, Web-Browsing, digitale Musik zu spielen, und/oder digitale Videospiel. Führbare Anweisungen zum Ausführen dieser Funktionen sind, gegebenenfalls in einem nicht vorübercomputerlesbaren Speichermedium oder einem anderen Computerprogrammprodukt zur Ausführung konfiguriert ist durch einen oder mehrere Prozessoren enthalten.
  • Es besteht ein Bedarf für elektronische Geräte mit Methoden und Schnittstellen zur Bereitstellung taktile Rückmeldung für den Betrieb in einer Benutzerschnittstelle durchgeführt. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückkopplung für den Betrieb in einer Benutzerschnittstelle durchgeführt. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren umfasst Anzeigen einer Benutzerschnittstellenobjekt in der Anzeige, Erkennen einer Berührung auf der berührungsempfindlichen Oberfläche, und Erfassen eines ersten Satzes der Kontakt über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht, Durchführen einer Operation auf der Benutzerschnittstellenobjekt und, in Reaktion auf das Erfassen des ersten Satzes, die Durchführung der Operation und zum Erzeugen eines ersten taktile Ausgabe auf der berührungsempfindlichen Oberfläche. Das Verfahren umfasst ferner einen zweiten Erfassungsbewegung der Kontakt über die berührungsempfindliche Oberfläche, wobei die zweite entsprechende Bewegung Umkehrung der Operation auf der Benutzerschnittstellenobjekt und in Reaktion auf das Detektieren der zweiten Bewegung, die Umkehrung der Operation und zum Erzeugen eines zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche, wobei das zweite taktile Ausgabe von der ersten verschiedenen taktiles ausgegeben wird.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit konfiguriert ist, eine Benutzerschnittstellenobjekt, eine berührungsempfindliche Oberfläche, die konfiguriert, um Benutzerkontakte zu erfassen anzuzeigen, und eine Verarbeitungseinheit mit der Anzeigeeinheit gekoppelt ist und das berührungsempfindliche Oberflächeneinheit. Die Verarbeitungseinheit konfiguriert ist, um einen Kontakt auf dem berührungsempfindlichen Oberfläche Einheit zu erfassen, erkennen eine erste Bewegung des Kontakt über die berührungsempfindliche Oberfläche Einheit des ersten Satzes entspricht, Durchführen einer Operation auf der Benutzerschnittstellenobjekt, in Reaktion auf das Detektieren der erste Satz; den Vorgang und ein erstes taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit. Die Verarbeitungseinheit ferner konfiguriert ist, um eine zweite Bewegung des Kontakt über die berührungsempfindliche Oberfläche Einheit zu erfassen, der zweite Satz entspricht Umkehrung der Operation auf der Benutzerschnittstellenobjekt und in Reaktion auf das Detektieren der zweiten Bewegung, Rückwärts den Betrieb und erzeugt einen zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche Einheit, wobei die zweite taktile Ausgabe verschieden von der ersten taktilen Ausgabe ist.
  • So, elektronische Geräte mit Displays und Touch-Oberflächen mit mehr Methoden und Schnittstellen für die Bereitstellung taktile Rückmeldung für den Betrieb in einer Benutzerschnittstelle durchgeführt, wodurch die Effektivität, Effizienz und Zufriedenheit der Nutzer mit solchen Geräten Erhöhung vorgesehen. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückkopplung für den Betrieb in einer Benutzerschnittstelle durchgeführt.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schneller, effizienter Methoden und Schnittstellen zum Anzeigen von Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche. Derartige Verfahren und Schnittstellen kann ergänzen oder ersetzen herkömmliche Verfahren zum Anzeigen von Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Geräte, wie Methoden und Schnittstellen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren umfasst: Anzeigen einer Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei: die Mehrzahl von Benutzerschnittstellenobjekten einen z-Ordnung haben, die Mehrzahl von Benutzerschnittstellenobjekten umfasst eine erste Benutzerschnittstellenobjekt und einem zweiten Benutzerschnittstellenobjekt und erste Benutzerschnittstellenobjekt ist oberhalb der zweiten Benutzerschnittstellenobjekt in der z-Ordnung; beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche, Empfangen einer Anforderung, um den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu bewegen; und in Reaktion auf die Anforderung: Bewegen des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Ordnung; in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil der zweiten Benutzerschnittstellenobjekt, Erzeugen eines taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche in Verbindung mit der zugehörigen Bewegen der ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass der erste Nutzer-Schnittstellen-Objekt nicht überlappt die zweite Benutzerschnittstellenobjekt, den Verzicht auf die Erzeugung der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit konfiguriert ist, eine Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit, in dem: die Mehrzahl von Benutzerschnittstellenobjekten einen z-Reihenfolge der Vielzahl von Benutzerschnittstellenobjekten haben umfasst eine erste Benutzerschnittstellenobjekt und einem zweiten Benutzerschnittstellenobjekt und dem ersten Benutzerschnittstellenobjekt ist oberhalb der zweiten Benutzerschnittstellenobjekt in der z-Ordnung; eine berührungsempfindliche Oberfläche Einheit konfiguriert ist, um Kontakte aufzunehmen; und eine Verarbeitungseinheit, die Anzeigeeinheit und der berührungsempfindlichen Oberfläche Einheit gekoppelt ist. Die Verarbeitungseinheit konfiguriert ist: beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche Einheit, erhalten eine Aufforderung, den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu bewegen; und als Antwort auf die Anfrage: bewegen Sie den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge; in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil der zweiten Benutzerschnittstellenobjekt, erzeugen eine taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche Einheit in Verbindung zugeordnet mit Bewegen des ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt die zweiten Benutzerschnittstellenobjekt nicht überlappen, zu verzichten Erzeugung der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert.
  • Somit elektronische Geräte mit Anzeigen und Berührungsoberflächen mit schneller, effizienter Methoden und Schnittstellen zum Anzeigen von Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche, wodurch die Effektivität, Effizienz steigt und Benutzerzufriedenheit mit solchen Vorrichtungen versehen. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für die herkömmlichen Verfahren, die Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schneller, effizienter Methoden und Schnittstellen zur Bereitstellung von Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Geräte, wie Methoden und Schnittstellen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren in einem elektronischen Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren umfasst: Anzeigen, auf der Anzeige, eine Steuerung zum Steuern eines Parameters mit den entsprechenden Inhalt verknüpft. Das Verfahren ferner umfasst: Erfassen einer Geste auf der berührungsempfindlichen Oberfläche zur Einstellung der Parameter. Das Verfahren umfasst ferner, in Reaktion auf das Detektieren der Geste: Bestimmen einer Anpassung der Parameter, der zu einem Ausmaß von der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, Erzeugen einer jeweiligen taktile Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, Durchführen der Einstellung der Parameter, ohne dass der jeweilige taktile Ausgabe auf der berührungsempfindlichen Oberfläche.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit konfiguriert ist, eine Steuerung zum Steuern eines Parameters mit den jeweiligen Inhalten zugeordnet anzuzeigen; eine berührungsempfindliche Oberfläche, die konfiguriert, um Benutzerkontakte zu empfangen; und eine Verarbeitungseinheit, die Anzeigeeinheit und der berührungsempfindlichen Oberfläche Einheit gekoppelt ist. Die Verarbeitungseinheit konfiguriert ist zum: Aktivieren einer Anzeigesteuerung zum Steuern eines Parameters mit entsprechenden Inhalte auf der Anzeigeeinheit zugeordnet ist; und erkennen eine Geste auf der berührungsempfindlichen Oberfläche Einheit zur Einstellung der Parameter. Die Verarbeitungseinheit ferner zum Erfassen der Geste konfiguriert, in Reaktion: Bestimmung einer Anpassung des Parameters, der in einem Umfang der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, erzeugen jeweils eine taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit; und in Übereinstimmung mit einer Bestimmung, dass die Einstellung der Parameter nicht zu einer Überschreitung der eine oder mehrere vordefinierte Eingabegrenzen, die Einstellung der Parameter durchführen, ohne dass die jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche Einheit.
  • Somit elektronischen Geräten mit Displays, berührungsempfindliche Flächen mit schneller, effizienter Methoden und Schnittstellen zur Bereitstellung von Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen, wodurch die Effektivität, Effizienz Erhöhung vorgesehen ist, und die Zufriedenheit der Nutzer mit solchen Geräten. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen.
  • Es besteht ein Bedarf für elektronische Geräte mit Methoden und Schnittstellen zur Bereitstellung von Rückmeldungen, die einer Uhr. Derartige Verfahren und Schnittstellen kann ergänzen oder ersetzen herkömmliche Verfahren zum Anzeigen einer Uhr. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Geräte, wie Methoden und Schnittstellen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren umfasst Anzeigen einer Darstellung einer Uhr auf der Anzeige, Erfassen einer Bewegung einer Fokuswähler über die Darstellung der Uhr; während Detektieren des Fokuswahlschalter über die Darstellung der Uhr, die Bereitstellung taktiler Rückmeldung, die auf den Takt, in dem die taktile Rückmeldung beinhaltet ein regelmäßiges Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche entspricht. Das Verfahren umfasst ferner, während die Bereitstellung der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Wahl weg von der Darstellung der Uhr, und in Reaktion auf die Erkennung der Bewegung des Fokus-Wahlschalter von der Darstellung der Uhr, aufzuhören, die taktile Rückmeldung entsprechend liefern um die Uhr.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit konfiguriert ist, um eine Darstellung einer Uhr, einer berührungsempfindlichen Oberfläche Einheit anzuzeigen, und eine Verarbeitungseinheit der Anzeigeeinheit und der berührungsempfindlichen Oberfläche Einheit gekoppelt ist. Die Verarbeitungseinheit konfiguriert ist: Bewegung eines Fokus-Wahlschalter erfassen über die Darstellung der Uhr, während Detektieren des Fokuswahlschalter über die Darstellung der Uhr, eine taktile Rückmeldung, die auf den Takt, in dem die taktile Rückmeldung beinhaltet ein regelmäßiges Muster von entspricht taktile Ausgänge auf der berührungsempfindlichen Oberfläche Einheit. Die Verarbeitungseinheit ferner ausgebildet ist, und bietet gleichzeitig die taktile Rückmeldung, erfassen die Bewegung des Fokus-Wahlschalter von der Darstellung der Uhr, und in Reaktion auf die Erkennung der Bewegung des Fokus-Wahlschalter von der Darstellung der Uhr, nicht mehr die liefern taktile Rückmeldung, die der Uhr.
  • So, elektronische Geräte mit Displays und Touch-Oberflächen mit mehreren Verfahren und Schnittstellen für Rückmeldungen, die einer Uhr, wodurch die Effektivität, Effizienz und Zufriedenheit der Nutzer mit solchen Geräten Erhöhung vorgesehen. Derartige Verfahren und Schnittstellen kann ergänzen oder ersetzen herkömmliche Verfahren zur Bereitstellung von Feedback entsprechend einer Uhr.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schneller, effizienter Methoden und Schnittstellen zur Bereitstellung von Rückmeldungen, die Schläge eines Musikstücks entspricht. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückkopplung, die Schläge eines Musikstücks entspricht. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer zu erzeugen, und eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Geräte, wie Methoden und Schnittstellen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren in einem elektronischen Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche durchgeführt. Das Verfahren umfasst Anzeigen einer Darstellung eines Musikstückes auf der Anzeige. Das Verfahren umfasst ferner Erfassen einer Bewegung einer Fokuswähler über die Darstellung des Musikstückes. Das Verfahren ferner umfasst, während Detektieren des Fokuswähler über die Darstellung des Musikstücks, wodurch eine taktile Rückmeldung, die auf mindestens einer Teilmenge der Schläge des Musikstücks entspricht. Das Verfahren umfasst ferner, nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Wahl weg von der Darstellung des Musikstückes. Das Verfahren umfasst ferner, in Reaktion auf das Erfassen der Bewegung des Fokuswähler von der Darstellung des Musikstücks, aufzuhören, die taktile Rückkopplung, die den Takt der Musikstück entspricht, bereitzustellen.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit konfiguriert ist, um eine Darstellung eines Musikstücks angezeigt werden; eine berührungsempfindliche Oberfläche, die konfiguriert, um Benutzerkontakte zu empfangen; und eine Verarbeitungseinheit, die Anzeigeeinheit und der berührungsempfindlichen Oberfläche Einheit gekoppelt ist. Die Verarbeitungseinheit konfiguriert ist zum: Aktivieren Anzeige einer Darstellung eines Musikstücks; und Bewegung eines Fokus-Wahlschalter erfassen über die Darstellung des Musikstückes. Die Verarbeitungseinheit ferner konfiguriert ist, wobei Detektieren des Fokuswähler über die Darstellung des Musikstücks, eine taktile Rückmeldung, die auf mindestens einem Teilsatz der Schläge des Musikstücks entspricht. Die Verarbeitungseinheit ferner konfiguriert ist zum, nach dem Bereitstellen der taktilen Rückkopplung zu erfassen Bewegung des Fokuswähler von der Darstellung des Musikstückes. Die Verarbeitungseinheit ferner zum Erfassen der Bewegung des Fokuswähler von der Darstellung des Musikstücks konfiguriert ist, in Reaktion darauf einzustellen, um die taktile Rückkopplung, die den Takt der Musikstück entspricht, bereitzustellen.
  • So, elektronische Geräte mit Displays, berührungsempfindliche Oberflächen mit schneller, effizienter Methoden und Schnittstellen für Rückmeldungen, die Beats von einem Musikstück, entspricht bereitgestellt wodurch die Effektivität, Effizienz und Zufriedenheit der Nutzer mit solchen Geräten Erhöhung. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz für den herkömmlichen Verfahren eine Rückkopplung, die Schläge eines Musikstücks entspricht.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, eine Anzeige, eine berührungsempfindliche Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche, einen oder mehrere Prozessoren, Speicher und ein oder mehrere erfassen Programme; die ein oder mehrere Programme sind im Speicher gespeichert und konfiguriert, durch den einen oder die mehreren Prozessoren ausgeführt werden, und die ein oder mehrere Programme umfassen Anweisungen zum Ausführen der Operationen nach einem der in Absatz [0058] genannten Verfahren. In Übereinstimmung mit einigen Ausführungsformen eine grafische Benutzerschnittstelle auf einem elektronischen Gerät mit einer Anzeige, eine berührungsempfindliche Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche, einen Speicher und einen oder mehrere Prozessoren zu erfassen, Ausführen eines oder mehrere Programme im Speicher abgelegt umfasst einen oder mehrere der in einem der Verfahren in Absatz [0058] bezeichnet, die als Reaktion auf Eingaben aktualisiert werden angezeigt Elemente, wie in einem der in Absatz genannten Methoden beschrieben [0058]. In Übereinstimmung mit einigen Ausführungsformen ist ein computerlesbares Speichermedium darin Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einem Display, einer berührungsempfindlichen Oberfläche ausgeführt wird, und gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu detektieren gespeichert, führen Sie das Gerät, um die Operationen von einem der in Absatz [0058] genannten Methoden durchzuführen. In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung: eine Anzeige, eine berührungsempfindliche Oberfläche, und wahlweise einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Durchführen der Operationen eine der in Absatz [0058] genannten Methoden. In Übereinstimmung mit einigen Ausführungsformen einer Informationsverarbeitungsvorrichtung zur Verwendung in einem elektronischen Gerät mit einer Anzeige und einer berührungsempfindlichen Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Fläche zu erfassen, eine Einrichtung zum Durchführen der Operationen von einem der in Absatz [0058] genannten Methoden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Zum besseren Verständnis der verschiedenen beschriebenen Ausführungsformen, sei auf die Beschreibung der Ausführungsformen unten mit den folgenden Zeichnungen, in denen gleiche Bezugszeichen sich auf entsprechende Teile in den Figuren Bezug genommen werden, in Verbindung.
  • 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit einigen Ausführungsformen.
  • IB ist ein Blockdiagramm, das beispielhafte Komponenten für die Ereignisverarbeitung in Übereinstimmung mit einigen Ausführungsformen.
  • 2 zeigt eine tragbare Multifunktionsgerät mit einem Touchscreen in Übereinstimmung mit einigen Ausführungsformen.
  • 3 zeigt ein Blockdiagramm eines beispielhaften Multifunktionsgerät mit einem Display und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B zeigt eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen Oberfläche, die getrennt von der Anzeige in Übereinstimmung mit einigen Ausführungsformen.
  • Die 5A bis 5O zeigen beispielhafte Benutzerschnittstellen zum Bereitstellen von taktilen Feedback für den Betrieb in einer Benutzerschnittstelle in Übereinstimmung mit einigen Ausführungsformen durchgeführt.
  • Die 6A bis 6C sind Flussdiagramme, die ein Verfahren zum Bereitstellen einer taktilen Rückkopplung für den Betrieb in einer Benutzerschnittstelle in Übereinstimmung mit einigen Ausführungsformen durchgeführt.
  • 7 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 8A8S beispielhafte Benutzerschnittstellen zum Anzeigen von Änderungen in z-Reihenfolge der Benutzerschnittstellenobjekten in Übereinstimmung mit einigen Ausführungsformen.
  • 9A9D sind Flußdiagramme, die ein Verfahren zum Anzeigen von Änderungen in der z-Reihenfolge der Benutzerschnittstellenobjekten in Übereinstimmung mit einigen Ausführungsformen.
  • 10 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 1lA1IT beispielhafte Benutzerschnittstellen für eine Rückmeldung, wenn eine Aktion in der Einstellung der Parameter über einen vorgegebenen Grenzwert in Übereinstimmung mit einigen Ausführungsformen ergeben.
  • Die 12A12B sind Fließdiagramme, die ein Verfahren zum Bereitstellen einer Rückkopplung, wenn eine Aktion in der Einstellung der Parameter über einen vorgegebenen Grenzwert in Übereinstimmung mit einigen Ausführungsformen ergeben.
  • 13 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 14A bis 14J veranschaulichen beispielhafte Benutzerschnittstellen zum Bereitstellen taktiler Rückmeldung entsprechend einem Takt in Übereinstimmung mit einigen Ausführungsformen.
  • Die 15A15B sind Fließdiagramme, die ein Verfahren zum Bereitstellen einer taktilen Rückkopplung entsprechend einem Takt in Übereinstimmung mit einigen Ausführungsformen.
  • 16 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 17A17L zeigen beispielhafte Benutzerschnittstellen für eine Rückkopplung, die Takte eines Musikstücks in Übereinstimmung mit einigen Ausführungsformen entspricht.
  • 17M17O zeigen beispielhafte Wellenformen von Bewegungsprofilen zur Erzeugung taktiler Ausgänge in Übereinstimmung mit einigen Ausführungsformen.
  • Die 18A18B sind Fließdiagramme, die ein Verfahren zum Bereitstellen einer Rückkopplung, die Schläge von einem Musikstück entspricht, mit einigen entsprechend Ausführungsformen.
  • 19 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die Verfahren, Vorrichtungen und beschriebenen bieten visuelle und/oder haptische Feedback, das macht Manipulation von Benutzerschnittstellenobjekten effizienter und intuitiv für einen Benutzer GUIs. Zum Beispiel in einem System, wo das Klickwirkung einer Trackpad von der Kontaktintensität entkoppelt (z. B. Kontaktkraft, Kontaktdruck oder ein Ersatz dafür), die erforderlich ist, um eine Aktivierungsschwelle zu erreichen, kann die Vorrichtung unterschiedliche fühlbare Ausgänge zu erzeugen (z. B. ”verschiedene Klicks”) für verschiedene Aktivierungsereignisse (z. B. so, dass Klicks, die ein bestimmtes Ergebnis zu erreichen sind aus Klicks, die kein Ergebnis produzieren, oder dass ein anderes Ergebnis aus dem jeweiligen Ergebnis zu erreichen) differenziert. Zusätzlich kann fühlbare Ausgänge als Reaktion auf andere Ereignisse, die nicht zur Erhöhung der Intensität eines Kontakts verbunden sind, wie das Erzeugen eines taktilen Ausgabe (z. B. ein ”Rast”), wenn ein Anwenderschnittstellenobjekt zu einer bestimmten Position bewegt wird Grenze erzeugt werden oder Orientierung oder wenn ein Ereignis am Gerät.
  • Zusätzlich kann in einem System, wo ein Trackpad oder Touch-Screen-Display ist empfindlich gegenüber einer Reihe von Kontakt Intensität, die mehr als eine oder zwei bestimmte Intensitätswerte enthält (beispielsweise mehr als ein einfaches Ein/Aus, binären Intensitätsbestimmung) die Benutzerschnittstelle bereitzustellen Reaktionen (z. B. visuelle oder taktile Signale), die indikativ für die Intensität des Kontaktes innerhalb der Reichweite sind. In einigen Implementierungen wird eine Voraktivierung-Schwellenreaktion und/oder ein post-Aktivierungsschwellenwert als Reaktion auf eine Eingabe als kontinuierliche Animation angezeigt. Als ein Beispiel einer solchen Reaktion wird ein Vorschau einer Operation in Reaktion auf Erfassung einer Zunahme des Kontaktintensität, die noch unterhalb einer Aktivierungsschwelle für die Durchführung der Operation angezeigt. Als weiteres Beispiel für eine solche Reaktion, eine Animation mit einer Operation zugeordnet wird fortgesetzt, auch nachdem die Aktivierungsschwelle für den Betrieb erreicht wurde. Beide Beispiele geben einen Benutzer mit einer kontinuierlichen Reaktion auf die Kraft oder den Druck der Berührung eines Benutzers, der ein Benutzer eine visuelle und/oder haptische Rückmeldungen, die reicher und intuitiv bietet. Genauer gesagt, geben solche Dauerkraft Reaktionen der Anwender die Erfahrung des Seins ”durch” eine vordefinierte Benutzeroberfläche Zustand in den Betrieb entsprechend der Lage sein, drücken Sie leicht, um eine Operation und/oder drücken Sie tief ”Vergangenheit” oder drücken Sie in der Vorschau.
  • Zusätzlich kann für eine Vorrichtung mit einer berührungsempfindlichen Oberfläche, die gegenüber einem Bereich der Kontaktintensität ist, mehrere Kontaktintensitätsschwellen von der Vorrichtung überwacht werden kann und verschiedene Funktionen zu unterschiedlichen Kontaktintensitätsschwellen zugeordnet werden. Dies dient dazu, die verfügbare ”Geste Raum” bietet einfachen Zugang zu erweiterten Funktionen für Benutzer, die wissen, dass die Erhöhung der Intensität eines Kontakts bei oder jenseits eines zweiten ”tief drücken” Intensitätsschwelle wird das Gerät zu veranlassen, eine andere Operation von einer Operation durchführen zu erhöhen die durchgeführt werden würde, wenn die Intensität des Kontaktes zwischen einer ersten ”Aktivierung” Intensitätsschwelle und die zweite ”tief drücken” Intensitätsschwelle. Ein Vorteil der Zuweisung zusätzlicher Funktionalität zu einem zweiten ”tief drücken” Intensitätsschwelle, während bei einer ersten ”Aktivierung” Intensitätsschwelle beibehalten vertraute Funktionalität ist, dass unerfahrene Nutzer, sind unter Umständen durch die zusätzliche Funktionalität zu verwechseln kann die vertraute Funktionalität nur nutzen Anlegen einer Intensität bis zum ersten ”Aktivierung” Intensitätsschwelle, während erfahrene Anwender können die Vorteile der zusätzlichen Funktionen, indem eine Intensität an der zweiten ”deep drücke” Intensitätsschwelle zu nehmen.
  • Zusätzlich wird für ein Gerät mit einem berührungsempfindlichen Oberfläche, die empfindlich auf eine Reihe von Kontaktintensität ist, kann das Gerät zusätzliche Funktionen, indem Benutzer auf komplexe Operationen mit einem einzigen kontinuierlichen Kontakt wahrnehmen können. Zum Beispiel, wenn eine Gruppe von Objekten, kann ein Benutzer einen kontinuierlichen Kontakt rund um die berührungsempfindliche Oberfläche bewegen und können beim Ziehen (z. B. Anlegen einer Intensität größer als ein ”tief drücken” Intensitätsschwelle), um zusätzliche Elemente, um eine hinzuzufügen, drücken Auswahl. Auf diese Weise kann ein Benutzer intuitiv mit einer Benutzerschnittstelle in dem Press schwieriger mit einem Kontakt bewirkt Objekte in der Benutzerschnittstelle ”klebriger sein interagieren.” Eine Anzahl unterschiedlicher Ansätze für eine intuitive Benutzerschnittstelle auf einer Vorrichtung, bei der ein Klickwirkung aus der Kraft, die erforderlich ist, um eine Aktivierungsschwelle und/oder die Vorrichtung zu erreichen entkoppelt ist empfindlich gegenüber einer Vielzahl von Kontaktintensitäten werden beschrieben unten. Verwendung einer oder mehrerer dieser Ansätze (gegebenenfalls in Verbindung miteinander) hilft, eine Benutzeroberfläche, die intuitiv bietet Benutzern zusätzliche Informationen und Funktionen, wodurch die kognitive Belastung des Benutzers verringert und eine Verbesserung der Mensch-Maschine-Schnittstelle bereitzustellen. Derartige Verbesserungen in der Mensch-Maschine-Schnittstelle können Benutzer, die Vorrichtung schneller und effizienter zu nutzen. Für batteriebetriebene Geräte, diese Verbesserungen sparen Energie und erhöhen die Zeit der Akku wieder aufgeladen. Zur Vereinfachung der Erläuterung, Systeme, Verfahren und Benutzerschnittstellen für mit erläuternden Beispielen einiger dieser Ansätze werden nachstehend wie folgt beschrieben: – Viele elektronische Geräte verfügen über grafische Benutzeroberflächen, die Benutzerschnittstellenobjekten gehören. Normalerweise gibt es viele Operationen, die an den Schnittstellenobjekten durchgeführt werden kann. Zum Beispiel kann ein Schnittstellenobjekt, um eine Führungslinie eingerastet oder aus einer Leitlinie entfernt werden. Einige Benutzeroberflächen visuelle Rückmeldung angibt, ob ein Betrieb durchgeführt worden ist oder umgekehrt. Jedoch in einigen Situationen kann ein Benutzer nicht bemerkt, die visuelle Rückmeldung und damit, ob die Operation durchgeführt wurde oder umgekehrt, zu verwechseln. Die nachfolgend beschriebenen Ausführungsformen verbessern diese Verfahren durch Erzeugung taktiler Ausgänge für den Benutzer entsprechend der durchgeführt wird, wodurch eine bequeme und effiziente Benutzerschnittoperationen. Insbesondere 5A–5O veranschaulichen beispielhafte Benutzerschnittstellen zum Bereitstellen taktiler Rückmeldung für den Betrieb in einer Benutzerschnittstelle durchgeführt. 6A bis 6C sind Flussdiagramme, die ein Verfahren zum Bereitstellen von taktilen Feedback für den Betrieb in einer Benutzerschnittstelle durchgeführt. Die Benutzerschnittstellen in den 5A5O werden weiter verwendet, die nachstehend unter Bezugnahme auf die 6A bis 6C beschriebenen Verfahren veranschaulichen. – Viele elektronische Geräte Display Objekte der Benutzeroberfläche, die eine Schicht um (beispielsweise eine Z-Reihenfolge oder Front-to-Back-Reihenfolge der Objekte der Benutzeroberfläche) zu haben. In einigen Fällen interagiert der Benutzer mit solchen Objekten durch Neupositionierung sie auf der Anzeige, und überlappenden Objekte auf der Anzeige in Übereinstimmung mit ihren Vorder- und Rück Ordnung (z. B. ein Objekt, das ”vor” der andere Aufgabe ist es angezeigt, angezeigt, in dem die beiden Objekte überlappen). Zusätzlich zum Umsetzen der Objekte auf dem Display, möchte oft ein Benutzer die Vorder-an-Rücken Reihenfolge der Objekte auf der Anzeige zu ändern. In einigen Verfahren werden die Veränderungen in der z-Reihenfolge eine visuelle Rückmeldung angezeigt. Jedoch in einigen Situationen kann ein Benutzer nicht bemerkt, die visuelle Rückmeldung und damit, ob die Operation durchgeführt wurde, verwechselt werden. Die nachfolgend beschriebenen Ausführungsformen verbessern zu diesen Methoden, indem sie für die taktile Ausgänge, wenn Objekte sich gegenseitig und ihre z-Reihenfolge ändert sich überlappen, wodurch ein komfortabler und effizienter Benutzeroberfläche. Insbesondere 8A–8S beispielhafte Benutzerschnittstellen zum Anzeigen von Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche. 9A9D sind Flußdiagramme, die ein Verfahren zum Anzeigen von Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche. Die Benutzerschnittstellen in den 8A bis 8S werden verwendet, um die Prozesse in den 9A bis 9D veranschaulichen. – Viele elektronische Geräte haben graphische Benutzerschnittstellen, die Benutzerschnittstellenobjekte, die durch Einstellen eines oder mehrerer Parameter zugeordnet, wie die Größe eines Benutzerschnittstellenobjekt manipuliert werden kann, anzuzeigen. Aus praktischen Gründen haben einige dieser Parameter vorgegebenen Anpassungsgrenzen werden üblicherweise auf diese Benutzerschnittstellenobjekt zugeordnet ist, das Ausmaß begrenzen, in dem ihre Eigenschaften eingestellt werden kann. Einige Benutzeroberflächen bieten visuelle Rückmeldung, ob eine vordefinierte Einstellung Grenze überschritten wurde. Jedoch in einigen Situationen kann ein Benutzer nicht bemerkt, die visuelle Rückmeldung und damit, ob oder ob nicht die vordefinierte Einstellung überschritten wurde verwechselt werden. Die nachfolgend beschriebenen Ausführungsformen stellen verbesserte Verfahren und Benutzerschnittstellen zur Erzeugung Rückkopplung zu einem Benutzer-Navigation einer komplexen Oberfläche durch taktile Rückmeldung, wenn eine Aktion in der Anpassung der Parameter über einen vorgegebenen Verstellweg Grenze führen, wodurch eine bequeme und effiziente Benutzer Schnittstelle. Insbesondere die 11AlIT beispielhafte Benutzerschnittstellen für eine Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen. 12A12B sind Fließdiagramme, die ein Verfahren zum Bereitstellen einer Rückkopplung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen. Die Benutzerschnittstellen in den 11AlIT verwendet werden, um die Prozesse in den 12A bis 12B veranschaulichen. – Viele elektronische Geräte haben graphische Benutzerschnittstellen, die eine Darstellung einer Uhr umfassen. Gibt es oft eine Notwendigkeit, effiziente und bequeme Möglichkeiten für den Benutzer entsprechend dem Rückkopplungstakt Raum erhalten. Einige Benutzeroberflächen bieten visuelle Rückmeldung, Förderung der Zeit auf einer Uhr. Jedoch in einigen Situationen kann ein Benutzer von der Uhr schauen oder abgelenkt werden und wird nicht in der Lage, die Aufmerksamkeit auf die visuelle Rückmeldung zu bezahlen, während Ausführung einer anderen Aufgabe. Die Ausführungsbeispiele im Folgenden zu den diesen Verfahren zu verbessern, indem die Erzeugung taktiler Ausgänge für den Benutzer, der die Uhr (zB ein ”Tick Tock” Muster von taktilen Ausgänge) entsprechen, wodurch ein komfortabler und effizienter Benutzeroberfläche ermöglicht dem Benutzer zu achten um verschiedene visuelle Element während der Überwachung des Fortschritts der Zeit auf der Uhr. Insbesondere zeigen 14A bis 14J veranschaulichen beispielhafte Benutzerschnittstellen zum Bereitstellen taktiler Rückmeldung entsprechend einem Takt in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der nachstehend unter Bezugnahme auf die 15A15B beschriebenen Verfahren veranschaulichen. – Viele elektronische Geräte verfügen über grafische Benutzeroberflächen, die Anwendung anzuzeigen Fenster zeigt Darstellungen eines Musikstücks (zum Beispiel eine graphische Darstellung eines Stückes Cover für ein Album des Musikstücks, einen Bereich, der anzeigt, dass ein Musikstück, das derzeit abgespielten oder Noten eines Musikstücks in eine graphische Darstellung einer Partitur entsprechend einem Musikstück). Aufgrund der Komplexität der Benutzerschnittstellenumgebung, die Anwendungsfenster für die Anwendungen, die sowohl Audio- und visuelle Komponenten enthält (beispielsweise die Musikwiedergabe, Musikkomposition, die Videowiedergabe oder Videozusammensetzung Anwendungen), gibt es eine Notwendigkeit, Feedback zu geben, die dem Benutzer ermöglicht, mehr effizient und komfortabel über die Benutzeroberfläche Umgebung zu navigieren. Einige Benutzeroberflächen bieten visuelle Rückmeldung, Noten eines Musikstückes. Jedoch in einigen Situationen kann ein Benutzer aus dem Bereich der Benutzerschnittstelle eine visuelle Rückmeldung, Noten eines Musikstücks oder abgelenkt werden, betrachten und nicht in der Lage, die Aufmerksamkeit auf die visuelle Rückmeldung zu bezahlen, während Ausführung einer anderen Aufgabe. Die nachfolgend beschriebenen Ausführungsformen stellen verbesserte Verfahren und Benutzerschnittstellen zur Erzeugung Rückkopplung zu einem Benutzer-Navigation einer komplexen Benutzerschnittstellenumgebung durch Erzeugung taktiler Ausgaben entsprechend Noten eines Musikstücks, wodurch eine bequeme und effiziente Benutzeroberfläche es dem Benutzer zu zahlen Aufmerksamkeit auf verschiedene visuelle Element während der Überwachung die Hinweise in der Musikstück. Genauer gesagt, diese Verfahren und Benutzerschnittstellen bereitzustellen, die den Rückkopplungs Schläge eines Musikstückes auf einer Anzeige dargestellten entspricht. Unten, 17A–17L veranschaulichen beispielhafte Benutzerschnittstellen für eine Rückkopplung, die Schläge eines Musikstücks entspricht. 18A18B sind Fließdiagramme, die ein Verfahren zum Bereitstellen einer Rückkopplung, die Schläge eines Musikstücks entspricht. Die Benutzerschnittstellen in den 17A17L werden verwendet, um die Prozesse in den 18A bis 18B veranschaulichen.
  • Beispielhafte Vorrichtungen
  • Es wird nun im Detail auf Ausführungsformen, von denen Beispiele in den beigefügten Zeichnungen dargestellt ist. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Jedoch wird es offensichtlich sein für einen Fachmann, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details praktiziert werden kann. In anderen Fällen sind gut bekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben, um nicht unnötig zu verschleiern Aspekte der Ausführungsformen beschrieben worden.
  • Es wird auch verstanden werden, dass, obwohl die Ausdrücke erste, zweite usw. sind, in einigen Fällen, die hier verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Ausdrücke begrenzt sein. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erster Kontakt einen zweiten Kontakt bezeichnet werden, und in ähnlicher Weise könnte ein zweiter Kontakt einen ersten Kontakt bezeichnet werden, ohne von dem Umfang der verschiedenen beschriebenen Ausführungsformen. Der erste Kontakt und der zweite Kontakt sind beide Kontakte, aber sie sind nicht die gleichen Kontakt.
  • Die in der Beschreibung der verschiedenen beschriebenen Ausführungsformen verwendeten Terminologie hierin zum Zweck der Beschreibung bestimmter Ausführungsformen und ist nicht dazu gedacht, einschränkend zu sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den beigefügten Ansprüchen verwendet, die Singularformen ”ein”, ”eine” und ”der” sollen auch die Pluralformen umfassen, sofern der Kontext nicht eindeutig etwas anderes angibt. Es wird auch verstanden werden, dass der Begriff ”und/oder”, wie er hier verwendet wird, bezeichnet und umfasst jegliche und alle möglichen Kombinationen von einem oder mehreren der zugeordneten aufgelisteten Elemente. Es versteht sich ferner, dass die Begriffe ”umfasst”, ”enthalten”, ”umfasst” und/oder ”umfassend”, wenn er in dieser Beschreibung verwendet werden, die Anwesenheit der angegebenen Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, jedoch nicht das Vorhandensein oder Hinzufügen von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Wie hierin verwendet, bedeutet der Ausdruck ”wenn es wahlweise so ausgelegt werden, bedeuten ”when” oder ”Auf” oder ”in Antwort auf die Bestimmung” oder ”in Reaktion auf das Erfassen,” je nach Kontext. Auch die Formulierung ”wenn festgestellt wird,” oder ”,wenn [bestimmte Bedingungen oder Event] erkannt wird” ist wahlweise ausgelegt werden, ”bei der Feststellung” als Antwort auf meine oder ”Bestimmung” oder ”beim Erfassen [den angegebenen Bedingungen oder Ereignisse]” oder ”in Reaktion auf das Erkennen [den angegebenen Bedingungen oder Ereignisse],” je nach Kontext.
  • Ausführungsbeispiele der elektronischen Geräte, Benutzerschnittstellen für solche Vorrichtungen und zugehörige Verfahren zur Verwendung solcher Vorrichtungen werden beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie etwa ein Mobiltelefon, das auch andere Funktionen, wie PDA und/oder Musikspielerfunktionen. Ausführungsbeispiele der tragbaren Multifunktionsgeräte gehören, ohne Einschränkung, das iPhone (R), iPod Touch (R) und iPad (R) Geräte von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Geräte wie Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Touchscreen-Displays und/oder Touch-Pads) werden wahlweise verwendet. Es sollte auch verstanden werden, dass in einigen Ausführungsformen ist die Vorrichtung nicht eine tragbare Kommunikationsvorrichtung, sondern ist ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche (z. B. einer Berührungsbildschirmanzeige und/oder ein Berührungsfeld).
  • In der folgenden, ein elektronisches Gerät, das über ein Display und eine berührungsempfindliche Oberfläche beschrieben beinhaltet Diskussion. Es sollte jedoch verstanden werden, dass die elektronische Vorrichtung umfasst wahlweise eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen, wie eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Das Gerät unterstützt in der Regel eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der folgenden Eigenschaften: eine Zeichenanwendung, eine Präsentationsanwendung, ein Textverarbeitungsprogramm, eine Website Applikationserstellung, einen Datenträger-Authoring-Anwendung, eine Tabellenkalkulation, ein Gaming Anwendung, eine Telefonanwendung, eine Videokonferenzanwendung, wird eine E-Mail-Anwendung, ein Instant-Messaging-Anwendungen, ein Workout-Support-Anwendung, ein Foto-Management-Anwendung, eine digitale Kamera-Anwendung, eine digitale Videokamera-Anwendung, ein Web-Browsing-Anwendung, eine digitale Musik-Player-Anwendung, und/oder ein digitaler Video-Player-Anwendung.
  • Die verschiedenen Anwendungen, die auf dem Gerät ausgeführt werden, gegebenenfalls verwenden mindestens eine gemeinsame physikalische Benutzerschnittstelleneinrichtung, wie beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie entsprechende Informationen auf dem Gerät angezeigt werden, gegebenenfalls angepasst und/oder variiert von einer Anwendung zur nächsten und/ oder innerhalb einer jeweiligen Anwendung. Auf diese Weise kann eine gemeinsame physische Architektur (wie etwa die berührungsempfindliche Oberfläche) der Vorrichtung wahlweise unterstützt die Vielzahl von Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent für den Benutzer sind.
  • Es wird nun in Richtung Ausführungs von tragbaren Geräten mit berührungsempfindlichen Displays gerichtet. 1A ist ein Blockdiagramm, tragbare Multifunktionsvorrichtung 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsformen. Berührungsempfindliche Anzeige 112 wird manchmal auch als ”Touch-Screen” für die Bequemlichkeit, und wird manchmal als bekannt oder genannt ein berührungsempfindliches Display-System. Vorrichtung 100 umfasst einen Speicher 102 (der gegebenenfalls ein oder mehrere computerlesbare Speichermedien), die Speichersteuerung 122, eine oder mehrere Verarbeitungseinheiten (CPU) 120, Peripherieschnittstelle 118, RF Schaltung 108, Audioschaltung 110, Lautsprecher 111, Mikrofon 113, Eingabe/Ausgabe (I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und den externen Port 124. Vorrichtung 100 umfasst optional einen oder mehrere optische Sensoren 164. Vorrichtung 100 umfasst optional einen oder mehrere Intensitätssensoren 165 zum Erfassen der Intensität von Kontakten auf dem Gerät 100 (beispielsweise eine berührungsempfindliche Oberfläche, wie etwa berührungsempfindlichen Anzeigesystem 112 der Vorrichtung 100). Vorrichtung 100 umfasst optional einen oder mehrere taktile Ausgabeerzeuger 167 zur Erzeugung von taktilen Ausgänge Vorrichtung 100 (beispielsweise die Erzeugung taktiler Ausgänge auf einer berührungsempfindlichen Oberfläche, wie etwa berührungsempfindlichen Anzeigesystem 112 der Vorrichtung 100 oder 355 des Touchpad-Vorrichtung 300). Diese Komponenten gegebenenfalls zu kommunizieren über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und den Ansprüchen wird der Begriff ”Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet, bezieht sich auf die Kraft oder Druck (Kraft pro Flächeneinheit) eines Kontakts (zum Beispiel ein Fingerkontakt) auf dem Berührungs empfindliche Oberfläche oder auf einen Ersatz (Proxy) für die Kraft oder der Druck eines Kontakts auf der berührungsempfindlichen Oberfläche. Die Intensität eines Kontakts hat einen Bereich von Werten, die mindestens vier verschiedene Werte enthält und typischerweise enthält Hunderte von verschiedenen Werten (z. B. mindestens 256). Intensität einer Kontaktierung, gegebenenfalls, bestimmt (oder gemessen) unter Verwendung verschiedener Ansätze und verschiedene Sensoren oder Kombinationen von Sensoren. Zum Beispiel ein oder mehrere Kraftsensoren unterhalb oder benachbart zu der berührungsempfindlichen Oberfläche, wahlweise verwendet werden, um Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche zu messen. In einigen Implementierungen sind Kraftmessungen von mehreren Kraftsensoren kombiniert (beispielsweise ein gewichteter Mittelwert), um eine geschätzte Kraft einer Berührung zu bestimmen. Ähnlich wird eine druckempfindliche Spitze eines Stifts ist, gegebenenfalls verwendet werden, um einen Druck des Stiftes auf dem berührungsempfindlichen Oberfläche zu bestimmen. Alternativ kann die Größe der Kontaktfläche auf der berührungsempfindlichen Oberfläche und/oder Änderungen daran, die Kapazität der berührungsempfindlichen Fläche in der Nähe der Kontakt und/oder Änderungen daran erkannt wird, und/oder der Widerstand der berührungsempfindlichen Oberfläche nahe dem Kontakt und/oder Änderungen daran werden gegebenenfalls als Ersatz für die Kraft oder den Druck der Berührung auf der berührungsempfindlichen Fläche verwendet werden. In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder Druck direkt verwendet werden, um zu bestimmen, ob eine Intensitätsschwelle überschritten worden ist (beispielsweise wird die Intensitätsschwelle in Einheiten entsprechend den Ersatzmessungen beschrieben). In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder Druck auf einem geschätzten Kraft oder Druck und der geschätzten Kraft oder Druck verwendet, um zu bestimmen, ob eine Intensitätsschwelle überschritten wurde umgewandelt (z. B. ist die Intensitätsschwelle eine Druckschwelle in Einheiten gemessen Druck).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bedeutet der Begriff ”taktile Ausgabe” bezieht sich auf körperliche Verschiebung der Vorrichtung relativ zu einer früheren Position der Vorrichtung, körperliche Verschiebung einer Komponente (beispielsweise eine berührungsempfindliche Oberfläche) einer Vorrichtung relativ zu einer anderen Komponente (z. B. Gehäuse) der Vorrichtung oder der Verschiebung der Komponente relativ zu einem Zentrum der Masse der Vorrichtung, die von einem Benutzer mit der Tastsinn des Benutzers erkannt wird. Zum Beispiel in Situationen, in denen die Vorrichtung oder die Komponente der Vorrichtung in Kontakt mit einer Oberfläche eines Benutzers, die empfindlich auf Berührung (beispielsweise einem Finger, Handfläche, oder einem anderen Teil der Hand des Benutzers), die taktile Ausgabe erzeugt durch die physikalische Verschiebung wird von dem Benutzer als eine taktile Empfindung, die einer wahrgenommenen Änderung der physikalischen Eigenschaften der Vorrichtung oder der Komponente der Vorrichtung interpretiert werden. Zum Beispiel die Bewegung einer berührungsempfindlichen Oberfläche (z. B. ein berührungsempfindliches Display oder Trackpad) ist gegebenenfalls vom Benutzer als ”down Klick” interpretiert oder ”bis auf einer körperlichen Betätigungsknopf. In einigen Fällen wird ein Benutzer eine taktile Empfindung fühlen, wie ein ”down Klick” oder ”bis auf”, auch wenn es keine Bewegung eines physikalischen Betätigungsknopf mit der berührungsempfindlichen Oberfläche, die physisch gedrückt wird assoziiert (z. B. verschoben) durch Bewegungen des Benutzers. Als weiteres Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche, gegebenenfalls, interpretiert oder, abgetastet durch den Benutzer als ”Rauhigkeit” der berührungsempfindlichen Oberfläche, selbst wenn es keine Veränderung der Glätte der berührungsempfindlichen Oberfläche. Während solche Interpretationen der Berührung durch einen Benutzer unterliegen den individualisierten Sinneswahrnehmungen des Benutzers sein, gibt es viele Sinneswahrnehmungen der Note, die zu einem großen Mehrheit der Nutzer gemeinsam sind. Wenn somit eine taktile Ausgabe wird als entsprechend einem bestimmten Sinneswahrnehmung eines Benutzers (z. B. ein ”up Klick”, ein ”down Klick”, ”Rauhigkeit”) beschrieben, wenn nicht anders angegeben, entspricht physische Verschiebung der erzeugte taktile Ausgabe der Vorrichtung oder einer Komponente davon, daß die beschriebenen sensorischen Wahrnehmung für eine typische (oder durchschnittliche) Benutzer zu erzeugen.
  • Es sollte klar sein, dass Vorrichtung 100 ist nur ein Beispiel einer tragbaren Multifunktionsvorrichtung, und die Vorrichtung 100 wahlweise mehr oder weniger Komponenten als gezeigt ist, gegebenenfalls kombiniert zwei oder mehr Komponenten oder gegebenenfalls eine unterschiedliche Konfiguration oder Anordnung der Komponenten. Die verschiedenen in 1A gezeigten Komponenten in Hardware, Software oder einer Kombination aus Hardware und Software, einschließlich eines oder mehrerer Signalverarbeitung und/oder anwendungsspezifischen integrierten Schaltungen implementiert.
  • Der Speicher 102 umfasst wahlweise Hochgeschwindigkeits-Direktzugriffsspeicher enthält und gegebenenfalls auch nicht-flüchtigen Speicher, wie etwa eine oder mehrere Magnetplattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie etwa CPU 120 und der Peripheriegeräteschnittstelle 118 ist wahlweise durch die Speichersteuerung 122 gesteuert.
  • Peripherieschnittstelle 118 kann zur Kopplung Eingabe- und Ausgabeperipheriegeräte der Vorrichtung an die CPU 120 und der Speicher 102 verwendet werden. Der eine oder die mehreren Prozessoren 120 laufen oder verschiedene Softwareprogramme und/oder Sätze von Anweisungen im Speicher 102 gespeichert sind, um verschiedene Funktionen für die Vorrichtung 100 auszuführen und um Daten zu verarbeiten auszuführen.
  • In einigen Ausführungsformen, Peripherieschnittstelle 118, die CPU 120 und die Speichersteuerung 122 sind wahlweise auf einem einzigen Chip implementiert ist, wie Chip 104. In einigen anderen Ausführungsformen, sind sie gegebenenfalls auf getrennten Chips implementiert.
  • RF(Funkfrequenz)-Schaltung 108 empfängt und sendet RF Signale, auch elektromagnetische Signale. RF Schaltung 108 wandelt elektrische Signale in/von elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. HF-Schaltungsanordnung 108 umfasst wahlweise bekannte Schaltungsanordnung zum Ausführen dieser Funktionen, einschließlich aber nicht beschränkt auf ein Antennensystem, ein RF Transceiver, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC Chipsatz, eine begrenzte Teilnehmeridentitätsmodul(SIM)-Karte, Speicher und so weiter. RF Schaltkreis 108 wahlweise in Verbindung mit Netzwerken, wie dem Internet, auch als World Wide Web (WWW), ein Intranet und/oder einem drahtlosen Netzwerk, wie ein Mobiltelefonnetz bezeichnet, ein drahtloses lokales Netzwerk (LAN) und/oder ein Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional irgendeine einer Vielzahl von Kommunikationsstandards, Protokolle und Technologien, einschließlich aber nicht beschränkt auf Global System for Mobile Communications (GSM), Enhanced Data GSM beschränkt Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Evolution, Daten-Only (EV-DO), HSPA, HSPA+, Doppel-Cell HSPA (DC-HSDPA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b IEEE 802.11g und/oder 802.11n), Voice over Internet Protocol (VoIP), WiMAX, ein Protokoll für E-Mail (z. B. Internet Message Access Protocol (IMAP) und/oder Post Office Protocol (POP)), Instant Messaging (zB erweiterbare Messaging und Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging und Presence Service (IMPS)), und/oder Short Message Service (SMS), oder jede andere geeignete Kommunikationsprotokoll, einschließlich Kommunikationsprotokolle noch nicht zum Zeitpunkt der Einreichung dieses Dokuments entwickelt.
  • Audio-Schaltung 110, Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100. Audioschaltung 110 empfängt Audiodaten von der Peripherieschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal an den Lautsprecher 111. Lautsprecher 111 wandelt das elektrische Signal an human-hörbaren Schallwellen. Audio-Schaltung 110 empfängt auch elektrische Signale durch das Mikrofon 113 von Schallwellen umgewandelt. Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten und überträgt die Audiodaten an Peripherieschnittstelle 118 zur Verarbeitung. Audio-Daten gegebenenfalls vom abgerufenen und/oder zum Speicher 102 und/oder HF-Schaltungsanordnung 108 für die Peripheriegeräte-Schnittstelle 118 übertragen. In einigen Ausführungsformen, Audioschaltung 110 auch eine Kopfhörerbuchse (z. B. 212, 2). Der Kopfhörerausgang bietet eine Schnittstelle zwischen Audioschaltung 110 und abnehmbare Audio Eingang/Ausgang Peripheriegeräte wie nur Ausgangs-Kopfhörer oder ein Headset mit beiden Ausgangs (z. B. einen Kopfhörer für ein oder beide Ohren) und Eingabe (z. B. ein Mikrofon).
  • I/O-Subsystem 106 Paare Eingabe/Ausgabe-Peripherie auf dem Gerät 100, wie Touchscreen 112 und andere Eingabesteuereinrichtungen 116, um Peripherieschnittstelle 118. I/O-Untersystem 106 umfasst wahlweise Anzeige-Controller 156, optischen Sensorsteuereinheit 158, die Intensität Sensorsteuerung 159, haptische Rückkopplungsregler 161 und eine oder mehrere Eingabesteuerungen 160 für andere Eingabe- oder Steuervorrichtungen. Der eine oder die mehreren Eingabesteuerungen 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingangssteuergeräte 116 optional physischen Tasten (zB Taster, Wipptasten, etc.), Zifferblätter, Schiebeschaltern, Joysticks, klicken Räder, und so weiter. In einigen alternativen Ausführungsformen Eingabesteuerung(en) 160, gegebenenfalls einem (oder keine) der folgenden verbunden: eine Tastatur, Infrarotanschluss, USB-Anschluss und ein Zeigegerät wie eine Maus. Die eine oder mehrere Tasten (z. B. 208, Bild 2) wahlweise eine oben/unten-Taste zur Lautstärkeregelung des Lautsprechers in und/oder Mikrofon 113. Die eine oder mehrere Tasten wahlweise einen Taster (z. B. 206, 2).
  • Berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer. Display-Controller 156 empfängt und/oder sendet elektrische Signale von/zu Bildschirm 112 berühren. Berührungsbildschirm 112 visuelle Ausgaben an den Benutzer. Die visuelle Ausgabe enthält wahlweise Grafiken, Text, Icons, Video und jede Kombination davon (zusammengefasst als ”Grafik”). In einigen Ausführungsformen können einige oder alle der visuellen Ausgaben entspricht Benutzerschnittstellenobjekte.
  • Touchscreen 112 hat eine berührungsempfindliche Oberfläche, Sensor oder eine Reihe von Sensoren, die Eingabe vom Benutzer akzeptiert basierend auf haptische und/oder Berührungskontakt. Touch-Screen-Display-Controller 112 und 156 (zusammen mit allen zugehörigen Module und/oder Sätze von Anweisungen im Speicher 102) Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Touchscreen 112 erkennt und wandelt das detektierte Kontakt in Interaktion mit User-Interface Objekte (z. B. eine oder mehrere Funktionstasten, Icons, Web-Seiten oder Bilder), die auf dem Touchscreen 112 angezeigt werden. In einer beispielhaften Ausführungsform wird ein Kontaktpunkt zwischen den Berührungsbildschirm 112 und dem Benutzerentspricht einem Finger des Benutzers.
  • Touchscreen 112 verwendet optional LCD(Liquid Crystal Display)-Technologie, LPD (lichtemittierende Polymeranzeige) Technologie, oder LED (lichtemittierende Diode) Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet. Touch-Screen-Display-Controller 112 und 156 Wahl Kontakt und jede Bewegung oder davon brechen mit jeder aus einer Vielzahl von berührungsempfindlichen Technologien jetzt bekannt oder später entwickelt, einschließlich, aber nicht kapazitiv, resistiv, Infrarot begrenzt erfassen und akustische Oberflächenwellen-Technologien sowie wie andere Näherungssensor-Arrays oder andere Elemente für die Bestimmung einer oder mehrerer Kontaktpunkte mit Touchscreen 112. In einer beispielhaften Ausführungsform wird projiziert gegenseitigen Kapazitätssensortechnik eingesetzt, wie sie in das iPhone (R), iPod Touch (R) und iPad (R) von Apple Inc. aus Cupertino, Kalifornien gefunden.
  • Touchscreen 112 gegebenenfalls eine Videoauflösung von über 100 dpi. In einigen Ausführungsformen hat der Touchscreen eine Video-Auflösung von etwa 160 dpi. Der Benutzer Wahl macht unter Verwendung eines geeigneten Objekt oder Anhängsel, Kontakt mit Touchscreen 112 wie einem Eingabestift, einem Finger, und so weiter. In einigen Ausführungsformen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten, die weniger genau als Ritz-anhand eingegeben werden können aufgrund der größeren Kontaktfläche eines Fingers auf dem Berührungsbildschirm zu arbeiten. In einigen Ausführungsformen übersetzt die Vorrichtung die groben fingerbasierte Eingabe in eine präzise Zeiger-/Cursorposition oder einen Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen zusätzlich zu der Touchscreen-Vorrichtung 100 umfasst optional ein Touchpad (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad eine berührungsempfindliche Fläche von dem Gerät, das im Gegensatz zu den Touch-Screen, nicht visuelle Ausgabe anzuzeigen. Das Touchpad ist gegebenenfalls eine berührungsempfindliche Oberfläche, die getrennt von Touchscreen 112 oder einer Verlängerung der berührungsempfindlichen Oberfläche des Touchscreen gebildet ist.
  • Die Vorrichtung 100 umfasst auch Stromversorgungssystem 162 zur Stromversorgung der verschiedenen Komponenten. Energiesystem 162 umfasst optional ein Netzverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (AC)), ein Aufladesystem, eine Stromausfalldetektionsschaltung, einen Stromrichter oder Wechselrichter, einen Stromstatusindikator (z, eine Leuchtdiode (LED)) und jegliche anderen Komponenten bei der Erzeugung zugeordnet ist, Verwaltung und Verteilung von Macht in tragbaren Geräten.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor zum optischen Sensorcontroller 158 in I/O-Subsystem 106 gekoppelt. Optischer Sensor 164 umfasst wahlweise ladungsgekoppelte Vorrichtung (CCD) oder komplementärer Metalloxid-Halbleiter (CMOS) Phototransistoren. Optischer Sensor 164 empfängt Licht von der Umgebung durch eine oder mehrere Linsen projiziert wird, und wandelt das Licht in Daten, die ein Bild. In Verbindung mit bildgebenden Modul 143 (auch ein Kameramodul genannt), optischer Sensor 164 erfasst wahlweise Standbilder oder Video. In einigen Ausführungsformen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 gegenüber Berührungsbildschirmanzeige 112 auf der Vorderseite der Vorrichtung angeordnet, so dass die Berührungsbildschirmanzeige zur Verwendung als viewfmder für stehende und/oder Videobildaufnahme aktiviert. In einigen Ausführungsformen wird ein anderer optischer Sensor auf der Vorderseite der Vorrichtung angeordnet, so dass das Bild des Benutzers, gegebenenfalls, zum erhaltenen Videokonferenz, während der Benutzer die anderen Videokonferenzteilnehmer auf dem Touchscreen-Display.
  • Die Vorrichtung 100 umfasst wahlweise auch eine oder mehrere Kontaktintensitätssensoren 165. 1A zeigt eine Kontaktintensitätssensor Intensitätssensorsteuerung 159 in I/O-Subsystem 106 gekoppelt. Kontakt Intensitätssensor 165 umfasst wahlweise eine oder mehrere piezoresistive Dehnmessstreifen, kapazitiven Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren (z. B. Sensoren verwendet, um die Kraft zu messen (oder Druck) von einem Kontakt auf einer berührungsempfindlichen Oberfläche). Kontakt Intensitätssensor 165 empfängt Kontaktintensität Informationen (zB Druckinformationen oder einen Proxy für Druckinformation) aus der Umwelt. In einigen Ausführungsformen wird mindestens eine Kontaktintensitätssensor mit Kollokation, oder in der Nähe, einer berührungsempfindlichen Oberfläche (z. B. berührungsempfindliche Anzeigesystem 112). In einigen Ausführungsformen wird mindestens eine Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100 angeordnet ist, gegenüber Berührungsbildschirmanzeige 112, die auf der Vorderseite der Vorrichtung 100 befindet.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere Näherungssensoren 166. 1A zeigt Näherungssensor 166 bis Peripherieschnittstelle 118 gekoppelt. Alternativ wird Näherungssensor 166, um das Eingangssteuergerät 160 in I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen, schaltet der Annäherungssensor ausgeschaltet und deaktiviert Touchscreen 112, wenn die Multifunktionsgerät ist nahe dem Ohr des Benutzers platziert (z. B. wenn der Benutzer einen Anruf tätigen).
  • Die Vorrichtung 100 umfasst wahlweise auch eine oder mehrere taktile Ausgabeerzeuger 167. 1A zeigt eine taktile Ausgabegenerator zur haptischen Rückkopplungscontroller 161 in I/O-Subsystem 106 gekoppelt. Taktilen Ausgabegenerator 167 enthält optional einen oder mehrere elektroakustische Geräte wie Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, die Energie in eine lineare Bewegung umzuwandeln, wie einen Motor, Solenoid, elektroaktiven Polymer, piezoelektrischen Aktor, elektrostatischen Aktuators, oder andere taktile Ausgabeerzeugungs Komponente (z. B. eine Komponente, die elektrischen Signale in taktile Ausgänge der Vorrichtung umwandelt). Kontakt Intensitätssensor 165 empfängt Anweisungen taktiles Feedback Generation von haptischen Feedback-Modul 133 und erzeugt taktile Ausgänge Vorrichtung 100, die in der Lage ist von einem Benutzer der Vorrichtung 100 erfasst werden. In einigen Ausführungsformen wird mindestens eine taktile Ausgabegenerator mit Kollokation, oder in der Nähe, eine berührungsempfindliche Oberfläche (zB berührungsempfindlichen Anzeigesystem 112) und, optional, erzeugt eine taktile Ausgabe, indem der berührungsempfindlichen Oberfläche vertikal (zB in/aus einer Fläche der Vorrichtung 100) oder seitlich (zB hin und her in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100). In einigen Ausführungsformen wird mindestens eine taktile Ausgabegenerator Sensor auf der Rückseite der Vorrichtung 100 gegenüber Berührungsbildschirmanzeige 112, die auf der Vorderseite der Vorrichtung 100 entfernt befindet.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere Beschleunigungsmesser 168. zeigt Beschleunigungsmesser 168 bis Peripherieschnittstelle 118 gekoppelt. Alternativ Beschleunigungsmesser 168 ist wahlweise mit einem Eingangssteuerung 160 in I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen wird Information auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht auf der Grundlage einer Analyse der von der einen oder mehrere Beschleunigungsmesser empfangenen Daten angezeigt. Vorrichtung 100 umfasst optional zusätzlich zur Beschleunigungsmesser(n) 168, einem Magnetometer (nicht gezeigt) und einen GPS (oder GLONASS oder andere globale Navigationssystem) Empfänger (nicht dargestellt) zum Erhalten von Informationen bezüglich der Lage und Ausrichtung (z. B. hoch oder Querformat) der Vorrichtung 100.
  • In einigen Ausführungsformen umfassen die im Speicher 102 gespeichert Softwarekomponenten des Betriebssystems 126, Kommunikationsmodul (oder Satz von Anweisungen) 128, Kontakt-/Bewegungsmodul (oder Satz von Anweisungen) 130, Grafikmodul (oder Satz von Anweisungen) 132, Texteingabemodul (oder Satz von Anweisungen) 134, Global Positioning System (GPS) Modul (oder eine Reihe von Anweisungen) 135, und Anwendungen (oder Sätze von Anweisungen) 136. Weiterhin kann in einigen Ausführungsformen Speicher 102 Einrichtung/globalen internen Zustand 157, wie in den 1A und 3 dargestellt. Gerät/globalen internen Zustand 157 umfasst einen oder mehrere der folgenden: aktive Anwendung Zustand, der angibt, welche Anwendungen, wenn überhaupt, gerade aktiv sind; Anzeigezustand mit Angabe, welche Anwendungen, Ansichten oder andere Informationen zu besetzen verschiedenen Regionen der Touchscreen-Display 112; Sensorzustand, einschließlich Informationen von verschiedenen Sensoren des Geräts und der Eingangssteuergeräte 116 erhalten; und Standortinformationen über Ort und/oder Haltung des Geräts.
  • Betriebssystem 126 (z. B. Darwin, RTXC, Linux, Unix, OS X, WINDOWS oder ein eingebettetes Betriebssystem wie Vx Works) enthält verschiedene Softwarekomponenten und/oder Treiber zur Steuerung und Verwaltung allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichergerätesteuerung, Power-Management, etc.) und erleichtert die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Geräten über einen oder mehrere externe Anschlüsse 124 und beinhaltet auch verschiedene Softwarekomponenten zum Handhaben von RF-Schaltung 108 und/oder den externen Port 124 empfangenen Daten. Externe Port 124 (z, Universal Serial Bus (USB), FIREWIRE, etc.) ist zur Kupplung direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk geeignet ist (z. B. das Internet, drahtloses LAN, etc.). In einigen Ausführungsformen ist der externe Port ein Multi-Stift (z. B. 30-polig), die gleich ist oder dieser ähnlich ist und/oder mit dem 30-poligen Stecker auf iPod (Marke von Apple Inc.) verwendet kompatible Geräte.
  • Kontakt/Bewegungsmodul 130 wahl Kontakt mit Touchscreen 112 erkennt (In Verbindung mit Display-Controller 156) und anderen berührungsempfindlichen Geräten (z. B. ein Touchpad oder physikalische Klickrad). Kontakt-/Bewegungsmodul 130 enthält verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, um den Nachweis von Kontakt Zusammenhang, wie die Bestimmung, ob Kontakt stattgefunden hat (zum Beispiel Erfassen eines Finger-down event), Bestimmen einer Intensität des Kontaktes (z. B. der Kraft oder Druck der Kontakt oder ein Ersatz für die Kraft oder den Druck der Kontakt) Bestimmen, ob es Bewegung des Kontakts und Verfolgen der Bewegung über die berührungsempfindliche Oberfläche (z. B. Nachweis eines oder mehrerer Finger verschieben Ereignisse), und Bestimmen, ob die Kontaktaufgehört hat (z. B. Erfassen eines Fingers-up Veranstaltung oder einen Bruch in Kontakt). Kontakt/Bewegungsmodul 130 empfängt Kontaktdaten aus der berührungsempfindlichen Oberfläche. Bestimmen der Bewegung des Kontaktpunkt, der durch eine Reihe von Kontaktdaten dargestellt wird, gegebenenfalls das Bestimmen Geschwindigkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder eine Beschleunigung (eine Änderung in der Größe und/oder Richtung) des Ansprechpartner. Diese Operationen werden gegebenenfalls auf einzelne Kontakte (z. B. ein Fingerkontakte) oder an mehrere gleichzeitige Kontakte (zB ”multitouch'Vmultiple Fingerkontakte) angewendet. In einigen Ausführungsformen Kontakt-/Bewegungsmodul 130 und Display-Controller 156 Kontakt auf einem Touchpad zu erkennen.
  • In einigen Ausführungsformen verwendet Kontakt-/Bewegungsmodul 130 einen Satz von einem oder mehreren Intensitätsschwellen zu bestimmen, ob eine Operation durch einen Benutzer erfolgt ist (beispielsweise um festzustellen, ob ein Benutzer ”geklickt” auf ein Symbol). In einigen Ausführungsformen wenigstens ein Teil der Intensitätsschwellen werden in Übereinstimmung mit Software-Parameter bestimmt (beispielsweise die Intensitätsschwellen werden durch die Aktivierungsschwellen der besonderen physikalischen Aktoren bestimmt und kann ohne Veränderung der physikalischen Hardware der Vorrichtung 100 eingestellt werden). Zum Beispiel eine Maus ”klicken” Schwelle zu einem Trackpad oder Touch-Bildschirm kann zu einem großen Angebot an vordefinierten Schwellenwerte festgelegt werden, ohne dass das Trackpad oder Touch-Screen-Display-Hardware. Zusätzlich kann in einigen Implementierungen ein Benutzer der Vorrichtung mit Softwareeinstellungen zum Einstellen eines oder mehrere des Satzes von Intensitätsschwellenwerte (beispielsweise durch Anpassung einzelner Intensitätsschwellen und/oder durch Einstellen einer Vielzahl von Intensitätsschwellen zugleich mit einer systembereitgestellt Ebene Klick Parameter ”Intensität”).
  • Kontakt/Bewegungsmodul 130 wahl erkennt eine Geste von einem Benutzer eingegeben. Verschiedene Gesten auf dem berührungsempfindlichen Oberfläche unterschiedliche Kontaktmuster und Intensitäten. Somit ist eine Geste, gegebenenfalls, durch Erfassen einer speziellen Kontaktmuster detektiert. B. Erfassen eines Fingertippgeste umfasst Erfassen eines Fingers nach unten Ereignis gefolgt von Detektion eines Finger-up (lift off) Ereignis an der gleichen Position (oder im Wesentlichen die gleiche Position) als Finger-Down-Ereignis (z. B. an der Position eines Symbols). Als ein anderes Beispiel Erfassen einer Fingerbewegung Geste auf der berührungsempfindlichen Oberfläche das Erfassen eines Finger Down Ereignis gefolgt von Nachweis eines oder mehrerer Finger-Ziehen Ereignisse, dann durch Erfassen eines Fingers-up (abheben) Veranstaltung gefolgt.
  • Grafik-Modul 132 umfasst verschiedene bekannte Softwarekomponenten für das Rendering und die Darstellung von Grafiken auf dem Touchscreen 112 oder eine andere Anzeige, einschließlich Komponenten zum Ändern der visuellen Wirkung (beispielsweise Helligkeit, Transparenz, Farbsättigung, Kontrast und andere optische Eigenschaft) von Grafik, die angezeigt werden. Wie hierin verwendet, bezeichnet der Begriff ”Grafik” umfasst jedes beliebige Objekt, das einem Benutzer angezeigt werden können, einschließlich ohne Einschränkung Text, Webseiten, Icons (wie etwa Benutzerschnittstellenobjekte einschließlich Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • In einigen Ausführungsformen, Grafikmodul 132 speichert Daten, die Grafiken verwendet werden. Jede Grafik wird wahlweise zugeordnet einen entsprechenden Code. Grafikmodul 132 empfängt von Anwendungen usw., einen oder mehrere Codes Angabe Grafiken zusammen mit angezeigt werden, wenn nötig, Koordinatendaten und andere grafische Eigenschaftsdaten und erzeugt dann Bildschirm auszugebenden Daten an den Controller 156 angezeigt.
  • Haptische Rückkopplungsmodul 133 enthält verschiedene Softwarekomponenten zum Erzeugen von Anweisungen durch die taktile Ausgabegenerator(en) 167 bis taktile Ausgänge an einer oder mehreren Stellen auf Vorrichtung 100 in Reaktion auf Benutzerinteraktionen mit Vorrichtung 100 zu erzeugen.
  • Texteingabemodul 134, welches gegebenenfalls eine Komponente des Graphikmoduls 132, bietet Software-Tastatur für die Eingabe von Text in verschiedenen Anwendungen (z. B. Kontakte 137, E-Mail 140, IM 141, Browser 147, und jede andere Anwendung, die Texteingabe benötigt).
  • GPS-Modul 135 bestimmt die Position des Gerätes und stellt diese Informationen für den Einsatz in verschiedenen Anwendungen (z. B. für den Einsatz in ortsbasierten Wahltelefon 138, zur Kamera 143 als Bild/Video-Metadaten und Anwendungen, die Lage bieten – basierte Dienste wie Wetter Widgets, lokale Gelbe-Seiten-Widgets und Karte/Navigations Widgets).
  • Anwendungen 136 wahlweise die folgenden Module (oder Sätze von Anweisungen) oder eine Teilmenge oder Obermenge davon: – Kontakte-Modul 137 (manchmal auch ein Adressbuch oder eine Kontaktliste); – Telefonmodul 138; – Videokonferenz-Modul 139; – E-Mail-Client-Modul 140; – Instant Messaging (IM) Modul 141; – Workout Unterstützungsmodul 142; – Kameramodul 143 für stehende und/oder Videobilder; – Bildverwaltungsmodul 144; – Browser-Modul 147; – Kalendermodul 148; – Widget-Module 149, die gegebenenfalls ein oder mehrere von: Wetter-Widget 149-1, Aktien Widget 149-2, Taschenrechner Widget 149-3, Wecker-Widget 149-4, Wörterbuch Widget 149-5 und andere Widgets durch die erhaltene Benutzer sowie Benutzer erstellten Widgets 149-6; – Widget Schöpfer Modul 150 für die Herstellung von Benutzern erstellte Widgets 149-6; – Suchmodul 151; – Video- und Musik-Player-Modul 152, die ist, gegebenenfalls, die sich aus einem Video-Player-Modul und einem Musik-Player-Modul; – Notizen-Modul 153; – Kartenmodul 154; und/oder – Online-Video-Modul 155.
  • Beispiele für andere Anwendungen 136, die wahlweise im Speicher 102 gespeichert werden, gehören anderen Textverarbeitungsprogrammen, anderen Bildbearbeitungsprogrammen, Zeichenanwendungen, Präsentationsanwendungen, Java-fähigen Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprach Replikation.
  • In Verbindung mit Berührungsbildschirm 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 Kontakte-Modul 137 sind wahlweise verwendet werden, um ein Adressbuch oder eine Kontaktliste (z. B. bei der Anwendung interner Zustand 192 Kontaktmodul 137 im Speicher 102 oder Speicher 370 gespeichert sind), einschließlich Verwaltung: Hinzufügen von Name(n) auf das Adressbuch; Löschen Name(n) aus dem Adressbuch; Assoziieren Telefonnummer(n), E-Mail-Adresse(n), physikalische Adresse(n) oder andere Informationen mit einem Namen; Zuordnen eines Bildes mit einem Namen; Kategorisieren und Sortieren Namen; Bereitstellung Telefonnummern oder E-Mail-Adressen zu initiieren und/oder zu erleichtern Kommunikation per Telefon 138, Videokonferenz 139, E-Mail 140 oder IM 141; und so weiter.
  • In Verbindung mit RF-Schaltung 108, Audio-Schaltung 110, Lautsprecher 111, Mikrofon 113, Touchscreen 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, Telefon-Modul 138 sind wahlweise verwendet um eine Folge von Zeichen, die einer Telefonnummer eingeben, auf eine oder mehrere Telefonnummern in Adressbuch 137, ändern Sie eine Telefonnummer, die eingegeben wurden, wählen Sie eine entsprechende Telefonnummer, führen ein Gespräch und trennen oder auflegen, wenn das Gespräch beendet ist abgeschlossen. Wie oben erwähnt, gegebenenfalls verwendet die drahtlose Kommunikation jedes einer Mehrzahl von Kommunikationsstandards, Protokollen und Technologien.
  • In Verbindung mit RF-Schaltung 108, Audio-Schaltung 110, Lautsprecher 111, Mikrofon 113, Touchscreen 112, Display-Controller 156, optischer Sensor 164, optischer Sensor-Controller 158, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134, Kontaktliste Modul 137, und Telefon 138, Videokonferenz-Modul 139 enthält ausführbare Anweisungen, um die Einleitung, Durchführung und Beendigung eines Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmer in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, E-Mail-Client-Modul 140 enthält ausführbare Befehle zu erstellen, senden, empfangen und verwalten E-Mail als Antwort auf Benutzereingaben. In Verbindung mit Bildverwaltungsmodul 144, E-Mail-Client-Modul 140 macht es sehr einfach zu erstellen und Senden von E-Mails mit Stand- oder Videobilder mit Kameramodul 143 gemacht.
  • In Verbindung mit RF Schaltung 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 enthält das Instant Messaging Modul 141 ausführbaren Anweisungen, um eine Folge von Zeichen, die einer sofortigen geben Nachricht, um zuvor eingegebene Zeichen zu ändern, um eine jeweilige Sofortnachricht zu senden (zum Beispiel mit einem Short Message Service (SMS) oder Multimedia Message Service (MMS) Protokoll für die Telefonie-basierte Instant Messages oder über XMPP, einfach, oder IMPS für Internet-basierte Sofortnachrichten), Instant Messages zu empfangen und zu empfangen Sofortnachrichten anzuzeigen. In einigen Ausführungsformen übertragen und/oder empfangen Sofortnachrichten wahlweise Grafiken, Fotos, Audiodateien, Videodateien und/oder anderen Anlagen, wie sie in einer MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt. Wie hier verwendet, ”Instant Messaging” bezieht sich sowohl auf Telefonie basierenden Nachrichten (beispielsweise Nachrichten, die mit SMS oder MMS) und Internet-basierte Nachrichten (beispielsweise Nachrichten, die mit XMPP, SIMPLE oder IMPS).
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134, GPS-Modul 135, Kartenmodul 154, und Musik-Player-Modul 146, Training Support-Modul 142 umfasst ausführbare Anweisungen, um Trainingseinheiten zu erstellen (z. B. mit der Zeit, Entfernung und/oder Kalorienverbrennung Tore); kommunizieren Training Sensoren (Sportgeräte); erhalten Workout Sensordaten; Kalibrierung von Sensoren verwendet werden, um ein Training zu überwachen; auswählen und spielen Musik für ein Workout; und Anzeige, Speicherung und Übertragung von Trainingsdaten.
  • In Verbindung mit Berührungsbildschirm 112, Display-Controller 156, optischen Sensor(en) 164, optischer Sensor-Controller 158, Kontaktmodul 130, Graphikmodul 132 und Bildverwaltungsmodul 144, Kameramodul 143 enthält ausführbare Anweisungen, um Standbilder oder Video (einschließlich einer Video-Stream) erfassen und speichern sie in den Speicher 102, zu modifizieren Merkmale einer Standbild oder Video, oder löschen Sie ein Foto oder Video von Speicher 102.
  • In Verbindung mit Berührungsbildschirm 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134 und Kameramodul 143, Bildverwaltungsmodul 144 enthält ausführbare Befehle zu arrangieren, verändern (z. B. edit) oder in anderer Weise zu manipulieren, Label, löschen, Gegenwart (z. B. in einer digitalen Diashow oder Album) und zu speichern stehende und/oder Videobilder.
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-System-Controller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, Browser-Modul 147 enthält ausführbare Anweisungen, um das Internet in Übereinstimmung mit Benutzeranweisungen zu durchsuchen, einschließlich Benutzer, die Verknüpfung zu, Empfangen und Anzeigen von Webseiten oder Teile davon, sowie Anhänge und andere Dateien auf dem Web-Seiten verlinkt.
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-System-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134, E-Mail-Client-Modul 140 und Browsermodul 147, Kalendermodul 148 enthält ausführbare Anweisungen anlegen, anzeigen, ändern und speichern Kalender und Daten mit Kalendern zugeordnet (z. B. Kalendereinträge, Aufgabenlisten, etc.) gemäß den Gebrauchsanleitungen.
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-System-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134 und Browsermodul 147, Widget-Module sind 149 Mini-Anwendungen, die wahlweise heruntergeladen werden und von einem Benutzerverwendet (zB Wetter-Widget 149-1, Aktien Widget 149-2, Taschenrechner Widget 149-3, Wecker-Widget 149-4 und Wörterbuch Widget 149-5) oder vom Benutzer erstellte (zB Benutzer-erstellt Widget 149-6). In einigen Ausführungsformen umfasst ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript-Datei. In einigen Ausführungsformen umfasst ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript-Datei (zB Yahoo! Widgets).
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-System-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134 und Browsermodul 147, das Widget Schöpfer Modul 150 sind wahlweise von einem Benutzer verwendet um Widgets zu erzeugen (z. B. Drehen eines benutzerspezifizierten Teils einer Webseite in ein Widget).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemcontroller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 Suchmodul 151 enthält ausführbare Befehle für Text, Musik, Ton, Bild, Video suchen, und/oder andere Dateien im Speicher 102, ein oder mehrere Suchkriterien (z. B. eine oder mehrere vom Benutzer angegebenen Suchbegriffen) gemäß Gebrauchsanweisung entsprechen.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemcontroller 156, Kontaktmodul 130, Graphikmodul 132 Audioschaltung 110, Lautsprecher 111, RF-Schaltung 108 und Browsermodul 147, Video- und Musik-Player-Modul 152 enthält ausführbare Befehle, mit denen der Benutzer zum Download und Wiedergabe aufgezeichneter Musik und anderen Audiodateien in ein oder mehrere Dateiformate wie MP3 oder AAC-Dateien gespeichert und ausführbare Befehle zum Anzeigen, Gegenwart oder anderweitig Wiedergabe von Videos (z. B. auf dem Touchscreen 112 oder auf ein extern, verbunden Anzeige über externen Port 124). In einigen Ausführungsformen Vorrichtung 100 umfasst optional die Funktionalität von einem MP3-Player, wie beispielsweise ein iPod (Marke von Apple Inc.).
  • In Verbindung mit Berührungsbildschirm 112, Display-Controller 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 stellt Modul 153 enthält ausführbare Anweisungen Notizen erstellen und verwalten, Listen zu tun, und dergleichen in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit HF-Schaltung 108, Touchscreen 112, Display-System-Controller 156, Kontaktmodul 130, Graphikmodul 132 Texteingabemodul 134, GPS-Modul 135 und Browsermodul 147, Kartenmodul 154 sind wahlweise zu verwende empfangen, anzeigen, bearbeiten und speichern Karten und Daten mit Karten zugeordnet (z. B. Anfahrtsbeschreibung; Daten über Geschäfte und andere Sehenswürdigkeiten an oder nahe einem bestimmten Ort; und andere standortbasierte Daten) gemäß Gebrauchsanweisung.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemcontroller 156, Kontaktmodul 130, Graphikmodul 132 Audioschaltung 110, Lautsprecher 111, RF-Schaltung 108, Texteingabemodul 134, E-Mail-Client-Modul 140 und Browsermodul 147 umfasst Online-Video-Modul 155 Anweisungen, die dem Benutzer den Zugriff zu ermöglichen, zu sehen bekommen (z. B. durch Streaming und/oder Download), wiedergeben (z. B. auf dem Touchscreen oder auf einem externen, verbunden Anzeige über externen Port 124), senden Sie eine E-Mail mit einem Link zu einem bestimmten Online-Video, und ansonsten Verwaltung von Online-Videos in einem oder mehreren Dateiformaten wie H.264. In einigen Ausführungsformen, Instant Messaging-Modul 141, anstatt E-Mail-Client-Modul 140, wird verwendet, um einen Link zu einem bestimmten Online-Video zu senden.
  • Jedes der oben identifizierten Module und Anwendungen entspricht einem Satz von ausführbaren Anweisungen zum Durchführen eines oder mehrere der oben beschriebenen Funktionen und die in dieser Anmeldung beschriebenen Verfahren (z. B. die Computerimplementiertes Verfahren und anderen Informationsverarbeitungsverfahren, die hier beschrieben). Diese Module (d. h. Sätze von Anweisungen) nicht als separate Softwareprogramme, Prozeduren oder Module, und damit verschiedene Teilmengen von diesen Modulen umgesetzt werden sollen, gegebenenfalls in Kombination oder in verschiedenen Ausführungsformen anders neu arrangiert. In einigen Ausführungsformen speichert der Speicher 102 gegebenenfalls eine Teilmenge der Module und Datenstrukturen vorstehend identifiziert. Ferner speichert der Speicher 102 gegebenenfalls zusätzliche Module und Datenstrukturen, die oben nicht beschrieben.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei denen der Betrieb eines vordefinierten Satzes von Funktionen auf der Vorrichtung exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt. Durch die Verwendung eines Touch-Screen und/oder ein Touchpad als primäre Eingangssteuergerät für den Betrieb der Vorrichtung 100, die Anzahl der physischen Eingangssteuergeräte (wie Taster, Regler und dergleichen) auf dem Gerät 100 ist wahlweise reduziert.
  • Die vordefinierten Satz von Funktionen, die ausschließlich über einen Touchscreen und/oder einem Touchpad ausgeführt werden wahlweise die Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen das Touchpad, wenn sie vom Benutzer berührt wird, navigiert Vorrichtung 100 mit einem Haupt, zu Hause oder Wurzelmenü von irgendeiner Benutzerschnittstelle, die auf dem Gerät 100 angezeigt wird. In solchen Ausführungsformen wird ein ”Menü-Taste” mit einem Touchpad implementiert. In einigen anderen Ausführungsformen ist die Menü-Taste eine physische Taster oder andere physikalische Eingangssteuergerät statt eines Touchpads.
  • IB ist ein Blockdiagramm, das beispielhafte Komponenten für die Ereignisverarbeitung in Übereinstimmung mit einigen Ausführungsformen. In einigen Ausführungsformen Speicher 102 (in 1A) bzw. 370 (3) enthält Ereignis Sortierer 170 (zB im Betriebssystem 126) und einer jeweiligen Anwendung 136-1 (zB eines der oben genannten Anwendungen 137151, 155, 380390).
  • Ereignissortierer 170 empfängt Informationen zur Veranstaltung und bestimmt die Anwendung 136-1 und Anwendungsansicht 191 Einsatz 136-1, zu der das Ereignis liefern Informationen. Ereignissortierer 170 umfasst Ereignismonitor 171 und Event-Dispatcher-Modul 174. In einigen Ausführungsformen Anwendung 136-1 enthält Anwendungs internen Zustand 192, der die aktuelle Anwendung view(s) auf berührungsempfindliche Anzeige 112, wenn die Anwendung aktiv oder Ausführen angezeigt wird anzeigt. In einigen Ausführungsformen wird Gerät/global internen Zustand 157 nach Ereignis Sorter 170 verwendet werden, um die Anwendung(en) ist (sind) gerade aktiv ist, und die Anwendung interner Zustand 192 wird von Event Sorter 170 zur Anwendung zu bestimmen bestimmen Blick 191 bis zur Belieferung Ereignisinformationen.
  • In einigen Ausführungsformen Anwendung internen Zustand 192 enthält zusätzliche Informationen, wie beispielsweise eine oder mehrere von: Fortsetzungsinformationen verwendet werden, wenn die Anwendung 136-1 nimmt die Ausführung, Benutzerschnittzustandsinformationen, die Informationen anzeigt, angezeigt oder das ist bereit für die Anzeige durch Anwendung 136-1, ein Zustand Warteschlange für dem Benutzer ermöglicht, zurück zu einem früheren Zustand oder Ansicht der Anwendung 136-1 zu gehen, und ein Redo/Warteschlange von vorherigen Aktionen durch den Benutzer rückgängig zu machen.
  • Ereignismonitor 171 empfängt Ereignisinformationen aus Peripherieschnittstelle 118. Ereignisinformationen enthält Informationen über eine Unter Ereignis (z. B. ein Benutzer Berührung auf berührungsempfindliche Anzeige 112, als Teil eines Multi-Touch-Geste). Peripheriegeräteschnittstelle 118 überträgt Informationen, die vom I/O-Untersystem 106 oder ein Sensor empfängt wie Näherungssensor 166, der Beschleunigungssensor(en) 168 und/oder das Mikrofon 113 (über die Audioschaltung 110). Informationen, die Schnittstelle 118 erhält von I Peripherie/O-Subsystem 106 enthält Informationen aus berührungsempfindlichen Display 112 oder eine berührungsempfindliche Oberfläche.
  • In einigen Ausführungsformen Ereignismonitor 171 sendet Anforderungen an die Peripherieschnittstelle 118 in vorbestimmten Intervallen. In Reaktion, Peripherieschnittstelle 118 überträgt Informationen zur Veranstaltung. In anderen Ausführungsformen Peripherieschnittstelle 118 sendet Ereignisinformationen nur dann, wenn es eine signifikante Ereignis (z. B. Empfangen eines Eingangs oberhalb einer vorbestimmten Rauschschwelle und/oder länger als eine vorbestimmte Zeitdauer).
  • In einigen Ausführungsformen, Ereignissortierer 170 enthält auch ein Hit Ansicht Bestimmungsmodul 172 und/oder eine aktive Veranstaltung Erkennungsbestimmungsmodul 173.
  • Hit Ansicht Bestimmungsmodul 172 bietet Software-Verfahren zur Bestimmung, wo ein Unter Fall innerhalb von einer oder mehreren Ansichten, als berührungsempfindliche Anzeige 112 Anzeigen mehr als eine Ansicht stattgefunden hat. Ansichten werden von Kontrollen und andere Elemente, die ein Benutzer auf dem Display zu sehen gemacht.
  • Ein weiterer Aspekt der Benutzerschnittstelle einer Anwendung zugeordnet ist ein Satz von Ansichten, manchmal hier als Anwendungsansichten oder Benutzerschnittfenster, in denen Informationen angezeigt und Touch-basierten Gesten auf. Die Anwendungsansichten (einer jeweiligen Anwendung), in denen ein Hauch optional erfasst entsprechen programmatische Ebenen innerhalb einer programmatischen oder Ansichtshierarchie der Anwendung. Zum Beispiel, das niedrigste Niveau Ansicht, in der eine Berührung erkannt wird, gegebenenfalls, die so genannte Trefferansicht und die Menge der Ereignisse, die für eine angemessene Eingänge erfasst werden, werden gegebenenfalls bestimmt basierend, zumindest teilweise, auf der Trefferansicht die anfängliche Berührung, die einen Hauch basierte Geste beginnt.
  • Hit Ansicht Bestimmungsmodul 172 empfängt Informationen zu Unterereignisse eines Touch-basierten Gesten zusammen. Wenn eine Anwendung mehrere Ansichten in einer Hierarchie organisiert, traf Ansicht Bestimmungsmodul 172 identifiziert eine Trefferansicht als niedrigste Ansicht in der Hierarchie, die die Unter Ereignis behandeln sollte. In den meisten Fällen ist die Trefferansicht das niedrigste Niveau Ansicht, in der eine initiierende Unter Ereignis eintritt (d. h. die erste Teilereignis in der Abfolge der Teilereignisse, die ein Ereignis oder potenziellen Ereignis zu bilden). Sobald die Treffer Ansicht wird von der Trefferansicht Bestimmungsmodul identifiziert, erhält der Trefferansicht, die typischerweise alle Unter Ereignisse auf den gleichen touch oder Eingangsquelle, für die war es, als der Hit Ansicht bezeichnet hat.
  • Aktiv Event Erkenner Bestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansicht Hierarchie eine bestimmte Abfolge von Teil Ereignissen benachrichtigt werden sollen. In einigen Ausführungsformen bestimmt aktiven Ereigniserkennungsbestimmungsmodul 173, dass nur die Trefferansicht sollte eine bestimmte Sequenz von Unterereignisse zu empfangen. In anderen Ausführungsformen aktiven Ereigniserkennungsbestimmungsmodul 173 bestimmt, dass alle Ansichten, die den physischen Standort eines Unter Veranstaltung sind aktiv beteiligt sind Ansichten, und bestimmt, dass alle aktiv beteiligt Blick sollte eine bestimmte Abfolge von Teilveranstaltungen erhalten daher. In anderen Ausführungsformen, auch wenn Touch Unterereignisse wurden vollständig auf den Bereich mit einer bestimmten Sicht zugeordnet ist beschränkt, Ansichten höher in der Hierarchie würde immer noch als aktiv beteiligt Blick.
  • Event-Dispatcher-Modul 174 löst die Ereignisinformationen zu einer Veranstaltung Erkenner (zB Event-Erkenner 180). In Ausführungsformen, die aktiven Ereigniserkennungsbestimmungsmodul 173, Event-Dispatcher-Modul 174 liefert die Ereignisinformationen zu einer Veranstaltung Erkenner von aktiven Ereigniserkennungsbestimmungsmodul 173 bestimmt. In einigen Ausführungsformen Event-Dispatcher-Modul 174 Filialen in eine Ereigniswarteschlange die Ereignisinformationen, die von einem entsprechenden Ereignis Empfängermodul 182 abgerufen wird.
  • In einigen Ausführungsformen, das Betriebssystem 126 enthält Ereignis Sortierer 170. Alternativ Anwendung 136-1 enthält Ereignissortierer 170. In noch anderen Ausführungsformen ist die Ereignis Sortierer 170 ein eigenständiges Modul oder ein Teil eines anderen Moduls in einem Speicher 102 gespeichert sind, wie Kontakt-/Bewegungsmodul 130.
  • In einigen Ausführungsformen Anwendung 136-1 enthält eine Vielzahl von Event-Handlern 190 und ein oder mehrere Anwendungsaufrufe 191, von denen jeder für den Umgang mit Berührungsereignisse, die innerhalb eines jeweiligen Ansicht der Benutzeroberfläche der Anwendung auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Veranstaltungs Erkenner 180. Typischerweise enthält eine jeweilige Anwendungsansicht 191 eine Vielzahl von Ereigniserkennungs 180. In anderen Ausführungsformen können eine oder mehrere der Veranstaltungs Erkenner 180 sind Teil eines separaten Modul, wie eine Benutzeroberfläche Kit (nicht dargestellt) oder ein höheres Niveau Objekt, von dem Anwendungs 136-1 erbt Methoden und andere Eigenschaften. In einigen Ausführungsformen umfasst jeweils ein Event-Handler 190 eine oder mehrere von: Daten Updater 176, Objekt Updater 177, GUI Updater 178, und/oder Ereignisdaten 179 Event Sortierer 170 erhielt. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176, Objekt Updater 177 oder GUI Updater 178, die Anwendung interner Zustand 192 zu aktualisieren. Alternativ können ein oder mehrere der Anwendungsansichten 191 umfasst einen oder mehrere entsprechende Event-Handler 190. Auch in einigen Ausführungsformen eine oder mehrere der Aktualisierungsdaten 176, Objektaktualisierungs 177 und GUI Aktualisierungs 178 sind in einem entsprechenden Anwendungsansicht 191 enthalten.
  • Eine entsprechende Ereigniserkennungseinrichtung 180 Ereignisinformationen (beispielsweise die Ereignisdaten empfängt, 179) vom Event Sortierer 170 und identifiziert ein Ereignis aus der Ereignisinformationen. Ereigniserkennungs 180 enthält Ereignisempfänger 182 und Event Komparator 184. In einigen Ausführungsformen Veranstaltung Erkenner 180 weist auch mindestens eine Teilmenge: Metadaten 183 und Ereignislieferinstruktionen 188 (die gegebenenfalls Unter Veranstaltung Lieferinstruktionen).
  • Ereignisempfänger 182 empfängt Ereignisinformationen aus Ereignissortierer 170. Die Ereignisinformationen enthält Informationen über eine Teilveranstaltung zum Beispiel eine Note oder einen Hauch Bewegung. In Abhängigkeit von der Unter Fall enthält die Ereignisinformation auch zusätzliche Informationen, wie Position des Teil Ereignis. Wenn der Unter Ereignis betrifft Bewegung eines Touch umfasst die Ereignisinformationen optional auch Geschwindigkeit und Richtung des Teil Veranstaltung. In einigen Ausführungsformen Ereignisse umfassen Rotation der Vorrichtung von einer Orientierung zu einer anderen (beispielsweise von einem Hochformat auf Querformat oder umgekehrt) und die Ereignisinformationen enthält entsprechende Informationen über die gegenwärtige Ausrichtung (auch als Gerätehaltung) von das Gerät.
  • Ereignisvergleicher 184 vergleicht die Ereignisinformationen auf vordefinierte Ereignis oder Unterereignisdefinitionen und, basierend auf dem Vergleich bestimmt, ein Ereignis oder Unter Ereignis oder bestimmt oder aktualisiert den Status eines Ereignisses oder Unter Ereignis. In einigen Ausführungsformen umfasst Ereignis Komparator 184 Ereignisdefinitionen 186. Event-Definitionen 186 enthalten Definitionen von Veranstaltungen (z. B. vordefinierte Sequenzen von Teilveranstaltungen), zum Beispiel, Event 1 (187-1), Ereignis 2 (187-2), und andere. In einigen Ausführungsformen Unter Ereignisse in einem Ereignis 187 gehören zum Beispiel Touch beginnen, berühren Ende, berühren Bewegung, Berührung Stornierung und mehrere berührend. In einem Beispiel ist die Definition für Ereignis 1 (187-1) eine Doppel-Tippen auf einer angezeigten Objekts. Die Doppel-Tippen, umfasst zum Beispiel eine erste Berührung (Touch beginnen) auf dem angezeigten Objekt für eine vorbestimmte Phase einer ersten Lift-off (touch Ende) für eine vorbestimmte Phase, eine zweite Berührung (Note beginnt) auf dem angezeigten Objekt für eine vorbestimmte Phase und einer zweiten Lift-off (touch Ende) für eine vorbestimmte Phase. In einem anderen Beispiel ist die Definition für Ereignis 2 (187-2) ein Ziehen auf einem angezeigten Objekt. Das Schleppen, umfasst beispielsweise einen Hauch (oder Kontakt) auf dem angezeigten Objekt für eine vorbestimmte Phase, eine Bewegung des Touch über berührungsempfindliche Display 112 und Lift-off der Berührung (Touch-Ende). In einigen Ausführungsformen enthält das Ereignis auch Informationen für eine oder mehrere zugeordnete Ereignishandler 190.
  • In einigen Ausführungsformen umfasst Ereignisdefinition 187 eine Definition eines Ereignisses eine entsprechende Benutzerschnittstellenobjekt. In einigen Ausführungsformen Ereignis Komparator 184 führt eine Trefferüberprüfung, um zu bestimmen, welche Benutzerschnittstellenobjekt mit einem Unter Ereignis zugeordnet ist. Zum Beispiel in einer Anwendung Ansicht, in der drei Benutzerschnittstellenobjekte werden auf berührungsempfindlichen Display 112, wenn eine Fingereingabe auf berührungsempfindliche Anzeige 112 erkannt angezeigt, Event Komparator 184 führt einen Treffertest, um festzustellen, welche der drei Benutzer Interface-Objekte wird mit dem Touch (sub-event) assoziiert. Wenn jeder angezeigte Objekt ist mit einem entsprechenden Ereignis-Handler 190 zugeordnet ist, verwendet die Ereignis Komparator das Ergebnis der Trefferüberprüfung, um zu bestimmen, welche Ereignisbehandlungsroutine 190 aktiviert werden soll. Zum Beispiel, Event Komparator 184 wählt einen Ereignishandler mit dem Sub-Ereignis und dem Objekt Auslösung der Treffertest verbunden.
  • In einigen Ausführungsformen kann die Definition für ein jeweiliges Ereignis 187 enthält auch eine verzögerte Aktionen, die Übermittlung der Ereignisinformation zu verzögern, bis nachdem bestimmt worden ist, ob die Sequenz der Unterereignisse hat oder nicht, um Ereignistyp der Ereigniserkennungseinrichtung entsprechen.
  • Wenn eine jeweilige Veranstaltung Erkenner 180 bestimmt, dass die Reihe von Unter Ereignisse nicht eines der Ereignisse in Ereignisdefinitionen 186 entsprechen, das jeweilige Ereignis Erkenner 180 tritt ein Ereignis unmöglich, Ereignis fehlgeschlagen ist oder Veranstaltung endete Zustand, nach dem es missachtet nachfolgenden Unter Ereignisse des Touch-basierte Geste. In dieser Situation andere Veranstaltung Erkenner, sofern vorhanden, die aktiv bleiben für die Trefferansicht weiterhin verfolgen und Prozessunter Ereignisse eines laufenden Touch-basierte Geste.
  • In einigen Ausführungsformen ist jeweils ein Ereignis Erkenner 180 enthält Metadaten 183 mit konfigurierbaren Eigenschaften, Fahnen, und/oder Listen, die zeigen, wie das Ereignis Abgabesystem sollte Unterereigniszustellung aktiv beteiligten Ereigniserkennungszuführen. In einigen Ausführungsformen Metadaten 183 umfasst konfigurierbaren Eigenschaften, Fahnen, und/oder Listen, die zeigen, wie Ereigniserkennungsinteragieren, oder aktiviert sind, zu interagieren, miteinander. In einigen Ausführungsformen Metadaten 183 umfasst konfigurierbaren Eigenschaften, Fahnen, und/oder Listen, die anzeigen, ob Teilereignisse werden in unterschiedlichen Ebenen in der Ansicht oder programmatischen Hierarchie ausgeliefert.
  • In einigen Ausführungsformen ist jeweils ein Ereigniserkennungseinrichtung 180 aktiviert die Ereignisbehandlungsroutine 190 mit einem Ereignis assoziiert ist, wenn ein oder mehrere bestimmte Unterereignisse eines Ereignisses erfasst. In einigen Ausführungsformen ist jeweils ein Ereigniserkennungseinrichtung 180 liefert Ereignisinformationen mit dem Ereignis zu Ereignis-Handler 190 verbunden. Aktivieren Sie einen Ereignishandler 190 unterscheidet sich von Senden (und latente Senden) Unterereignisse an einem entsprechenden Trefferansicht. In einigen Ausführungsformen Veranstaltung Erkenner 180 wirft eine Flagge mit dem anerkannten Ereignis zugeordnet und Event-Handler 190 mit der Flagge assoziiert unbeholfen den Flagge und führt einen vordefinierten Prozess.
  • In einigen Ausführungsformen Veranstaltung Lieferinstruktionen 188 gehören Unter Veranstaltung Lieferinstruktionen, die Veranstaltung Informationen über ein Teilereignis liefern ohne Aktivierung einen Event-Handler. Stattdessen werden die Sub-Event Lieferanweisungen liefern Ereignisinformationen an Event-Handler mit der Reihe von Sub-Ereignissen verbunden oder aktiv beteiligt Blick. Event-Handler mit der Reihe von Teilveranstaltungen oder mit aktiv beteiligten Blick assoziiert das Ereignis empfangen Informationen und führen Sie einen vorgegebenen Prozess.
  • In einigen Ausführungsformen Daten Updater 176 erstellt und aktualisiert Daten in Anwendung 136-1 verwendet. Zum Beispiel können Daten Updater 176 aktualisiert die Telefonnummer in den Kontakten Modul 137 verwendet oder speichert einen Video-Player-Modul 145 verwendet Videodatei. In einigen Ausführungsformen Objekt Updater 177 erstellt und aktualisiert Objekte in Anwendung 136-1 verwendet. Zum Beispiel Objekt Updater 176 legt einen neuen Benutzer-Interface-Objekt oder die Position eines User-Interface-Objekt aktualisiert. GUI Updater 178 aktualisiert die GUI. B. GUI Aktualisierungs 178 bereitet Anzeigeinformation und sendet sie an Grafikmodul 132 zur Anzeige auf einem berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen Event-Handler(n) 190 umfasst oder hat Zugriff auf Daten Updater 176, Objekt Updater 177 und GUI Updater 178. In einigen Ausführungsformen werden Daten Aktualisierungs 176, Objektaktualisierungs 177 und Aktualisierungs GUI 178 in einem Modul aus einer jeweiligen Applikation 136-1 oder Anwendungsansicht 191 enthalten. In anderen Ausführungsformen werden sie in zwei oder mehr Software-Module enthalten.
  • Es versteht sich, dass die vorangehende Diskussion über die Ereignisbehandlung der Benutzer berührt berührungsempfindlichen Displays gilt auch für andere Formen von Benutzereingaben an Multifunktionsgeräten 100 mit Eingabegeräte, von denen nicht alle sind auf Touchscreens ausgelöst betreiben. Zum Beispiel, Mausbewegungen und Maustaste drückt, wahlweise mit Einzel- oder Mehrfach Tastatur drückt oder hält koordiniert; Kontakt Bewegungen wie Wasserhähne, schleppt, Schriftrollen, etc. auf Touch-Pad; Ersatzstift Eingänge; Bewegung der Vorrichtung; mündliche Anweisungen; erkannt Augenbewegungen; biometrische Eingänge; und/oder eine Kombination davon sind, gegebenenfalls als Eingaben entsprechende Unter Ereignisse, die ein Ereignis definieren, verwendet zu erkennen.
  • zeigt ein tragbares Multifunktionsgerät 100 mit einem Touchscreen 112 in Übereinstimmung mit einigen Ausführungsformen. Der Touchscreen zeigt optional ein oder mehrere Grafiken in Benutzeroberfläche (UI) 200. In dieser Ausführungsform sowie anderen unten beschriebenen, kann ein Benutzer aktiviert ist mit einem oder mehreren Fingern 202 (nicht gezeichnet, um in der Abbildung im Maßstab) oder auf eine oder mehrere der Graphiken durch eine Geste auf die Grafiken, beispielsweise wählen, einen oder mehrere Schreibstifte 203 (nicht maßstabsgetreu in der Figur dargestellt). In einigen Ausführungsformen, die Auswahl von einem oder mehreren Grafiken erfolgt, wenn der Benutzer bricht Kontakt mit der einen oder mehreren Grafiken. In einigen Ausführungsformen ist die Geste umfasst wahlweise einen oder mehrere Abgriffe, einen oder mehrere Schläge (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, nach oben und/oder unten), die den Kontakt mit der Vorrichtung 100 hergestellt hat. In einigen Implementierungen oder Umstände, hat einen unbeabsichtigten Kontakt mit einer Grafik nicht die Grafik auswählen. Zum Beispiel kann eine Swipe-Geste, die über ein Anwendungssymbol fegt gegebenenfalls nicht den entsprechenden Anwendung zu wählen, wenn die Geste entsprechend Auswahl ist ein Wasserhahn.
  • Die Vorrichtung 100 umfasst wahlweise auch eine oder mehrere physikalische Knöpfe, wie ”Heimat” oder Menü-Taste 204. Wie zuvor beschrieben, Menü-Taste 204 ist wahlweise verwendet werden, um für jede Anwendung 136 in einer Reihe von Anwendungen, die sich gegebenenfalls auf dem Gerät 100 ausgeführt navigieren. Alternativ kann in einigen Ausführungsformen wird die Menü-Taste umgesetzt als Softkey in einer GUI auf dem Touchscreen 112 angezeigt.
  • In einer Ausführungsform Vorrichtung 100 Touchscreen 112, Menü-Taste 204, Taster 206 für die Stromversorgung des Gerätes ein/aus und Sperren von Geräten, Lautstärkeregelung Taste(n) 208, Subscriber Identity Module (SIM) Karten-Slot 210, setzen Kopfspindel 212, und Docking/Lade externen Port 124. Taster 206 wird wahlweise verwendet werden, um die Stromversorgung auf dem Gerät durch Drücken der Taste, und halten Sie die Taste in der gedrückten Zustand für ein vorgegebenes Zeitintervall ein-/ausschalten; um das Gerät durch Drücken der Taste und die Taste loslassen, bevor die vorgegebene Zeitintervall abgelaufen ist verriegeln; und/oder um das Gerät zu entsperren oder einen Freischaltprozess einzuleiten. In einer alternativen Ausführungsform Einrichtung 100 akzeptiert auch verbale Eingabe zur Aktivierung oder Deaktivierung einiger Funktionen durch Mikrofon 113. Vorrichtung 100 optional auch umfasst einen oder mehrere Kontaktsensoren 165 Intensität zum Erfassen Intensität der Kontakte auf Berührungsbildschirm 112 und/oder eine oder mehrere taktile Ausgabeerzeuger 167 zum Erzeugen von taktilen Ausgänge für einen Benutzer der Vorrichtung 100.
  • 3 ist ein Blockdiagramm eines beispielhaften Multifunktionsgerät mit einem Display und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Vorrichtung 300 braucht nicht tragbar sein. In einigen Ausführungsformen ist die Vorrichtung 300 ein Laptop-Computer, ein Desktop-Computer, ein Tablet-Computer, ein Multimedia-Abspielgerät, ein Navigationsgerät, eine Bildungseinrichtung (wie Lernen ein Kinderspielzeug), ein Spielsystem oder eine Steuereinrichtung (Beispiels, ein Haus oder Industriesteuerung). Vorrichtung 300 umfasst typischerweise eine oder mehrere Verarbeitungseinheiten 310, einen oder mehrere Netzwerkschnittstellen oder andere Kommunikations 360, Speicher 370 (CPU) und eine oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Kommunikationsbusse 320 wahlweise Schaltung (manchmal auch als Chipsatz), die Leiterbahnen und steuert die Kommunikation zwischen den Systemkomponenten. Vorrichtung 300 umfasst Eingabe/Ausgabe (I/O) Schnittstelle 330 mit einer Anzeige 340, die typischerweise eine Berührungsbildschirmanzeige. I/O-Schnittstelle 330 wahlweise auch eine Tastatur und/oder Maus (oder ein anderes Zeigegerät) 350 und Touchpad 355, taktile Ausgabegenerator 357 zur Erzeugung von taktilen Ausgänge Vorrichtung 300 (beispielsweise ähnlich wie oben beschrieben taktilen Ausgabegenerator(en) 167 mit Bezug auf 1A), Sensoren 359 (z. B. optische, Beschleunigung, Nähe, berührungsempfindliche und/oder kontaktieren Intensitätssensoren ähnlich Intensitätssensor (s kontaktieren) 165 oben mit Bezug auf die 1A). Speicher 370 enthält Hochgeschwindigkeits-Direktzugriffsspeicher, wie beispielsweise DRAM, SRAM, DDR RAM oder andere Direktzugriffsfestkörperspeichervorrichtungen; und gegebenenfalls nicht-flüchtigen Speicher enthält, beispielsweise eine oder mehrere Magnetplattenspeichervorrichtungen, optische Plattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Festkörperspeichervorrichtungen. Speicher 370 enthält optional einen oder mehrere Speichervorrichtungen aus der Ferne von der CPU(s) 310 befindet. In einigen Ausführungsformen Speicher 370 speichert Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Daten im Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) gespeichert sind Strukturen oder einer Untergruppe davon. Weiterhin Speicher 370 optional speichert zusätzliche Programme, Module und Datenstrukturen nicht im Speicher 102 der tragbaren Multifunktionsgerät 100 vorhanden. Zum Beispiel, Speicher 370 der Vorrichtung 300 wahl speichert Zeichenmodul 380, Präsentationsmodul 382, Textverarbeitung Modul 384, Website-Erstellung Modul 386, Disk-Authoring-Modul 388 und/oder Tabellenkalkulationsmodul 390, während der Speicher 102 von tragbaren Multifunktionsgerät 100 ( ) gegebenenfalls hat diese Module nicht speichern.
  • Jedes der oben identifizierten Elemente in 3 sind wahlweise in einer oder mehreren der zuvor erwähnten Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einem Satz von Anweisungen zum Durchführen eines oben beschriebenen Funktion. Die oben identifizierten Module oder Programme (d. h. Sätze von Anweisungen) nicht als separate Softwareprogramme, Prozeduren oder Module, und damit verschiedene Teilmengen von diesen Modulen umgesetzt werden sollen, gegebenenfalls in Kombination oder in verschiedenen Ausführungsformen anders neu arrangiert. In einigen Ausführungsformen Speicher 370 speichert gegebenenfalls eine Teilmenge der Module und Datenstrukturen vorstehend identifiziert. Weiterhin Speicher 370 speichert wahl zusätzliche Module und Datenstrukturen, die oben nicht beschrieben.
  • Die Aufmerksamkeit wird nun in Richtung Ausführungsformen Benutzeroberflächen (”UI”), die, gegebenenfalls, auf tragbaren Multifunktionsgerät 100 implementiert gerichtet.
  • zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzeroberflächen sind optional implementiert auf dem Gerät 300. In einigen Ausführungsformen beinhaltet Benutzerschnittstelle 400 die folgenden Elemente oder eine Untermenge oder Obermenge davon: – Signalstärke-Anzeige(n) 402 für die drahtlose Kommunikation(en), wie beispielsweise Mobil und Wi-Fi-Signale; – Zeit 404; – Bluetooth-Anzeige 405; – Batteriestatusanzeige 406; – Tray 408 mit Icons für häufig verwendete Anwendungen, wie z. B: o Icon 416 für Telefonmodul 138, mit ”Phone”, die wahlweiseeinen Indikator 414 der Anzahl der verpassten Anrufe oder Voicemail-Nachrichten; o Icon 418 für E-Mail-Client-Modul 140, mit der Aufschrift ”Post”, die gegebenenfalls einen Indikator 410 der Anzahl der ungelesenen E-Mails; o Icon 420 für Browsermodul 147, mit der Aufschrift ”Browser”; und o Icon 422 für Video- und Musik-Player-Modul 152, die auch als iPod (Marke von Apple Inc.) Modul 152, beschriftet bezeichnet ”iPod”; und – Icons für andere Anwendungen, wie z. B: o Icon 424 für IM-Modul 141, mit ”Text”; o Icon 426 für Kalender-Modul 148, mit ”Kalender”; o Icon 428 für das Bildmanagement-Modul 144, mit der Aufschrift ”Fotos;” o Icon 430 für Kameramodul 143, mit ”Kamera”; o Icon 432 für Online-Video-Modul 155, mit der Bezeichnung ”Online-Video” o Icon 434 für Aktien Widget 149-2, die mit ”Stocks”; o Icon 436 für Kartenmodul 154, mit ”Karte”; o Icon 438 für Wetter-Widget 149-1, die mit ”Wetter”; o Icon 440 für Wecker-Widget 149-4, die mit ”Clock”; o Icon 442 für Training Support-Modul 142, mit der Aufschrift ”Workout-Unterstützung;” Symbol o 444 für Notizen-Modul 153, mit ”Anmerkungen”; und o Icon 446 für eine Einstellungen-Anwendung oder ein Modul, das den Zugang zu bietet Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136.
  • Es sei darauf hingewiesen, dass das Symbol Etiketten in 4A veranschaulicht nur beispielhaft sind. Beispielsweise sind das Symbol 422 für Video und Musik-Player-Modul 152 ”Music” oder ”Music Player bezeichnet. ”Andere Etiketten wahlweise für verschiedene Anwendungssymbole verwendet. In einigen Ausführungsformen ein Label für eine entsprechende Anwendungssymbol umfasst einen Namen einer Anwendung entsprechend dem jeweiligen Anwendungssymbol. In einigen Ausführungsformen ist eine Bezeichnung für eine spezielle Anwendung Symbol verschieden von einem Namen einer Anwendung entsprechend dem speziellen Anwendungssymbol.
  • 4B veranschaulicht eine exemplarische Benutzerschnittstelle auf einer Vorrichtung (z. B. Vorrichtung 300, ) mit einer berührungsempfindlichen Oberfläche 451 (z. B. eine Tablette oder Touchpad 355, ), die getrennt von der Anzeige 450 (beispielsweise Touchscreen-Anzeige 112). Vorrichtung 300 optional auch umfasst einen oder mehrere Kontaktsensoren Intensität (z. B. eine oder mehrere der Sensoren 357) zum Erfassen der Intensität von Kontakten auf berührungsempfindliche Oberfläche 451 und/oder eine oder mehrere taktile Ausgabeerzeuger 359 zum Erzeugen von Ausgängen für eine taktile Benutzer der Vorrichtung 300.
  • Obwohl einige der die folgen wird unter Bezugnahme auf Eingaben auf dem Touchscreen-Display 112 (wobei der berührungsempfindlichen Fläche und der Anzeige kombiniert werden) gegeben werden Beispiele, in einigen Ausführungsformen erfasst die Vorrichtung Eingänge auf einer berührungsempfindlichen Oberfläche, getrennt von der Anzeige, wie in 4B gezeigt. In einigen Ausführungsformen ist der berührungsempfindlichen Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B), die zu einer Hauptachse (beispielsweise 453 in 4B) auf der Anzeige (beispielsweise 450) entspricht. In Übereinstimmung mit diesen Ausführungsformen erfasst die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Stellen, die an jeweiligen Orten auf der Anzeige (zum Beispiel in 4B entsprechen, 460 entspricht 468 und 462 entspricht 470). Auf diese Weise werden Benutzereingaben (beispielsweise Kontakte 460 und 462, und die Bewegungen davon) durch die Vorrichtung auf der berührungsempfindlichen Oberfläche detektiert (beispielsweise 451 in 4B), werden durch die Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige zu manipulieren (z. B. 450 in 4B) der Multifunktionsvorrichtung, wenn die berührungsempfindliche Fläche ist getrennt von der Anzeige. Es sollte verstanden werden, dass ähnliche Verfahren sind gegebenenfalls für die anderen hier beschriebenen Benutzerschnittstellen verwendet werden.
  • Zusätzlich können, während die folgenden Beispiele in erster Linie mit Bezug auf die Fingereingaben (z. B. Fingerkontakte, Fingertippen Gesten Fingern Gesten) gegeben, es versteht sich, dass in einigen Ausführungsformen eine oder mehrere der Finger Eingänge werden mit Eingang von einem anderen Eingabegerät (z. B. eine Maus oder Stift basierte Eingabeeingang) ersetzt. Zum Beispiel eine Streichgeste ist, gegebenenfalls mit einem Mausklick (z. B. anstelle eines Kontakt), gefolgt durch eine Bewegung des Cursors auf dem Weg des Swipe ersetzt (z. B. anstelle der Bewegung des Kontakt). Als ein anderes Beispiel, eine Tippgeste ist, gegebenenfalls mit einem Mausklick ersetzt wird, während der Cursor über dem Ort des Tippgeste befindet (z. B. anstelle einer Erfassung der Kontakt anschließend aufhört, den Kontakt zu detektieren). Ähnlich wird, wenn mehrere Benutzereingaben gleichzeitig erfasst, sollte es verstanden werden, dass mehrere Computermäuse sind, gegebenenfalls gleichzeitig verwendet werden, oder eine Maus und Fingerkontakte, gegebenenfalls, gleichzeitig verwendet werden.
  • Der hier verwendete Begriff ”Schwerpunkt selector” bezieht sich auf ein Eingabeelement, das eine Strom Teil einer Benutzerschnittstelle, mit der ein Benutzer interagieren anzeigt. In einigen Implementierungen, die einen Cursor oder einem anderen Ort Marker beinhalten, wirkt der Cursor als ”Fokus-Wahlschalter”, so dass, wenn ein Eingangs (z. B. eine Presseeingang) auf einer berührungsempfindlichen Oberfläche detektiert (z. B. Touchpad 355 in oder berührungsempfindliche Oberfläche 451 in 4B), während sich der Cursor über einem bestimmten Benutzerschnittstellenelement (z. B. eine Taste, Fenster, Schieberegler oder anderer Benutzerschnittstellenelement), der bestimmten Benutzerschnittstellenelement in Übereinstimmung mit der erfassten Eingangs eingestellt. In einigen Implementierungen, die eine Touchscreen-Display gehören (z. B. berührungsempfindlichen Anzeigesystem 112 in 1A oder Touchscreen 112 in ), die direkte Interaktion mit Benutzerschnittstellenelemente auf dem Touchscreen-Display ermöglicht eine detektierte Kontakt auf den Touch-Screen dient als ”Fokus-Wahlschalter”, so dass, wenn ein Eingangs (z. B. eine Presseeingang durch den Kontakt) auf dem Touchscreen-Display an einem Ort zu einer bestimmten Benutzerschnittstellenelement erkannt (zB ein Button, Fenster, Schieberegler oder anderer Benutzerschnittstellenelement) wird der bestimmten Benutzerschnittstellenelements in Übereinstimmung mit der erfassten Eingangs eingestellt. In einigen Implementierungen Fokus ist von einer Region einer Benutzerschnittstelle in eine andere Region der Benutzeroberfläche ohne entsprechende Bewegung eines Cursors oder Bewegung eines Kontakts auf einem Touch-Screen-Display (zB durch Verwendung eines Tab-Taste oder den Pfeiltasten bewegen bewegt Fokus von einer Schaltfläche mit einer anderen Taste); In diesen Implementierungen, bewegt sich der Fokuswähler in Übereinstimmung mit der Bewegung des Fokus zwischen den verschiedenen Regionen der Benutzeroberfläche. Ohne Rücksicht auf die spezifische Form des Fokuswähler gemacht, ist der Fokus Auswahl allgemeinen die Benutzerschnittstellenelement (oder Kontakt auf einem Touch-Screen-Display), die durch den Benutzer gesteuert wird, um so bestimmt die Interaktion des Benutzers mit der Benutzerschnittstelle zu kommunizieren (beispielsweise durch Anzeigen, an das Gerät, das Element der Benutzerschnittstelle, mit dem der Benutzer beabsichtigt, zu interagieren). Zum Beispiel die Position eines Fokus-Wahlschalter (zB ein Cursor, ein Kontakt oder ein Auswahlfeld) über eine entsprechende Schaltfläche, während eine Presseeingang befindet sich auf der berührungsempfindlichen Oberfläche (zB ein Touchpad oder Touchscreen) erkannt wird, dass zeigen der Benutzer beabsichtigt, die entsprechende Schaltfläche aktiviert (im Gegensatz zu anderen auf einem Display des Gerätes angezeigt Anwenderschnittstellenelemente).
  • Die Benutzeroberfläche nachfolgend beschriebenen Figuren sind verschiedene Intensitätsdiagramme, die die Stromstärke des Kontakts auf der berührungsempfindlichen Oberfläche im Verhältnis zu einer oder mehreren Intensitätsschwellen (zB eine Kontakterkennung Intensitätsschwelle IT o, durch leichten Druck Intensitätsschwelle zeigen IT L, ein tiefer drücken Intensitätsschwelle IT D, und/oder einem oder mehreren anderen Intensitätsschwellen). Diese Intensitätsbild ist typischerweise nicht Teil der angezeigten Benutzerschnittstelle, jedoch ist vorgesehen, um bei der Interpretation der Figuren zu erleichtern. In einigen Ausführungsformen entspricht einer Intensität, bei der das Gerät Operationen in der Regel mit einem Klick auf eine Schaltfläche eines physischen Maus oder Trackpad, verknüpften Aufgaben das Licht Presseintensitätsschwelle. In einigen Ausführungsformen entspricht einer Intensität, bei der das Gerät Operationen, die sich von Operationen in der Regel mit einem Klick auf eine Schaltfläche eines physischen Maus oder Trackpad assoziiert sind durchzuführen die tiefe Presseintensitätsschwelle. In einigen Ausführungsformen, wenn ein Kontakt mit einer Intensität unterhalb der Lichtintensitätsschwelle erkannt Presse (zB oberhalb eines nominalen Kontaktdetektionsintensitätsschwellen IUm unterhalb dessen die Kontakt nicht mehr erkannt wird), wird das Gerät einen Fokuswähler entsprechend bewegen mit der Bewegung der Kontakt auf der berührungsempfindlichen Oberfläche, ohne die Durchführung einer Operation mit dem Licht Presseintensitätsschwelle oder dem tiefen Presseintensitätsschwelle verbunden. Im allgemeinen, sofern nicht anders angegeben, sind diese Intensitätsschwellen konsistent zwischen verschiedenen Sätzen von Benutzerschnittfiguren.
  • Eine Erhöhung der Intensität des Kontakts aus einer Intensität unterhalb der Lichtpresseintensitätsschwelle IT Lto eine Intensität zwischen der Lichtpresseintensitätsschwelle landen die tiefe Presseintensitätsschwelle IT Dis manchmal als ”Licht drücken Sie” Eingabe. Eine Erhöhung der Intensität des Kontakts aus einer Intensität unterhalb der tiefen Presseintensitätsschwelle IT Dto einer Intensität über der tiefen Presseintensitätsschwelle IT Dis als ”tief drücken” Eingabe manchmal bezeichnet. Eine Erhöhung der Intensität des Kontakts aus einer Intensität unterhalb der Kontaktdetektionsschwelle IT Intensität obis einer Intensität zwischen der Kontaktdetektionsintensitätsschwelle Ito und der Lichtpresseintensitätsschwelle IT Lis manchmal als Erfassen der Kontakt auf der Touch-Oberfläche bezeichnet. Eine Abnahme der Intensität des Kontakts aus einer Intensität oberhalb der Kontaktdetektionsintensitätsschwellen IUm einer Intensität unterhalb des Kontaktintensitätsschwelle als Erfassungs Abheben des Kontakt vom Touch-Oberfläche IT ois manchmal bezeichnet. In einigen Ausführungsformen ITO Null. In einigen Ausführungsformen IUm größer als Null ist. In einigen Darstellungen einer schattigen Kreis oder Oval dient zur Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche darzustellen. In einigen Darstellungen ein Kreis oder ein Oval ohne Schattierung verwendet stellen einen entsprechenden Kontakt auf dem berührungsempfindlichen Oberfläche ohne Angabe der Intensität des jeweiligen Kontakts.
  • In einigen hierin beschriebenen Ausführungsformen werden eine oder mehrere Operationen in Reaktion auf das Erkennen einer Geste, die einen jeweiligen Press Eingang oder in Reaktion auf das Erfassen der jeweiligen Press Eingang mit einem jeweiligen Kontaktgeführt (oder eine Vielzahl von Kontakten), wobei enthält geführt die jeweilige Druckeingang detektiert zumindest teilweise auf Erfassung einer Zunahme in der Intensität des Kontakts (oder mehrere Kontakte) über einen Presseingangsintensitätsschwelle basiert. In einigen Ausführungsformen wird der entsprechende Vorgang in Reaktion auf das Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des Presseingangsintensitätsschwelle (zB eine ”Abwärtsbewegung” des jeweiligen Druckeingabe) durchgeführt. In einigen Ausführungsformen die Druckeingang umfasst eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb des Presseingabeintensitätsschwelle und einer anschließenden Abnahme der Intensität des Kontakts unterhalb der Presseingangsintensitätsschwelle, und die jeweilige Operation wird in Reaktion auf die Erfassung durchgeführt wird die anschließende Abnahme der Intensität der jeweiligen Kontakt unterhalb der Presseingangsschwelle (zB ein ”Aufwärtshub” des jeweiligen Druckeingang).
  • In einigen Ausführungsformen verwendet die Vorrichtung Intensität Hysterese, um versehentliche Eingaben manchmal als ”Jitter”, wobei die Vorrichtung bestimmt oder wählt einen Hysterese-Intensitätsschwelle mit einer vorgegebenen Beziehung zu dem Druckeingangsintensitätsschwelle (zB die Hysterese Intensitätsschwelle zu vermeiden, ist X Intensitätseinheiten niedriger als der Presse-Eingangsintensitätsschwelle oder die Hysterese Intensitätsschwelle beträgt 75%, 90% oder ein angemessener Anteil an der Presse-Eingangsintensitätsschwelle). Somit kann in einigen Ausführungsformen die Druckeingang beinhaltet eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb des Presseingabeintensitätsschwelle und einer anschließenden Abnahme der Intensität des Kontakts unterhalb der Hysterese-Intensitätsschwelle, die auf dem Presseingangsintensitätsschwellenwert entspricht, und die jeweilige Operation wird in Reaktion auf die Erfassung der nachfolgenden Abnahme der Intensität der jeweiligen Kontakt unterhalb der Hysterese Intensitätsschwelle durchgeführt (beispielsweise eine ”Aufwärtshub” der jeweiligen Press Eingang). Ähnlich wird in einigen Ausführungsformen wird die Druckeingang nur erkannt, wenn die Vorrichtung einen Anstieg der Intensität des Kontakts aus einer Intensität bei oder unterhalb der Hysterese Intensitätsschwelle zu einer Intensität bei oder oberhalb des Presseingangsintensitätsschwelle, und gegebenenfalls eine anschließende Abnahme der Intensität des Kontakts zu einer Intensität bei oder unterhalb der Hysterese der Intensität und der jeweilige Betrieb wird in Reaktion auf das Erfassen des Eingangspresse (zB die Erhöhung der Intensität des Kontakts oder der Abnahme der Intensität des Kontaktes je durch von den Umständen).
  • Für eine einfache Erläuterung wird die Beschreibung der Operationen in Reaktion auf einen Druckeingang mit einer Druckeingangsintensitätsschwelle oder in Reaktion auf eine Geste mit der Presse verbundenen Eingang durchgeführt werden, optional ausgelöst in Reaktion auf das Erfassen entweder einer Steigerung der Intensität eines Kontakts über der Presseingangsintensitätsschwelle, eine Erhöhung der Intensität eines Kontakts aus einer Intensität unterhalb des Hysterese-Intensitätsschwelle zu einer Intensität oberhalb der Presseingangsintensitätsschwellenwert, eine Verringerung der Intensität der Kontakt unter der Press-Eingabeintensitätsschwellenwert und/oder eine Abnahme der Intensität des Kontakts unterhalb der Hysterese Intensitätsschwellenwert entsprechend dem Druckeingangsintensitätsschwelle. Zusätzlich wird in den Beispielen, wo eine Operation wie die in Reaktion auf das Erfassen einer Abnahme der Intensität eines Kontakts unterhalb der Presseingangsintensitätsschwelle beschrieben durchgeführt, ist der Betrieb wahlweise in Reaktion auf die Erfassung einer Abnahme der Intensität des Kontakt unten durch eine Hysterese Intensitätsschwelle entspricht, und niedriger als die Presse-Eingangsintensitätsschwelle. Benutzerschnittstellen und zugehörigen Prozessen Providing Taktile Rückkopplung für von Arbeiten an einer Benutzeroberfläche Viele elektronische Geräte verfügen über grafische Benutzeroberflächen, die Benutzerschnittstellenobjekten gehören. Normalerweise gibt es viele Operationen, die an den Schnittstellenobjekten durchgeführt werden kann. Zum Beispiel kann ein Schnittstellenobjekt, um eine Führungslinie eingerastet oder aus einer Leitlinie entfernt werden. Ein weiteres Beispiel wäre das Bewegen eines Benutzerschnittstellenobjekt (zB eine Datei) in oder aus einem Ordner. Oft gibt es eine Notwendigkeit, eine effiziente und bequeme Möglichkeiten für die Nutzer, die Bewertung für Operationen auf diesen Benutzeroberfläche Objekten durchgeführt einräumen. Die Ausführungsformen unten auf bestehenden Verfahren zu verbessern, indem die Erzeugung taktiler Ausgänge für den Anwender entsprechend den durchgeführten Operationen.
  • Die 5A bis 5O zeigen beispielhafte Benutzerschnittstellen zum Bereitstellen von taktilen Feedback für den Betrieb in einer Benutzerschnittstelle in Übereinstimmung mit einigen Ausführungsformen durchgeführt. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der nachstehend unter Bezugnahme auf die 6A bis 6C beschriebenen Verfahren veranschaulichen.
  • 5A zeigt ein Beispiel einer Benutzerschnittstelle, die eine Benutzerschnittstellenobjekt umfasst. Benutzeroberfläche 10200 in den 5A5C wird auf der Anzeige 450 einer Vorrichtung (zB Vorrichtung 300) dargestellt ist und auf Kontakte (zB ein Fingerkontakt) auf berührungsempfindliche Oberfläche 451. Benutzeroberfläche 10200 beinhaltet Benutzeroberfläche Objekt 10202 und per einigen Ausführungsformen Objektplatzierung Führungs 10208. 5A veranschaulicht ferner Kontakt 10204 an Position 10204-a auf berührungsempfindliche Oberfläche 451 und einer angezeigten Darstellung eines Fokuswähler (zB Cursor 10206) entsprechend 10204 kontaktieren.
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einem separaten Display (zB Anzeige 450) und einen separaten berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung tragbaren Multifunktionsvorrichtung 100, die Anzeige berührungsempfindlichen Anzeigesystem 112, und die berührungsempfindliche Oberfläche enthält taktilen Ausgabeerzeuger 167 auf der Anzeige (1A). Zur Vereinfachung der Erläuterung mit Bezug auf die Figuren beschriebenen Ausführungsformen 5A–5O und 6A bis 6C beschrieben werden mit Bezug auf 450 angezeigt werden, und eine getrennte berührungsempfindliche Oberfläche 451, jedoch analoge Operationen werden gegebenenfalls auf einem Gerät mit einer durch berührungsempfindliche Anzeigesystem 112 in Reaktion auf die Detektion der in den 5A5O auf der berührungsempfindlichen Anzeigesystem 112 dargestellt, während die Darstellung der in den 5A5O auf der berührungsempfindlichen Anzeigesystem 112 gezeigt Benutzeroberflächen Kontakten; in solchen Ausführungsformen ist der Fokus Wähler, gegebenenfalls: a jeweiligen Kontakt eine repräsentative Punkt, der einem Kontakt (zB ein Schwerpunkt einer jeweiligen Kontakt oder ein mit einem entsprechenden Kontakt zugeordnet Punkt) oder ein Flächenschwerpunkt von zwei oder mehr Kontakte detektiert auf dem berührungsempfindlichen Display-System 112, anstelle von Cursor 10206.
  • Die 5A5B zeigen ein Beispiel für die Durchführung einer Operation, die Schnappen eine Benutzerschnittstellenobjekt in eine entsprechende Objektplatzierung Handbuch enthält. In diesem Beispiel erfasst die Vorrichtung Kontakt 10204 und 10210 Bewegung der Kontakt 10204 von Position 10204-a in 5A bis 10204-B in 5B am berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10210, die beweglichen Benutzeroberfläche Objekt 10206 innerhalb eines Schnapp Abstand von Objektplatzierung Führungs 10208 entspricht, rastet das Gerät Benutzeroberfläche Objekt 10202 in Objektplatzierung Führungs 10208 und erzeugt taktile Ausgabe 10211 auf berührungsempfindliche Oberfläche 451.
  • Die 5B5C zeigen ein Beispiel für die Umkehrung der in gezeigten Betriebs 5B–5C durch Einrasten eine Benutzeroberfläche Objekt aus einer entsprechenden Objektplatzierung Führer. In diesem Beispiel erfasst die Vorrichtung Kontakt 10204 und 10212 Bewegung der Kontakt 10204 von Position 10204-b in 5B zu 10204-c in 5C am berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10212, die beweglichen Benutzeroberfläche Objekt 10206 auf oder jenseits einer uns napping Abstand von Objektplatzierung Führungs 10208 entspricht, rastet das Gerät Benutzeroberfläche Objekt 10202 von Objektplatzierung Führungs 10208 (zB Umkehr der oben unter Bezugnahme Betrieb die 5A5B). Das Gerät erzeugt auch taktile Ausgabe 10213 auf berührungsempfindliche Oberfläche 451 in Reaktion auf die Bewegung 10212 Kontakt 10204, die zu schnappen Benutzeroberfläche Objekt 10202 von Objektplatzierung Führungs 10208 entspricht.
  • In einigen Ausführungsformen vergleicht die Vorrichtung eine entsprechende Zeitdauer zwischen der Bewegung 10210 in 5B und Bewegungs 10212 in 5C mit einer vorgegebenen Zeitschwelle (beispielsweise bestimmt die Vorrichtung eine Größe einer Pausenzeit zwischen dem Ende des Bewegungs 10210 und der Beginn der Bewegung 10212 und vergleicht die Größe der Pausenzeit mit der vorgegebenen Zeitschwelle). In einigen Ausführungsformen in Übereinstimmung mit einer Bestimmung, dass die jeweilige Zeitdauer (beispielsweise die Pausenzeit) zwischen der Bewegung und der Bewegung 10210 10212 kleiner als die vorgegebene Zeitschwelle, wobei die Vorrichtung verzichtet Erzeugen taktilen Ausgabe 10211 und/oder taktile Ausgabe 10213. Im Gegensatz dazu ist in einigen Ausführungsformen in Übereinstimmung mit einer Bestimmung, dass die jeweilige Zeitdauer (beispielsweise die Pausenzeit) zwischen Bewegung und Bewegung 10210 10212 größer als der vorgegebene Zeitschwelle, erzeugt das taktilen Ausgabegerät 10211 und taktilen Ausgabe 10213, wie oben näher beschrieben. In einigen Ausführungsformen, wenn die jeweilige Zeitdauer kleiner als die vorgegebene Zeitschwelle ist, die taktile Ausgabe entsprechend der Durchführung der Operation (beispielsweise taktile Ausgabe 10211) erzeugt wird, und die taktile Ausgabe zur Umkehr der Operation (beispielsweise taktile Ausgabe 10213 entspricht) wird nicht generiert. In einigen Ausführungsformen, wenn die jeweilige Zeitdauer kleiner als die vorgegebene Zeitschwelle ist, die taktile Ausgabe entsprechend der Durchführung der Operation (beispielsweise taktile Ausgabe 10211) und die taktile Ausgabe zur Umkehr der Betrieb entsprechend (z taktilen Ausgabe 10213) sind sowohl nicht erzeugt. In einigen Ausführungsformen, wenn die jeweilige Zeitdauer kleiner als die vorgegebene Zeitschwelle ist, die taktile Ausgabe entsprechend der Durchführung der Operation (beispielsweise taktile Ausgabe 10211) wird nicht erzeugt, und die taktile Ausgabe entsprechende Umkehrung der Operation (beispielsweise taktile Ausgabe 10213) erzeugt wird. Verzicht Erzeugen eines oder mehrerer Ausgangssignale entsprechend taktile und Rückführen der Operation, wenn die Operation ausgeführt wird, und umgekehrt schnell (zB bevor die vorgegebene Zeitschwelle abgelaufen ist) verhindert, dass taktile Ausgangssignale erzeugt, wenn der Benutzer versehentlich durchführt und dann kehrt die Operation. Diese taktile Ausgänge, würde wahrscheinlich, wenn sie erzeugt werden, zu verwirren den Benutzer oder ablenken den Benutzer von anderen wichtiger taktile und visuelle Rückmeldung. Als solche selektiven Suppression (zB Verzicht) Erzeugen taktile Ausgänge basierend auf einem oder mehreren vorgegebenen Zeitgrenzen, wie oben beschrieben, stellt eine effiziente und intuitive Benutzerschnittstelle, wodurch die Benutzerfreundlichkeit verbessert wird, wenn die Interaktion mit der Benutzerschnittstelle.
  • 5D zeigt ein weiteres Beispiel einer Benutzerschnittstelle, die eine Benutzerschnittstellenobjekt umfasst. In diesem Beispiel Benutzeroberfläche 10200 in 5D–5F umfasst Benutzeroberfläche Objekt 10222 und Ordner 10228, der ein Papierkorb verwendet, um Daten zum Löschen zu markieren ist. 5D zeigt weitere Kontakt 10224 an Position 10224-a auf berührungsempfindliche Oberfläche 451 und eine angezeigte Darstellung eines Fokus-Wahlschalter (zB Cursor 10206) entspricht 10224 kontaktieren.
  • Die 5D bis 5E zeigen ein Beispiel für eine Operation. In diesem Beispiel wird eine Operation beinhaltet Markierungsdaten entsprechend einem Anwenderschnittstellenobjekt zum Löschen. In diesem Beispiel erfasst die Vorrichtung Kontakt 10224 und 10230 Bewegung der Kontakt 10224 von Position 10224-A in 5D 10224-b in 5E am berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10230, bewegt sich das Gerät Benutzeroberfläche Objekt 10222 über Ordner 10228, wie in und den Gerätemarken Daten entsprechend Benutzeroberfläche Objekt 10222 zum Löschen gezeigt und erzeugt taktile Ausgabe 10231 auf berührungsempfindliche Oberfläche 451. Gegebenenfalls, Markierung des Benutzerschnittstellenobjekt zum Löschen wird in Reaktion auf die Erfassung eines Eingangs wie Abheben des Kontaktgeführt.
  • 5E–5F zeigen ein Beispiel für die Umkehrung der Operation in gezeigt 5D bis 5E durch Markierung aufheben Daten entsprechend einem Anwenderschnittstellenobjekt zum Löschen. In diesem Beispiel erfasst die Vorrichtung Kontakt 10224 und 10232 Bewegung der Kontakt 10224 von Position 10224-b in 5E bis 10224-c in 5F auf berührungsempfindliche Oberfläche zu positionieren 451. In Reaktion auf die Erkennung Bewegung 10232, bewegt sich das Gerät Benutzeroberfläche Objekt 102 von Ordnersymbol 10228 und deren Markierung aufheben Daten entsprechend Benutzeroberfläche Objekt 10202 zum Löschen (zB Umkehr der Datenmarkierungsvorgang oben mit Bezug auf beschrieben 5D–5E).Das Gerät erzeugt auch taktile Ausgabe 10233 auf berührungsempfindliche Oberfläche 451 in Reaktion auf die Bewegung des Kontakt 10232 10224, das Abwählen von Daten Benutzerschnittstellenobjekt zum Löschen 10222 entspricht. In Fällen, in denen die Kennzeichnung Benutzerschnittstellenobjekt zum Löschen wird in Reaktion auf die Erfassung eines Eingangs wie Abheben des Kontakts durchgeführt wird, ist der Kontakt 10224 in 5F gegebenenfalls eine andere Kontakt von der Kontakt 10224 in 5E.
  • 5G zeigt ein weiteres Beispiel einer Benutzerschnittstelle, die eine Benutzerschnittstellenobjekt umfasst. In diesem Beispiel die Benutzerschnittstelle 10200 in 5G bis 5I enthält Benutzerschnittstellenobjekt 10242, eine Datei in diesem Beispiel darstellt, und Ordner 10248, die ein Verzeichnis in einem Dateisystem. 5G veranschaulicht einen weiteren Kontakt in Position 10244 10244-a auf berührungsempfindliche Oberfläche 451 und einer angezeigten Darstellung eines Fokuswähler (zB Cursor 10206) entsprechend 10244 kontaktieren.
  • 5G5H veranschaulichen ein weiteres Beispiel der Durchführung einer Operation. In diesem Beispiel ist der Betrieb das Platzieren einer Datei in einem Verzeichnis. In diesem Beispiel erfasst die Vorrichtung Kontakt 10244 und 10250 Bewegung der Kontakt 10244 von Position 10244-A in 5G bis 10244-b in 5H am berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10250, bewegt sich das Gerät Benutzeroberfläche Objekt 10242 über Ordner 10248 und das Gerät stellt die Datei, von Benutzerschnittstellenobjekt 10242 vertreten, in dem Verzeichnis, nach Ordner 10248 vertreten und generiert taktile Ausgabe 10251 auf berührungsempfindliche Oberfläche 451. Gegebenenfalls Anordnen der Datei durch die Benutzerschnittstellenobjekt in dem Ordner dargestellt ist, in Reaktion auf das Erfassen eines Eingangs wie Abheben des Kontaktgeführt.
  • 5H5I zeigen ein Beispiel für die Umkehrung der in gezeigten Betriebs 5G–5H durch eine Datei zu entfernen aus einem Verzeichnis. In diesem Beispiel erfasst die Vorrichtung Kontakt 10244 und 10252 Bewegung der Kontakt 10244 von Position 10244-b in 5H 10244-c in 51 am berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10252, bewegt sich das Gerät Benutzeroberfläche Objekt 10242 von Ordnersymbol 10248 und entfernt die Datei vom User-Interface-Objekt 10242 vertreten aus dem Verzeichnisdargestellt durch Ordner 10248 (zB Umkehren der oben unter Bezugnahme auf 5G–5H beschriebenen Betrieb). Das Gerät erzeugt auch taktile Ausgabe 10253 auf berührungsempfindliche Oberfläche 451 in Reaktion Bewegung 10252 Kontakt 10244, die das Entfernen der Datei aus dem Verzeichnis entspricht. In Fällen, in denen die Datei dadurch von der Benutzerschnittstellenobjekt in dem Ordner dargestellt ist, in Reaktion auf das Erfassen eines Eingangs wie Abheben des Kontakts durchgeführt wird, ist der Kontakt 10244 in 51 gegebenenfalls eine andere Kontakt von der Kontakt 10244 in 5H.
  • 5J zeigt ein weiteres Beispiel einer Benutzerschnittstelle, die eine Benutzerschnittstellenobjekt umfasst. In diesem Beispiel Benutzeroberfläche 10200 in den 5J–5L enthält Benutzerschnittstellenobjekt 10262, was einer Anwendung (oder eine Anwendung zu starten Symbol) und Anwendungsstart Region 10268. 5 zeigt einen weiteren Kontakt J 10264 an Position 10264-a auf berührungsempfindliche Oberfläche 451 und einer angezeigten Darstellung eines Fokuswähler (zB Cursor 10206) entsprechend 10264 kontaktieren.
  • 5J 5K zeigen ein Beispiel für eine Operation. In diesem Beispiel ist der Betrieb das Anordnen eines Benutzerschnittstellenobjekt in einer Anwendungsstartbereich. In diesem Beispiel erfasst die Vorrichtung Kontakt 10264 und 10270 Bewegung der Kontakt 10264 von Position 10264-a in 5J 10264-b in 5K auf berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10270, bewegt sich das Gerät Benutzeroberfläche Objekt 10262 über Anwendungsstart Region 10268 und legt Benutzeroberfläche Objekt 10262 in Anwendungsstart Region 10268 und erzeugt taktile Ausgabe 10271 auf berührungsempfindliche Oberfläche 451. Gegebenenfalls, indem die Benutzerschnittstellenobjekt in der Anwendungsstartbereich in Reaktion auf das Erfassen eines Eingangs wie Abheben des Kontaktgeführt.
  • 5K5L zeigen ein Beispiel für die Umkehrung der in gezeigten Betriebs Die 5J–5K durch Entfernen eines Benutzerschnittstellenobjekt aus einer Anwendung Launch Region. In diesem Beispiel erfasst die Vorrichtung Kontakt 10264 und 10272 Bewegung der Kontakt 10264 von Position 10264-b in 5K bis 10264-c in 5L auf berührungsempfindlichen Oberfläche 451 zu positionieren. Als Reaktion auf die Erkennung von Bewegungen 10272, bewegt sich das Gerät Benutzeroberfläche Objekt 10262 von Anwendungsstart Region 10268 und entfernt Benutzeroberfläche Objekt 10262 von Anwendungsstart Region 10268 (zB Umkehr der oben mit Bezug auf die 5J–5K beschriebene Operation). Das Gerät erzeugt auch taktile Ausgabe 10273 auf berührungsempfindliche Oberfläche 451 in Reaktion auf die Bewegung 10272 Kontakt 10264, die auf die Beseitigung Benutzeroberfläche Objekt 10262 von Anwendungsstart Region 10268 entspricht. In Fällen, in denen Anordnen des Benutzerschnittstellenobjekt in der Anwendungsstartbereich in Reaktion auf das Erfassen eines Eingangs wie Abheben des Kontakts durchgeführt wird, ist der Kontakt 10264 in 5L gegebenenfalls eine andere Kontakt von der Kontakt 10264 in 5K.
  • Die 5M5O zeigen beispielhafte Wellenformen von Bewegungsprofilen für die Erzeugung der taktilen Ausgabe. zeigt eine Dreieck-Wellenform mit der Periode von 10.280 bis 1. veranschaulicht ein Rechtecksignal mit Periode 10280-2 und zeigt eine Sägezahn-Wellenform mit der Periode 10280-3. Eines dieser in dargestellten Bewegungsprofile 5M5O ist, wahlweise bei der Erzeugung einer fühlbaren Ausgabe entsprechend eine Operation (beispielsweise taktile Ausgänge 10211, 10231, 10251 oder 10271) oder eine Umkehroperation durchgeführt wird, verwendet werden (zB taktile Ausgänge 10213, 10233, 10253 oder 10273), wie oben diskutiert. In einigen Ausführungsformen wird eine weitere Wellenform verwendet, um taktile Ausgänge entsprechend den verschiedenen mit Bezug auf die 5A5L beschriebenen Operationen zu erzeugen, vor. In einigen Ausführungsformen können die taktilen Ausgaben entsprechend eine Operation (beispielsweise taktile Ausgänge 10211, 10231, 10251 oder 10271) werden mit der gleichen Wellenform erzeugt wird. In einigen Ausführungsformen können die taktilen Ausgaben entsprechend Umkehren eines Betriebs (beispielsweise taktile Ausgänge 10213, 10233, 10253 oder 10273) werden mit der gleichen Wellenform erzeugt wird. In einigen Ausführungsformen ist die taktile Ausgangssignale entsprechend eine Operation (beispielsweise taktile Ausgänge 10211, 10231, 10251 oder 10271) unter Verwendung einer ersten Wellenform, die sich von einer zweiten Signalform verwendet, um die taktile Ausgangssignale entsprechend Umkehren eines Betriebs zu erzeugen (beispielsweise taktile erzeugt wird Ausgänge 10213, 10233, 10253 oder 10273).
  • Die 6A bis 6C sind Flussdiagramme, die ein Verfahren der Bereitstellung 10300 taktile Rückmeldung für den Betrieb in einer Benutzerschnittstelle in Übereinstimmung mit einigen Ausführungsformen durchgeführt. Verfahren 10300 wird bei einer elektronischen Vorrichtung durchgeführt (zB Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 10300 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 10300 einen intuitiven Weg, taktiles Feedback für den Betrieb in einer Benutzerschnittstelle durchgeführt werden. Das Verfahren reduziert die kognitive Belastung für einen Benutzer bei der Durchführung von Operationen in einer Benutzerschnittstelle, wodurch eine effizientere Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die es einem Benutzer, um Operationen in einer Benutzeroberfläche schneller durchführen und effizienter Strom gespart und erhöht die Zeit zwischen Batterie lädt.
  • Das Gerät zeigt (10302) eine Benutzerschnittobjekt. 5A zeigt zum Beispiel Anwenderschnittstellenobjekt 10202, in der grafischen Benutzerschnittstelle 10200 angezeigt. Das Gerät erkennt (10304) einen Kontakt (zum Beispiel ein Fingerkontakt) auf der berührungsempfindlichen Oberfläche. Zum Beispiel zeigt Kontakt 10204 an Position 10204-a auf berührungsempfindliche Oberfläche 451.
  • Das Gerät erkennt (10306) eine erste Bewegung der Kontakt über die berührungsempfindliche Oberfläche, wo der erste Satz entspricht die Durchführung einer Operation auf der Benutzeroberfläche Objekt. Beispielsweise zeigt die 5B Kontakt 10204 und nachfolgende Bewegung 10210 auf berührungsempfindliche Oberfläche 451 entspricht, schnappen Benutzeroberfläche Objekt 10202 in Objektplatzierung Führungs 10208. In Reaktion auf die Erkennung (10310) die erste Bewegung, führt das Gerät (10312) den Betrieb und erzeugt (10314) eine erste taktile Ausgabe auf der berührungsempfindlichen Oberfläche. 5B, zeigt zum Beispiel Benutzerschnittstellenobjekt 10202 Einrasten in Objektplatzierung Führungs 10208 und taktile Ausgabe 10211 auf berührungsempfindliche Oberfläche 451 erzeugt.
  • Das Gerät erkennt (10316) eine zweite Bewegung der Kontakt über die berührungsempfindliche Oberfläche, wo der zweite Satz entspricht Umkehrung der Operation auf dem Benutzerschnittstellenobjekt. Beispielsweise zeigt 5C Kontakt 10204 und nachfolgende Bewegung 10212 auf berührungsempfindliche Oberfläche entsprechend schnappen Benutzeroberfläche Objekt 10202 von Objektplatzierung Führungs 10208.
  • In einigen Ausführungsformen oder Umstände, die erste Bewegung der Kontakt über die berührungsempfindliche Oberfläche und der zweiten Bewegung der Kontakt über die berührungsempfindliche Oberfläche sind (10318) Teil eines einzigen kontinuierlichen Geste, ohne ein Abheben der durchgeführten der Kontakt von der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen, auch wenn es eine Pause in der Bewegung des Kontakt, sind der erste Satz und der zweite Satz als Teil der gleichen kontinuierlichen Geste, solange der Kontakt weiterhin auf der berührungsempfindlichen Fläche erfasst werden kann. In einigen Ausführungsformen, wenn die gleiche erste und zweite Satz werden als Teil von zwei verschiedenen Gesten erkannt (zum Beispiel gibt es ein Abheben des Kontakts zwischen, wenn die erste Bewegung detektiert wird und wenn die zweite Bewegung erkannt wird), dann die gleiche taktile Ausgabe wird in Reaktion auf sowohl die Operation beendet und die Umkehrung der Operation) erzeugt. In einigen Ausführungsformen, wenn die gleiche erste und zweite Satz werden als Teil von zwei verschiedenen Gesten erkannt (zum Beispiel gibt es ein Abheben des Kontakts zwischen, wenn die erste Bewegung detektiert wird und wenn die zweite Bewegung erkannt wird), dann verschiedenen taktiles Ausgänge noch in Antwort auf sowohl die Operation beendet und Umkehr des Betriebs erzeugt. Zum Beispiel 5A–5C zeigen Kontakt 10204 sich von der Position a zu 10204- 10204-B (in den 5A5B gezeigt), der mit Schnappbenutzerschnittstellenobjekt 10202 bis 10208 Objekt Plazierungsführung, dann sich von der Position 10204-b entspricht positionieren auf Position 10204-c (in den 5B–5C gezeigt), die unsnapping Benutzeroberfläche Objekt 10202 von Objektplatzierung Führungs 10208 entspricht. In diesem Beispiel wird die taktile Ausgabe 10211 in Antwort erzeugt zu kontaktieren 10204 sich von der Position 10204-A in Position 10204-b und taktilen Ausgabe 10213 wird in Reaktion erzeugte kontaktieren 10204 sich von der Position 10204-b in die Position c-10204. In einigen Ausführungsformen taktilen Ausgabe 10213 (manchmal auch als das zweite taktile Ausgabe) in Reaktion auf das Erfassen einer Bewegung entspricht, Umkehr eine vorherige Operation an einem entsprechenden Benutzerschnittstellenobjekt erzeugt. In einigen Ausführungsformen taktilen Ausgabe 10211 (manchmal als das erste taktile Ausgabe) in Reaktion auf das Erfassen einer Bewegung entsprechend einer Operation, die nicht eine Umkehr einer vorherigen Operation (beispielsweise ein unmittelbar vor Betrieb) auf einer entsprechenden Benutzeroberfläche ausführen erzeugten Objekt.
  • In Reaktion auf die Erkennung (10320) der zweite Satz, das Gerät Rückschläge (10322) den Betrieb. Es sollte klar sein, dass Umkehr eine Operation nicht zwangsläufig die Durchführung einer exakten Spiegelbild des Verfahrens durchgeführt, um die Operation durchzuführen. Zum Beispiel, um ein Objekt an einer Führungs das Objekt auf eine Position innerhalb eines Schnapp Abstand von der Führung geführt wird, zu schnappen, während ein Objekt von der Führung zu bewegen, wird die Bewegung eines Kontakt erkannt, dass die Bewegung des Objekts mehr als entspricht ein unsnapping Abstand vom Führer, ohne Bezug auf die jeweilige Pfad durch den Kontakt oder das Objekt übernommen. 5C zeigt beispielsweise Benutzerschnittstellenobjekt aus der Objekt 10202 unsnapping Plazierungsführung 10208 und taktilen Ausgabe 10213, die sich von taktilen Ausgabe 10211 in 5B gezeigt, ist auf berührungsempfindliche Oberfläche 451 erzeugt.
  • In einigen Ausführungsformen der Durchführung der Operation enthält Einrasten (10324) der Benutzerschnittstellenobjekt (beispielsweise ein Bild, ein Textfeld, Form oder eine andere bewegliche Benutzerschnittstellenobjekt) in einem entsprechenden Objekt-Plazierungsführung und Umkehr des Betriebs enthält das Aufschnappen Benutzerschnittstellenobjekt aus dem jeweiligen Objektplatzierung Führer. In einigen Ausführungsformen Einrasten ein Benutzerschnittstellenobjekt in einen entsprechenden Objektpositionierungsführung eine Erfassungsbenutzergesteuerte Bewegung des Benutzerschnittstellenobjekt innerhalb einer vorgegebenen Entfernung von dem jeweiligen Objekt-Plazierungsführung und in Reaktion auf die Erfassung der vom Benutzer gesteuerte Bewegung des Benutzers Interface-Objekt innerhalb des vorgegebenen Abstand des jeweiligen Objektplatzierung Führer, automatisch bewegt (zB über geräte gesteuerte Bewegung) der jeweilige Benutzer-Schnittstellen-Objekt neben dem jeweiligen Objektplatzierung Führer. In einigen Ausführungsformen, wenn der Benutzerschnittstellenobjekt ist in einem jeweiligen Objektpositionierungsführung eingeschnappt worden ist, anschließende Bewegung der Kontakt über die berührungsempfindliche Fläche nicht eine Bewegung des Benutzerschnittstellenobjekt führen, bis eine vorgegebene Bedingung erfüllt ist. Insbesondere in einigen Ausführungsformen Einrasten ein Benutzerschnittstellenobjekt aus einem jeweiligen Objektpositionierungsführung das Erfassen der Bewegung eines Kontakts, der benutzergesteuerten Bewegung des Benutzerschnittstellenobjekt entsprechen würde mehr als einen vorgegebenen Abstand von dem jeweiligen Objektpositionierungsführung wenn das Objekt sich nicht auf dem jeweiligen Objekt-Plazierungsführung und in Reaktion auf das Erfassen der Bewegung des Kontakt, automatisches Bewegen (beispielsweise durch gerätegesteuerte Bewegung) der entsprechenden Benutzerschnittstellenobjekt, um eine Stelle auf der Anzeige, die entfernt ist von der schnappt jeweiligen Objektpositionierungsführung in Übereinstimmung mit der Bewegung des Kontakts auf der berührungsempfindlichen Oberfläche. Zum Beispiel 5A–5C zeigen Benutzeroberfläche Objekt 10202 Fangen Platzierungshilfe 10208 (5A–5B) widersprechen, dann schnappen Benutzeroberfläche Objekt 10202 von Objektplatzierung Führungs 10208 (5B–5C).
  • In einigen Ausführungsformen der Durchführung der Operation enthält Markierung (10326) Daten entsprechend der Benutzerschnittstellenobjekt zum Löschen (zB indem ein Iconentsprechend einer Datei in einem Papierkorb oder recycle-Ordner) und Umkehr des Betriebs umfasst Markierung aufheben die Daten entsprechend der Benutzerschnittstellenobjekt zum Löschen (zB Entfernen/Wiederherstellung auf ein Symbol, die einer Datei von einem Papierkorb oder recycle-Ordner). 5D–5F zum Beispiel Benutzerschnittstellenobjekt 10222 über bewegliche Papierkorb 10228 und verursacht das Gerät an, als Reaktion, mark Daten entsprechend Benutzeroberfläche Objekt 10222 zum Löschen (5D–5E), dann bewegt Benutzeroberfläche Objekt 10222 entfernt aus Papierkorb 10228 und verursacht das Gerät an, in der Antwort, die Markierung aufzuheben Daten entsprechend Benutzeroberfläche Objekt 10222 zum Löschen (5E–5F).
  • In einigen Ausführungsformen entspricht die Benutzerschnittstellenobjekt in eine Datei, die Operation beendet das Platzieren (10328) die Datei in einem Verzeichnis und die Umkehrung der Operation enthält das Entfernen der Datei aus dem Verzeichnis. Zum Beispiel in einigen Ausführungsformen der Durchführung der Operation enthält das Bewegen eines Benutzerschnittstellenobjekt, das eine graphische Darstellung einer Datei an einem Ort entsprechend einem Ordner-Symbol, das Verzeichnis und die Umkehrung der Operation umfasst das Entfernen das Symbol aus einer grafischen Darstellung der darstellt Ordner/Verzeichnis. 5G–5I zum Beispiel Benutzerschnittstellenobjekt 10242, entsprechend einer Datei, Bewegung über Ordner 10248 und verursacht das Gerät an, als Reaktion, legen Sie die Datei in einem Verzeichnis nach Ordner 10248 vertreten (5G–5H), dann bewegen Benutzerschnittstellenobjekt 10242 vom Ordner 10248 verursacht das Gerät an, als Reaktion, entfernen Sie die Datei aus dem Verzeichnis (5H5I).
  • In einigen Ausführungsformen entspricht die Benutzerschnittstellenobjekt zu einer Anwendung, die Durchführung der Betrieb das Anordnen (10330) die Benutzeroberfläche Objekt in einem Anwendungsstart Region und die Umkehrung der Operation beinhaltet das Entfernen der Benutzeroberfläche Objekt aus dem Anwendungsstart Region. Beispiele für eine Anwendung starten Region zählen ein Dock oder eine Schnellstartleiste. Zahlen 5J–5L zum Beispiel Benutzerschnittstellenobjekt 10262, entsprechend einer Anwendung, Bewegung über Anwendungsstart Region 10268 und verursacht das Gerät an, als Reaktion, Ort Benutzeroberfläche Objekt 10262 in Anwendungsstart Region 10.268 (Zahlen 5J–5K), dann bewegt Benutzeroberfläche Objekt 10262 von Anwendungsstart Region 10268 und verursacht das Gerät, in Reaktion, entfernen Sie Benutzerschnittstellenobjekt 10262 von Anwendungsstart Region 10.268 (Zahlen 5K–5L).
  • In Reaktion auf das Erkennen (10320) den zweiten Satz neben Umkehren der Betrieb erzeugt die Vorrichtung (10332) eine zweite taktile Ausgabe auf der berührungsempfindlichen Oberfläche, wobei das zweite taktile Ausgabe von der ersten verschiedenen taktiles Ausgang. Als Folge rückgängig macht die Vorrichtung die zuvor durchgeführte Operation In einigen Ausführungsformen das erste taktile Ausgabe von der zweiten taktile Ausgabe basierend auf Unterschieden in den Amplituden der taktilen Ausgänge. In einigen Ausführungsformen wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente erzeugt. Beispielsweise entspricht die erzeugte Bewegung auf einen Anfangsimpuls der ersten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz. In einigen Ausführungsformen wird der zweite Typ von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die einen zweiten dominanten Bewegungskomponente erzeugt. Beispielsweise entspricht die erzeugte Bewegung auf einen Anfangsimpuls des zweiten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz. In einigen Ausführungsformen der erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben (10334) eine gleiche Bewegungsprofil und unterschiedliche Amplituden. Zum Beispiel die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente die gleiche Bewegungsprofil, wenn das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche Wellenform, wie beispielsweise Rechteck, Sinus, Sägezahn oder Dreieck und annähernd gleichen Zeitraum.
  • In einigen Ausführungsformen das erste taktile Ausgabe von der zweiten taktile Ausgabe basierend auf Unterschieden in der Bewegungsprofile der taktilen Ausgänge. In einigen Ausführungsformen wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente erzeugt. Beispielsweise entspricht die erzeugte Bewegung auf einen Anfangsimpuls der ersten taktilen Ausgabe, bitte ignorieren unbeabsichtigte Resonanz. In einigen Ausführungsformen wird der zweite Typ von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die einen zweiten dominanten Bewegungskomponente erzeugt. Beispielsweise entspricht die erzeugte Bewegung auf einen Anfangsimpuls des zweiten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz. In einigen Ausführungsformen die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente (10336) unterschiedliche Bewegungsprofile und eine gleiche Amplitude. Zum Beispiel die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben verschiedene Bewegungsprofile, wenn die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine unterschiedliche Wellenform aufweisen, wie Rechteck, Sinus, Sägezahn oder Dreieck und/oder annähernd im gleichen Zeitraum.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 6A bis 6C beschrieben ist lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hier beschriebenen Verfahren (zum Beispiel, die in Absatz [0058]) in Bezug auf andere hier beschriebene Verfahren sind auch in analoger Weise zu Verfahren 10300 oben mit Bezug auf die 6A bis 6C beschrieben erhoben werden. Zum Beispiel können die Kontakte, Bewegungen, Benutzerschnittstellenobjekten, konzentrieren Selektoren und oben beschrieben taktile Ausgänge mit Bezug auf das Verfahren 10300 gegebenenfalls einen oder mehrere der Eigenschaften von Kontakten, Bewegungen, Benutzerschnittstellenobjekten, konzentrieren Selektoren und hierin beschrieben taktile Ausgängen mit Bezug zu anderen hier beschriebenen Verfahren (zB die in Absatz [0058]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 7 zeigt ein Funktionsblockdiagramm eines elektronischen Geräts 10400 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, die in 7 beschriebenen Funktionsblöcke sind, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 7 gezeigt, umfasst eine elektronische Vorrichtung eine Anzeigeeinheit 10400 10402 konfiguriert ist, um eine Benutzerschnittstelle Objekt anzuzeigen; eine berührungsempfindliche Oberfläche Einheit 10404 konfiguriert ist, dass Benutzer Kontakte erfassen; und eine Verarbeitungseinheit 10406 mit der Ladeeinheit 10402 und berührungsempfindliche Oberfläche Einheit 10404 anzuzeigen. In einigen Ausführungsformen umfasst die Verarbeitungseinheit eine Erfassungseinheit 10408, eine Anzeigefreigabeeinheit 10410, eine Durchführungseinheit 10412, eine Erzeugungseinheit 10414 und eine Umkehreinheit 10416.
  • Die Verarbeitungseinheit 10406 konfiguriert ist, um einen Kontakt auf der berührungsempfindlichen Oberfläche Einheit erfassen, erkennen eine erste Bewegung der Kontakt über die berührungsempfindliche Oberfläche Einheit (zB mit Erfassungseinheit 10408), den ersten Satz entsprechend der Durchführung eine Operation auf der Benutzerschnittstellenobjekt und in Reaktion auf das Erfassen des ersten Satzes; den Vorgang (beispielsweise mit Durchführungseinheit 10412) und ein erstes taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit (zB mit Erzeugungseinheit 10414). Die Verarbeitungseinheit 10406 ist ferner konfiguriert, um eine zweite Bewegung des Kontakt über die berührungsempfindliche Oberfläche Einheit (zB mit Erfassungseinheit 10408), den zweiten Satz entsprechende Umkehrung der Operation auf der Benutzerschnittstellenobjekt zu erfassen; und als Reaktion auf die Erfassung der zweite Satz, in umgekehrter Vorgang (zB mit Wendeeinheit 10416) und generiert ein zweites taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit (zB mit Erzeugungseinheit 10414), wo die zweite taktile Ausgabe anders ist das erste taktile Ausgabe. In einigen Ausführungsformen wird der erste Satz der Kontakt über die berührungsempfindliche Oberfläche Einheit und der zweiten Bewegung der Kontakt über die berührungsempfindliche Oberfläche Einheit sind Teil einer einzigen kontinuierlichen Geste, ohne ein Abheben des Kontakt aus durchgeführt die berührungsempfindliche Oberfläche Einheit 10404. In einigen Ausführungsformen der Durchführung der Operation (beispielsweise mit der Durchführungseinheit 10412) enthält Einschnappen des Benutzerschnittstellenobjekt in einen entsprechenden Objektplazierungsführung und Umkehr des Betriebs (beispielsweise mit der Umkehreinheit 10416) das Einschnappen des Benutzerschnittstellenobjekt aus dem jeweiligen Objektplatzierung Führer.
  • In einigen Ausführungsformen der Durchführung der Operation (beispielsweise mit der Durchführungseinheit 10412) enthält Markierungsdaten entsprechend der Benutzerschnittstellenobjekt zum Löschen und Umkehr des Betriebs (beispielsweise mit Wendeeinheit 10416) das hebt die Markierung die Daten entsprechend der Benutzer Interface-Objekt zum Löschen.
  • In einigen Ausführungsformen entspricht die Benutzerschnittstellenobjekt in eine Datei, Durchführen der Operation (beispielsweise mit der Durchführungseinheit 10412) das Platzieren der Datei in einem Verzeichnis und Umkehr des Betriebs (beispielsweise mit der Umkehreinheit 10416) umfasst das Entfernen die Datei aus dem Verzeichnis.
  • In einigen Ausführungsformen entspricht die Benutzerschnittstellenobjekt zu einer Anwendung, Durchführen der Operation (beispielsweise mit der Durchführungseinheit 10412) das Anordnen des Benutzerschnittstellenobjekt in einer Anwendungsstartregion und die Umkehrung der Operation (beispielsweise mit der Umkehreinheit 10416) umfasst das Entfernen des Benutzerschnittstellenobjekt aus dem Anwendungsstart Region.
  • In einigen Ausführungsformen der erste taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche Einheit, die eine erste dominante Bewegungskomponente erzeugt wird (zB mit der Erzeugungseinheit 10414), wird das zweite taktile Ausgabe erzeugt (zB bei der Erzeugungseinheit 10414) durch die Bewegung der berührungsempfindlichen Oberfläche Einheit, die einen zweiten dominanten Bewegungskomponente enthält, und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben einen gleichen Bewegungsprofil und unterschiedlichen Amplituden.
  • In einigen Ausführungsformen der erste taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche Einheit, die eine erste dominante Bewegungskomponente erzeugt wird (zB mit der Erzeugungseinheit 10414), wird das zweite taktile Ausgabe erzeugt (zB bei der Erzeugungseinheit 10414) durch die Bewegung der berührungsempfindlichen Oberfläche Einheit, die einen zweiten dominanten Bewegungskomponente enthält, und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben unterschiedliche Bewegungsprofile und eine gleiche Amplitude.
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (zB wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben Die Vorgänge mit Bezug auf die 6A bis 6C sind, gegebenenfalls durch in den 1AIB oder 7 dargestellten Komponenten implementiert. Zum Beispiel Erfassungsoperationen 10304 und 10306, die Operation durchführen 10312, Erzeugung Operationen 10314 und 10332, und Wendebetrieb 10322 sind wahlweise nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindliche Anzeige 112 und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 Anwendungs 136-1 vergleicht die Ereignisinformationen an die jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche entspricht einer vordefinierten Ereignis oder Unter Ereignis, wie Auswahl ein Objekt auf einer Benutzerschnittstelle. Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden., Die Änderungen in der Z-Reihenfolge der Objekte der Benutzeroberfläche Viele elektronische Geräte Display Objekte der Benutzeroberfläche, die eine Schicht Bestellung haben (Beispielsweise eine z-Ordnung bzw. Front-to-Back-Anordnung der Benutzerschnittstellenobjekte). Ein Benutzer interagiert typischerweise mit solchen Objekten durch Neupositionierung sie auf der Anzeige, und überlappenden Objekte auf der Anzeige in Übereinstimmung mit ihren Vorder- und Rück Ordnung (zB ein Objekt, das ”vor” einem anderen Objekt angezeigt wird angezeigt, wo die zwei Objekte überlappen). Zusätzlich zum Umsetzen der Objekte auf dem Display, möchte oft ein Benutzer die Vorder-an-Rücken Reihenfolge der Objekte auf der Anzeige zu ändern. In einigen Verfahren werden die Veränderungen in der z-Reihenfolge optisch angezeigt. Die nachfolgend beschriebenen Ausführungsformen verbessern zu diesen Methoden, indem sie für die taktile Ausgänge, wenn Objekte sich gegenseitig und ihre z-Reihenfolge ändert sich überlappen. Somit hat der Benutzer fühlbare als auch sichtbare Anzeige der Änderung der z-Reihenfolge, wenn die Objekte überlappen, und damit ihre Abdeckung einander mit der Änderung in der z-Reihenfolge.
  • Die 8A8S beispielhafte Benutzerschnittstellen zum Anzeigen von Änderungen in der z-Reihenfolge der Benutzerschnittstellenobjekten in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren veranschaulichen, wie die Prozesse in den 9A bis 9D. 8A–8S gehören Intensität Diagramme, die die Stromstärke des Kontakts auf der berührungsempfindlichen Oberfläche gegenüber einer Vielzahl von Intensitätsschwellen mit einer Lichtpresseintensitätsschwelle (zB ”IT L”) und eine tiefe Presseintensitätsschwelle (zB zeigen ”IT-D”),In einigen Ausführungsformen, Operationen ähnlich denen im folgenden unter Bezugnahme auf die ”IT D” mit Bezug auf einen unterschiedlichen Intensitätsschwelle (beispielsweise ”IT L”) durchgeführt.
  • 8A zeigt Objekte der Benutzeroberfläche 10506-1 und 10506-2 auf dem Display 450 angezeigt (zB Display 340, Touchscreen 112) eines Gerätes (zB Vorrichtung 300, 100). Objekte 10506 sind optional Fenstern jeweiligen Anwendungen, Formen oder andere Grafiken in einer Zeichnung oder Objekte (zB Textblock, Bild, etc.) in einer Präsentation. Objekte 10506-1 und 10506-2 sind mit einem Z-Reihenfolge angezeigt. In 8A ist Objekt von 10.506 bis 1 vor (oder ”oben”) Objekt 10506-2 in der Z-Reihenfolge, und ebenso ist Objekt 10.506-2 hinter (oder ”hinter” oder ”unten”) Objekt 10506-1 in der z-Reihenfolge. Wenn zwei Objekte nicht überlappen (beispielsweise Objekte 10506-1 und 10506-2 in 8A), deren z-Reihenfolge relativ zueinander kann nicht visuell einem Benutzer angezeigt werden. In 8D ist Aufgabe 10506-1 vor Aufgabe 10506-2 in der z-Reihenfolge und die relativen z-Reihenfolge wird dem Benutzer visuell angezeigt, wie Objekte überlappen 10506-1 und 10506-2, 10506-1 und Objekt zumindest einen Teil der Objekt 10506-2.
  • 8A zeigt auch Cursor 10504 auf dem Display 450 angezeigt. Cursor 10504 ist ein Beispiel für einen Fokus-Wahlschalter. Ein Benutzer wahlweise positioniert Cursor 10504 über ein Objekt 10506, um das Objekt zu fokussieren. In , wird Cursor 10504 über Objekt 10.506-1 entfernt.
  • 8B zeigt Kontakt 10510 auf berührungsempfindliche Oberfläche 451 erkannt. Während Kontakt 10510 basiert auf berührungsempfindliche Oberfläche 451 erfasst wird, eine Anfrage zum Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge bewegen wird vom Gerät empfangen (zB, wie in 8C gezeigt). Das Gerät empfängt die Anfrage wahlweise in der Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Oberfläche 451 ausgeführt (beispielsweise eine Geste mit Kontakt 10510 durchgeführt), während der Cursor über dem Objekt 10504 wird 10506-1 befindet, ein Anstieg in der Intensität Kontakt 10510 über einer Intensitätsschwelle, während der Cursor 10504 wird über Objekt 10506-1 befindet, oder eine Eingabe gemacht unter Verwendung einer Tastatur oder einem anderen Eingabegerät (zB eine Tastenkombination, eine Auswahl eines Menüpunktes mit der Tastatur oder einem anderen Eingabegerät). Die Intensität (und die Intensitätsänderung) ist, gegebenenfalls durch einen oder mehrere Sensoren erfaßt, in der Vorrichtung, die konfiguriert sind, um die Intensität der Kontakte mit berührungsempfindlichen Oberfläche 451 zu detektieren enthalten. In einigen Ausführungsformen, während der Kontakt 10510 hat eine Intensität zwischen landen IT D, der Benutzer aktiviert ist, um das Objekt mit den Cursor 10504 zugeordnet, indem Kontakt 10510 auf der berührungsempfindlichen Oberfläche bewegen.
  • In Reaktion auf die Anforderung (beispielsweise die Erhöhung der Intensität der Berührung von einer Intensität unterhalb IT Din 8B zu einer Intensität oberhalb Din 8C), Objekt 10506-1 unterhalb Objekt 10506-2 in der z-verschoben Reihenfolge. Die Änderung in der z-Reihenfolge ist gegebenenfalls nicht visuell dem Benutzer angezeigt, wenn Objekte 10506-1 und 10506-2 nicht überlappen, wie in 8C gezeigt. In Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-2 nicht überlappen Objekte wird keine taktile Ausgabe mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 zugeordnet erzeugt.
  • 8D zeigt Objekte 10506-1 und 10506-2 angezeigt wird, in einer Z-Reihenfolge, in der Objekt 10506-1 ist vor Objekt 10506-2, auf dem Display 450. In 8D, Objekte überlappen 10506-1 und 10506-2, mit Objekt 10506-1, die einen Teil des Objekts 10506-2. Cursor 10504 angezeigt wird, wie über Objekt 10.506-1 entfernt. Zum Beispiel in 8D, das Gerät erkannt Bewegung 10511 Kontakt 10512 nach unten und nach rechts auf der berührungsempfindlichen Oberfläche 451, während der Cursor 10504 war über Objekt 10506-1 und die Intensität des Kontakts 10512 lag zwischen landen IT D und in Reaktion auf das Erfassen der Bewegung des Kontakt 10511 10512 Die Vorrichtung bewegt den Cursor 10504 und Objekt 10506-1 nach unten und nach links auf der Anzeige 450 in Übereinstimmung mit der Bewegung des Kontakt 10512 auf der berührungsempfindlichen Oberfläche.
  • 8D zeigt auch Kontakt 10512 auf berührungsempfindliche Oberfläche 451 erkannt. Während Kontakt 10512 basiert auf berührungsempfindliche Oberfläche 451 erfasst wird, eine Anfrage zum Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge bewegen wird vom Gerät empfangen (zB, wie in 8C gezeigt). Das Gerät empfängt die Anfrage wahlweise in der Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Oberfläche 451 ausgeführt (beispielsweise eine Geste mit Kontakt 10512 durchgeführt), während der Cursor über dem Objekt 10504 wird 10506-1 befindet, ein Anstieg in der Intensität Kontakt 10512 über der Intensitätsschwelle, während der Cursor 10504 wird über Objekt 10506-1 befindet, oder eine Eingabe gemacht unter Verwendung einer Tastatur oder einem anderen Eingabegerät (zB eine Tastenkombination, eine Auswahl eines Menüpunktes mit der Tastatur oder einem anderen Eingabegerät).
  • In Reaktion auf die Anforderung (beispielsweise die Erhöhung der Intensität der Berührung von einer Intensität unterhalb IT Din 8D zu einer Intensität oberhalb Din 8E), Objekt 10506-1 unterhalb Objekt 10506-2 in der z- verschoben um, wie in 8E gezeigt. Mit dem Wechsel in z- Reihenfolge Objekt 10506-2 deckt nun einen Teil des Objekts 10506-1. In Übereinstimmung mit einem Entschlossenheit, die Objekte 10506-1 und 10506-2 Überlappung, eine taktile Ausgabe 10513 mit der Bewegung des Objekts 10.506-1 unten Objekt 10506-2 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.506-1 unten Objekt 10.506-2 erzeugt. Die taktile Ausgabe kann durch den Benutzer über Kontakt 10512 als taktile Empfindung wahrgenommen werden. In einigen Ausführungsformen wird die taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche 451 erzeugt wird, und die Bewegung weist eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform mit einer Wellenlänge, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn- oder Dreieck.
  • Viele elektronische Geräte Display Objekte der Benutzeroberfläche, die eine Schicht Bestellung haben (Beispielsweise eine z-Ordnung bzw. Front-to-Back-Anordnung der Benutzerschnittstellenobjekte). Ein Benutzer interagiert typischerweise mit solchen Objekten durch Neupositionierung sie auf der Anzeige, und überlappenden Objekte auf der Anzeige in Übereinstimmung mit ihren Vorder- und Rück Ordnung (zB ein Objekt, das ”vor” einem anderen Objekt angezeigt wird angezeigt, wo die zwei Objekte überlappen). Zusätzlich zum Umsetzen der Objekte auf dem Display, möchte oft ein Benutzer die Vorder-an-Rücken Reihenfolge der Objekte auf der Anzeige zu ändern.
  • Wenn somit die relative z-Ordnung zwischen zwei Objekten geändert wird, eine taktile Ausgabe erzeugt wird, wenn die zwei Objekte überlappen (beispielsweise 10513 in 8E) und einer taktilen Ausgabe nicht erzeugt wird, wenn die beiden Objekte nicht überlappen, (beispielsweise wie in 8C dargestellt). Die taktile Ausgabe gibt dem Benutzer einen Hinweis, dass die Änderung in der z-Reihenfolge beeinflußt, welches Objekt von dem anderen Objekt abgedeckt wird.
  • Die 8F8I zeigen ein Beispiel für das Verschieben eines Objekts in der z-Reihenfolge mit einer Steuerung zur Änderung des z-Reihenfolge. 8F zeigt Objekte 10506-1 und 10506-2, und Cursor-10504, auf dem Display 450 angezeigt. Objekte 10506-1 und 10506-2 sind in einer z- Reihenfolge vor Objekt 10506-2 in der z-Reihenfolge angezeigt, mit Objekt 10506-1. Z-Reihenfolge Schieber 10514 wird auch auf dem Display 450 angezeigt. Z-Reihenfolge Schieber 10514 beinhaltet Schieber Daumen 10516-1 und 10516-2. Thumb 10516-1 entspricht Objekt 10506-1 und Daumen 10516-2 entspricht Objekt 10506-2. Die Position eines Daumen 10516 relativ zu den anderen Daumen auf z-Reihenfolge Schieber 10514 entspricht der Lage des entsprechenden Objekts in der z-Reihenfolge. Zum Beispiel, wie in 8F dargestellt, einen Daumen 10516 ist auf Z-Reihenfolge Schieber 10514 desto weiter links, desto weiter vorne das entsprechende Objekt 10506 ist in der z-Reihenfolge. Somit ist Daumen 10516-1 links Faust 10516-2 entsprechend der z-Reihenfolge der Objekte 10506-1 und 10506-2, wie gezeigt. Es sollte beachtet werden, daß die Korrespondenz zwischen weiter auf z-Reihenfolge Schieber 10514 gelassen und das entsprechende Objekt weiter vorne in der z-Reihenfolge ist eine Designwahl; Gegebenenfalls wird der weiter rechts ein Daumen 10516 auf z-Reihenfolge Schieber 10514, desto weiter vorne das entsprechende Objekt 10506 ist in der z-Reihenfolge.
  • In 8F, erkennt das Gerät die Bewegung 10517 Kontakt 10518 nach unten auf der berührungsempfindlichen Oberfläche 451, und in Reaktion auf die Erkennung der Bewegung 10517 Kontakt 10518, Cursor geht das Gerät über 10504 Daumen 10516-1. 8G zeigt auch Kontakt 10518 auf berührungsempfindliche Oberfläche 451 erfasst wird, während Cursor 10504 wird über Daumen 10.506-1 entfernt. Die Geste inklusive Kontaktdaten 10518 beinhaltet Bewegung 10519 einer Kontakt 10518 auf berührungsempfindliche Oberfläche 451 während der Kontakt 10518 hat eine Intensität zwischen landen IT D. In Reaktion auf die Erkennung der Geste einschließlich Bewegung 10519 Kontakt 10518, Daumen 10.506-1 bewegt rechts am Schieber 10514 Vergangenheit Daumen 10516-2, so dass der Daumen 10516-2 ist auf der linken Daumen 10516-1 auf Schieber 10514, wie in 8G gezeigt ist. In Reaktion auf die Bewegung des Daumens 10516-1 auf der rechten Daumen 10516-2, 10506-1 Aufgabe, die Daumen 10516-1 entspricht, wird nach unten in der z-Reihenfolge bewegt wird, unter Aufgabe 10506-2. In Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-2 Überlappung Objekte, eine taktile Ausgabe 10513 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.506-1 unten Objekt generiert 10506-2. Die taktile Ausgabe kann durch den Benutzer über Kontakt 10518 als taktile Empfindung wahrgenommen werden. In einigen Ausführungsformen wird die taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche 451 erzeugt wird, und die Bewegung weist eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn oder Dreieck.
  • zeigt Objekte vor Objekt 10506-2 in der z-Reihenfolge auf dem Display 450 10506-1 und 10506-2 und Slider 10514 angezeigt, mit Objekt 10506-1. In , erkennt das Gerät die Bewegung 10521 Kontakt 10520 nach unten und nach rechts auf dem berührungsempfindlichen Oberfläche 451, und in Reaktion auf die Erkennung der Bewegung 10521 Kontakt 10520, Cursor geht das Gerät über 10504 Daumen 10516-2. zeigt auch Cursor 10504, über Daumen 10516-2, am Display 450 angezeigt und eine Geste einschließlich Bewegung 10523 Kontakt 10520 an die auf berührungsempfindliche Oberfläche 451 erfasst wird, während Cursor 10504 wird über Daumen 10516-2 liegt links. Die Geste inklusive Kontaktdaten 10520 beinhaltet Bewegung 10523 eines Kontakts auf berührungsempfindliche Oberfläche 451. In Reaktion auf die Erfassung der Geste einschließlich Kontakt 10520, 10516-2 Daumen nach links auf Schieber 10514 Vergangenheit Daumen 10516-1 bewegt, so dass der Daumen 10516-2 ist auf der linken Daumen 10516-1 auf Schieber 10514, wie in der Figur gezeigt 81. In Reaktion auf die Bewegung des Daumens 10516-2 links Faust 10516-1, 10506-2 Aufgabe, die Daumen 10516-2 entspricht, wird nach oben in die Z-Reihenfolge bewegt wird, vor der Aufgabe 10506-1. In Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-2 Überlappung Objekte, eine taktile Ausgabe 10513 mit dem Umzug von Objekt 10.506-2 obige Aufgabe 10506-1 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.506-2 obige Aufgabe generiert 10506-1. Die taktile Ausgabe kann durch den Benutzer über Kontakt 10520 als taktile Empfindung wahrgenommen werden. In einigen Ausführungsformen wird die taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche 451 erzeugt wird, und die Bewegung weist eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn oder Dreieck.
  • In einigen Ausführungsformen hat die taktile Ausgabe mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge zugeordnet einer Wellenlänge, bestimmt basierend auf einer Position des Objekts 10506-2 in der z-Reihenfolge vor auf den Empfang der Anforderung zum Objekt 10506-1 unten Objekt 10506-2 in der z-Reihenfolge zu bewegen.
  • zeigt Objekte der Benutzeroberfläche 10506-1, 10506-2 und 10506-3 auf dem Display 450 angezeigt. Objekte 10506-1, 10506-2 und 10506-3 sind mit einem z-Reihenfolge angezeigt. In ist Objekt 10.506-1 vor Objekten 10506-2 und 10506-3. Object 10506-3 ist vor Objekt 10.506-2 aber auf der Rückseite des Objektes 10506-1. Somit ist Aufgabe 10506-3 eine dazwischen Objekt zwischen Objekten 10506-1 und 10506-2 in der z-Reihenfolge, auch wenn es keine visuelle Anzeige dieser Reihenfolge in 8J. Objekte 10506-1 und 10506-3 nicht überlappen und Objekte überlappen 10506-1 und 10506-2 Cursor 10504 wird über Objekt 10.506-1 angezeigt.
  • zeigt Kontakt 10524 auf berührungsempfindliche Oberfläche 451 erkannt. Während Kontakt 10524 basiert auf berührungsempfindliche Oberfläche 451 erfasst wird, eine Anfrage zum Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge bewegen wird vom Gerät (zB eine Erhöhung der Intensität des Kontakts 10524 von einer Intensität unterhalb IT erhalten Lin zu einer Intensität über IT Din . Das Gerät empfängt die Anfrage wahlweise in der Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Oberfläche 451 ausgeführt (beispielsweise eine Geste mit Kontakt 10524 durchgeführt), während der Cursor über dem Objekt 10504 wird 10506-1 befindet, ein Anstieg in der Intensität Kontakt 10524 über der Intensitätsschwelle, während der Cursor 10504 wird über Objekt 10506-1 befindet, oder eine Eingabe gemacht unter Verwendung einer Tastatur oder einem anderen Eingabegerät (zB eine Tastenkombination, eine Auswahl eines Menüpunktes mit der Tastatur oder einem anderen Eingabegerät).
  • Als Reaktion auf die Anforderung, Objekt 10506-1 ist unten dazwischen Objekt 10.506-3 bewegt (zB beim Kontakt 10524 eine Intensität über IT Lin erreicht) und dann unter Objekt 10506-2 (zB bei Kontakt 10524 Lauf eine Intensität oberhalb Din 8M) in der z-Reihenfolge, wie in 8K8L gezeigt ist. Wenn Objekt 10.506-1 unterhalb Objekt 10.506-3 bewegt, in Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-3 nicht überlappen Objekte, keine taktile Ausgabe mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-3 zugeordnet wird erzeugt. Wenn Objekt 10.506-1 unterhalb Objekt 10.506-2 bewegt, in Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-2 Überlappung, eine taktile Ausgabe 10525 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 ist in diesen erzeugt werden Objekte Verbindung mit dem Umzug des Objekts 10.506-1 unten Objekt 10506-2. Die taktile Ausgabe kann vom Benutzer über Kontakt 10524 als Tastempfindung erfasst werden. In einigen Ausführungsformen wird die taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche 451 erzeugt wird, und die Bewegung weist eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn oder Dreieck.
  • zeigt Objekte der Benutzeroberfläche 10506-1, 10506-2 und 10506-3 auf dem Display 450 angezeigt. Objekte 10506-1, 10506-2 und 10506-3 sind mit einem z-Reihenfolge angezeigt. In ist Objekt 10.506-1 vor Objekten 10506-2 und 10506-3. Object 10506-3 ist vor Objekt 10.506-2 aber auf der Rückseite des Objektes 10506-1. Somit ist Gegenstand 10.506-3 eine intervenierende Objekt zwischen Objekten 10506-1 und 10506-2 in der z-Reihenfolge. Objekte 10506-1, 10506-2 und 10506-3 überlappen. Cursor 10504 wird über Objekt 10.506-1 angezeigt.
  • zeigt Kontakt 10526 auf berührungsempfindliche Oberfläche 451 erkannt. Während Kontakt 10526 basiert auf berührungsempfindliche Oberfläche 451 erfasst wird, eine Anfrage zum Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge bewegen wird vom Gerät (zB eine Erhöhung der Intensität des Kontakts 10526 von einer Intensität unterhalb IT erhalten Lin zu einer Intensität über IT Din ). In einigen Fällen empfängt die Vorrichtung die Anforderung in der Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Oberfläche 451 (zB eine Geste mit Kontakt 10526 durchgeführt), während der Cursor über dem Objekt 10504 wird 10506-1 befindet, ein Anstieg durch in der Intensität der Kontakt 10526 über der Intensitätsschwelle, während der Cursor 10504 wird über Objekt 10506-1 befindet, oder eine Eingabe gemacht unter Verwendung einer Tastatur oder einem anderen Eingabegerät (zB eine Tastenkombination, eine Auswahl eines Menüpunktes mit der Tastatur oder anderen Eingabevorrichtung).
  • Als Reaktion auf die Anforderung, Objekt 10.506-1 unterhalb Objekt 10.506-3 bewegt (zB beim Kontakt 10524 eine Intensität über IT Lin erreicht) und dann unter Objekt 10506-2 (zB bei Kontakt 10524 erreicht ein Intensität über IT DIN Bild 8o) in der z-Reihenfolge, wie sie in den 8N–8O gezeigt. Wenn Objekt 10.506-1 unterhalb Objekt 10.506-3 bewegt, in Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-3 Überlappung Objekte, eine taktile Ausgabe 10527 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-3 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.506-1 unten Objekt 10.506-3 erzeugt. Diese taktile Ausgabe mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-3 zugeordnet ist, kann vom User über Kontakt 10526 als Tastempfindung erfasst werden. Wenn Objekt 10.506-1 unterhalb Objekt 10.506-2 bewegt, in Übereinstimmung mit einer Entschlossenheit, die 10.506-1 und 10.506-2 Überlappung Objekte, eine taktile Ausgabe 10528 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.506-1 unten Objekt 10.506-2 erzeugt. Diese taktile Ausgabe mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 zugeordnet ist, kann vom User über Kontakt 10526 als Tastempfindung erfasst werden. In einigen Ausführungsformen sind die taktilen Ausgänge durch jeweilige Bewegungen der berührungsempfindlichen Oberfläche 451 erzeugt, und die jeweiligen Bewegungen jeweils eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn- oder Dreieck.
  • In einigen Ausführungsformen der taktile Ausgabe 10527 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-3 (nachfolgend ”Tactile Output A”) und der taktilen Ausgang zugeordnet 10528 mit dem Umzug von Objekt 10.506-1 unten Objekt 10506-2 nach dem Umzug unter Objekt 10506-3 (nachfolgend ”Tactile Output B”) assoziiert sind unterschiedlich. Zum Beispiel die dominante Bewegungskomponente für die taktile Ausgabe A 10527, gegebenenfalls eine andere Wellenlänge als die dominante Bewegungskomponente für die taktile Ausgabe B 10528. In einigen Ausführungsformen ist die Wellenlänge für die taktile Ausgabe A 10527 bestimmt wird basierend auf einer Position des Objekts 10506-3 in der z-Reihenfolge, und die Wellenlänge für die taktile Ausgabe B 10528 wird auf der Basis einer Position des Objekts in der z 10506-2-Auftrag.
  • In einigen Ausführungsformen die Wellenlänge Tactile Ausgang A 10527 wird auf der Basis einer Anzahl von Benutzerschnittstellenobjekten 10506, die Überschneidungen 10506-1, 10506-1, die zwischen Gegenstand und Objekt 10506-3 sind in der z-Reihenfolge wider. In einigen Ausführungsformen wird die Wellenlänge des Tactile Ausgang B 10528 auf der Grundlage einer Reihe von Benutzerschnittstellenobjekten 10506, dieses Objekt 10.506-1 Überschneidungen, die zwischen Objekt 10506-1 sind und Objekt 10506-2 in der z-Reihenfolge. Objekt 10.506-1 optional überlappt mehrere andere Objekte der Benutzeroberfläche in einem entsprechenden z-Reihenfolge Reihenfolge angeordnet, unabhängig davon, ob das Objekt von 10.506 bis 1 überschneidet sich mit Objekt 10506-2. Somit kann in einigen Ausführungsformen enthält die z-Reihenfolge wider 10506-1, die mehrere andere Benutzerschnittstellenobjekten hinter Objekt 10506-1, 10506-2 und Objekt. Somit wird, wenn Objekt 10.506-1 unterhalb Objekt 10506-2 in der z-Reihenfolge mit einem Antrag begründet, nach Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge zu verschieben, Objekt 10506-1 ist unten jeweils verschoben der mehrere andere Objekte der Benutzeroberfläche in Folge, bevor sie unter Objekt 10.506-2 bewegt. Für jedes der mehreren anderen Benutzerschnittstellenobjekten, die von 10.506 bis 1 bewegt sich unter Objekten wird eine taktile Ausgabe in Verbindung mit der Bewegung des Objekts 10506-1 unter dem entsprechenden Benutzerschnittstellenobjekt erzeugt. Somit wird, wie Objekt 10506-1 unterhalb der mehreren anderen Benutzerschnittstellenobjekte bewegt wird, eine Sequenz von taktilen Ausgänge erzeugt wird. In einigen Ausführungsformen wird die Abfolge von taktilen Ausgänge erzeugt, basierend auf einem mathematischen Progression. Zum Beispiel hat jede aufeinander taktile Ausgabe einer Wellenlänge, die doppelt so groß ist die Wellenlänge der vorhergehenden taktile Ausgabe. In einigen anderen Ausführungsformen wird die Abfolge von taktilen Ausgänge erzeugt, basierend auf einer musikalischen Progression. Zum Beispiel entspricht einer nächsten Note in einer vorgegebenen Tonleiter oder die gleiche Note in einem unteren Oktave jeder folgende taktile Ausgabe.
  • 8P8S zeigen ein Beispiel der oben mit Bezug auf die 8A bis 8O, die auf einer Vorrichtung mit einer berührungsempfindlichen Anzeigevorrichtung implementiert beschriebenen Benutzerschnittstellen (zB Vorrichtung 100 mit Touchscreen 112). Zahlen 8P–8Q Objekte 10532-1 und 10532-2 auf berührungsempfindliche Anzeige 112 angezeigt. Objekte 10532-1 und 10532-2, die sich nicht überlappen, werden in einer Z-Reihenfolge vor Objekt 10532-2 in der z- Reihenfolge angezeigt, mit Objekt 10532-1. zeigt Kontakt 10534 auf berührungsempfindliche Anzeige 112 an einer Position über Objekt 10532-1 nachgewiesen. Während Kontakt 10534 basiert auf berührungsempfindliche Anzeige 112 erfasst wird, eine Anfrage zum Objekt 10.532-1 unten Objekt 10532-2 in der z-Reihenfolge wird vom Gerät empfangen zu bewegen. Das Gerät empfängt wahlweise die Anforderung in Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Anzeige 112 (zB eine Geste mit Kontakt 10534 über Objekt 10532-1 oder mit einem anderen Kontakt auf berührungsempfindliche Anzeige 112 durchgeführt) oder durchgeführt ein Anstieg in der Intensität des Kontakts über dem Objekt 10534 10532-1 oberhalb des Intensitätsschwellenwert (beispielsweise eine Erhöhung der Intensität des Kontakts 10534 von einer Intensität unterhalb IT Din 8P einer Intensität oberhalb Din 8Q). In Reaktion auf die Anforderung, Objekt 10532-1 unterhalb Objekt 10532-2 in der z-Reihenfolge bewegt, wie in 8Q gezeigt ist. In Übereinstimmung mit einer Entschlossenheit, die 10.532-1 und 10.532-2 nicht überlappen Objekte wird keine taktile Ausgabe mit dem Umzug von Objekt 10.532-1 unten Objekt 10532-2 zugeordnet erzeugt. zeigt lappenden Objekten 10532-1 und 10532-2 auf berührungsempfindliche Anzeige 112 angezeigt. Objekte 10532-1 und 10532-2 sind in einer Z-Reihenfolge vor Objekt 10532-2 in der z-Reihenfolge angezeigt, mit Objekt 10532-1. zeigt auch Kontakt 10536 auf berührungsempfindliche Anzeige 112 an einer Position über Objekt 10532-1 nachgewiesen. Während Kontakt 10536 basiert auf berührungsempfindliche Anzeige 112 erfasst wird, eine Anfrage zum Objekt 10532-1 unten Objekt 10532-2 in der z-Reihenfolge wird vom Gerät empfangen zu bewegen. Das Gerät empfängt wahlweise die Anforderung in Form, beispielsweise eine Gesteneingabe auf berührungsempfindliche Anzeige 112 (zB eine Geste mit Kontakt 10536 über Objekt 10532-1 oder mit einem anderen Kontakt auf berührungsempfindliche Anzeige 112 durchgeführt) oder durchgeführt ein Anstieg in der Intensität des Kontakts über dem Objekt 10536 10532-1 oberhalb des Intensitätsschwellenwert (beispielsweise eine Erhöhung der Intensität des Kontakts 10536 von einer Intensität unterhalb IT Din 8R einer Intensität oberhalb Din 8S).
  • In Reaktion auf die Anforderung, Objekt 10532-1 unterhalb Objekt 10532-2 in der z-Reihenfolge bewegt, wie in 8S gezeigt. In Übereinstimmung mit einer Entschlossenheit, die 10.532-1 und 10.532-2 Überlappung Objekte, eine taktile Ausgabe 10537 mit dem Umzug von Objekt 10.532-1 unten Objekt 10532-2 zugeordnet wird in Verbindung mit dem Umzug des Objekts 10.532-1 unten Objekt generiert 10532-2. Die taktile Ausgabe kann vom Benutzer über Kontakt 10536 als Tastempfindung erfasst werden. In einigen Ausführungsformen wird die taktile Ausgabe durch Bewegung der berührungsempfindlichen Anzeige 112 erzeugt wird, und die Bewegung weist eine dominante Bewegungskomponente, die gegebenenfalls eine Wellenform, wie beispielsweise ein Rechteck, Sinus, squine, Sägezahn oder Dreieck. In einigen Ausführungsformen besitzt die taktile Ausgabe mit der Bewegung des Objekts 10532-1 Objekt unten 10532-2 in der z-Reihenfolge zugeordnet einer Wellenlänge, basierend auf einer Position des Objekts 10532-2 in der z-Reihenfolge auf den Empfang der festgestellt wird, bevor Anfrage zu Objekt 10.532-1 unten Objekt 10532-2 in der z-Reihenfolge zu bewegen.
  • Die 9A bis 9D sind Flußdiagramme, die ein Verfahren von 10600, die Änderungen in der z-Reihenfolge der Benutzerschnittstellenobjekten in Übereinstimmung mit einigen Ausführungsformen. Verfahren 10600 ist an einem elektronischen Gerät durchgeführt (zB Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 10600 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 10600 einen intuitiven Weise auf Änderungen in der z-Reihenfolge der Objekte der Benutzeroberfläche anzuzeigen. Das Verfahren reduziert die kognitive Belastung für einen Benutzer anzeigt, wenn Änderungen in der z-Reihenfolge der Benutzerschnittstellenobjekte, wodurch eine effizientere Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die es einem Benutzer, um Änderungen in der Z-Reihenfolge wahr der Benutzeroberfläche Objekte schneller und effizienter Strom gespart und erhöht die Zeit zwischen Batterie lädt.
  • Das Gerät wird (10602) eine Vielzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei die Mehrzahl von Benutzerschnittstellenobjekten einen z-Ordnung haben, die Mehrzahl von Benutzerschnittstellenobjekten umfasst eine erste Benutzerschnittstellenobjekt und einem zweiten Benutzerschnittstellenobjekt und die erste Benutzerschnittstellenobjekt ist oberhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge. Mehrere Benutzerschnittstellenobjekte, wie beispielsweise Objekte 10506-1 und 10506-2 oder 10532-1 und 10532-2 Objekte sind gegebenenfalls mit einem z-Reihenfolge angezeigt, wie in den 8A, 8D, oder 8P gezeigt. In 8A und 8D ist Objekt 10.506-1 obige Aufgabe 10506-2 in der z-Reihenfolge. In ist Objekt 10.532-1 obige Aufgabe 10532-2 in der z-Reihenfolge.
  • Während Erfassen eines Kontaktes (zB ein Fingerkontakt) auf der berührungsempfindlichen Oberfläche, erhält das Gerät (10604) eine Anfrage an den ersten Benutzer-Schnittstellen-Objekt unter dem zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu bewegen. Während beispielsweise ein Kontakt (zB kontaktieren 10510, 8A; kontaktieren 10512, 8D, kontaktieren 10518, 8F; kontaktieren 10520, ; kontaktieren 10524, 8J; kontaktieren 10526, ; kontaktieren 10534, ; Kontakt 10536, ), basiert auf der berührungsempfindlichen Oberfläche detektiert (zB berührungsempfindliche Oberfläche 451, berührungsempfindliche Anzeige 112), eine Anfrage an Objekt 10.506-1 unten Objekt 10.506-2 bewegen wird empfangen.
  • In einigen Ausführungsformen empfängt die Anforderung an die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt zu bewegen umfasst (10606), ein Fokuswähler ist über der ersten Benutzerschnittstellenobjekt, Erfassen einer Erhöhung der Intensität des Kontakts über eine jeweiligen Intensitätsschwelle (zB die tiefPresseIntensitätsSchwelle IT D) So wird der Benutzer intuitiv aktiviert, um den ersten Benutzerschnittstellenobjekt ”unten” drücken unter dem zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge. Zum Beispiel, während Kontakt Cursor 10504 über 10506-1 Objekt befindet, wird die Intensität des Kontaktes 10510 (oder 10512 oder 10524 in Verbindung zu treten oder 10526) ist, gegebenenfalls erhöhte sich von einer Intensität unterhalb IT Dto einer Intensität oberhalb D. In Ausführungsformen, wo das berührungsempfindliche Oberfläche ist ein berührungsempfindliches Display (zB berührungsempfindliche Anzeige 112), Empfang der Anforderung beinhaltet Erfassung einer Zunahme in der Intensität des Kontaktes (zB eine Erhöhung der Intensität des Kontakts 10534 oder 10536 über dem tiefen Presseintensitätsschwelle IT D), während der Kontakt über die erste Benutzerobjekt (zB Objekt 10532-1).
  • In einigen Ausführungsformen empfängt die Anforderung an die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt zu bewegen umfasst (10608), während die Anzeige einer Steuerung zum Ändern einer z-Reihenfolge der ersten Benutzerschnittstellenobjekt (beispielsweise ein Schieber oder andere Steuer die separate/die von der ersten Benutzerschnittstellenobjekt, das eine z-Ordnung des ersten Benutzerschnittstellenobjekt bestimmt ist), Erfassen eines Eingangs auf der Steuerung, die auf die Bewegung des ersten Benutzerschnittstellenobjekt nach unten in der z-Reihenfolge entspricht. Die Steuerung zur Änderung z-Reihenfolge ist wahlweise Schieber 10514 (8F). Während z-Reihenfolge Schieber 10514 angezeigt wird, eine Eingabe entsprechend bewegenden Objekts 10.506-1 nach unten (zB die Geste einschließlich Bewegung 10519 Kontakt 10518 auf berührungsempfindliche Oberfläche 451, während der Cursor 10504 ist über Schieberegler 10516-1) festgestellt wird. In Reaktion auf das Detektieren der Geste, einschließlich Bewegungs 10519 Kontakt 10518 die Vorrichtung bewegt Daumen 10516-1, 10506-1, die zum Objekt entspricht, auf Schieber 10514, die zu bewegenden Objekts 10506-1 nach unten in der z-Reihenfolge entspricht.
  • In einigen Ausführungsformen empfängt die Anforderung an die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt zu bewegen umfasst (10610), während die Anzeige einer Steuerung zum Ändern einer z-Reihenfolge der zweiten Benutzerschnittstellenobjekt (beispielsweise ein Schieber oder andere Steuer die separate/die sich von dem zweiten Benutzerschnittstellenobjekt, das eine z-Ordnung des ersten Benutzerschnittstellenobjekt bestimmt ist), Erfassen eines Eingangs an der Steuerung, zum Bewegen des zweiten Benutzerschnittstellenobjekt nach oben in der Z-Ordnung entspricht. Die Steuerung zur Änderung z-Reihenfolge ist wahlweise Schieber 10514 ( ). Während z-Reihenfolge Schieber 10514 angezeigt wird, eine Eingabe entsprechend bewegenden Objekts 10.506-2 nach oben (zB die Geste einschließlich Bewegung 10523 Kontakt 10520 auf berührungsempfindliche Oberfläche 451, während der Cursor 10504 ist über Schieberegler 10516-2) festgestellt wird. In Reaktion auf das Detektieren der Geste, einschließlich Bewegungs 10523 Kontakt 10520, wobei die Vorrichtung bewegt Daumen 10516-2, das entspricht Objekt 10506-2, auf Schieber 10514, die zu bewegenden Objekts 10506-2 nach oben in der Z-Ordnung entspricht.
  • In Reaktion (10612) auf die Anfrage, das Gerät bewegt (10614) die erste Benutzeroberfläche Objekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge. In Reaktion auf die Anforderung, Objekt 10506-1 (oder 10532-1) unterhalb Objekt 10506-2 (oder 10532-2) in der z-Reihenfolge bewegt, wie in 8C (oder 8E und 8G bzw. 81 bzw. 8L gezeigt, oder 8O oder 8Q oder 8S).
  • In Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil der zweiten Benutzerschnittstellenobjekt, erzeugt die Vorrichtung (10616) eine taktile Ausgabe (zB 10513 in 8E, 8G bzw. 81; 10525 in 8L; 10528 in 8O oder in Figur 10537 8S) mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert. Wenn Objekte 10506-1 und 10506-2 (oder Objekte 10532-1 und 10532-2) überlappen, wie in den 8D–8O oder 8R–8S, eine taktile Ausgabe mit dem Umzug von Objekt 10506-1 zugeordnet gezeigt (oder Objekt 10532-1) unter Objekt 10506-2 (oder Objekt 10532-2) wird generiert, wenn Objekt 10506-1 (oder Objekt 10532-1) unterhalb Objekt 10.506-2 bewegt (oder Objekt 10532-2). In einigen Ausführungsformen kann die taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert ist (10618) eine Wellenlänge, die auf den Empfang der Anfrage bestimmt wird basierend auf einer Position der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge vor um die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu bewegen (beispielsweise die untere der erste Benutzerschnittstellenobjekt in z-Reihenfolge bewegt wird, desto geringer ist die Steigung der taktilen Ausgabe). Beispielsweise der taktile Ausgabe mit sich bewegenden Objekts unter 10506-1 10506-2 verbunden ist, eine Wellenlänge, basierend auf einer Position des Objekts 10506-2 in der z-Reihenfolge auf den Empfang der Anforderung zum Objekt 10506-1 Objekt unten bewegen ermittelt wird, bevor 10506-2 in der z-Reihenfolge.
  • In Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt die zweiten Benutzerschnittstellenobjekt nicht überlappen, verzichtet (10620) Erzeugen der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert. Wenn Objekte 10506-1 und 10506-2 (oder Objekte 10532-1 und 10532-2) nicht überlappen, wie in den 8A–8C oder 8P–8Q), keine taktile Ausgabe mit dem Umzug von Objekt 10506-1 (assoziiert gezeigt oder Objekt 10532-1) unter Objekt 10506-2 (oder Objekt 10532-2) wird generiert, wenn Objekt 10506-1 (oder Objekt 10532-1) unterhalb Objekt 10.506-2 bewegt (oder Objekt 10532-2).
  • In einigen Ausführungsformen überlappt die erste Benutzerschnittstellenobjekt (10622) zumindest einen Teil der zweiten Benutzerschnittstellenobjekt, wenn wenigstens ein Teil der ersten Benutzerschnittstellenobjekt wenigstens einen Teil der zweiten Benutzerschnittstellenobjekt umfasst. In einigen Ausführungsformen der erste Benutzerschnittstellenobjekt überlappt teilweise die zweite Benutzerschnittstellenobjekt. In einigen Ausführungsformen vollständig überlappt der erste Benutzerschnittstellenobjekt der zweiten Benutzerschnittstellenobjekt (beispielsweise die erste Benutzerschnittstellenobjekt umfasst alle der zweiten Benutzerschnittstellenobjekt). Zum Beispiel in 8A, Objekte 10506-1 und 10506-2 nicht überlappen, und in 8D Objekte überlappen 10506-1 und 10506-2.
  • In einigen Ausführungsformen umfasst die Vielzahl von Benutzerschnittstellenobjekten (10624) ein dazwischenBenutzerSchnittStellenObjekt und dem dazwischenBenutzerSchnittStellenObjekt hat eine Position in der z-Reihenfolge zwischen der ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt. Wie in den 8 und J 8M gezeigt, zum Beispiel gibt es, wahlweise eine dazwischen Objekt 10506-3 zwischen Objekten 10506-1 und 10506-2 in der z-Reihenfolge. In einigen Ausführungsformen gibt es, wenn eine dazwischenBenutzerSchnittStellenObjekt in Reaktion (10612) auf die Anforderung, um die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu verschieben, die Vorrichtung bewegt (10630) der ersten Benutzerschnittstelle Objekt unter dem dazwischen Benutzeroberfläche Objekt in der z- Reihenfolge vor dem Bewegen der ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge. In Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil des dazwischenBenutzerSchnittStellenObjekt erzeugt die Vorrichtung (10632) auf der berührungsempfindlichen Oberfläche, eine taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unterhalb der zugehörigen dazwischenBenutzerSchnittStellenObjekt in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekt unter dem dazwischen Benutzeroberfläche Objekt. In Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt ist die dazwischenBenutzerSchnittStellenObjekt nicht überlappen, verzichtet die Vorrichtung die Erzeugung der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der dazwischenBenutzerSchnittStellenObjekt assoziiert. Als Antwort auf die Anfrage, um Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge zu verschieben, Objekt 10.506-1 unterhalb Objekt 10506-3 auf dem Weg zum unterhalb Objekt 10506-2 in der z-Reihenfolge bewegt wird, wie in 8J–8O gezeigt. Wenn Objekte 10506-1 und Objekt 10506-3 überlappen sich nicht, wie in den Figuren dargestellt 8J–8K, keine taktile Ausgabe mit dem Umzug von Objekten 10.506-1 unten Objekt 10506-3 zugeordnet wird erzeugt. Wenn Objekte 10506-1 und Objekt 10.506-3 Überlappung, wie in den 8M–8N, eine taktile Ausgabe mit dem Umzug von Objekten 10.506-1 unten Objekt 10.506-3 erzeugt zugeordnet dargestellt.
  • In einigen Ausführungsformen überlappt die erste Benutzerschnittstellenobjekt (10635) der dazwischenBenutzerSchnittStellenObjekt und dem zweiten Benutzerschnittstellenobjekt und in Reaktion (10612) auf die Anforderung, um die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt zu bewegen in der z-Reihenfolge erzeugt die Vorrichtung (10636) eine erste taktile Ausgabe, auf der berührungsempfindlichen Oberfläche, mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der dazwischenBenutzerSchnittStellenObjekt zugeordnet ist, vor der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Ordnung; und erzeugt (10638) eine zweite taktile Ausgabe, auf der berührungsempfindlichen Oberfläche, mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt, wobei das erste taktile Ausgabe von der zweiten taktile Ausgabe verbunden. Zum Beispiel, wie in 8M gezeigt Objekt 10506-1 überlappt Objekt 10506-3 und 10506-2 Objekt. Als Antwort auf die Anfrage, um Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge zu verschieben, Objekt 10.506-1 unterhalb Objekt 10.506-3 bewegt und zog dann unter Objekt 10506-2 in der z-Reihenfolge. Als Objekt 10506-1 überschneidet sich mit Objekt 10506-3 und Objekt 10506-2 wird Tactile Ausgang A 10527 für den Umzug von Objekt 10.506-1 unten Objekt 10.506-3 erzeugt und Tactile Ausgang B 10528 wird für den Umzug von Objekt 10506 generiert -1 Objekt darunter 10506-2. Taktile Ausgang A 10527 und taktile Ausgabe B 10528 sind wahlweise anders. Zum Beispiel Tactile Ausgang A 10527 und taktile Ausgabe B 10528 optional unterschiedliche Wellenlängen oder Amplitude.
  • In einigen Ausführungsformen ist die erste taktile Ausgabe (10640) durch die Bewegung der berührungsempfindliche Oberfläche, die eine erste dominante Bewegungskomponente enthält (zB Bewegung, die einem Anfangsimpuls der ersten taktilen Ausgabe ignoriert unbedachtes Resonanz erzeugt) wird der zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine zweite dominante Bewegungskomponente beinhaltet erzeugt (zB Bewegung, die einem Anfangsimpuls des zweiten taktilen Ausgabe, ohne Berücksichtigung einer etwaigen unbeabsichtigten Resonanz), und der erste dominante Bewegungskomponente und die zweite Bewegungskomponente dominant unterschiedliche Wellenlängen (beispielsweise unter Beibehaltung einer gleichen Bewegungsprofil wie einer gleichen Wellenform wie beispielsweise Rechteck, Sinus, squine, Sägezahn oder Dreieck und/oder unter Beibehaltung einer gleichen Amplitude). Taktile Ausgang A 10527 und taktile Ausgabe B 10528 jeweilige dominante Bewegungskomponenten, die unterschiedliche Wellenlängen haben. So kann Tactile Ausgang A 10527 für den Umzug unter Objekt 10506-3 und taktile Ausgabe B 10528 für den Umzug unter Objekt 10.506-2 fühlen sich anders an den Benutzer.
  • In manchen Ausführungsformen ist die Wellenlänge des ersten taktilen Ausgang (10642), die basierend auf einer Position des dazwischen Benutzerschnittstellenobjekt in der z-Reihenfolge, und die Wellenlänge des zweiten taktile Ausgabe wird auf der Grundlage einer Position der die zweite Benutzerschnittstellenobjekt in der z-Reihenfolge (zB die taktile Ausgabe, die erzeugt wird, wenn der erste Nutzer-Schnittstellen-Objekt an einer jeweiligen Benutzerschnittstellenobjekt bewegt wird, wird auf der Grundlage einer absoluten Position der entsprechenden Benutzerschnittstellenobjekt in der z- Ordnung, die Rückmeldung bietet dem Benutzer, wie weit die erste Benutzeroberfläche Objekt wurde nach unten in die Z-Reihenfolge gedrückt). In den 8M8O, zum Beispiel die Wellenlänge des Tactile Ausgang A 10527 ist, wahlweise, basierend auf der absoluten Position des Objekts 10506-3 in der z-Reihenfolge, und die Wellenlänge des Ausgangs Tactile B 10528 bestimmt wird, wahlweise fest basierend auf der absoluten Position des Objekts 10506-2 in der z-Reihenfolge.
  • In manchen Ausführungsformen ist die Wellenlänge des ersten taktilen Ausgang (10644) bestimmt wird basierend auf einer Anzahl von Benutzerschnittstellenobjekte, die die erste Benutzerschnittstellenobjekt überlappt, die zwischen der ersten Benutzerschnittstellenobjekt und dem dazwischenBenutzerSchnittStellenObjekt in dem sich z-Reihenfolge. In den 8M8O, zum Beispiel die Wellenlänge des Tactile Ausgang A 10527 ist, wahlweise, basierend auf der Anzahl von Benutzerschnittstellenobjekten, die Objekt 10506-1 überlappen und zwischen Objekt 10506-1 und 10506-3 Objekt in z bestimmt-Auftrag.
  • In einigen Ausführungsformen ist die Wellenlänge des zweiten taktilen Ausgang (10646) bestimmt wird basierend auf einer Anzahl von Benutzerschnittstellenobjekte, die die erste Benutzerschnittstellenobjekt überlappt, die zwischen der ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt in dem sich z-Reihenfolge (zB die taktile Ausgabe, die erzeugt wird, wenn der erste Nutzer-Schnittstellen-Objekt an einer jeweiligen Benutzerschnittstellenobjekt bewegt wird, wird auf der Grundlage, wie viele andere Gegenstände zwischen der ersten Benutzerschnittstellenobjekt und dem entsprechenden Objekt, das Feedback liefert der Benutzer, wie weit das Benutzerschnittstellenobjekt ist in eine ”lokale” z-Reihenfolge für Objekte, die in dem gleichen allgemeinen Bereich der Benutzerschnittstelle sind, und einander überlappen) geschoben. In den 8M8O, zum Beispiel die Wellenlänge des Ausgangs Tactile B 10528 ist, wahlweise auf der Basis der Anzahl von Benutzerschnittstellenobjekten, die Objekt 10506-1 überlappen und zwischen Objekt 10506-1 und 10506-2 Objekt in z- -Auftrag.
  • In einigen Ausführungsformen die erste Benutzerschnittstelle überlappt (10648) eine Vielzahl von anderen Benutzerschnittstellenobjekten in einem entsprechenden z-Reihenfolge-Sequenz und einem nächsten taktilen Ausgabe angeordnet (beispielsweise ein Pitch/Wellenlänge/Intensität des nächsten taktilen Ausgabe) entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einer nächsten Benutzerschnittstellenobjekt in der z-Reihenfolge-Sequenz auf einem mathematischen Progression von einem vorherigen taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einem Stand Benutzerschnittstellenobjekt in der z-basierten -dem Sequenz (zB verdoppelt jeder aufeinanderfolgende taktilen Ausgabe die Wellenlänge des Standes der taktilen Ausgabe).
  • In einigen Ausführungsformen die erste Benutzerschnittstelle überlappt (10650) eine Vielzahl von anderen Benutzerschnittstellenobjekten in einem entsprechenden z-Reihenfolge-Sequenz und einem nächsten taktilen Ausgabe angeordnet (beispielsweise ein Pitch/Wellenlänge/Intensität des nächsten taktilen Ausgabe) entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einer nächsten Benutzerschnittstellenobjekt in der z-Reihenfolge-Sequenz auf einem musikalischen Übergang von einer vorherigen taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einem Stand Benutzerschnittstellenobjekt in der z-basierten -dem Sequenz (zB entspricht jede folgende taktile Ausgabe in eine nächste Note in einer vorgegebenen Tonleiter oder die gleiche Note in einem unteren Oktave).
  • Beispielsweise kann in einigen Fällen wider 10506-1 überlappt mehrere andere Benutzerschnittstellenobjekten in einem entsprechenden z-Reihenfolge-Sequenz, unabhängig davon, ob Objekt 10506-1 überlappt Objekt 10506-2 angeordnet. Somit kann in einigen Ausführungsformen enthält die z-Reihenfolge wider 10506-1, die mehrere andere Benutzerschnittstellenobjekten hinter Objekt 10506-1, 10506-2 und Objekt. Somit wird, wenn Objekt 10.506-1 unterhalb Objekt 10506-2 in der z-Reihenfolge mit einem Antrag begründet, nach Objekt 10.506-1 unten Objekt 10506-2 in der z-Reihenfolge zu verschieben, Objekt 10506-1 ist unten jeweils verschoben der mehrere andere Objekte der Benutzeroberfläche in Z-Reihenfolge-Sequenz, bevor unterhalb Objekt 10.506-2 bewegt. In diesem Beispiel wird für jede der mehreren anderen Benutzerschnittstellenobjekten, die von 10.506 bis 1 bewegt sich unter Objekten, eine taktile Ausgabe wird in Verbindung mit der Bewegung des Objekts 10506-1 unterhalb der jeweiligen anderen Anwenderschnittstellenobjekt erzeugt. Somit wird, wie Objekt 10506-1 unterhalb der mehreren anderen Benutzerschnittstellenobjekte bewegt wird, eine Sequenz von taktilen Ausgänge erzeugt wird. In einigen Ausführungsformen wird die Abfolge von taktilen Ausgänge erzeugt, basierend auf einem mathematischen Progression. Zum Beispiel hat jede aufeinander taktile Ausgabe einer Wellenlänge, die doppelt so groß ist die Wellenlänge der vorhergehenden taktile Ausgabe. In einigen anderen Ausführungsformen wird die Abfolge von taktilen Ausgänge erzeugt, basierend auf einer musikalischen Progression. Zum Beispiel entspricht einer nächsten Note in einer vorgegebenen Tonleiter oder die gleiche Note in einem unteren Oktave jeder folgende taktile Ausgabe.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 9A bis 9D beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hierin mit Bezug auf andere hier beschriebene Verfahren beschriebenen Verfahren (zum Beispiel, die in Absatz [0058]) sind ebenfalls in einer analogen Weise zu Verfahren 10600 oben mit Bezug auf die 9A bis 9D beschrieben werden erhoben. Beispielsweise die Kontakte, Gesten und Benutzerschnittstellenobjekten, taktile Ausgänge Intensitätsschwellen, und konzentrieren sich oben mit Bezug auf Verfahren 10600 beschriebenen Selektoren gegebenenfalls eine oder mehrere der Eigenschaften der Kontakte, Gesten und Benutzerschnittstellenobjekten, taktile Ausgänge Intensitäts Schwellenwerte und Fokus Selektoren hier mit Bezug auf anderen hier beschriebenen Methoden beschrieben (zB die in Absatz [0058]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 10 zeigt ein Funktionsblockdiagramm eines elektronischen Geräts 10700 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, das in beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 10 gezeigt ist, umfasst eine elektronische Vorrichtung eine Anzeigeeinheit 10700 10702 konfiguriert ist, eine Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit 10702, wo angezeigt: die Mehrzahl von Benutzerschnittstellenobjekten einen z-Ordnung haben, die Mehrzahl von Benutzerschnittstellenobjekten umfasst eine erste Benutzerschnittstellenobjekt und einem zweiten Benutzerschnittstellenobjekt, und der erste Benutzerschnittstellenobjekt ist oberhalb der zweiten Benutzerschnittstellenobjekt in der z-Ordnung; eine berührungsempfindliche Oberfläche Einheit 10704 konfiguriert ist, um Kontakte zu empfangen; und eine Verarbeitungseinheit 10706, um die Anzeigeeinheit 10702 und die berührungsempfindliche Oberfläche Einheit 10704 verbunden. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 10706 eine Empfangseinheit 10708, eine Bewegungseinheit 10710 und eine Erzeugungseinheit 10712.
  • Die Verarbeitungseinheit 10706 konfiguriert ist: beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche Einheit 10704, erhalten eine Aufforderung, den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge (zB zu verschieben, mit dem Empfangseinheit 10708); und als Antwort auf die Anfrage: bewegen Sie den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge (zB mit der Bewegungseinheit 10710); in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil der zweiten Benutzerschnittstellenobjekt, erzeugen eine taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche Einheit 10704 in zugehörigen Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt (zB mit der Erzeugungseinheit 10712); und in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt nicht die zweite Benutzerschnittstellenobjekt überlappen, zu verzichten Erzeugung der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt (zB mit der Erzeugungseinheit 10712) zugeordnet sind.
  • In einigen Ausführungsformen überlappt die erste Benutzerschnittstellenobjekt wenigstens einen Teil der zweiten Benutzerschnittstellenobjekt, wenn wenigstens ein Teil der ersten Benutzerschnittstellenobjekt wenigstens einen Teil der zweiten Benutzerschnittstellenobjekt umfasst.
  • In einigen Ausführungsformen empfängt die Anforderung an die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt umfasst bewegen, während ein Fokuswähler ist über der ersten Benutzerschnittstellenobjekt, Erfassen einer Erhöhung der Intensität des Kontakts über einem entsprechenden Intensitätsschwellen.
  • In einigen Ausführungsformen empfängt die Anforderung an die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt zu bewegen umfaßt, wobei die Anzeige eine Steuerung zum Ändern eines z-Reihenfolge der ersten Benutzerschnittstellenobjekt, Erfassen eines Eingangs an der Steuerung, entspricht auf die Bewegung des ersten Benutzerschnittstellenobjekt nach unten in der z-Reihenfolge.
  • In einigen Ausführungsformen empfängt die Anforderung an den ersten Benutzer-Schnittstellen-Objekt unter dem zweiten Benutzerschnittstellenobjekt bewegen umfasst, während ein Steuer zum Ändern einer z-Reihenfolge des zweiten Benutzerschnittstellenobjekt, Erfassen einer Eingangs auf das Steuerelement, das entspricht dem Bewegen des zweiten Benutzerschnittstellenobjekt nach oben in der Z-Reihenfolge.
  • In einigen Ausführungsformen die Mehrzahl von Benutzerschnittstellenobjekte enthält einen dazwischenBenutzerSchnittStellenObjekt und dem dazwischenBenutzerSchnittStellenObjekt hat eine Position in der z-Reihenfolge zwischen der ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt. Die Verarbeitungseinheit 10706 konfiguriert ist: als Antwort auf die Anfrage, um den ersten Benutzerschnittstellenobjekt unterhalb der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu verschieben: Verschieben Sie den ersten Benutzerschnittstellenobjekt unter dem dazwischen Benutzeroberfläche Objekt in der Z-Reihenfolge vor auf die Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge (zB mit der Bewegungseinheit 10710); in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt überlappt zumindest ein Teil des dazwischenBenutzerSchnittStellenObjekt, zu erzeugen, auf der berührungsempfindlichen Oberfläche Einheit 10704, eine taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der dazwischen Benutzeroberfläche assoziiert Objekt in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der dazwischenBenutzerSchnittStellenObjekt (zB mit der Erzeugungseinheit 10712); und in Übereinstimmung mit einer Bestimmung, dass der erste Benutzerschnittstellenobjekt nicht die dazwischenBenutzerSchnittStellenObjekt überlappen, zu verzichten Erzeugung der taktilen Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der dazwischenBenutzerSchnittStellenObjekt (zB mit der Erzeugungseinheit 10712) zugeordnet sind.
  • In einigen Ausführungsformen überlappt die erste Benutzerschnittstellenobjekt die dazwischenBenutzerSchnittStellenObjekt und dem zweiten Benutzerschnittstellenobjekt. Auf die Anforderung in Reaktion auf die erste Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge zu verschieben: die Verarbeitungseinheit konfiguriert ist, um 10706 erzeugen ein erstes taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit 10704, mit beweglichen verbundenen die erste Anwenderschnittstellenobjekt unter der dazwischenBenutzerSchnittStellenObjekt, vor dem Bewegen der ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge (zB mit der Erzeugungseinheit 10712); und erzeugen eine zweite taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit 10704, mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt, wobei das erste taktile Ausgabe von der zweiten Ausgabe taktile (zB zugeordnet ist, mit der Erzeugungseinheit 10712).
  • In einigen Ausführungsformen wird der erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche Einheit 10704, die eine erste dominante Bewegungskomponente, die zweite taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche Einheit 10704 erzeugt beinhaltet erzeugt das schließt ein zweite Bewegungskomponente dominant, und das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben unterschiedliche Wellenlängen.
  • In manchen Ausführungsformen ist die Wellenlänge des ersten taktile Ausgabe wird auf der Grundlage einer Position der dazwischenBenutzerSchnittStellenObjekt in der z-Ordnung und der Wellenlänge der zweiten taktile Ausgabe wird auf der Grundlage einer Position der zweiten Benutzer Interface-Objekt in der Z-Reihenfolge.
  • In manchen Ausführungsformen ist die Wellenlänge des ersten taktilen Ausgabe wird basierend auf einer Anzahl von Benutzerschnittstellenobjekte, die die erste Benutzerschnittstellenobjekt überlappt, die zwischen der ersten Benutzerschnittstellenobjekt und dem dazwischenBenutzerSchnittStellenObjekt in der z-Ordnung.
  • In manchen Ausführungsformen ist die Wellenlänge des zweiten taktilen Ausgabe wird basierend auf einer Anzahl von Benutzerschnittstellenobjekte, die die erste Benutzerschnittstellenobjekt überlappt, die zwischen der ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt in der z-Ordnung.
  • In einigen Ausführungsformen besitzt die taktile Ausgabe mit der Bewegung des ersten Benutzerschnittstellenobjekt unter der zweiten Benutzerschnittstellenobjekt assoziiert eine Wellenlänge, die auf den Empfang der Anfrage bestimmt wird basierend auf einer Position der zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge vor Um den ersten User-Interface-Objekt unter dem zweiten Benutzerschnittstellenobjekt in der z-Reihenfolge verschieben.
  • In manchen Ausführungsformen überlagert die erste Oberfläche eine Mehrzahl von anderen Benutzerschnittstellenobjekten in einem entsprechenden z-Reihenfolge-Sequenz und einem nächsten taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einer nächsten Benutzerschnittstellenobjekt in der z angeordnet -dem Folge auf einem mathematischen Progression von einem vorherigen taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einem Stand Benutzerschnittstellenobjekt in der z-Reihenfolge-Sequenz.
  • In manchen Ausführungsformen überlagert die erste Oberfläche eine Mehrzahl von anderen Benutzerschnittstellenobjekten in einem entsprechenden z-Reihenfolge-Sequenz und einem nächsten taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einer nächsten Benutzerschnittstellenobjekt in der z angeordnet -dem Sequenz an einer musikalischen Übergang von einer vorherigen taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekt unter einem Stand Benutzerschnittstellenobjekt in der z-Reihenfolge-Sequenz.
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (zB wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben Die Vorgänge mit Bezug auf die 9A bis 9D sind, gegebenenfalls durch in den 1AIB oder 1O dargestellten Komponenten implementiert. Zum Beispiel Empfangsbetrieb 10604, Bewegungsvorgang 10614, Erzeugungsoperation 10616, und den Verzicht auf den Betrieb 10620 sind wahlweise nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindliche Anzeige 112 und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 Anwendungs 136-1 vergleicht die Ereignisinformationen an die jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob die Drehung des Gerätes) entspricht einer vordefinierten Ereignis oder sub-Ereignis, wie die Auswahl eines Objekts auf einer Benutzerschnittstelle oder Rotation der Vorrichtung von einer Orientierung zur anderen. Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden. Providing Taktile Rückkopplung Warnung eines Benutzers
  • Viele elektronische Geräte haben graphische Benutzerschnittstellen, die Benutzerschnittstellenobjekte, die durch Einstellen eines oder mehrerer Parameter zugeordnet manipuliert werden kann, anzuzeigen. Zum Beispiel kann eine grafische Benutzerschnittstelle zeigt optional ein oder mehrere Benutzerschnittstellenobjekt (zB ein Bild, Medienclip, Audioclips, Form, Anwendungsfenster, Ordner, Menü oder Statusleiste), die der Benutzer anpassen können (zB, vergrößern, verkleinern, zuschneiden, drehen, erhöhen Volumen, Lautstärke verringern oder einen visuellen oder Audio-Parameter) über eine Benutzerschnittstelle (zB Maus, berührungsempfindliche Oberfläche oder Tastatur) anderweitig zu manipulieren. Aufgrund praktischer Erwägungen wie beispielsweise Größenbeschränkungen eines zugeordneten Anzeige, Leistungsbeschränkungen eines zugehörigen Lautsprecher und inhärenten Eigenschaften des Benutzerschnittstellenobjekt (zB Größe, Form, Länge und Volumen), vordefinierte Eingabegrenzen werden üblicherweise auf diese Benutzerschnittstelle zugewiesen Objekt, das Ausmaß begrenzen, in dem ihre Eigenschaften eingestellt werden kann. Angesichts der Komplexität einer Benutzerschnittstellenumgebung, wo vordefinierte Anpassungsgrenzen werden, um Benutzerschnittstellenobjekten angewendet wird, gibt es einen Bedarf an Rückmeldungen, die dem Benutzer ermöglicht, effizient und bequem die Eigenschaften dieser Objekte der Benutzeroberfläche in Bezug auf den vorgegebenen Verstellweg Grenzen einstellen und alarmieren einen Benutzer, wenn die vordefinierte Einstellung Grenzwerte erreicht oder überschritten wurde. Unten beschrieben Die Ausführungsformen eine verbesserte Methoden und Benutzerschnittstellen zur Erzeugung Rückmeldung für einen Benutzer die Navigation eine komplexe Benutzeroberfläche. Genauer gesagt, diese Verfahren und Benutzerschnittstellen eine taktile Rückmeldung an den Benutzer, wenn eine Aktion in der Einstellung einer Benutzerschnittstellenobjekt-Parameter über eine vorbestimmte Grenze führen. Die taktile Rückmeldung warnt den Benutzer, wenn ihre Wirkung wird bei der Anpassung der Benutzeroberfläche Objektparameter über eine vordefinierte Einstellung Grenze führen. Auf diese Weise können die Verfahren und Benutzeroberflächen nachstehenden dem Benutzer erlauben, effizienter zwischen erlaubt, verboten ist und nicht empfohlenen Parametereinstellungen zu erkennen, indem taktile Rückmeldung, anstelle oder zusätzlich zum akustischen und/oder visuellen Feedback. Einige Verfahren zur Warnung eines Benutzers, der ein vordefinierter Anpassungsgrenze überschritten wurde verlassen sich auf ein akustisches oder optisches Signal. Allerdings gibt es viele Situationen (zB bei der Arbeit, in einem Theater ein in verschiedenen sozialen Situationen), wo das Volumen eines elektronischen Gerätes wird abgesenkt oder stumm geschaltet werden, wodurch hörbare Hinweise unwirksam. Vorteilhaft sind die Methoden und Benutzerschnittstellen unter Augmentation beschrieben oder ersetzen akustische Rückmeldung durch taktile Rückmeldung darauf hinweist, dass eine vordefinierte Einstellung Grenze wurde und wird nicht überschritten werden, wodurch die Warnung auch dann wirksam, wenn das Volumen des elektronischen Geräts abgesenkt wurde oder stummgeschaltet.
  • Die 1LA–1IT beispielhafte Benutzerschnittstellen für eine Rückmeldung, wenn eine Aktion wird bei der Einstellung eines Parameters über einen vordefinierten Grenzwert in Übereinstimmung mit einigen Ausführungsformen ergeben. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der Verfahren in den 12A bis 12B veranschaulichen.
  • 11A zeigt eine beispielhafte Benutzerschnittstelle 10808 Anzeigen von Bildern, 1081410830 und ein Steuersymbol 10802 (zB ein Bild oder einen Griff einer Steuerung) zum Steuern eines Parameters (zB Größe) der Bilder in Übereinstimmung mit einigen Ausführungsformen. In ist Benutzeroberfläche 10808 auf dem Display 450 einer elektronischen Vorrichtung, die auch berührungsempfindliche Oberfläche 451 und einen oder mehrere Sensoren zum Erfassen der Intensität von Kontakten mit berührungsempfindlichen Oberfläche dargestellt. In einigen Ausführungsformen, berührungsempfindliche Oberfläche 451 ist ein Touchscreen-Display, das wahlweise Anzeige 450 oder eine separate Anzeige. Benutzeroberfläche 10808 zeigt eine Steuersymbol 10802 zur Steuerung eines Parameters (zB Größe) mit den jeweiligen Inhalten zugeordnet (zB Bilder 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 auf Benutzeroberfläche 10808 angezeigt). In 11A, Benutzerschnitt 10808 zeigt auch Cursor 10806, steuerbar durch den Benutzer über Kontakte auf berührungsempfindliche Oberfläche 451.B. Detektion von Bewegung eines Kontaktes (zB eine Geste) auf berührungsempfindliche Oberfläche 451 entspricht, um die Bewegung des Cursors auf 10806 Benutzeroberfläche 10808. In zeigt Benutzeroberfläche 10808 auch Schlichte bar 10804, entsprechend einer Vielzahl von Größen für die angezeigte Inhalt (zB Bilder). In , die linken und rechten Grenzen der Dimensionierung bar 10804 entsprechen vorgegebenen Größenbeschränkungen für den angezeigten Inhalt (zB Bilder). Zum Beispiel, wenn das Steuersymbol 10802 an die linke Grenze der Trennleiste 10804, den angezeigten Inhalt bewegt wird (beispielsweise Bilder) werden in einer Größe, die einer vorgegebenen Minimalgröße (z dargestellt wird, werden die angezeigten Bilder auf einen kleinsten zulässigen Größe geschrumpft). Ebenso, wenn das Steuersymbol 10802 an die rechte Begrenzung der Trennleiste 10804, den angezeigten Inhalt bewegt wird (beispielsweise Bilder) in einer Größe entsprechend einer vorgegebenen maximalen Größe angezeigt (zB die Anzeige von Bildern auf einen größten zulässigen expandiert).
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einem separaten Display (zB Anzeige 450) und einen separaten berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung tragbaren Multifunktionsvorrichtung 100, die Anzeige berührungsempfindlichen Anzeigesystem 112, und die berührungsempfindliche Oberfläche enthält taktilen Ausgabeerzeuger 167 auf der Anzeige (1A). Zur Vereinfachung der Erläuterung mit Bezug auf die 1lA1 beschrieben, die Ausführungsbeispiele und die 12A12B wird mit Bezug auf 450 anzuzeigen und einen separaten berührungsempfindlichen Oberfläche 451 beschrieben, aber analoge Operationen werden gegebenenfalls auf einem Gerät durchgeführt, mit einem berührungsempfindlichen Display-System 112 in Reaktion auf das Erkennen Bewegung der in den beschriebenen Kontakte 11AlIT auf der berührungsempfindlichen Anzeigesystem 112, während die Anzeige der in den Abbildungen gezeigten Benutzeroberflächen 1LA–1 es auf dem berührungsempfindlichen Display-System 112; in solchen Ausführungsformen ist der Fokus Wähler, gegebenenfalls: a jeweiligen Kontakt eine repräsentative Punkt, der einem Kontakt (zB ein Schwerpunkt einer jeweiligen Kontakt oder ein mit einem entsprechenden Kontakt zugeordnet Punkt) oder ein Flächenschwerpunkt von zwei oder mehr Kontakte detektiert auf dem berührungsempfindlichen Display-System 112, anstelle von Cursor 10806.
  • Die 1LA–11H illustrieren, dass der Kontakt 10810 und eine Geste einschließlich Freizügigkeit von Kontakt 10810 werden auf berührungsempfindliche Oberfläche 451 (nachgewiesen zB Bewegung 10812-a Kontakt 10810 vom Standort 10810-a in 11A zu Ort 10810-b in 1IB; Bewegung 10812-b Berührungs 10810 vom Standort 10810-b in 1IB zu Ort 10810-C in 11C, 1ID, 1IE oder IF1 und/oder Abheben der Kontakt 10810 vom Standort 10810-c in 11G oder 11H). Kontakt 10810 an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Steuer Symbol besetzt erkannt 10802 (zB kontaktieren 10810 entspricht einer Fokus-Wahlschalter auf dem Display, wie Cursor 10806, die an oder in der Nähe einer Stelle ist von Benutzerschnittstellenobjekt 10802). In einigen Ausführungsformen die Bewegung des Kontakt 10810 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung des Fokuswähler entspricht (zB ein Cursor 10806) auf der Anzeige 450 (beispielsweise wie in den 1lA1IF dargestellt).
  • Die 11AlIB zeigen ein Beispiel eines Beginns einer Geste, wenn die Vorrichtung passt eine Größe von Bildern, 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 in Übereinstimmung mit der Bewegung 10812-A der Kontakt 10810, die Bewegung des Cursors 10806 entsprechend der Bewegung eines Steuersymbol 10802 in Sizing bar 10804 steuert. In , funktioniert das Gerät nicht erzeugen eine taktile Ausgabe entsprechend Überschreitung der vorgegebenen Anpassungsgrenze (zB eine Größenbeschränkung entsprechend dem Ende der Schlichte bar 10804), weil die vorgegebenen Anpassungsgrenze nicht überschritten wurde. 1 zeigt ein Beispiel IB, wobei in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter (zB Größe) nicht eine oder mehrere vordefinierte Anpassungsgrenze überschritten würde (zB Bewegung des Steuersymbol 10802 in einen entsprechenden Bereich des Display, das innerhalb einer von der rechten Grenze des Größenleiste 10804) angegeben vordefinierte Einstellung Grenze ist, passt das elektronische Gerät den Parameter ohne eine taktile Ausgabe auf der berührungsempfindlichen Oberfläche (zB erhöht das Gerät die Größe von Bildern 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 auf eine Größe kleiner als die vorgegebene maximale Größe in Übereinstimmung mit dem Wert des Parameters, der auf die aktuelle Position des Steuersymbol 10802 in der jeweiligen Fläche entspricht, angezeigt in der Benutzeroberfläche 10808 der Anzeige). Im Gegensatz dazu 1LC1IF nachstehend beschriebenen Beispiele illustrieren, wo in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter (zB Größe) würde eine oder mehrere vordefinierte Anpassungsgrenze überschritten würde (beispielsweise, wo die Bewegung Kontakt 10810 auf der berührungsempfindlichen Oberfläche 451 entspricht einer Größenanpassung der angezeigten Bilder Überschreiten eines von der rechten Grenze von Schlichte bar 10804 angegeben vordefinierten Grenzwert), taktile Ausgabegeneratoren 167 generieren taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451.
  • Die 1IB1IF veranschaulichen verschiedene Beispiele, in denen das Gerät eine Fortsetzung einer Geste, einschließlich Bewegungs 10812-b Berührungs 10810, die Bewegung des Cursors 10806 über ein Ende der Trennleiste 10804 steuert. In , in Reaktion auf die Erfassung der Fortführung der Geste einschließlich Bewegung 10812-b, fährt das Gerät, um die Größe der Bilder bis zu der vorgegebenen Anpassungsgrenze (zB eine Größenbeschränkung) zu erhöhen und bewegt Steuerungssymbol 10802 über ein Ende der Trennleiste 10804 in Übereinstimmung mit der Bewegung des Cursors 10806. In , in Reaktion auf die Erfassung der Fortführung der Geste einschließlich Bewegung 10812-b, fährt das Gerät, um die Größe der Bilder bis zu der vorgegebenen Anpassungsgrenze (zB eine Größenbeschränkung) zu erhöhen und bewegt Steuerungssymbol 10802 bis zu ein Ende der Trennleiste 10804 in Übereinstimmung mit der Bewegung des Cursors 10806. In , in Reaktion auf das Erfassen der Fortsetzung der Gestenbewegung einschließlich 10812-b, löscht das Gerät die Erhöhung der Größe der Bilder, die der Geste und bewegt Steuersymbol 10802 bis zu einem Ende der Trennleiste 10804 in Übereinstimmung mit Bewegung des Cursors 10806. In , wenn in Reaktion auf das Erkennen die Fortsetzung der Geste einschließlich Bewegung 10812-b, fährt das Gerät, um die Größe der Bilder über die vordefinierte Einstellung Grenze (zB eine Größenbegrenzung) und bewegt sich Steuersymbol 10802 über ein Ende zu erhöhen Schlichte bar 10804 in Übereinstimmung mit der Bewegung des Cursors 10806.
  • Die 1 und 1, wenn 1C zeigen Beispiele, wo die Vorrichtung eine Bewegung 10812-b Berührungs 10810 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung des Cursors 10806 und 10802 Steuersymbol an der rechten Grenze der Trennleiste 10804 auf dem Display dargestellt wird, entspricht 450 (zB Bewegung des Cursors 10806 und 10802 Steuersymbol in einem jeweiligen Bereich der Anzeige, die mit einer Parametereinstellung Überschreiten eines vorgegebenen Anpassungsgrenze für den angezeigten Inhalt entspricht).
  • Die 1ID1IE veranschaulichen Beispiele, bei denen die Vorrichtung eine Bewegung 10812-b Berührungs 10810 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung des Cursors 10806 an der rechten Grenze der Trennleiste 10804 auf der Anzeige 450 dargestellt wird, entspricht (zB Bewegung des Steuersymbol 10802 in einem jeweiligen Bereich der Anzeige, die zu einer Parametereinstellung Überschreiten eines vorgegebenen Anpassungsgrenze für den angezeigten Inhalt) und die Bewegung der Steuersymbol 10802 an die rechte Begrenzung der Trennleiste 10804 auf der Anzeige angezeigt entspricht (zB Bewegungs Kontrollsymbol 10802 in einem jeweiligen Bereich der Anzeige, die eine Einstellung entspricht einer vordefinierten Grenzwert für die angezeigten Inhalte, selbst wenn das Ausmaß der Bewegung 10812-b Berührungs 10810 entspricht einer Einstellung der Parameter, der den vorgegebenen Grenzwert überschreitet Anpassungs).
  • Die 1LC–1IF zeigen Beispiele, bei denen entsprechend mit einem Bestimmung, dass die Anpassung der Parameter (zB Größe) würde eine oder mehrere vordefinierte Anpassungsgrenze überschritten würde (beispielsweise, wo das Ausmaß der Bewegung 10812-b Berührungs 10810 entspricht einer Größeneinstellung der angezeigten Bilder Überschreiten eines vorgegebenen von der rechten Begrenzung der Dimensionierung bar 10804 angegeben Grenze), taktile Ausgabegeneratoren 167 erzeugen taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451, die dem Benutzer, der die Geste entspricht einer Einstellung der Parameter, der den vorgegebenen Grenzwert überschreiten würde Einstellung anzuzeigen.
  • Die 1LC–1ID zeigen Beispiele, bei denen entsprechend mit einem Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, wird der Parameter so eingestellt, daß die vorgegebene Anpassungsgrenze erreicht ist (beispielsweise der Größe von Bildern, 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 auf Benutzeroberfläche 10808 angezeigt wird, um die vorgegebene maximale Größe erhöht).
  • 1IE zeigt ein Beispiel, wo, gemäß einer Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen Überschreitung bewirken, Einstellung der Parameter wird storniert (zB der Größe von Bildern, 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 auf 10808 Benutzeroberfläche angezeigt wird, zurück zu der Größe der Bilder wurden vor der Erfassung der Bewegung 10812 und 10812-a–b des Kontakt 10810) dargestellt eingestellt.
  • 1 zeigt ein Beispiel IF, wo in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter wurde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, wird der Parameter entsprechend zu, so daß Überschreiten des vorgegebenen Einstellgrenze eingestellt wird (zB die Größe der Bilder, 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 auf 10808 Benutzeroberfläche angezeigt wird, an der vordefinierten Maximalgröße erhöht).
  • Die 1LG11H veranschaulichen verschiedene Beispiele, in denen das Gerät erkennt Abheben eines Kontakt 10810 verwendet, um eine der oben mit Bezug auf die 1lA1IF Gesten ausführen. 11G zeigt ein Beispiel, wo, in Antwort auf Abheben der Kontakt 10810 in 1IF, Einstellung der Parameter über dem vorgegebenen Anpassungsgrenze nicht umgekehrt wird (beispielsweise der Größe von Bildern, 10814, 10816, 10818, 10820, 10822, 10824 auf Benutzeroberfläche 10808, 10826, 10828 und 10830 angezeigt wird, erhöht über die vordefinierte maximale Größe in 1IF, wird nach dem Abheben von Kontakt 10810 gehalten). In diesem Beispiel, in Reaktion auf das Erfassen Abheben von Kontakt 10810, bewegt sich das Gerätesteuerungssymbol 10802 zurück zu einem Ende der Bildlaufleiste 10804. 1 zeigt ein Beispiel 1H, wo in Reaktion auf Abheben der Kontakt 10810 in 1IF, wird die Einstellung des Parameters über dem vorgegebenen Anpassungsgrenze teilweise umgekehrt, um die vordefinierte Einstellung Grenze entsprechen (beispielsweise der Größe von Bildern, 10814, 10816, 10818 auf Benutzeroberfläche 10808, 10820, 10822, 10824, 10826, 10828 und 10830 angezeigt wird, erhöht über die vordefinierte maximale Größe in 1IF, wird wieder auf die vorgegebene maximale Größenbeschränkung nach dem Abheben von Kontakt 10810 geschrumpft). 11G zeigt ein Beispiel, wo, in Antwort auf Abheben der Kontakt 10810 in 1IF, Anzeige-Steuersymbol 10802 eingestellt wird, um auf die rechte Grenze des Schlichte bar 10804 (zB Bewegung des Steuersymbol 10802 wieder auf den rechten Rand entsprechen Schlichte bar 10804).
  • Die 1II–1IK zeigen eine Kontakt 10840 und eine Geste einschließlich Bewegung 10842 Kontakt 10840, die auf berührungsempfindliche Oberfläche 451 (zB Bewegung erkannt werden 10842-A der Kontakt 10840 vom Standort 10840-a in 1 auf Position II 10840-b in 11J und/oder Bewegung 10842-b Berührungs 10840 vom Standort 10840-b in 11J Position 10840-c in 1IK). Kontakt 10840 an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Steuer 10836 (zB kontaktieren 10840 entspricht einer Fokus-Wahlschalter auf dem Display, wie Cursor 10806, die an oder in der Nähe einer Stelle ist besetzt erkannt Benutzerschnittstellenobjekt 10836). Die Geste in den 1111IK beinhaltet Bewegung 10842 Kontakt 10840 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung eines Fokus-Wahlschalter entspricht (zB ein Cursor 10806) auf dem Display 450.
  • In einigen Ausführungsformen, wie in den 1II–1IK dargestellt, ist der Inhalt eine Medienklammer (zB Medienclips 10844, 10846, 10848, 10850, 10852 und/oder 10854), die Audio enthält (zB Audio 10834) ist der Parameter ein Lautstärkepegel (zB Lautstärke 10836) umfassen die vordefinierten Eingabegrenzen eine Clipping-Grenze (zB Clipping Grenze 10838) und die Clipping-Grenze überschritten wird, wenn eine maximale Volumen, das im Inhalt auftritt, ist über dem Clipping-Grenze. Zum Beispiel, wie in 11J, in Antwort auf Detektieren einer Bewegung 10842-A der Kontakt 10810 entsprechende Einstellung der Parameter, die nicht eine vordefinierte Einstellgrenze bewirken würde, überschritten werden dargestellt (zB Erhöhung der Lautstärke 10836, so daß das Maximalvolumen Audio 10834 hat Volumen Clippinggrenze 10838) nicht überschreiten, stellt das elektronische Gerät den Parameter ohne eine taktile Ausgabe auf der berührungsempfindlichen Oberfläche. Im Gegensatz dazu, wie in 1IK zum Erfassen der Bewegung 10842-b Berührungs 10810 entsprechende Einstellung der Parameter, die dazu führen würde, Überschreiten der vorgegebenen Anpassungsgrenze (werden zB zunehmende Lautstärke 10836, so daß das maximale Volumen der dargestellten Reaktion Audio 10834 überschreitet Volumen Beschneidungsgrenze 10838), taktile Ausgabegeneratoren 167 generieren taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451.
  • Die 1IL–1IN zeigen eine Kontakt 10860 und eine Geste einschließlich Bewegung 10862 10860 Berührung, die auf berührungsempfindliche Oberfläche 451 erfasst werden (zB 10862-Bewegung eine Berührung 10860 vom Standort 10860-A in 11L zu Ort 10860-b in 11M und/oder Bewegung 10862-B 10860 aus der Kontakt Standort 10860-b in 11M zu Ort 10860-c in 1). Kontakt 10860 an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Steuer 10858 (zB kontaktieren 10860 entspricht einer Fokus-Wahlschalter auf dem Display, wie Cursor 10864, die an oder in der Nähe einer Stelle ist besetzt erkannt Benutzerschnittstellenobjekt 10858). Die Geste in den 1IL–1IN beinhaltet Bewegung 10862 Kontakt 10860 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung eines Fokus-Wahlschalter entspricht (zB ein Cursor 10864) auf dem Display 450).
  • In einigen Ausführungsformen, wie in den Figuren veranschaulicht 1IL–1IN, ist der Inhalt eine Medienklammer (zB Medienclip 10856) ist der Parameter eine Trimmmaske (zB Beschneiden Masken 10858), die vordefinierte Einstellung Grenzwerte beinhalten eine zeitbasierte Inhalte Grenze (zB die rechte Grenze der Medienclip 10856), und die Zeitbasierte Inhalte Grenze wird überschritten, wenn die Anbau Maske erstreckt sich über den zeitbasierten Content-Grenze.Zum Beispiel, wie in 11M, in Antwort auf Detektieren einer Bewegung 10862-A der Kontakt 10860 entsprechende Einstellung eines nicht eine vordefinierte Einstellgrenze bewirken würde, überschritten werden dargestellt (zB verlauf Zuschneiden Maske 10864, aber nicht früher die rechte Grenze des Medienclip 10856), stellt die elektronische Vorrichtung den Parameter (zB Größe der Beschneidungsmaske 10858) ohne Erzeugung eines fühlbaren Ausgabe auf der berührungsempfindlichen Oberfläche. Im Gegensatz dazu, wie in um Erfassen einer Bewegung 10862-b von Kontakt 10860 entsprechend Einstellung der Parameter, die dazu führen würde, um eine Überschreitung der vorgegebenen Anpassungsgrenze (dargestellt als Reaktion zB Verlängerung Zuschneiden Maske 10864 vorbei an der rechten Grenze von Medien Clip 10856), taktile Ausgabegeneratoren 167 generieren taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451.
  • Die 10–01 Januar 1Q zeigen eine Kontakt 10870 und eine Geste einschließlich Bewegung 10872 10870 Berührung, die auf berührungsempfindliche Oberfläche 451 (zB festgestellt werden, die Bewegung 10872-A der Kontakt 10870 vom Standort 10870-A in 11O bis Position 10870-b in IIP und/oder Bewegung 10872-b Berührungs 10870 vom Standort 10870-b in zu Ort 10870-c in ). Kontakt 10870 an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Steuer 10866 (zB kontaktieren 10870 entspricht einer Fokus-Wahlschalter auf dem Display, wie Cursor 10806, die an oder in der Nähe einer Stelle ist besetzt erkannt Benutzerschnittstellenobjekt 10866). Die Geste in den Januar 10-01 1Q beinhaltet Bewegung 10872 Kontakt 10870 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung eines Fokus-Wahlschalter entspricht (zB ein Cursor 10806) auf dem Display 450.
  • In einigen Ausführungsformen, wie in den Figuren dargestellt Januar 10-01 1Q, der Inhalt ein Bild (zB Bild 10868) ist der Parameter eine Trimmmaske (zB Beschneiden Maske 10866), sind die vordefinierten Abgleichgrenzen einen Gehalt Grenze (zB eine Außenkante des Bildes 10868), und der Gehalt Grenze überschritten wird, wenn die Trimmmaske über den Inhalt Grenze. Zum Beispiel, wie in zu IP Erfassen der Bewegung 10872-A der Kontakt 10870 entsprechende Einstellung der Parameter, die nicht einer vordefinierten Eingabegrenzen führen würde, überschritten werden (zB verlauf Zuschneiden Maske 10866 bis dargestellt ist, in Reaktion, aber nicht in der Vergangenheit Die unteren und rechten Rand des Bildes 10868), stellt die elektronische Vorrichtung einen Parameter (zB Größe der Anbau Maske 10866) ohne Erzeugung eines fühlbaren Ausgabe auf der berührungsempfindlichen Oberfläche. Im Gegensatz dazu, wie in 11Q zu Erfassung der Bewegung 10872-b entspricht, um die Einstellung der Parameter, die dazu führen würde, eine vordefinierte Anpassungsgrenzen überschritten werden (dargestellt in Reaktion zB verlauf Zuschneiden Maske 10866 an den unteren und rechten Rand des Bildes 10868), taktile Ausgabegeneratoren 167 generieren taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451.
  • Die 1LR–1IT zeigen eine Kontakt 10880 und eine Geste einschließlich Bewegung 10882 10880 Berührung, die auf berührungsempfindliche Oberfläche 451 (zB festgestellt werden, die Bewegung 10882-A der Kontakt 10880 vom Standort 10880-A in 11R Lage 10880-b in US und/oder Bewegung 10882-b Berührungs 10880 vom Standort 10880-B in 1 an Position 10880-c in 1IT). Kontakt 10880 an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Steuer 10878 (zB kontaktieren 10880 entspricht einer Fokus-Wahlschalter auf dem Display, wie Cursor 10806, die an oder in der Nähe einer Stelle ist besetzt erkannt Benutzerschnittstellenobjekt 10878). Die Geste in den 1LR–1IT beinhaltet Bewegung 10882 Kontakt 10880 auf berührungsempfindliche Oberfläche 451, die auf die Bewegung eines Fokus-Wahlschalter entspricht (zB ein Cursor 10806) auf dem Display 450.
  • In einigen Ausführungsformen, wie in den 1lR-1 ist dargestellt, ist der Inhalt ein Form (ZB quadratische 10876) ist der Parameter eine Formanpassungsparameter (beispielsweise die Rundheit der Ecken an quadratischen 10876) und den vorgegebenen Verstellweg Grenzwerte beinhalten eine maximal zulässige Einstellung zu einem entsprechenden Abschnitt eines jeweiligen Form (zB maximale Radius Abrunden der Ecken des quadratischen 10876). Zum Beispiel, wie in 1 ist, in Reaktion auf die Erfassung einer Bewegung dargestellt 10882-a entspricht, Anpassung eines Parameters, der nicht einer vordefinierten Eingabegrenzen überschritten werden verursachen würde (zB Abrunden der Ecken der quadratischen 10876 mit einem Radius, der übereinstimmt, aber nicht mehr als eine vorgegebene maximale Radius), stellt die elektronische Vorrichtung den Parameter (beispielsweise die Rundheit der Ecken der quadratischen 10876) ohne Erzeugung eines fühlbaren Ausgabe auf der berührungsempfindlichen Oberfläche. Im Gegensatz dazu, wie in 1IT Erfassen der Bewegung 10882-b entspricht, um die Einstellung der Parameter, die dazu führen würde, eine vordefinierte Anpassungsgrenzen überschritten werden (dargestellt in Reaktion zB Abrunden der Ecken der quadratischen 10876 mit einem Radius, der eine vorbestimmte überschreitet, maximalen Radius), taktile Ausgabegeneratoren 167 generieren taktile Ausgänge 10832 auf berührungsempfindliche Oberfläche 451.
  • Die 12A12B sind Fließdiagramme, die ein Verfahren der Bereitstellung 10900 Rückmeldung, wenn eine Aktion in der Anpassung der Parameter über einen vorgegebenen Grenzwert in Übereinstimmung mit einigen Ausführungsformen ergeben. Verfahren 10900 ist an einem elektronischen Gerät durchgeführt (zB Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 10900 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 10900 einen intuitiven Weg, Feedback zu geben, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen. Das Verfahren reduziert die kognitive Belastung für einen Benutzer bei der Erkennung von Rückmeldung, wenn eine Aktion in der Einstellung eines Parameters über eine vorbestimmte Grenze führen, wodurch ein effizienter Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die es einem Benutzer, um Feedback zu erfassen, wenn eine Aktion bei der Anpassung der Parameter über einen vordefinierten Grenzwert schneller Folge und effizienter Strom gespart und erhöht die Zeit zwischen Batterie lädt.
  • In einigen Ausführungsformen zeigt das Gerät (10902) auf einer Anzeige (beispielsweise Anzeige 450 in den 11AlIT), eine Steuerung (zB einer Größenänderung Steuer einschließlich Dimensionierung bar 10804 und Steuerungssymbol 10802 in den 1LA–11H, Steuer 10836 in den 111–1IK, Steuer 10858 in den 1LL–1IN, Steuer 10866 in den 10 bis 01 Januar 1Q oder Steuer 10878 in 1lR–1IT) zur Steuerung eines Parameters mit jeweiligen Inhalt (zB assoziiert, die Größe der Bilder, 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 in den HA–lLH, die Lautstärke des Audio-10834 in den 1II–1IK, Zuschneiden Maske 10858 Medienclip 10856 in Zahlen angewendet 1IL–1IN, Zuschneiden Maske 10866 für Bild 10868 angewendet in den 11O11Q oder die Rundheit der Ecken der quadratischen 10876 in 1lR–1IT).
  • In einigen Ausführungsformen, während das Gerät zeigt die Kontrolle, erkennt das Gerät (10904) eine Geste (zB Bewegung 10812 Kontakt 10810 in den 1LA–11H, Bewegung 10842 Kontakt 10840 in den 1II–1IK, Bewegung 10862 Kontakt 10860 in den 1IL–1IN, Bewegung 10872 Kontakt 10870 in den 10-01 Januar 1Q, oder Bewegung 10882 Kontakt 10880 in den 1LR–1IT) auf einer berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451) zum Einstellen der Parameter.
  • In einigen Ausführungsformen in Antwort (10906) auf das Erkennen der Geste: bestimmt die Vorrichtung (10908) eine Anpassung des Parameters, der in einem Umfang der Geste entspricht (beispielsweise ein Ausmaß der seitlichen Bewegung, ein Ausmaß der Drehung, oder Ausmaß Zunahme/Abnahme der Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche erkannt).
  • In Reaktion (10906) auf das Detektieren der Geste: in Übereinstimmung mit einem Bestimmung, dass die Anpassung der Parameter würde eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, erzeugt die Vorrichtung (10910) jeweils eine taktile Ausgabe (zB taktile Ausgänge 10832 in 1LC–1IF, IK1, 1 in oder ) auf der berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451).
  • In einigen Ausführungsformen in Antwort (10906) auf das Detektieren der Geste: in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, verzichtet auf die Vorrichtung (10912) Einstellen des Parameters (zB Einstellung der Parameter wird aufgehoben, wenn die beantragte Anpassung der Anpassungsgrenzen für den Parameter) übersteigt. Zum Beispiel, wie in den 1 und 1IE 1C dargestellt, wobei eine Geste, einschließlich Bewegungs 10812-b Berührungs 10810, die auf eine Größenanpassung der Bilder 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830 entspricht, dass die vordefinierte Einstellung Grenze entsprechend der rechten Grenze der Trennleiste 10804 überschreitet, werden die Bilder bei einer Vergrößerung entsprechend der Größe der Bilder vor der Geste angezeigt, wie in dargestellt.
  • In einigen Ausführungsformen in Antwort (10906) auf das Detektieren der Geste: in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, die Vorrichtung passt (10914) der Parameter so daß die vorgegebene Anpassungsgrenze erreicht ist (beispielsweise das Ausmaß der Einstellung des Parameters um den vorbestimmten Anpassungsgrenze begrenzt). Zum Beispiel, wie in den 1LC1-ID, wo die Geste einschließlich Bewegung 10812-b von Kontakt 10810 entspricht einer Größenanpassung der Bilder 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830, das wäre die vordefinierte Einstellung Grenze entsprechend der rechten Grenze der Trennleiste 10804 überschreitet, werden die Bilder bei einer Vergrößerung entsprechend der vordefinierten Maximalgröße Einstellgrenze angezeigt, wie in dargestellt ID. In einigen Ausführungsformen wird der Parameter mit einem jeweiligen vordefinierten Einstellgrenze eingestellt, aber die jeweiligen vorgegebenen Verstellweg Grenze nicht überschritten wird (beispielsweise ein Bild auf einem Gleitstück an dem Ende des Schiebers eingestellt wird, aber nicht weiter).
  • In einigen Ausführungsformen in Antwort (10906) auf das Detektieren der Geste: in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, führt die Vorrichtung (10916) die Einstellung der der Parameter (beispielsweise wird das Ausmaß der Verstellung des Parameters nicht durch die vorbestimmte Anpassungsgrenze begrenzt). Zum Beispiel, wie in 1 dargestellt IF, wo der Gestenbewegung einschließlich 10812-b Berührungs 10810 entspricht einer Größenanpassung der Bilder 10814, 10816, 10818, 10820, 10822, 10824, 10826, 10828 und 10830, der die vordefinierten überschreiten würde Einstellgrenze entsprechend der rechten Grenze der Trennleiste 10804, werden die Bilder bei einer Vergrößerung entsprechend der Größe über die vorgegebene maximale Größe Einstellgrenze (zB angezeigt, auch wenn Einstellen der Parameter in dieser Weise bewirkt, dass die eine oder mehrere vordefinierte Einstellung Grenzen überschritten werden), wie in gezeigt IF. Zum Beispiel kann ein Benutzer einen Beschneidungsmaske außerhalb der Leinwand erstrecken (beispielsweise wie in HQ gezeigt) oder über ein Ende eines Medienclips (beispielsweise wie in 1 gezeigt), aber die Vorrichtung warnt den Benutzer, dass Zuschneiden während das Zuschneiden Maske außerhalb der Leinwand oder über das Ende der Medienclip leer Inhalte auf den jeweiligen Inhalt hinzuzufügen.
  • In einigen Ausführungsformen ist der Gehalt (10918) eine Medienklammer (zB Medienclips 10844, 10846, 10848, 10850, 10852 und/oder 10854 in 11I–11K), die Audio enthält (zB Audio 10834 in den 11 bis 01 Januar IK), ist der Parameter eine Lautstärke (zum Beispiel Lautstärke 10836 in den 1II–1IK), umfassen die vordefinierten Eingabegrenzen eine Clipping-Grenze (zB Clipping Grenze 10838 in den 111–1IK) und die Clipping-Grenze überschritten wird, wenn eine maximale Volumen, das im Inhalt auftritt, ist über dem Beschneidungsgrenze (zB wenn die höchsten Spitzen des audio 10834 Beschneidungsgrenze 10838 in 1IK überschreiten). In einigen Ausführungsformen ist die Abschneidegrenze ein analoges Beschneidungsgrenze (zB wird der Ton durch die physikalischen/ elektrischen Eigenschaften des Verstärkers, so daß oberhalb der Abschneidegrenze klingt würde einen Verstärker zu drücken, um ein Signal mit mehr Leistung als die Energieversorgung zu schaffen beschränkt erzeugen kann und somit der Verstärker verstärkt das Signal nur bis zu seiner maximalen Kapazität). In einigen Ausführungsformen ist die Abschneidegrenze eine digitale Abschneidegrenze (zB wird das Signal durch den vorbestimmten Bereich digitaler Darstellungen des Tons und ein Klang mit Amplitude über dem Bereich des gewählten digitalen Darstellungen beschränkt wird als maximale digitale Darstellung dargestellt werden).
  • In einigen Ausführungsformen ist (10920) der Inhalt eine Medienklammer (zB Medienclip 10856 in 1IL–1IN), ist der Parameter eine Trimmmaske (zB Beschneiden Maske 10858 in 1IL–1IN) schließen die vordefinierte Einstellung eine Zeitgrenzen bezogene Gehalt Grenze (beispielsweise die rechte Grenze des Medien Clip 10856 in den 1IL–1IN) und der Zeit-basierte Inhalte Grenze wird überschritten, wenn die Anbau Maske erstreckt sich über den zeitbasierten Inhalten Grenze (zB versucht der Benutzer, um eine Operation, die das Abschneiden der Medienclip vor entspricht führen die Anfangszeit des Clips oder nach der Endzeit des Clips). Zum Beispiel, wie in 1 dargestellt, ist die zeitbasierten Inhalt Grenze überschritten beim Zuschneiden Maske 10858 erstreckt sich über den rechten zeitbasierten Inhalt Grenze Medienclip 10856.
  • In einigen Ausführungsformen ist der Inhalt ein Bild (zB Bild 10868 in 10-01 Januar 1Q), ist der Parameter eine Trimmmaske (zB Beschneiden Maske 10866 in 110–11Q), die vordefinierte Einstellung Grenzwerte einen Grenzgehalt (beispielsweise eine Außenkante des Bildes 10868 in den 10 bis 01 Januar 1Q), und der Gehalt Grenze wird überschritten, wenn die Trimmmaske über den Inhalt Grenze (beispielsweise über den Rand eines Bildes). Zum Beispiel, wie in 11Q dargestellt, wird der Inhalt Grenze überschritten wird, wenn Beschneiden Maske 10866 erstreckt sich über die unteren und rechten Rand des Bildes 10868.
  • In einigen Ausführungsformen ist der Gehalt einer Form (beispielsweise quadratisch 10876 in 11R) ist der Parameter eine Formanpassungsparameter (beispielsweise ein Parameter, der der Rundung der Ecken an quadratischen 10876 in 1lR–1IT) und die vorgegebenen Grenzwerte beinhalten eine Einstellung maximal zulässige Einstellung zu einem entsprechenden Abschnitt eine entsprechende Form (zB maximale Radius für die Rundung der Ecken des quadratischen 10876 in den 1lR–1IT). In einigen Ausführungsformen ist die Formanpassungsparameter, beispielsweise die Rundheit einer Form Ecke, Opazität oder Linienbreite. In einigen Ausführungsformen ist die vordefinierte Einstellung Grenze, beispielsweise einer maximalen Radius für die Rundung eine Ecke, eine minimale/maximale Deckkraft oder eine minimale/maximale Linienbreite.
  • In Reaktion (10906) auf das Detektieren der Geste: in Übereinstimmung mit einem Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, führt die Vorrichtung (10926) die Einstellung der Parameter, ohne dass der jeweilige taktile Ausgabe (zB, um die vordefinierte Einstellung überschreitet entsprechend einer taktilen Ausgabe Grenze) auf der berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451). Zum Beispiel, wie in den 11B, 1J1, 11M, I und IP USA, wo eine Geste entspricht einer Einstellung der Parameter, der einen vorgegebenen Verstellweg Obergrenze nicht übersteigt dargestellt, wird die Einstellung durchgeführt wird und kein taktiles Ausgabe auf der berührungsempfindlichen Oberfläche erzeugt wird.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 12A12B beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hierin mit Bezug auf andere hier beschriebene Verfahren beschriebenen Verfahren (zum Beispiel, die in Absatz [0058]) sind ebenfalls in einer analogen Weise zu Verfahren 10900 oben mit Bezug auf die Fig erhoben werden 12A12B. Zum Beispiel können die Kontakte, Gesten, Benutzerschnittstellenobjekten, taktile Empfindungen und sich die oben mit Bezug auf das Verfahren 10900 gegebenenfalls einen oder mehrere der Eigenschaften der Kontakte, Gesten, Benutzerschnittstellenobjekten, taktile Empfindungen Selektoren und Selektoren konzentrieren hierin beschriebenen Verweis auf andere hier beschriebene Verfahren (zB die in Absatz [0058]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 13 zeigt ein Funktionsblockdiagramm einer elektronischen Vorrichtung 11000 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, das in beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 13 gezeigt ist, eine elektronische Vorrichtung 11000 umfasst eine Anzeigeeinheit, 11002 konfiguriert, um eine Steuerung zum Steuern eines Parameters mit den jeweiligen Inhalten zugeordnet Anzeige, eine berührungsempfindliche Oberfläche Einheit 11004 konfiguriert, um Benutzerkontakte, gegebenenfalls ein oder mehrere Sensoreinheiten 11006 so konfiguriert, dass der Grad des Kontaktes mit der berührungsempfindlichen Oberfläche zu detektieren Empfangs Einheit 11004; und eine Verarbeitungseinheit 11008 der Anzeigeeinheit 11002, die berührungsempfindliche Oberfläche Einheit 11004 gekoppelt ist und gegebenenfalls die eine oder mehrere Sensoreinheiten 11006. In einigen Ausführungsformen kann die Verarbeitungseinheit 11008 enthält eine Anzeigeeinheit 1 ermöglicht 1010, eine Erfassungseinheit 11012 eine Bestimmungseinheit 11014 eine Erzeugungseinheit 11016 und eine Stelleinheit 11018.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 11008 konfiguriert, um die Anzeige zu aktivieren (beispielsweise mit der Anzeigeeinheit 1 ermöglicht 1010) einer Steuerung zum Steuern eines Parameters mit den entsprechenden Inhalt verknüpft. In einigen Ausführungsformen ist die Verarbeitungseinheit 11008 weiter konfiguriert ist, eine Bewegung auf der berührungsempfindlichen Oberfläche Einheit 11004 Einstellen der Parameter (beispielsweise mit der Erfassungseinheit 11012) zu erfassen; und in Reaktion auf das Detektieren der Geste: die Verarbeitungseinheit 11008 konfiguriert bestimmen eine Anpassung des Parameters, der in einem Umfang der Geste entspricht (beispielsweise mit der Bestimmungseinheit 11014); in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, die Verarbeitungseinheit 11008 konfiguriert, um eine jeweilige taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit (zB zu erzeugen, wobei die Erzeugungseinheit 11016); und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, ist die Verarbeitungseinheit 11008 konfiguriert, um die Einstellung der Parameter durchführen (beispielsweise mit der Stelleinheit 11008) ohne dass der jeweilige taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit 11004.
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11008 weiter konfiguriert ist, in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten würde, verzichtet Einstellen der Parameter (beispielsweise mit dem Stelleinheit 11018).
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 11008 weiter konfiguriert, in Übereinstimmung mit einer Bestimmung, dass die Einstellung der Parameter würde zu einer Überschreitung der eine oder mehrere vordefinierte Einstellung Grenzen, stellen Sie die Parameter, damit die vordefinierte Einstellung Grenze erreicht ist (beispielsweise mit der Stelleinheit 11018).
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11008 weiter konfiguriert ist, in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter würde die eine oder mehrere vordefinierte Anpassungsgrenzen überschritten werden verursachen, führen die Anpassung der Parameter (zB mit der Stelleinheit 11018).
  • In einigen Ausführungsformen ist der Inhalt ein Medienclip, der Audiofunktion beinhaltet, ist der Parameter ein Lautstärkepegel umfassen die vordefinierten Eingabegrenzen eine Clipping-Grenze und die Clipping-Grenze wird überschritten, wenn eine maximale Volumen, das im Inhalt auftritt, ist über dem Clipping-Grenze.
  • In einigen Ausführungsformen ist der Inhalt ein Medienclip ist der Parameter ein Zuschneiden Maske, die vordefinierten Einstellung Grenzwerte beinhalten eine zeitbasierte Content-Grenze und die zeitbasierten Inhalten Grenze wird überschritten, wenn die Anbau Maske erstreckt sich über die zeit-basierte Content-Grenze.
  • In einigen Ausführungsformen wird der Inhalt ein Bild ist, ist der Parameter ein Zuschneiden Maske umfassen die vordefinierten Abgleichgrenzen einen Gehalt Grenze und der Gehalt Grenze wird überschritten, wenn die Trimmmaske über den Inhalt Grenze.
  • In einigen Ausführungsformen ist der Gehalt einer Form, der Parameter eine Formanpassungsparameter und die vordefinierte Einstellung Grenzwerte beinhalten eine maximal zulässige Einstellung zu einem entsprechenden Abschnitt eines jeweiligen Form.
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (zB wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben Die Vorgänge mit Bezug auf die 12A12B sind, gegebenenfalls durch in den 1AIB oder 13 dargestellten Komponenten implementiert. Zum Beispiel Erfassungsbetrieb 10904 und Entschlossenheit Operationen 10908, 10910, 10912, 10914, 10916 und 10926 sind wahlweise nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindlichen Display 112, und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 Anwendungs 136-1 vergleicht die Ereignisinformationen an die jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche entspricht einer vordefinierten Ereignis oder Unter Ereignis, wie Auswahl ein Objekt auf einer Oberfläche, die Anpassung der Parameter mit entsprechenden Inhalt oder die Erzeugung eines taktilen Ausgabe assoziiert (zB entsprechend einer Bestimmung, dass eine Einstellung eines Parameters würde zu einer Überschreitung eines oder mehrerer vordefinierter Anpassungsgrenzen). Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden. Providing Taktile Rückkopplung Entsprechend einer Clock
  • Viele elektronische Geräte haben graphische Benutzerschnittstellen, die eine Darstellung einer Uhr umfassen. Zum Beispiel haben viele Mobiltelefone, Laptops und Tabletten eine Darstellung einer Uhr prominent auf der grafischen Benutzeroberfläche angezeigt. Gibt es oft eine Notwendigkeit, effiziente und bequeme Möglichkeiten für den Benutzer entsprechend dem Rückkopplungstakt Raum erhalten. Die Ausführungsbeispiele unten auf bestehenden Verfahren zu verbessern, indem die Erzeugung taktiler Ausgänge für den Benutzer, der auf das Takt (zB ein ”Ticken” Muster der taktilen Ausgänge) entsprechen anzeigt, dass ein Fokuswähler über die Darstellung der Uhr, und gegebenenfalls Bereitstellen einer Anzeige der Rate, mit der die Zeit vergeht.
  • Die 14A bis 14J veranschaulichen beispielhafte Benutzerschnittstellen zum Bereitstellen taktiler Rückmeldung entsprechend einem Takt in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der nachstehend unter Bezugnahme auf die 15A15B beschriebenen Verfahren veranschaulichen.
  • 14A zeigt ein Beispiel einer Benutzerschnittstelle, die eine Darstellung einer Uhr enthält. Benutzeroberfläche 11100 wird auf der Anzeige 450 einer Vorrichtung (zB Vorrichtung 300) dargestellt ist und auf Kontakte (zB ein Fingerkontakt) auf berührungsempfindliche Oberfläche 451. Benutzeroberfläche 11100 umfasst Repräsentation 11102 einer Uhr. 14A zeigt einen weiteren Kontakt 11100 auf berührungsempfindliche Oberfläche 451 und, je einigen Ausführungsformen eine angezeigte Darstellung Fokuswähler (zB ein Cursor 11104), an der Position 11104-A, entsprechend 11100 kontaktieren.
  • In einigen Ausführungsformen ist das Gerät tragbaren Multifunktionsgerät 100, das Display ist berührungsempfindlichen Anzeigesystem 112 und die berührungsempfindliche Oberfläche umfasst taktile Ausgabegeneratoren 167 auf der Anzeige ( ). Zur Vereinfachung der Erläuterung mit Bezug auf die 14A bis 14J beschrieben, die Ausführungsbeispiele und die 15A15B wird mit Bezug auf 450 anzuzeigen und einen separaten berührungsempfindlichen Oberfläche 451 beschrieben, aber analoge Operationen werden gegebenenfalls auf einem Gerät mit einer durch berührungsempfindliche Anzeigesystem 112 in Reaktion auf die Detektion der in den 14A bis 14J auf der berührungsempfindlichen Anzeigesystem 112 während der Anzeige der in den 14A bis 14J auf der berührungsempfindlichen Anzeigesystem 112 gezeigt Benutzeroberflächen beschriebenen Kontakten; in solchen Ausführungsformen ist der Fokus Wähler, gegebenenfalls: a jeweiligen Kontakt eine repräsentative Punkt, der einem Kontakt (zB ein Schwerpunkt einer jeweiligen Kontakt oder ein mit einem entsprechenden Kontakt zugeordnet Punkt) oder ein Flächenschwerpunkt von zwei oder mehr Kontakte detektiert auf dem berührungsempfindlichen Display-System 112, anstelle von Cursor 11104.
  • Die 14A und 14B zeigen ein Beispiel zum Erfassen eines Fokus-Wahlschalter auf eine Darstellung einer Uhr. In diesem Beispiel wenden 11106 und Bewegung 11108 Kontakt 11106 werden auf berührungsempfindliche Oberfläche 451 erkannt. Bewegung einer Fokuswähler (zB Cursor 11104), entsprechend der Bewegung 11108, verursacht die Fokuswähler (zB Cursor 11104), um von der Position 11104-A in 14A über 11102 Darstellung einer Uhr zu bewegen, die nicht in Position 11104-b in 14B, die über die Darstellung 11102 der Uhr ist und das Gerät beginnt, taktile Rückmeldung 11110 bieten (zB Erzeugung von taktilen Ausgänge entsprechend einem tick tock Empfindung) auf berührungsempfindliche Oberfläche 451.
  • 14C zeigt ein Beispiel der Weiter taktile Rückmeldung bereitzustellen, während Detektieren eines Fokuswähler über eine Darstellung einer Uhr. In diesem Beispiel wird 11104 Cursor an der Position 11104-b über 11102 Darstellung einer Uhr und spürbarer 11110 weiterhin auf berührungsempfindliche Oberfläche 451 bereitgestellt werden. Wie unten mit Bezug auf 14B erörtert Figur enthält taktiles Feedback 11110 ein regelmäßiges Muster von taktilen Ausgänge berührungsempfindliche Oberfläche 451.
  • Die Zahlen 14C und 14D zeigen ein Beispiel der Bewegung eines Fokus-Wahlschalter, der den Fokus-Wahl über eine Darstellung einer Uhr unterhält. In diesem Beispiel ist ein Fokuswähler (zB Cursor 11104) zunächst an Position 11104-b, wie in 14C gezeigt ist. Wie in 14D gezeigt, kontaktieren Sie 11112 und Bewegung 11114 werden auf berührungsempfindliche Oberfläche 451 und die entsprechende Bewegung des Cursors 11104 Ursachen Cursor 11104 zu bewegen, um zu positionieren 11104-c nachgewiesen. Seit Cursor 11104 ist über die Vertretung 11102 einer Uhr, wenn an Position 11104-c, taktile Rückmeldung 11110 basiert auf berührungsempfindliche Oberfläche 451 vorgesehen. In einigen Ausführungsformen wird die Periode des regelmäßigen Musters von taktilen Feedback nicht auf die Bewegung einer Fokuswähler (zB Cursor 11104), die das Fokuswähler (zB Cursor 11104) über 11102 Darstellung der Uhr auf der Basis hält. Zum Beispiel in einigen Ausführungsformen, während der Cursor bleibt über 11104 11102 Darstellung der Uhr, ist die Periode des regelmäßigen Musters von taktilen Feedback unabhängig von der Bewegung der Cursor-11104.
  • Die 14D und 14E zeigen ein Beispiel der Bewegung eines Fokus-Wahlschalter von einer Darstellung eines Takt und damit aufzuhören, eine taktile Rückmeldung entsprechend dem Takt bereitzustellen. In diesem Beispiel ist die Cursor-11104 zunächst in der Position 11104-c, wie in 14D gezeigt ist. Wie in 14E gezeigt, kontaktieren Sie 11116 und Bewegung 11118 werden auf berührungsempfindliche Oberfläche 451 und die entsprechende Bewegung des Cursors 11104 Ursachen Cursor 11104 zu bewegen, um 11104-D-Position erkannt. Seit Cursor 11104 ist nicht mehr über die Vertretung 11102 einer Uhr, wenn an Position 11104-d, taktile Rückmeldung nicht mehr auf berührungsempfindliche Oberfläche 451 vorgesehen.
  • Die 14F14H zeigen beispielhafte Wellenformen von Bewegungsprofilen zur Erzeugung der Druckpunkt. zeigt eine Dreieck-Wellenform mit der Periode 11130-1. zeigt ein Rechtecksignal mit Periode 11130-2 und zeigt eine Sägezahn-Wellenform mit der Periode 11130-3. In einigen Ausführungsformen eine der Bewegungsprofile in den 14F14H wird verwendet werden, wenn die Erzeugung taktiler Rückmeldung 11110 entsprechend einer Uhr, wie oben diskutiert. In diesen Beispielen, da das regelmäßige Muster umfasst Wiederholung der einzelnen Wellenform ist die Zeit der regelmäßigen Muster die gleiche wie die Periode der individuellen Wellenform bei der bestimmten Muster. In einigen Ausführungsformen ist der Zeitraum (zB von Spitze zu Spitze oder Vorderkante zur Vorderkante) des regelmäßigen Musters 1 Sekunde.
  • Per einigen Ausführungsformen 14114J zeigen beispielhafte Wellenformen von Bewegungsprofilen, die eine alternierende Abfolge von Ausgängen gehören. In einigen Ausführungsformen, taktiles Feedback 11110 umfasst eine Wechselfolge der taktilen Ausgänge, die verschiedene Ausgangscharakteristiken haben. zeigt eine alternierende Abfolge von Rechteckwellen mit etwa der gleichen Periode und mit unterschiedlichen Amplituden 11132-1 und 11132-2. zeigt eine alternierende Abfolge von Rechteck und Sägezahn Wellen mit etwa dem gleichen Zeitraum und Amplituden. In einigen Ausführungsformen der Zeit (zB von Spitze zu Spitze oder Vorderkante zur Vorderkante der Ausgänge mit der gleichen Bewegungsprofil) des regelmäßigen Musters beträgt 2 Sekunden, so dass die Zeit zwischen zwei aufeinanderfolgenden Ausgängen 1 Sekunde oder etwa 1 Sekunde (zB die Zeit zwischen einem Haken und einem Tack von 1 Sekunde und die Zeit zwischen einem Tack und ein Haken ist 1 Sekunde).
  • In einigen Ausführungsformen kann die fühlbare Rückmeldung 11110 umfasst andere regelmäßige Muster von taktilen Ausgänge berührungsempfindliche Oberfläche 451 als die in den Figuren gezeigt diejenigen 14F14J. Beispiel das regelmäßige Muster kann eine Sequenz von Komponentenwellenformen sein, mit eine Sequenz mit einer Länge von L (wobei L eine ganze Zahl größer als 0 ist), wird dieser wiederholt erzeugt. In einigen Ausführungsformen ist zumindest eine Komponente in der Sequenz von Komponentenwellenformen sich von mindestens einer der anderen Komponenten in wenigstens einer Hinsicht (beispielsweise Amplitude, Periode und/oder Form). In einigen Ausführungsformen ist jedes Komponentenwellenform in der Reihenfolge der Komponentenwellenformen unterscheiden sich von den anderen Komponenten in wenigstens einer Hinsicht (beispielsweise Amplitude, Periode und/oder Form), während in anderen Ausführungsformen einige Komponenten (”wiederholte Komponenten”) in die Sequenz gleich sind (beispielsweise ist jede N-te Komponente in der Sequenz von L Komponenten sind die gleichen), während andere Komponenten, die sich von der wiederholt werden Komponenten. In diesen Ausführungsformen ist die Periode des regelmäßigen Musters der Zeitraum, um die Reihenfolge der Komponentenwellenformen zu erzeugen (das heißt, von der Startzeit einer ersten Instanz des regelmäßigen Muster, bis die Startzeit des nächsten Instanz des regelmäßigen Musters).
  • Die 15A15B sind Fließdiagramme, die ein Verfahren der Bereitstellung 11200 taktile Rückmeldung entsprechend einem Takt in Übereinstimmung mit einigen Ausführungsformen. Verfahren 11200 wird bei einer elektronischen Vorrichtung durchgeführt (zB Vorrichtung 300, 3 oder portable Multifunktionsgerät 100, 1A) mit einem Display und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 11200 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 11200 einen intuitiven Weg zur taktilen Rückmeldung entsprechend einem Takt bereitzustellen. Das Verfahren reduziert die kognitive Belastung für einen Benutzer, wenn eine Uhr anzeigt, wodurch ein effizienter Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die einem Benutzer ermöglicht mit einer Uhr schneller interagieren und effizienter Strom gespart und erhöht die Zeit zwischen Batterie lädt.
  • Das Gerät zeigt (11202) eine Darstellung einer Uhr. 14A zeigt beispielsweise 11102 Darstellung einer Uhr, in der grafischen Benutzerschnittstelle 11100 angezeigt. In einigen Ausführungsformen vor dem Detektieren des Fokuswähler über die Darstellung der Uhr zeigt das Gerät (11204) die Darstellung der Uhr, ohne die taktile Rückkopplung, die auf der Uhr auf der berührungsempfindlichen Oberfläche (zB ein durch Zecken entspricht tack Ausgangssignal entsprechend dem Takt wird nicht erzeugt, bevor der Fokuswähler Bewegung über der Uhr). In 14A beispielsweise ist eine Cursor-11104 an Position 11104-A und nicht mehr als 11102 Darstellung der Uhr und somit eine taktile Rückmeldung 11110 nicht durch die Vorrichtung erzeugt.
  • Beim Anzeigen der Darstellung der Uhr, erkennt das Gerät (11206) Bewegung eines Fokus-Wahlschalter auf die Darstellung der Uhr. Wie in 14B gezeigt ist, beispielsweise 11104 Cursor bewegt sich nach 11104-B über 11102 Darstellung der Uhr von einer Position zu positionieren 11104-A, die nicht über die Darstellung der Uhr war. Während Detektieren des Fokuswahlschalter über die Darstellung der Uhr, bietet das Gerät (11208) taktile Rückmeldung, die auf den Takt, in dem die taktile Rückmeldung beinhaltet ein regelmäßiges Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche entspricht. Beispielsweise zeigt 14C Cursor an Position 11104 11104-b über 11102 Darstellung der Uhr und taktiles Feedback 11110 auf berührungsempfindliche Oberfläche 451, wobei die taktile Rückkopplung beinhaltet ein regelmäßiges Muster von taktilen Ausgänge, wie sie oben unter Bezugnahme bereitgestellt auf die 14F–14J.
  • In einigen Ausführungsformen sind die taktilen Ausgänge in regelmäßigen Muster von taktilen Ausgänge in gleichmäßigen Abständen (11210) erzeugt. Zum Beispiel in einigen Ausführungsformen wird das regelmäßige Muster von taktilen Ausgänge haben eine Periode von einer Sekunde. In einigen anderen Ausführungsformen das regelmäßige Muster von taktilen Ausgänge haben eine Dauer von 0,5 Sekunden, 2 Sekunden, oder andere Zeitdauer zwischen 0,25 Sekunden bis zehn Sekunden.
  • In einigen Ausführungsformen umfasst das regelmäßige Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche einer der oben mit Bezug auf die 14F bis 14J regelmäßigen Mustern. Zum Beispiel in einigen Ausführungsformen das regelmäßige Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche umfasst eine Wechselfolge der taktilen Ausgänge, die unterschiedliche Ausgangskennlinien (11212) aufweisen. Zum Beispiel, in einigen Ausführungsformen, das Muster der taktilen Ausgänge auf der berührungsempfindlichen Oberfläche einen Ticken Sensation ”ticken”, wo taktile Ausgänge und ”tock” taktile Ausgänge sind so gewählt, dass zu produzieren ”tick” Empfindungen, die zu entsprechen generieren ”ticken” taktile Ausgänge fühlen sich anders an einen Benutzer als ”Tock” Empfindungen, die auf ”tock” taktile Ausgänge entsprechen. 14114J zum Beispiel beispielhafte Wellenformen von Bewegungsprofilen, die eine alternierende Folge von Ausgängen umfassen.
  • In einigen Ausführungsformen umfasst das alternierende Abfolge von taktilen Ausgänge einen ersten Typ von taktilen Ausgabe abwechselnd mit einer zweiten Art von taktilen Ausgang (11214) mit unterschiedlicher Amplitude. Zum Beispiel in einigen Ausführungsformen verschiedene Kombinationen von Wellenformen von Bewegungsprofilen in den 14F–14H dargestellt verwendet würde. In einigen Ausführungsformen wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente (zB Bewegung entsprechend einem ersten Impuls des ersten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz) umfasst erzeugt. In einigen Ausführungsformen wird der zweite Typ von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine zweite Bewegungskomponente dominant (zB Bewegung entsprechend einem ersten Impuls des zweiten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz) umfasst erzeugt. In einigen Ausführungsformen die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente die gleiche Bewegungsprofil haben (zB gleiche Wellenform wie beispielsweise Rechteck, Sinus, squine, Sägezahn oder Dreieck und/oder annähernd gleich Breite/Periode) und unterschiedlichen Amplituden. 141 zeigt beispielsweise ein Beispiel Wellenform-Bewegungsprofile mit Wechselstrom-Rechteckwellen mit unterschiedlichen Amplituden 11132-1 und 11132-2.
  • In einigen Ausführungsformen umfasst das alternierende Abfolge von taktilen Ausgänge einen ersten Typ von taktilen Ausgabe abwechselnd mit einer zweiten Art von taktilen Ausgang (11216) mit einer anderen Bewegungsprofil. Zum Beispiel in einigen Ausführungsformen verschiedene Kombinationen von Wellenformen von Bewegungsprofilen in den 14F–14H dargestellt verwendet würde. In einigen Ausführungsformen wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente (zB Bewegung entsprechend einem ersten Impuls des ersten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz) umfasst erzeugt. In einigen Ausführungsformen wird der zweite Typ von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine zweite Bewegungskomponente dominant (zB Bewegung entsprechend einem ersten Impuls des zweiten taktilen Ausgabe ignoriert jegliches ungewollte Resonanz) umfasst erzeugt. In einigen Ausführungsformen die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben unterschiedliche Bewegungsprofile (zB unterschiedliche Wellenformen wie Rechteck, Sinus, squine, Sägezahn oder Dreieck und/oder unterschiedlicher Breite/Periode) und einer gleichen Amplitude. 14J, beispielsweise veranschaulicht ein Beispiel Wellenform-Bewegungsprofile mit Wechselstrom-Rechteckwellen und Sägezahnwellen mit der gleichen Amplitude.
  • In einigen Ausführungsformen, während Erfassen (11218) liegt der Fokus Wähler über die Darstellung der Uhr, das Gerät erkennt (11220) Bewegung des Fokus Selektor, der den Fokus-Wahl über die Darstellung der Uhr und in Reaktion auf die Erkennung Bewegung unterhält der Fokuswahlschalter, das Gerät weiterhin ohne Änderung eine Frist von der regelmäßigen Muster bereitzustellen (11222) die taktile Rückmeldung, die der Uhr. In einigen Ausführungsformen wird die Periode des regelmäßigen Musters von taktilen Ausgänge nicht verändert, basierend auf der Bewegung des Fokuswähler während über die Darstellung der Uhr. Zum Beispiel, gemäß diesen Ausführungsformen die Periode taktiles Feedback 11110 nicht ändern würde, wenn der Cursor bewegt sich von Position 11104 11104-b in 14C bis 11104-c in 14D zu positionieren.
  • und gleichzeitig die taktile Rückmeldung, das Gerät erkennt (11224) Bewegung des Fokus-Wahl weg von der Darstellung der Uhr. 14E, zeigt beispielsweise Cursor 11104 Umzug nach 11104-d vom Vertretung 11102 der Uhr zu positionieren. Ansprechend auf das Erfassen der Bewegung des Fokuswähler von der Darstellung der Uhr, hört die Vorrichtung (11226), um die taktile Rückkopplung entsprechend dem Takt bereitzustellen. Zum Beispiel wird dies in den 14D bis 14E dargestellt. In 14D ist Cursor 11104 an Position 11104-b über die Vertretung 11102 der Uhr und das Gerät ein taktiles Feedback 11110. Doch in 14E, Cursor 11104 fährt in Position 11 von der Repräsentation 11102 der Uhr 104-d entfernt und das Gerät hört auf taktile Rückmeldung 11110 zu erzeugen.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 15A15B beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hierin mit Bezug auf andere hier beschriebene Verfahren beschriebenen Verfahren (zum Beispiel, die in Absatz [0058]) sind ebenfalls in einer analogen Weise zu Verfahren 11200 oben mit Bezug auf 15A bis 15B beschrieben, anwendbar ist. Zum Beispiel können die Kontakte, konzentrieren Selektoren und fühlbare Rückmeldung (beispielsweise taktile Ausgänge) oben mit Bezug auf Verfahren 11200 gegebenenfalls eine oder mehrere der Eigenschaften von Kontakten, konzentrieren Selektoren und fühlbare Rückmeldung (beispielsweise taktile Ausgänge) beschrieben beschriebenen mit Bezug zu anderen hier beschriebenen Verfahren (zB die in Absatz [0058]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 16 zeigt ein Funktionsblockdiagramm eines elektronischen Geräts 11300 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, das in beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in gezeigt, umfasst eine elektronische Vorrichtung eine Anzeigeeinheit 11300 11302 konfiguriert ist, eine Darstellung einer Uhr anzuzeigen; eine berührungsempfindliche Oberfläche Einheit 11304; und eine Verarbeitungseinheit 11306, um die Anzeigeeinheit 11302 und die berührungsempfindliche Oberfläche Einheit 11304 verbunden. In einigen Ausführungsformen umfasst die Verarbeitungseinheit Erfassungseinheit 11308, Anzeigefreigabeeinheit 11310, Rückkopplungseinheit 11312 und 11314 Erzeugungseinheit.
  • Die Verarbeitungseinheit 11306 konfiguriert ist: Bewegung eines Fokus-Wahlschalter erfassen über die Darstellung der Uhr (zB mit der Erfassungseinheit 11308), während Detektieren des Fokuswahlschalter über die Darstellung der Uhr, eine taktile Rückmeldung (zB mit der Rückkopplungseinheit 11312), die auf der Uhr, wobei die taktile Rückkopplung beinhaltet ein regelmäßiges Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche Einheit entspricht. Die Verarbeitungseinheit ferner konfiguriert ist, gleichzeitig die taktile Rückmeldung, Bewegung des Fokuswähler erkennen weg von der Darstellung der Uhr (zB mit der Erfassungseinheit 11308), und in Reaktion auf das Erfassen der Bewegung des Fokuswähler von der Darstellung der Uhr einzustellen, um die taktile Rückmeldung bereitzustellen (beispielsweise mit der Rückkopplungseinheit 11312) entsprechend dem Takt.
  • In einigen Ausführungsformen sind die taktilen Ausgänge in regelmäßigen Muster von taktilen Ausgänge in gleichmäßig beabstandeten Intervallen erzeugt (zB mit der Erzeugungseinheit 11314).
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11306 ist ferner konfiguriert, während Detektieren des Fokuswähler über die Darstellung der Uhr (zB mit Erfassungseinheit 11308), Bewegung des Fokuswähler, der den Schwerpunkt auf die Darstellung Wähler hält erfassen des Taktes (zB mit der Erfassungseinheit 11308), und in Reaktion auf das Erfassen der Bewegung des Fokuswähler, weiterhin (mit Rückkopplungseinheit 11312z) ohne Ändern einer Periode des regelmäßigen Musters liefern die taktile Rückkopplung entsprechend dem Takt.
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11306 weiter konfiguriert ist, vor dem Detektieren des Fokuswähler über die Darstellung der Uhr zeigt die Darstellung der Uhr auf der Anzeigeeinheit (beispielsweise mit dem Anzeigefreigabeeinheit 11310) ohne Bereitstellung der taktile Rückmeldung, die auf die Uhr an der berührungsempfindlichen Oberfläche Einheit entspricht.
  • In einigen Ausführungsformen das regelmäßige Muster von taktilen Ausgänge auf der berührungsempfindlichen Oberfläche Einheit eine abwechselnde Folge von taktilen Ausgänge, die verschiedene Ausgangscharakteristiken haben.
  • In einigen Ausführungsformen umfasst das alternierende Abfolge von taktilen Ausgänge einen ersten Typ von taktilen Ausgabe abwechselnd mit einer zweiten Art von taktilen Ausgabe wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit (zB erzeugt wird, mit die Erzeugungseinheit 11314), der eine erste dominante Bewegungskomponente enthält, die zweite Art der taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche Einheit (zB mit der Erzeugungseinheit 11314), die eine zweite Bewegungskomponente dominant, und das erste generierte dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche Bewegungsprofil und unterschiedlichen Amplituden.
  • In einigen Ausführungsformen umfasst das alternierende Abfolge von taktilen Ausgänge einen ersten Typ von taktilen Ausgabe abwechselnd mit einer zweiten Art von taktilen Ausgabe wird die erste Art von taktilen Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit (zB erzeugt wird, mit die Erzeugungseinheit 11314), der eine erste dominante Bewegungskomponente enthält, die zweite Art der taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche Einheit (zB mit der Erzeugungseinheit 11314), die eine zweite Bewegungskomponente dominant, und das erste generierte dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben unterschiedliche Bewegungsprofile und eine gleiche Amplitude.
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (zB wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben Die Vorgänge mit Bezug auf die 15A15B sind, gegebenenfalls durch in den 1AIB oder 16 dargestellten Komponenten implementiert. Zum Beispiel Erfassungsoperationen 11206 11220 und 11224 und spürbarer Betrieb 11208 werden gegebenenfalls nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindliche Anzeige 112, und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 Anwendungs 136-1 vergleicht die Ereignisinformationen an die jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche entspricht einer vordefinierten Ereignis oder Unter Ereignis, wie Auswahl ein Objekt auf einer Benutzerschnittstelle. Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden. Providing Taktile Rückkopplung Entsprechend Beats eines Musikstücks
  • Viele elektronische Geräte verfügen über grafische Benutzeroberflächen, die Anwendungsfenster zeigen Darstellungen von einem Musikstück (Anzeige zB eine grafische Darstellung eines Stücks Cover für ein Album der Musikstück, ein Bereich, der anzeigt, dass ein Musikstück wird gerade abgespielt oder Notizen von einem Musikstück in einer grafischen Darstellung eines Noten eines Musikstücks entspricht). Zum Beispiel, ein Media-Player-Anwendungsfenster (zB eine Audio- oder Video-Player) gegebenenfalls einen Anzeigebereich, die Informationen zu einem ausgewählten Musikstück (zB Namen, Komponist, Interpret, Album zugeordnet, Aufnahmedatum, Herausgeber und bietet includes/oder die Länge des Musikstücks). Ebenso zeigt optional ein Komponieren Anwendungsfenster eine interaktive Darstellung der Partitur eines Musikstück komponiert, so dass der Benutzer das Musikstück durch Hinzufügen, Entfernen oder Ändern Noten in der Partitur angezeigt manipulieren. Aufgrund der Komplexität der Benutzerschnittstellenumgebung, die Anwendungsfenster für die Anwendungen, die sowohl Audio- und visuelle Komponenten enthält (beispielsweise die Musikwiedergabe, Musikkomposition, die Videowiedergabe oder Videozusammensetzung Anwendungen), gibt es eine Notwendigkeit, Feedback zu geben, die dem Benutzer ermöglicht, mehr effizient und komfortabel über die Benutzeroberfläche Umgebung zu navigieren. Unten beschrieben
  • Die Ausführungsformen stellen verbesserte Verfahren und Benutzerschnittstellen zur Erzeugung Rückkopplung zu einem Benutzer-Navigation einer komplexen Benutzerschnittstellenumgebung. Genauer gesagt, diese Verfahren und Benutzerschnittstellen bereitzustellen, die den Rückkopplungs Schläge eines Musikstückes auf einer Anzeige dargestellten entspricht. Die taktile Rückmeldung bietet dem Anwender mit einem Sinn für den Takt der Musikstückes. Auf diese Weise können die Verfahren und Benutzeroberflächen nachstehenden erlauben dem Benutzer, ein Verständnis der Takt der Musik sowie ein besseres Verständnis des Musikstücks als Ganzes effizient und bequem erreichen, indem taktile Rückkopplung anstelle der oder zusätzlich zu den akustischen und/oder visuellen Feedback. Zum Beispiel in einigen Ausführungsformen kann ein Benutzer auf der Suche nach einem Musikstück mit einem bestimmten Takt (zB um eine visuelle Anzeige zu begleiten oder um beim Laufen hören) bewegt einen Fokuswähler über eine Darstellung des Musikstückes auf der Anzeige, A empfängt taktile Rückmeldung entsprechend dem Takt der Musik, ohne die Musik zu hören. Ebenso in einigen Ausführungsformen ein Benutzer Komponieren eines Musikstückes bewegt einen Fokus-Wahlschalter über eine Darstellung des Musikstücks sie Zusammensetzung sind und erhält eine taktile Rückmeldung entsprechend dem Takt der Musik, Beschleunigung der Kompositionsprozess.
  • Einige Methoden zur Erfassung der Takt eines Musikstücks verlassen sich auf den Benutzer lauschte dem Musikstück und Aufnehmen der Beat selbst. Andere Verfahren zum Erfassen der Takt eines Musikstücks beruhen auf den Benutzer Erfassen einer visuellen Hinweis (zB ein Blitzimpuls oder auf einem Display) entsprechend dem Takt der Musik. Allerdings gibt es viele Situationen (zB bei der Arbeit, in einem Theater und in verschiedenen sozialen Situationen), wo das Volumen eines elektronischen Gerätes wird abgesenkt oder stumm geschaltet werden, wodurch hörbare Hinweise unwirksam. Vorteilhafterweise können die Verfahren und Benutzerschnittstellen unter Augment beschrieben oder ersetzen hörbaren durch taktile Rückmeldung angibt, dass ein Benutzerschnittstellenobjekt ausgewählt wurde und/oder aktiviert.
  • Die 17A bis 17L zeigen beispielhafte Benutzerschnittstellen für eine Rückkopplung, die Takte eines Musikstücks in Übereinstimmung mit einigen Ausführungsformen entspricht. Die Benutzerschnittstellen in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der Verfahren in den 18A bis 18B veranschaulichen. 17A17B, 17G17I und 17K17L sind Diagramme, die Intensität der Stromstärke des dem Kontakt auf dem berührungsempfindlichen Oberfläche in Bezug auf eine Vielzahl von Intensitätsschwellenwerte, die eine Kontaktdetektionsintensitätsschwelle zu zeigen (zB ”IT O”) und eine Lichtintensitätsschwelle drücken (beispielsweise ”IT L”) – In einigen Ausführungsformen werden Operationen ähnlich denjenigen unter Bezugnahme auf LIT beschrieben mit Bezug auf einen unterschiedlichen Intensitätsschwelle durchgeführt (beispielsweise ”IT D”) – In einigen Ausführungsformen, die nachfolgend beschriebenen Operationen sind nicht abhängig von einer Intensität des Kontakts. 17C, 17E–17G und 17J sind Musikpartituren und Wellenformdiagramme, die die Amplitude (zB eine hohe Amplitude ”AH” oder niedriger Amplitude ”AL”) und Form (beispielsweise quadratisch oder Sägezahn) der Wellenform entspricht, taktile Ausgabe zeigen auf der berührungsempfindlichen Oberfläche in Reaktion auf ein taktiles Ausgabeerzeugungsereignis (zB Auswahl und Wiedergabe eines Taktes in einem Musikstück) erzeugt. Diese Musikpartituren und Wellenformdiagramme sind in der Regel nicht Bestandteil der angezeigten Benutzerschnittstelle, sondern werden bereitgestellt, um bei der Interpretation der Figuren zu erleichtern.
  • 17A zeigt beispielhafte Benutzeroberfläche 11408 Anzeige eines oder mehrerer Objekte der Benutzeroberfläche, zum Beispiel Benutzerschnittstelle 11408 Displays Media Player-Fenster 11402, die Darstellungen von einem Musikstück (zB grafische Darstellungen 11406-1 beinhaltet, 11406-2 und 1406-31 von einem Stück Cover für ein Musikalbum) und Cursor-11404 (zB ein angezeigten Darstellung eines Fokus-Wahl). In 17A, Benutzerschnittstelle 1140 auf dem Display 450 einer elektronischen Vorrichtung, die auch berührungsempfindliche Oberfläche 451 und einen oder mehrere Sensoren zum Erfassen der Intensität von Kontakten mit berührungsempfindlichen Oberfläche dargestellt. In einigen Ausführungsformen, berührungsempfindliche Oberfläche 451 ist ein Touchscreen-Display, das wahlweise Anzeige 450 oder eine separate Anzeige.
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einem separaten Display (zB Anzeige 450) und einen separaten berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung tragbaren Multifunktionsvorrichtung 100, die Anzeige berührungsempfindlichen Anzeigesystem 112 und die berührungsempfindliche Oberfläche enthält taktilen Ausgabeerzeuger 167 auf der Anzeige (1A). Zur Vereinfachung der Erläuterung werden die mit Bezug auf die 17A–17O und 18A–18B beschriebenen Ausführungsformen mit Bezug auf 450 angezeigt und ein separates berührungsempfindliche Oberfläche 451 diskutiert werden jedoch analog Operationen werden gegebenenfalls auf einem Gerät mit einem Hauch durchgeführt -sensitive Anzeigesystem 112 in Antwort auf Erfassen einer Bewegung der in den 17A17O auf der berührungsempfindlichen Anzeigesystem beschrieben Kontakte 112 während der Anzeige der in den 17A17O auf der berührungsempfindlichen Anzeigesystem dargestellt Benutzeroberflächen 112; in solchen Ausführungsformen ist der Fokus Wähler, gegebenenfalls: a jeweiligen Kontakt eine repräsentative Punkt, der einem Kontakt (zB ein Schwerpunkt einer jeweiligen Kontakt oder ein mit einem entsprechenden Kontakt zugeordnet Punkt) oder ein Flächenschwerpunkt von zwei oder mehr Kontakte detektiert auf der berührungsempfindlichen Anzeigesystem 112, anstelle von Cursor 11404.
  • Die 17A17G veranschaulichen verschiedene Ausführungsformen, wo Benutzeroberfläche 14081 zeigt Darstellungen 11406 eines Musikstückes auf der Anzeige 450. Benutzerschnittstelle 11408 zeigt auch Cursor 11404 durch Kontakt 11410 auf berührungsempfindliche Oberfläche 451 und Bewegung gesteuert 11412 davon. In einigen Ausführungsformen Cursor 11404 über die Vertretung ein 1406 von einem Musikstück, und als Reaktion bewegt, taktile Generatoren 167 bieten taktile Rückmeldung (zB taktile Ausgänge 11414), die zumindest eine Teilmenge der Schläge in der Musikstück entspricht (zB schlägt 11418). In einigen Ausführungsformen, nachdem die taktile Rückmeldung angegeben wurde, Cursor 11404 entfernt sich von der Darstellung 11406 von einem Musikstück, und als Antwort, taktile Generatoren 167 aufhören, taktile Rückmeldung entsprechend Beats im Musikstück zu schaffen.
  • Die 17A–17G zeigen, dass der Kontakt 11410, entsprechend Cursor 11404 auf dem Display 450 angezeigt und eine Geste einschließlich Bewegung 11412 Kontakt 11410 (zB Bewegung 11412-a Kontakt 11410 vom Standort 11410-a in 17A zu Ort 11410-b in den 17B–17F und/oder Bewegung ein 1412-b von Kontakt 11410 vom Standort 11410-b in den 17B–17F auf Platz 11410-c in ) sind auf berührungsempfindliche Oberfläche 451 erkannt. Kontakt 11410 ist an einer Position auf berührungsempfindliche Oberfläche 451 entsprechend einem Bereich auf dem Display 450 durch Fokus-Wahlschalter besetzt erkannt 11404 (zB Kontakt 11410 entspricht einem Fokus-Wahlschalter auf dem Display, wie Cursor 11404, die an ist oder in der Nähe einer Stelle des Benutzerschnittstellenobjekt 11402). In einigen Ausführungsformen die Bewegung des Kontakt 11410 am berührungsempfindlichen Oberfläche 451 entspricht, um die Bewegung des Fokuswähler (zB ein Cursor 11404) auf der Anzeige 450 (beispielsweise wie in den 17A17G veranschaulicht).
  • Die 17A–17F zeigen verschiedene Beispiele für einen Beginn einer Geste, wo Cursor 11404 bewegt sich über die Vertretung ein 1406 von einem Musikstück, in Übereinstimmung mit der Bewegung ein 1412-a Kontakt 11410 auf berührungsempfindliche Oberfläche 451, entsprechend Cursor 11404 auf dem Display 450. In den 17B17F, während die Fokuswähler 11404 über 14061 Darstellung eines Musikstücks verbleibt, erzeugt das Gerät taktile Ausgänge 11414 (zB durch taktile Ausgabegeneratoren 167), entsprechend einer Teilmenge der Schläge (z schlägt 11418 17C–17F) des Musikstücks angezeigt.
  • In einigen Ausführungsformen, wie in den 17A–17G dargestellt, das Musikstück wird in einem Media Player-Anwendung gespielt (zB als Media-Player-Anwendungsfenster 11402 dargestellt). In einigen Ausführungsformen, wie in den 17A17G, die Wiedergabe der Musikstück ist eine graphische Darstellung des Musikstücks (beispielsweise Bilder 11406 Cover entsprechend einem Album des Musikstücks).
  • 17C–17F veranschaulichen verschiedene Ausführungsformen, wo die Vertretung 11406 des Musikstücks in der Anwendung Windows Media Player 11402 und taktile Rückmeldung (zB taktile Ausgänge 11414-1 angezeigt 11414-3, 11414-5 und 11414-7 in 17C–17F) werden erzeugt, wenn entsprechende Beats (zB schlägt 11418-1, 1418-31, 11418-5 und 1418-71 in 17C–17F) in einer Untergruppe der Schläge (zB eine Teilmenge aller der Beats in Musikstück 11416) werden von der Media Player-Anwendung gespielt. 17C–17F auch verschiedene Ausführungsformen, in denen die Teilmenge der Beats (zB solche Schläge, die Rückmeldung an den Benutzer bereitgestellt taktile entsprechen) umfassen betonte Schläge auf jedem zweiten Takt, darunter die erste (zB schlagen 11418-1), dritte (zB schlagen 11418-3), fünften (zB schlagen 11418-5) und siebten (zB schlagen 11418-7) Beats des Musikstückes.
  • 17C zeigt eine Ausführungsform, bei der Untergruppe von Beats schließt unbetonten Schläge, einschließlich der zweiten (zB schlagen 11418-2), vierte (zB schlagen 11418-4), sechsten (zB schlagen 11418-6) und achten (zB schlagen 11418-8) Beats der Musikstück (zB Musikstück 11416). Dagegen 17D–17F, wie unten beschrieben, veranschaulichen verschiedene Ausführungsformen, in denen die Teilmenge der Beats beinhaltet sowohl betonte Schläge (zB in jedem ungeraden Takt 11418) und unbetonten Schlägen (zB jeden schlagen sogar 11418) des Musikstückes. 17D zeigt eine Ausführungsform, wo die taktile Ausgänge 11414 sind im wesentlichen die gleichen, unabhängig davon, ob sie einer betonten Beat oder einem unbelasteten Takt entsprechen. Dagegen 17E17F, wie unten beschrieben, veranschaulichen verschiedene Ausführungsformen, in denen erste taktile Ausgänge 11414 entsprechend betont Schläge (z ungerade Anzahl schlägt 14181) wesentlich von taktilen zweiten Ausgänge 11414 entspricht unbetonten Schläge (z sind, gerade Zahl schlägt 11418).
  • So zeigt 17E eine Ausführungsform, wo erste taktile Ausgängen 11414 entsprechend betont Schläge 11418 haben eine gleiche oder im wesentlichen gleiche Amplitude (zB hohe Amplitude ”AH”), aber eine im wesentlichen unterschiedliche Bewegungsprofil (zB quadratische Wellenform 11436 verglichen mit Sägezahn-Wellenform 1434i) als zweite taktile Ausgänge 11414 entspricht unbetonten Schläge 11418 des Musikstücks. Im Gegensatz dazu zeigt 17F eine Ausführungsform, in der ersten fühlbaren Ausgänge 11414 entsprechend betont Schläge 11418 weisen eine im Wesentlichen unterschiedliche Amplitude (zB hohe Amplitude ”AH”, im Vergleich zu niedriger Amplitude ”AL”), jedoch im wesentlichen eine gleiche Bewegungsprofil (zB Quadratwellenform 11434) als zweite taktile Ausgänge 11414 entspricht unbetonten Schläge 11418 des Musikstückes.
  • Die 17B17G veranschaulichen verschiedene Ausführungsformen, wo nach dem Bereitstellen taktiler Rückmeldung, wie in den 17B–17F dargestellt, erkennt das Gerät die Bewegung 11412-b von Kontakt 11410 auf berührungsempfindlichen Oberfläche 451, die auf die Bewegung des Cursors 11404 von 11406 Darstellung entspricht des Musikstückes. Wie in 17G in Antwort auf die Bewegung des Cursors 11404 von 11406 Darstellung des Musikstücks dargestellt, taktile Generatoren 167 enden, die den Tastsinn Ausgänge 11414, entsprechend Schläge des Musikstückes.
  • Die 17H17L veranschaulichen verschiedene Ausführungsformen, wo Benutzeroberfläche 11408 Displays Musikkomposition Anwendungsfenster 11422, die Darstellung 11424 einer Partitur enthält, auf dem Display 450. Benutzeroberfläche 11408 zeigt auch Cursor 11404, 11426 durch Kontakt auf berührungsempfindliche Oberfläche 451 und die Bewegung desselben 11428 gesteuert. In einigen Ausführungsformen Cursor 11404 bewegt sich über die Vertretung 11424 einer Partitur, und als Antwort, taktile Generatoren 167 bieten taktile Rückmeldung (zB taktile Ausgänge 11414), die zumindest eine Teilmenge der Schläge in der Musikstück (zB Schläge entspricht 11418). In einigen Ausführungsformen, nachdem die taktile Rückmeldung angegeben wurde, Cursor 11404 bewegt sich von Repräsentation 11424 der Musiknoten, und als Antwort, taktile Generatoren 167 aufhören, taktile Rückmeldung entsprechend Beats im Musikstück zu schaffen.
  • In einigen Ausführungsformen, wie in den 171–17J, die Bewegung des Cursors veranschau 11404 über die Vertretung 11424 einer Partitur, in Übereinstimmung mit der Bewegung 11428-A der Kontakt 11426 auf berührungsempfindliche Oberfläche 451, während das Musikstück (zB ein Zusammensetzung) wird wieder von der Zusammensetzung Anwendung spielte, führt zur Erzeugung von taktilen Ausgänge 11414 entspricht Beats 11418 des Musikstückes, wenn die Beats werden von der Medienanwendung gespielt. Obwohl 17J zeigt die erste taktile Ausgänge 11414 entspricht, hervorgehoben Schläge 11418 (beispielsweise die ungeradzahligen Ausgänge taktile 11414 und 11418 schlägt, jeweils) und zweiten Ausgänge taktile 11414 entspricht unbetonten Schläge 11418 (zB die geradzahligen Ausgänge taktile 11414 und Beats 11418, beziehungsweise) fühlen wesentlich (zB eine im Wesentlichen unterschiedliche Amplitude, aber eine gleiche oder im wesentlichen gleiche Rechteckwellenform-Bewegungsprofil), in einigen Ausführungsformen die ersten und zweiten Ausgänge taktile taktile Ausgänge sind mit im wesentlichen der gleichen Amplitude und Bewegungsprofil gefertigt und somit im wesentlichen gleich zu einem Benutzer fühlen. In einigen Ausführungsformen sind die zweiten taktilen Ausgaben entsprechend unbelasteten Schläge ausgeschlossen sind (beispielsweise nicht durch die Vorrichtung erzeugt wird).
  • In einigen Ausführungsformen, wie in den 17K–17L veranschaulicht die Bewegung des Cursors 11404 über eine Darstellung 11430-3 entsprechender schlagen ein 1418-3 in Partitur 11424, in Übereinstimmung mit der Bewegung ein 1428-c von Kontakt 11426 auf berührungsempfindliche Oberfläche 451, führt zur Erzeugung von taktilen Rückmeldung (zB, taktile Ausgabe 11414-3). Beispielsweise veranschaulicht eine Ausführungsform, bei Cursor 11404 in Übereinstimmung mit der Bewegung ein 1428-b von Kontakt 11426 von Position 1 auf Position 11426-1 1426-3 auf berührungsempfindliche Oberfläche 451, Darstellung 11424 von Zügen über eine Partitur auf dem Display 450 und taktile Rückmeldung wird nicht generiert, da der Cursor an eine Position nicht zu einer entsprechenden Anzeige Darstellung eines Schlages in dem Musikstück. Im Gegensatz dazu, wie in dargestellt, entsprechend der Bewegung 11428-c von Kontakt 11426 von Position 11426-3 bis 11426-d auf berührungsempfindliche Oberfläche 451, Cursor 11404 bewegt sich über die Vertretung Position 11430-3 von schlagen ein 1418-3 in Darstellung 11424 der Musiknoten und taktile Rückmeldung (zB taktile Ausgabe 11414-3) auf berührungsempfindliche Oberfläche 451 erzeugt wird, unabhängig davon, ob oder nicht Musik entsprechend Darstellung 11424 der Partitur das Musikstückgleichzeitig durch die Musikkomposition Anwendung gespielt.
  • Die Zahlen 17M–17O veranschaulichen beispielsweise Wellenformen von Bewegungsprofilen zur Erzeugung dieser taktilen Ausgänge. zeigt eine Sägezahn-Wellenform 11434. zeigt ein Rechtecksignal 11436 und zeigt ein Rechtecksignal 11438, die eine geringere Amplitude als der Rechteckwellenform von 17F hat. Sägezahnkurvenform 11434 hat eine andere Bewegungsprofil aus Rechteckwellenformen 11436 und 11438 und im wesentlichen die gleiche Amplitude wie Rechteck-Wellenform 11436. Rechtecksignal 11436 hat eine im Wesentlichen gleiche Bewegungsprofil und wesentlich andere Amplitude als Rechtecksignal 11438.
  • Die 18A18B sind Fließdiagramme, die ein Verfahren 15001 Bereitstellen einer Rückkopplung, die Schläge von einem Musikstück entspricht, mit einigen entsprechend Ausführungsformen. Verfahren 11500 an einem elektronischen Gerät durchgeführt (zB Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Methode 11500 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, wobei das Verfahren 11500 stellt eine intuitive Möglichkeit, Rückmeldungen, um Schläge von einem Musikstück entspricht, bereitzustellen. Das Verfahren reduziert die kognitive Belastung für einen Benutzer bei der Erkennung von Rückmeldungen, um Schläge von einem Musikstück entspricht, wodurch ein effizienter Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die es einem Benutzer, um Feedback, die Beats von einem Musikstück entspricht schneller und effizienter Strom gespart und erhöht die Zeit zwischen Batterie lädt zu erkennen.
  • In einigen Ausführungsformen zeigt das Gerät (11502) eine Darstellung von einem Musikstück (zB Darstellungen 11406 von einem Stück Cover entspricht einem Musikstück in den 17A–17G oder Vertretung ein 1424 von einem Partitur entsprechend einem Musikstück in den 17H–17L) auf einer Anzeige (beispielsweise Display 450 in den 17A17L). In einigen Ausführungsformen das Musikstück (zB Musik 11416 in den 17C–17F und 17J) gespielt wird (11504) in einem Media Player-Anwendung (zB Media Player-Anwendung Fenster ein 1402 in den 17A–17G) und die Darstellung der Musikstück ist eine grafische Darstellung des Musikstücks (zB Darstellungen 11406 von einem Stück Cover für ein Album des Musikstücks in den 17A–17G). In einigen Ausführungsformen ist die Darstellung des Musikstück ein Stück Cover für ein Album der Musikstück (zB Darstellungen 11406). In einigen Ausführungsformen ist die Darstellung des Musikstück eine ”Now Playing” Bereich des Media Player-Anwendung (zB Bereich 11420 der Media-Player-Anwendungsfenster 11402), die einen Namen und Spielzeit des Musikstückes.
  • In einigen Ausführungsformen, während das Gerät zeigt die Darstellung eines Musikstücks, das Gerät erkennt (11506) Bewegung einer Fokuswähler (zB Cursor 11404 17A–17L) auf die Darstellung des Stück Musik.
  • In einigen Ausführungsformen, während Detektieren des Fokuswahlschalter über die Darstellung des Musikstück, bietet die Vorrichtung (11508) taktile Rückmeldung (zB taktile Ausgänge 11414 in den 17B–17F, 17I–17J und 17L), dass entspricht zumindest eine Teilmenge der Schläge (z schlägt 11418 17C–17F und 17J) des Musikstücks (beispielsweise Musikstück 11416 17C–17F und 17J). In einigen Ausführungsformen ist die Darstellung des Musikstück ist eine Darstellung der Noten (zB eine Partitur). In einigen Ausführungsformen ist die Darstellung des Musikstücks enthält visuelle Medien, die dem Musikstück (beispielsweise ein Bild, ein Video, eine Textbeschreibung des Musikstücks oder eines Albums/Video einschließlich der Musikstück oder ein Audio Visualizer mit dem Musikstück verbunden sind). Zum Beispiel wird die taktile Rückkopplung, die einem Musikstück erzeugt, während ein Fokuswähler (zB ein Cursor angezeigt wird oder ein Kontakt) über ein Albumcover für das Musikstück, über einen Komponisten oder Interpreten Bild für das Musikstück oder über einen aktuell abgespielten Video, das das Musikstück als aktuell abgespielten Audio-Inhalt enthält (zB die Hintergrundmusik in einem Film oder die Musik in einem Musikvideo).
  • In einigen Ausführungsformen nach dem Bereitstellen der taktile Rückmeldung, erkennt das Gerät (11528) Bewegung des Fokus-Wahl weg von der Darstellung des Musikstücks (zB Bewegung des Cursors 11404 entsprechend der Bewegung 11412-b Kontakt 11410-c auf berührungsempfindliche Oberfläche 451, in ).
  • In einigen Ausführungsformen in Antwort auf Erfassen einer Bewegung der Fokuswähler von der Darstellung des Musikstücks, hört die Vorrichtung (11530), um die taktile Rückmeldung (beispielsweise taktile Ausgänge 11414) verwendet, der dem zur Verfügung stellen Schläge des Musikstückes.
  • In einigen Ausführungsformen der Fokus-Wahlschalter (zB Cursor 11404 in den 17A–17L in Übereinstimmung mit der Bewegung bewegt (11510) (zB Bewegungen 11412 in den 17A–17G oder Bewegungen 11428 in den 17H–17L) eines Kontakts (zB Kontakt 11410 in den 17A–17G oder Kontakt 11426 in den 17H–17L) auf einer berührungsempfindlichen Oberfläche (zB berührungsempfindliche Oberfläche 451), und die taktile Rückmeldung durch Erzeugung taktiler Ausgänge (zB taktile Ausgänge 11414 in den 17B–17F, 17I–17J und bereitgestellt 17L) auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist der Kontakt der Fokus-Wahlschalter (zB wenn das Gerät über einen Touchscreen verfügt, liegt der Fokus Wähler optional Kontakt 11410). In einigen Ausführungsformen entspricht der Kontakt zu einem Cursor oder Auswahlfeld, das auf dem Display angezeigt wird.
  • In einigen Ausführungsformen ist die Darstellung des Musikstücks (zB Darstellungen 11406 von einem Stück Cover für ein Album des Musikstücks in den 17A–17G) in einem Media-Player angezeigt (11512) Anwendung (zB Media Player-Anwendung Fenster ein 1402 in den 17A–17G) enthält, und die taktile Rückmeldung einer Vielzahl von taktilen Ausgänge (zB taktile Ausgänge 11414) generiert, wenn entsprechende Beats (zB schlägt 11418) in der Untergruppe der Beats werden von der Media Player-Anwendung gespielt (zB die berührungsempfindliche Oberfläche erzeugt taktile Ausgänge in der Zeit mit Musik, die in den Medien-Player-Anwendung gespielt).
  • In manchen Ausführungsformen ist die Darstellung des Musikstückes angezeigt wird (11514) wie auf einem Noten (zB Darstellung 11424 von einem Ergebnis des Musikstücks in den 17H–17L) in einem Musikkompositionsanwendung (zB Musik-Komposition Anwendungsfenster ein 1422 in den 17H–17L). Zum Beispiel durch die Anzeige einer Wiedergabe von Noten (zB schwarze Balken 11430-9, entsprechend der gespielten Note auf Beat 11418-9 von Musikstück 11416 in den 17H–17L) des Musikstücks (zB, Musik 11416) in einer Darstellung einer Partitur (zB Darstellung 11424 einer Partitur) entsprechend dem Musikstück.
  • In einigen Ausführungsformen, während die Darstellung des Musikstücks als musikalische Partitur in einem Musikkompositions Anwendung angezeigt, enthält die taktile Rückkopplung (11516) eine Vielzahl von taktilen Ausgänge (zB taktile Ausgänge 11414) erzeugt wird, wenn die Fokus-Wahlschalter über Darstellungen von entsprechenden Beats bewegt (zB schlagen 11418-3 dargestellt als vertikale Linie 11432-3 oder schlagen Darstellung 11430-3 in ) in der Teilmenge der Schläge in der Partitur. In einigen Ausführungsformen können die Auswahlfokus bewegt sich in Übereinstimmung mit der Bewegung eines Kontaktes auf der berührungsempfindlichen Oberfläche (zB Bewegungs 11428-c der Kontakt 11426 auf berührungsempfindliche Oberfläche 451 in den 17K–17L) und damit das taktile Ausgänge (zB taktile Ausgänge 11414) in Übereinstimmung mit der Bewegung des Kontakts auf der Berührungsfläche erzeugt.
  • In einigen Ausführungsformen, die Teilmenge der Schläge (beispielsweise 1 schlägt 1418) enthält (11518) betont Schläge in der Musikstück (zum Beispiel geradzahlige Schläge 11418 Musikstück 11416 17C–17F und 17J). In einigen Ausführungsformen ist ein Schlag die Grundeinheit der Zeit in der Musik (zB eine Viertelnote in einem Musikstück mit einem 4/4 Takt oder eine Achtelnote in einem Musikstück mit einem 6/8 Takt), wo eine betonte Beat ist eine stärkere, lauter oder sonst nachdrücklicher Beat aus einer Vielzahl von Beats. Einige typische Beat Muster umfassen betonen alle vier Schläge (zB wie häufig in der Musik mit einer 4/8 Taktart getan) und betonte, jede andere schlagen (zB wie häufig in der Musik mit einem 4/4 Takt getan) oder Belastung jeder dritte schlagen (zB wie häufig in der Musik mit einer 3/4 oder 6/8 Takt, getan wie einen Walzer). Ein Takt, der nicht beansprucht wird, wird manchmal als unbelasteten Takt bezeichnet. In einigen Ausführungsformen ist ein Schlag eine Untereinheit des Grundeinheit der Zeit in der Musik (zB eine Achtelnote in der Musik mit einer 4/4 oder 3/4 Takt).
  • In einigen Ausführungsformen, die Teilmenge der Beats umfasst (11520) unbetonten Schläge des Musikstückes. Zum Beispiel, wie in 17C, die Teilmenge der Schläge 1 dargestellten 1418 umfasst betonte Schläge (z ungeraden Schlägen 11418), schließt aber unbetonten Schläge (z geradzahligen Schläge 11418) und taktile Ausgänge 11414 werden nur dann erzeugt entsprechende auf die beanspruchten Beats.
  • In einigen Ausführungsformen, wobei eine taktile Rückmeldung, die mindestens eine Teilmenge der Schläge des Musikstücks (11508) beim Detektieren des Fokuswähler über die Darstellung des Musikstücks, die Teilmenge der Schläge umfassen (11522) ein oder mehrere Taktbetonung (zB ungeraden Schlägen 11418) und eine oder mehrere unbelasteten Schläge (z geradzahligen Schläge 11418), enthält die taktile Rückkopplung einer Vielzahl von taktilen Ausgänge (zB taktile Ausgänge 11414) für entsprechende Schläge in der Teilmenge von Schlägen wird eine erste taktile Ausgabe für betonte Schläge erzeugt, und eine zweite taktile Ausgabe, von der ersten verschiedenen taktilen Ausgabe wird für nicht erzeugten Taktbetonung (zB geradzahligen taktile Ausgänge 11414 und ungeradzahlige taktile Ausgänge 11414 fühlen wesentlich für den Benutzer, wie in den 17E und 17F–17J) dargestellt. Im Gegensatz dazu ist in einigen Ausführungsformen eine erste taktile Ausgabeentsprechend einer Schwebungs gestresst und eine zweite taktile Ausgabe entsprechend einem unbelasteten Takt im wesentlichen gleich sind (beispielsweise ungeradzahlige taktile Ausgänge 11414 bis ungeradzahligen Taktbetonung 11418 entspricht und geradzahlige taktile Ausgänge 11414 entsprechend geradzahligen unbetonten Schläge 11418 fühlen sich im wesentlichen der gleiche für den Benutzer, wie in 17D dargestellt ist). In einigen Ausführungsformen ist das erste taktile Ausgabe mehr im Vordergrund (zB eine größere Amplitude) als das zweite taktile Ausgabe. In einigen Ausführungsformen ist das zweite taktile Ausgabe mehr im Vordergrund (zB eine größere Amplitude) als das erste taktile Ausgabe.
  • In einigen Ausführungsformen wird das erste taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente erzeugt (11524), wird das zweite taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche umfasst, die einen erzeugten zweite Bewegungskomponente dominant, und das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche oder im wesentlichen gleiche Amplitude (zB hohe Amplitude ”AH” aller taktile Ausgänge 11414 in 17E) und im wesentlichen unterschiedliche Bewegungsprofile (zB Quadratwellenform ein 1436 von ungeraden taktile Ausgänge 11414 und Sägezahn-Wellenform Form 11434 von geradzahligen taktile Ausgänge 11414 in 17E). In einigen Ausführungsformen Bewegung der berührungsempfindlichen Oberfläche entspricht einer Anfangsimpuls, ohne Berücksichtigung einer etwaigen unbeabsichtigten Resonanz. In einigen Ausführungsformen unterscheiden sich die Bewegungsprofile in ihrer Wellenform (zB Rechteck, Sinus, squine, Dreieck oder Sägezahn-Wellenform-Form), Wellenform Impulsbreite und/oder Wellenform Impulsperiode (zB Frequenz). Zum Beispiel, wie in dargestellt, ein ”Rast”, die auf der berührungsempfindlichen Oberfläche, die einer betonten Takt der Musik erzeugt wird, hat eine Rechteckform Bewegungsprofil (zB Rechteck-Wellenform ein 1436 von ungeraden taktile Ausgänge 11414 in 17E), wohingegen ein ”Klick”, der auf dem berührungsempfindliche Oberfläche, die einer unbetonten Takt der Musik eine Sägezahn-Wellenform Bewegungsprofil (zB Sägezahn-Wellenform ein 1434 von geradzahligen taktile Ausgänge 11414 in 17E generiert wird) oder umgekehrt.
  • In einigen Ausführungsformen wird das erste taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente erzeugt (11526), wird das zweite taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche umfasst, die einen erzeugten zweite dominante Bewegungskomponente, und das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche oder im Wesentlichen gleiche Bewegungsprofil (zB Rechteckwellenformen ein 1434 von ungeraden taktile Ausgänge 11414 und Rechteck-Wellenform ein 1436 von geradzahligen taktile Ausgänge 1 haben 1414 in 17F und 17J) und im Wesentlichen unterschiedliche Amplituden (zB hohe Amplitude ”AH” des ungeradzahligen taktile Ausgänge 11414 größer als niedriger Amplitude ”AL” von geradzahligen taktile Ausgänge 11414 in 17F und 17J). In einigen Ausführungsformen Bewegung der berührungsempfindlichen Oberfläche entspricht einer Anfangsimpuls, ohne Berücksichtigung einer etwaigen unbeabsichtigten Resonanz. In einigen Ausführungsformen unterscheiden sich die Bewegungsprofile in ihrer Wellenform (zB Rechteck, Sinus, squine, Dreieck oder Sägezahn-Wellenform-Form), Wellenform Impulsbreite und/oder Wellenform Impulsperiode (zB Frequenz). Zum Beispiel, wie in den 17F und 17J, ein ”Rast”, die auf der berührungsempfindlichen Oberfläche, die einer betonten Takt der Musik erzeugt wird, veranschaulicht eine größere Amplitude als eine ”Sperre”, die auf der berührungsempfindlichen Oberfläche erzeugt wird, entsprechend einem unbetonten Takt der Musik (zB hoher Amplitude ”AH” der ungeraden taktile Ausgänge 11414 in 17F und 17J ist größer als geringer Amplitude ”AL” von geradzahligen taktile Ausgabe 11414 in 17F und 17J) oder umgekehrt.
  • In einigen Ausführungsformen nach Bereitstellung taktiler Rückmeldung, erkennt das Gerät (11528) Bewegung des Fokus-Wahl weg von der Darstellung des Musikstückes. Zum Beispiel, wie in 17G dargestellt ist, in Übereinstimmung mit Bewegungserkennung 14121-b der Kontakt 11410 von Position 11410-b in die Position c-11410 auf berührungsempfindliche Oberfläche 451, entsprechend der Bewegung des Cursors 11404 entfernt von Darstellung 11406 von einem Musikstück. In einigen Ausführungsformen in Antwort auf Erfassen einer Bewegung der Fokuswähler von der Darstellung des Musikstücks, hört die Vorrichtung (11530), um eine taktile Rückmeldung, die den Takt der Musikstück entspricht, bereitzustellen. Zum Beispiel, wie in 17G dargestellt, wenn Cursor 11404 bewegt sich von 1 Darstellung 1406 eines Musikstücks, taktile Ausgabegeneratoren 167 Anschlag Erzeugung taktiler Ausgänge 11414 auf berührungsempfindliche Oberfläche 451, da der Cursor nicht mehr über die positioniert Darstellung des Musikstückes.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 18A18B beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hierin mit Bezug auf andere hier beschriebene Verfahren beschriebenen Verfahren (zum Beispiel, die in Absatz [0058]) sind ebenfalls in einer analogen Weise zu Verfahren 11500 anwendbar oben mit Bezug auf die Figuren werden 18A–18B. Zum Beispiel können die Kontakte, Gesten, Benutzerschnittstellenobjekten, taktile Empfindungen und sich oben mit Bezug auf Verfahren 11500 beschriebenen gegebenenfalls einen oder mehrere der Eigenschaften der Kontakte, Gesten, Benutzerschnittstellenobjekten, taktile Empfindungen Selektoren und Selektoren konzentrieren hierin beschriebenen mit Bezug zu anderen hier beschriebenen Verfahren (zB die in Absatz [0058]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 19 zeigt ein Funktionsblockdiagramm einer elektronischen Vorrichtung 11600 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, das in beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 19 gezeigt ist, eine elektronische Vorrichtung 11600 umfasst eine Anzeigeeinheit, 11602 konfiguriert, um eine oder mehrere Benutzerschnittstellenobjekte, die eine berührungsempfindliche Oberfläche Einheit 11604 konfiguriert, um Benutzerkontakte, gegebenenfalls ein oder mehrere Sensoreinheiten 11606 so konfiguriert, dass der Grad des Kontaktes mit der berührungsempfindlichen Oberfläche Einheit 11604 erfassen empfangen anzuzeigen; und eine Verarbeitungseinheit 11608 der Anzeigeeinheit 11602 der berührungsempfindlichen Oberfläche Einheit 11604 gekoppelt ist und gegebenenfalls die eine oder mehrere Sensoreinheiten 11606. In einigen Ausführungsformen kann die Verarbeitungseinheit 1, 1608 eine Anzeigefreigabeeinheit 11610, eine Erfassungseinheit 11612 eine Bereitstellungseinheit 11614 und Aufhören Einheit 11616.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 11608 konfiguriert, um die Anzeige zu aktivieren (beispielsweise mit der Anzeigeeinheit 1 ermöglicht 1610) einer Darstellung eines Musikstücks auf der Anzeigeeinheit 11602. In einigen Ausführungsformen ist die Verarbeitungseinheit 11608 konfiguriert, um eine Bewegung einer Fokuswähler über die Darstellung des Musikstücks zu erfassen (zB mit Erfassungseinheit 11612); und wobei Detektieren des Fokuswähler über die Darstellung des Musikstücks, die Verarbeitungseinheit 11608 konfiguriert, um eine taktile Rückmeldung, die auf mindestens einer Teilmenge der Schläge des Musikstücks entspricht (zB mit Anbietereinheit 11614) bereitzustellen. In einigen Ausführungsformen nach dem Bereitstellen der taktile Rückmeldung, die Verarbeitungseinheit 11608 konfiguriert, um die Bewegung der Fokuswähler von der Darstellung des Musikstücks zu erfassen (beispielsweise mit der Erfassungseinheit 11612); und in Reaktion auf das Erfassen der Bewegung des Fokuswähler von der Darstellung des Musikstücks, die Verarbeitungseinheit 11608 konfiguriert, um einzustellen, um die taktile Rückkopplung, die den Takt der Musikstück (zum Beispiel entspricht bereitzustellen, mit dem Aufhören Einheit 11616).
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11608 konfiguriert, um die Anzeige der Bewegung des Fokuswähler ermöglichen (beispielsweise mit der Anzeigeeinheit 1 ermöglicht 1610) in Übereinstimmung mit der Bewegung eines Kontakts auf berührungsempfindliche Oberfläche Einheit 11604 und die taktile Rückkopplung durch Erzeugung taktiler Ausgänge auf der berührungsempfindlichen Oberfläche Einheit 11604 (zB mit der Anbietereinheit 11614) vorgesehen ist.
  • In einigen Ausführungsformen das Musikstück wird derzeit in einem Media-Player-Anwendung spielte; und die Darstellung des Musikstücks ist eine graphische Darstellung des Musikstückes.
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 11608 konfiguriert, um die Wiedergabe der Musikstück in einem Media-Player-Anwendung anzuzeigen (zB mit dem Anzeigefreigabeeinheit 11610), und die taktile Rückkopplung beinhaltet eine Vielzahl von taktilen Ausgängen generiert, wenn entsprechende Beats in der Teilmenge der Schläge werden von der Media Player-Anwendung gespielt.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 11608 konfiguriert, um die Wiedergabe der Musikstück als musikalische Partitur in einem Musikkomposition Anwendung anzuzeigen (beispielsweise mit der Anzeigeeinheit 1 ermöglicht 1610).
  • In manchen Ausführungsformen umfasst die taktile Rückkopplung einer Vielzahl von taktilen Ausgänge erzeugt, wenn die Fokuswähler über Darstellungen entsprechende Schläge in der Teilmenge von Schlägen in der Musikpartitur bewegt.
  • In einigen Ausführungsformen, die Teilmenge der Beats umfasst betonte Schläge des Musikstückes.
  • In einigen Ausführungsformen, die Teilmenge der Schläge schließt unbetonten Schläge des Musikstückes.
  • In einigen Ausführungsformen, die Teilmenge der Schläge ein oder mehrere Taktbetonung und eine oder mehrere unbelasteten Beats, enthält die taktile Rückkopplung einer Vielzahl von taktilen Ausgänge für entsprechende Schläge in der Teilmenge von Schlägen, die Verarbeitungseinheit 11608 konfiguriert Erzeugen einer ersten Ausgabe für taktile betonte Schläge (zB mit dem Anbietereinheit 11614) und der Verarbeitungseinheit 11608 konfiguriert, um eine zweite taktile Ausgabe, von der ersten verschiedenen taktile Ausgabe zu erzeugen, für die nicht belasteten Schläge (zB mit die Bereitstellungseinheit 11614).
  • In einigen Ausführungsformen wird das erste taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit 11604, der eine erste dominante Bewegungskomponente enthält, wird die zweite taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit 11604 erzeugt wird, dass umfasst eine zweite Bewegungskomponente dominant, und das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche Amplitude und unterschiedliche Bewegungsprofile.
  • In einigen Ausführungsformen wird das erste taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit 11604, der eine erste dominante Bewegungskomponente enthält, wird die zweite taktile Ausgabe durch Bewegung der berührungsempfindlichen Oberfläche Einheit 11604 erzeugt wird, dass umfasst eine zweite Bewegungskomponente dominant, und das erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche Amplitude und unterschiedliche Bewegungsprofile.
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (zB wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben Die Vorgänge mit Bezug auf die 18A18B sind, gegebenenfalls durch in den 1AIB oder 19 dargestellten Komponenten implementiert. Zum Beispiel Erfassungsoperationen 11506 und 11528 und die Bereitstellung Betrieb 11508 sind wahlweise nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindliche Anzeige 112, und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 Anwendungs 136-1 vergleicht die Ereignisinformationen an die jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche entspricht einer vordefinierten Ereignis oder Unter Ereignis, wie Auswahl ein Objekt auf einer Benutzerschnittstelle oder die Anzeige eines Fokuswähler über einer Darstellung eines Musikstücks auf einer Benutzerschnittstelle. Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. In einigen Ausführungsformen, Event-Handler 190 greift auf eine jeweilige taktile Ausgabegenerator 167, um eine taktile Ausgabe generiert. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen sind oben beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich sollte beachtet werden, dass die verschiedenen Prozesse separat beschrieben (beispielsweise diejenigen, die in Absatz [0058] aufgeführt) können miteinander in verschiedenen Anordnungen kombiniert werden können. Zum Beispiel können die Kontakte, Benutzerschnittstellenobjekten, taktile Empfindungen Intensitätsschwellen und/oder Fokuswähler oben beschrieben mit Bezug auf irgendeinem der verschiedenen Verfahren getrennt beschrieben (beispielsweise die in Absatz [0058]), gegebenenfalls einen oder mehrere der Eigenschaften der Kontakte, Gesten und Benutzerschnittstellenobjekten, taktile Empfindungen Intensitätsschwellen und Fokuswähler hier mit Bezug auf eine oder mehrere der anderen hierin beschriebenen Verfahren beschrieben (beispielsweise die in Absatz [0058]). Der Kürze halber alle die verschiedenen möglichen Kombinationen werden hier nicht speziell aufgezählt, aber es sollte verstanden werden, dass die oben beschriebenen Ansprüche können in beliebiger Weise, die nicht durch sich gegenseitig ausschließende Funktionen ausgeschlossen Anspruch kombiniert werden.
  • Die vorstehende Beschreibung zum Zwecke der Erklärung unter Bezugnahme auf spezifische Ausführungsformen beschrieben worden. Allerdings sind die veranschaulichenden Diskussion, die oben nicht beabsichtigt, erschöpfend zu sein oder die verschiedenen beschriebenen Ausführungsformen auf die offenbarten präzisen Formen beschränken. Viele Modifikationen und Variationen sind angesichts der obigen Lehren möglich. Die Ausführungsformen wurden ausgewählt und beschrieben, um am besten die Prinzipien der verschiedenen beschriebenen Ausführungsformen und deren praktische Anwendung, um es dadurch anderen Fachleuten die beste Nutzung der verschiedenen beschriebenen Ausführungsformen mit verschiedenen Modifikationen, wie sie für die bestimmte beabsichtigte Verwendung geeignet zu ermöglichen beschrieben.

Claims (146)

  1. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige: Anzeigen eines Benutzerschnittstellenobjekts in der Anzeige; Erfassen einer Berührung auf der berührungsempfindlichen Oberfläche; Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht der Durchführung einer Operation auf dem Benutzerschnittstellenobjekt; in Antwort auf das Erfassen der ersten Bewegung: Ausführen der Operation; und Erzeugen einer ersten taktile Ausgabe auf der berührungsempfindlichen Oberfläche; Erfassen einer zweiten Bewegung des Kontakt über die berührungsempfindliche Oberfläche, die zweite Bewegung entspricht der Umkehrung der Operation auf dem Benutzerschnittstellenobjekt; und in Antwort auf das Erfassen der zweiten Bewegung: Umkehren der Operation; und Erzeugen einer zweiten taktile Ausgabe auf der berührungsempfindlichen Oberfläche, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  2. Verfahren nach Anspruch 1, wobei die erste Bewegung des Kontakts über die berührungsempfindliche Oberfläche und die zweite Bewegung des Kontakt über die berührungsempfindliche Oberfläche Teil einer einzigen kontinuierlich durchgeführten Geste sind, ohne ein Abheben des Kontakt von der berührungsempfindlichen Oberfläche zu erfassen.
  3. Verfahren nach einem der Ansprüche 1–2, wobei: Durchführen der Operation das Einrasten des Benutzerschnittstellenobjekts in eine entsprechende Objektplatzierungsführung beinhaltet; und Umkehrung der Operation das Einrasten des Benutzerschnittstellenobjekts aus der jeweiligen Objektplatzierungsführung beinhaltet.
  4. Verfahren nach einem der Ansprüche 1–2, wobei: Durchführen der Operation Markierungsdaten entsprechend dem Benutzerschnittstellenobjekt zum Löschen beinhaltet; und Umkehren der Operation das Aufheben der Markierungsdaten entsprechend dem zu löschenden Benutzerschnittstellenobjekt beinhaltet.
  5. Verfahren nach einem der Ansprüche 1–2, wobei: das Benutzerschnittstellenobjekt einer Datei entspricht; Durchführen der Operation das Anordnen der Datei in einem Verzeichnis beinhaltet; und Umkehren der Operation das Entfernen der Datei aus dem Verzeichnis beinhaltet.
  6. Verfahren nach einem der Ansprüche 1–2, wobei: das Benutzerschnittstellenobjekt einer Anwendung entspricht; Durchführen der Operation das Anordnen des Benutzerschnittstellenobjekts in eine Anwendungsstartregion beinhaltet; und Umkehrung der Operation das Entfernen des Benutzerschnittstellenobjekts aus der Anwendungsstartregion beinhaltet.
  7. Verfahren nach einem der Ansprüche 1–6, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt wird; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt wird; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente ein gleiches Bewegungsprofil und unterschiedliche Amplituden aufweisen.
  8. Verfahren nach einem der Ansprüche 1–6, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt wird; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt wird; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente unterschiedliche Bewegungsprofile und eine gleiche Amplitude aufweisen.
  9. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und konfiguriert sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei die ein oder mehrere Programme Anweisungen beinhalten zum: Anzeigen eines Benutzerschnittstellenobjekts in der Anzeige; Erfassen einer Berührung auf der berührungsempfindlichen Oberfläche; Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht der Durchführung einer Operation auf dem Benutzerschnittstellenobjekt; in Antwort auf das Erfassen der ersten Bewegung: Ausführen der Operation; und Erzeugen einer ersten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, wobei die zweite Bewegung der Umkehrung der Operation auf dem Benutzerschnittstellenobjekt entspricht; und in Antwort auf das Erfassen der zweiten Bewegung: Umkehren der Operation; und Erzeugen einer zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  10. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei die ein oder mehreren Programme Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, bei der Vorrichtung bewirken: Anzeigen eines Benutzerschnittstellenobjekts in der Anzeige; Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche; Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht der Durchführung einer Operation an dem Benutzerschnittstellenobjekt; in Antwort auf das Erfassen der ersten Bewegung: Durchführen der Operation; und Erzeugen einer ersten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; Erfassen einer zweiten Bewegung des Kontakt über die berührungsempfindliche Oberfläche, die zweite Bewegung entspricht der Umkehrung der Operation an dem Benutzerschnittstellenobjekt; und in Antwort auf das Erfassen der zweiten Bewegung: Umkehren der Operation; und Erzeugen einer zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  11. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle umfasst: ein Benutzerschnittstellenobjekt in der Anzeige; wobei: ein Kontakt auf der berührungsempfindlichen Oberfläche erfasst wird; eine erste Bewegung des Kontakts über die berührungsempfindliche Oberfläche wird erfasst, wobei die erste Bewegung dem Durchführen einer Operation an dem Benutzerschnittstellenobjekt entspricht; in Antwort auf das Erfassen der ersten Bewegung: die Operation wird ausgeführt; und eine erste taktile Ausgabe wird auf der berührungsempfindlichen Oberfläche erzeugt; eine zweite Bewegung des Kontakts über die berührungsempfindliche Oberfläche wird erfasst, wobei die zweite Bewegung der Umkehrung der Operation auf dem Benutzerschnittstellenobjekt entspricht; und in Antwort auf das Erfassen der zweiten Bewegung: die Operation wird umgekehrt; und eine zweite taktile Ausgabe auf der berührungsempfindlichen Oberfläche wird erzeugt, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  12. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Anzeigen eines Benutzerschnittstellenobjekt in der Anzeige; Mittel zum Erfassen einer Berührung auf der berührungsempfindlichen Oberfläche; Mittel zum Erfassen einer ersten Bewegung des Kontakt über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht der Durchführung einer Operation auf dem Benutzerschnittstellenobjekt; Mittel reagierend auf das Erfassen der ersten Bewegung, zum: Ausführen der Operation; und Erzeugen einer ersten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; Mittel zum Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, wobei die zweite Bewegung der Umkehrung der Operation auf der Benutzerschnittstellenobjekt entspricht; und Mittel reagierend auf das Erfassen der zweiten Bewegung, zum: Umkehren des Betriebs; und Erzeugen einer zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  13. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Anzeigen eines Benutzerschnittstellenobjekts in der Anzeige; Mittel zum Erfassen einer Berührung auf der berührungsempfindlichen Oberfläche; Mittel zum Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, die erste Bewegung entspricht dem Durchführen einer Operation auf dem Benutzerschnittstellenobjekt; Mittel, reagierend auf das Erfassen der ersten Bewegung, zum: Ausführen der Operation; und Erzeugen einer ersten taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; Mittel zum Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, wobei die zweite entsprechende Bewegung der Umkehrung der Operation auf der Benutzerschnittstellenobjekt entspricht; und Mittel, reagierend auf das Erfassen der zweiten Bewegung, zum: Umkehren des Betriebs; und Erzeugen einer zweiten taktile Ausgabe auf der berührungsempfindlichen Oberfläche, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  14. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und so konfiguriert sind, durch den einen oder mehrere Prozessoren ausgeführt zu werden, die ein oder mehreren Programme umfassen Anweisungen zum Durchführen eines der Verfahren der Ansprüche 1–8.
  15. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei die ein oder mehreren Programme, Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, bewirken, dass die Vorrichtung eines der Verfahren der Ansprüche 1–8 durchführt.
  16. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, durchzuführen, wobei die graphische Benutzerschnittstelle Benutzerschnittstellen umfasst, die gemäß einem der Verfahren der Ansprüche 1–8 angezeigt werden.
  17. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Ausführen eines der Verfahren der Ansprüche 1–8.
  18. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Ausführen eines der Verfahren der Ansprüche 1–8.
  19. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist ein Benutzerschnittstellenobjekt anzuzeigen; eine berührungsempfindliche Oberfläche, die konfiguriert, um Benutzerkontakte zu erfassen; und eine Verarbeitungseinheit, die an die Anzeigeeinheit und die berührungsempfindliche Oberflächen-Einheit gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist um: einen Kontakt auf der berührungsempfindlichen Oberflächen-Einheit zu erfassen; eine erste Bewegung des Kontakt über die berührungsempfindliche Oberflächen-Einheit zu erfassen, wobei die erste Bewegung der Durchführung einer Operation an dem Benutzerschnittstellenobjekt entspricht; in Antwort auf das Erfassen der ersten Bewegung: Durchführen der Operation; und Erzeugen einer ersten taktilen Ausgabe auf der berührungsempfindlichen Oberflächen-Einheit; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächen-Einheit, wobei die zweite Bewegung der Umkehrung der Operation an dem Benutzerschnittstellenobjekt entspricht; und in Antwort auf das Erfassen der zweiten Bewegung: Umkehren der Operation; und Erzeugen einer zweiten taktilen Ausgabe auf der berührungsempfindlichen Oberflächen-Einheit, wobei die zweite taktile Ausgabe von der ersten taktilen Ausgabe unterschiedlich ist.
  20. Elektronische Vorrichtung gemäß Anspruch 19, wobei die erste Bewegung des Kontakt über die berührungsempfindliche Oberflächen-Einheit und die zweite Bewegung des Kontakt über die berührungsempfindliche Oberflächen-Einheit Teil einer einzigen kontinuierlichen Geste sind, ohne ein Abheben des Kontakt von der berührungsempfindlichen Oberflächen-Einheit zu erfassen.
  21. Elektronische Vorrichtung nach einem der Ansprüche 19–20, wobei: Durchführen der Operation das Einrasten des Benutzerschnittstellenobjekts in einer entsprechenden Objektplatzierung-Führung beinhaltet; und Umkehrung der Operation Einrasten des Benutzerschnittstellenobjekt aus dem jeweiligen Objektplatzierung-Führung beinhaltet.
  22. Elektronische Vorrichtung nach einem der Ansprüche 19–20, wobei: Durchführen der Operation Markierungsdaten entsprechend der Benutzerschnittstellenobjekt zum Löschen enthält; und Umkehren der Operation das Aufheben Markierungsdaten des entsprechenden zu löschenden Benutzerschnittstellenobjekts beinhaltet.
  23. Elektronische Vorrichtung nach einem der Ansprüche 19–20, wobei: das Benutzerschnittstellenobjekt einer Datei entspricht; Durchführen der Operation das Anordnen der Datei in einem Verzeichnis beinhaltet; und Umkehren der Operation das Entfernen der Datei aus dem Verzeichnis beinhaltet.
  24. Elektronische Vorrichtung nach einem der Ansprüche 19–20, wobei: das Benutzerschnittstellenobjekt einer Anwendung entspricht; Durchführen der Operation das Anordnen des Benutzerschnittstellenobjekt in eine Anwendungsstartregion beinhaltet; und Umkehren der Operation das Entfernen der Benutzeroberfläche Objekt aus der Anwendungsstartregion beinhaltet.
  25. Elektronische Vorrichtung nach einem der Ansprüche 19–24, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt wird; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt wird; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente weisen ein gleiches Bewegungsprofil und unterschiedlichen Amplituden auf.
  26. Die elektronische Vorrichtung nach einem der Ansprüche 19–24, wobei: die erste taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt; die zweite taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente weisen unterschiedliche Bewegungsprofile und eine gleiche Amplitude auf.
  27. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige: Anzeigen einer Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei: die Mehrzahl von Benutzerschnittstellenobjekten weisen eine z-Anordnung auf; die Mehrzahl von Benutzerschnittstellenobjekten beinhaltet ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt; und das erste Benutzerschnittstellenobjekt ist über das zweite Benutzerschnittstellenobjekt in der z-Anordnung; beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche, Empfangen einer Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und in Antwort auf die Anfrage: Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest einen Teil des zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche in Verbindung mit der zugehörigen Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt das zweite Benutzerschnittstellenobjekt nicht überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  28. Verfahren nach Anspruch 27, wobei das erste Benutzerschnittstellenobjekt zumindest einen Teil des zweiten Benutzerschnittstellenobjekts überlappt, wenn wenigstens ein Teil des ersten Benutzerschnittstellenobjekts wenigstens einen Teil des zweiten Benutzerschnittstellenobjekts bedeckt.
  29. Verfahren nach einem der Ansprüche 27–28, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während ein Fokus-Selektor über dem ersten Benutzerschnittstellenobjekt ist, Erfassen einer Zunahme in der Intensität des Kontaktierens oberhalb eines entsprechenden Intensitätsgrenzwerts.
  30. Verfahren nach einem der Ansprüche 27–29, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während des Anzeigens einer Steuerung zum Ändern einer z-Anordnung des zweiten Benutzerschnittstellenobjekts, Erfassen eines Eingang an der Steuerung, das der Bewegung des zweiten Benutzerschnittstellenobjekts nach oben in der z-Anordnung entspricht.
  31. Verfahren nach einem der Ansprüche 27–30, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während des Anzeigens einer Steuerung zum Ändern einer z-Anordnung des ersten Benutzerschnittstellenobjekts, Erfassen eines Eingang an der Steuerung, das der Bewegung des ersten Benutzerschnittstellenobjekts nach unten in der z-Anordnung entspricht.
  32. Verfahren nach einem der Ansprüche 27–31, wobei: die Mehrzahl von Benutzerschnittstellenobjekten ein intervenierendes Benutzerschnittstellenobjekt beinhaltet; das intervenierende Benutzerschnittstellenobjekt weist eine Position in der z-Anordnung zwischen dem ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt auf; und das Verfahren beinhaltet, in Reaktion auf die Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu verschieben: Bewegen des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt in der z-Anordnung vor dem Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt wenigstens einen Teil des intervenierenden Benutzerschnittstellenobjekts überlappt, Erzeugen, auf der berührungsempfindlichen Oberfläche, einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt assoziiert ist in Verbindung mit dem Bewegen des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt nicht mit der unter das intervenierende Benutzerschnittstellenobjekt überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter der intervenierende Benutzerschnittstellenobjekt assoziiert ist.
  33. Verfahren nach Anspruch 32, wobei: das erste Benutzeroberflächenobjekt das intervenierende Benutzerschnittstellenobjekt und das zweite Benutzerschnittstellenobjekt überlappt; das Verfahren beinhaltet, in Reaktion auf die Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu verschieben: Erzeugen einer ersten taktilen Ausgabe, auf der berührungsempfindlichen Oberfläche, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt assoziiert ist, vor der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; und Erzeugen einer zweiten taktilen Ausgabe, auf der berührungsempfindlichen Oberfläche, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, wobei die erste taktile Ausgabe von der zweiten taktile Ausgabe unterschiedlich ist.
  34. Verfahren nach Anspruch 33, wobei: die erste taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt; die zweite taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberfläche, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente weisen unterschiedliche Amplituden auf.
  35. Verfahren nach Anspruch 34, wobei: die Amplitude der ersten taktilen Ausgabe auf der Grundlage einer Position des intervenierenden Benutzerschnittstellenobjekts in der z-Anordnung bestimmt wird; und die Amplitude der zweiten taktilen Ausgabe wird auf der Grundlage einer Position des zweiten Benutzerschnittstellenobjekts in der z-Anordnung bestimmt.
  36. Verfahren nach Anspruch 34, wobei die Amplitude der ersten taktilen Ausgabe basierend auf einer Anzahl von Benutzerschnittstellenobjekten bestimmt wird, die das erste Benutzerschnittstellenobjekt überlappt, die zwischen dem ersten Benutzerschnittstellenobjekt und dem intervenierende Benutzerschnittstellenobjekt in der z-Anordnung.
  37. Verfahren nach Anspruch 34, wobei die Amplitude der zweiten taktilen Ausgabe basierend auf einer Anzahl von Benutzerschnittstellenobjekten bestimmt wird, die das erste Benutzerschnittstellenobjekt überlappen, die zwischen dem ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung sind.
  38. Verfahren nach einem der Ansprüche 27–37, wobei die taktile Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, eine Amplitude aufweist, die bestimmt wird basierend auf einer Position des zweiten Benutzerschnittstellenobjekts in der z-Anordnung vor dem Erhalt der Anfrage, das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen.
  39. Verfahren nach einem der Ansprüche 27–38, wobei die erste Benutzerschnittstelle eine Mehrzahl von anderen Benutzerschnittstellenobjekten überlappt, die in einer entsprechenden z-Anordnungssequenz angeordnet sind, und einer nächsten taktilen Ausgabe, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein nächstes angeordnetes Benutzerschnittstellenobjekt in der z-Anordnungssequenz entspricht, basierend auf einer mathematischen Progression von einer vorherigen taktilen Ausgabe, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein vorheriges Benutzerschnittstellenobjekt in der z-Anordnungssequenz entspricht.
  40. Verfahren nach einem der Ansprüche 27–38, wobei die erste Benutzerschnittstelle eine Mehrzahl von anderen Benutzerschnittstellenobjekten überlappt, die in einer entsprechenden z-Anordnungssequenz angeordnet sind, und einer nächsten taktilen Ausgabe, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein nächstes angeordnetes Benutzerschnittstellenobjekt in der z-Anordnungssequenz entspricht, basierend auf einer musischen Progression von einer vorherigen taktilen Ausgabe, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein vorheriges Benutzerschnittstellenobjekt in der z-Anordnung-Sequenz entspricht.
  41. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das ein oder mehrere Programme im Speicher gespeichert und konfiguriert ist durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei die ein oder mehreren Programme Anweisungen beinhalten zum: Anzeigen einer Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweisen; die Mehrzahl von Benutzerschnittstellenobjekten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhalten; und das erste Benutzerschnittstellenobjekt ist über dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung; beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche, Empfangen einer Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und in Antwort auf die Anfrage: Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil des zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche in Verbindung mit der assoziierten Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt nicht das zweite Benutzerschnittstellenobjekt überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  42. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, die ein oder mehrere Programme beinhaltend Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, bewirken, dass die Vorrichtung: eine Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige anzeigt, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweist; die Mehrzahl von Benutzerschnittstellenobjekten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhaltet; und das erste Benutzerschnittstellenobjekt über des zweiten Benutzerschnittstellenobjekt in der z-Anornung ist; beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberfläche, Erhalten einer Aufforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und in Antwort auf die Anfrage: Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil des zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche in Verbindung mit der assoziierten Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt das zweite Benutzerschnittstellenobjekt nicht überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  43. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeicherten sind, auszuführen, wobei die graphische Benutzerschnittstelle umfasst: eine Mehrzahl von Benutzerschnittstellenobjekten, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweisen; die Mehrzahl von Benutzerschnittstellenobjekten eine erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhaltet; und das erste Benutzerschnittstellenobjekt über dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung ist; wobei: in Antwort auf eine Anfrage, das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen, das während des Erfassens eines Kontakts auf der berührungsempfindlichen Oberfläche empfangen wird: das erste Benutzerschnittstellenobjekt wird unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung bewegt; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest einen Teil des zweiten Benutzerschnittstellenobjekt überlappt, eine taktile Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, wird auf der berührungsempfindlichen Oberfläche erzeugt, in Verbindung mit dem Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt das zweite Benutzerschnittstellenobjekt nicht überlappt, wird auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, verzichtet.
  44. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; Mittel zum Anzeigen einer Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweisen; die Mehrzahl von Benutzerschnittstellenobjekten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhaltet; und das erste Benutzerschnittstellenobjekt ist über dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung; Mittel zum, während des Erfassens eines Kontakts auf der berührungsempfindlichen Oberfläche, Empfangen einer Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und Mittel reagierend auf die Anforderung, beinhaltend: Mittel zum Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; Mittel zum, in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil des zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche assoziiert ist, in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekts unter da zweite Benutzerschnittstellenobjekt; und Mittel zum, in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt nicht das zweite Benutzerschnittstellenobjekt überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  45. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Anzeigen einer Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeige, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweisen; die Mehrzahl von Benutzerschnittstellenobjekten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhaltet; und das erste Benutzerschnittstellenobjekt ist über dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung; Mittel zum, während des Erfassens eines Kontakts auf der berührungsempfindlichen Oberfläche, Empfangen einer Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und Mittel reagierend auf die auf die Anforderung, beinhaltend: Mittel zum Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; Mittel zum, in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil das zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberfläche assoziiert ist, in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und eine Einrichtung zum, in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt nicht das zweite Benutzerschnittstellenobjekt überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  46. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das ein oder mehrere Programme im Speicher gespeichert und konfiguriert ist, durch den einen oder mehrere Prozessoren, die ein oder mehrere Programme, einschließlich Anweisungen zum Ausführen jedes der Verfahren der Ansprüche 27–40 ausgeführt zu werden.
  47. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei die ein oder mehreren Programme Anweisungen beinhalten, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, bewirken, dass die Vorrichtung eines der Verfahren der Ansprüche 27–40 durchführt.
  48. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle Benutzerschnittstellen umfasst, die gemäß einem der Verfahren der Ansprüche 27–40 angezeigt werden.
  49. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Ausführen eines der Verfahren der Ansprüche 27–40.
  50. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Ausführen eines der Verfahren der Ansprüche 27–40.
  51. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist, eine Mehrzahl von Benutzerschnittstellenobjekten auf der Anzeigeeinheit anzuzeigen, wobei: die Mehrzahl von Benutzerschnittstellenobjekten eine z-Anordnung aufweisen; die Mehrzahl von Benutzerschnittstellenobjekten ein erstes Benutzerschnittstellenobjekt und ein zweites Benutzerschnittstellenobjekt beinhaltet; und das erste Benutzerschnittstellenobjekt ist über dem zweiten Benutzerschnittstellenobjekt in der z-Anordnung; eine berührungsempfindliche Oberflächen-Einheit, die konfiguriert ist, Kontakte zu Empfangen; und eine Verarbeitungseinheit, die an die Anzeigeeinheit und die berührungsempfindliche Oberflächen-Einheit gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist: beim Erkennen eines Kontakts auf der berührungsempfindlichen Oberflächen-Einheit, Erhalten einer Aufforderung, das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen; und in Antwort auf die Anfrage: Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil des zweiten Benutzerschnittstellenobjekts überlappt, Erzeugen einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt auf der berührungsempfindlichen Oberflächen-Einheit assoziiert ist, in Verbindung mit dem Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt das zweite Benutzerschnittstellenobjekt nicht überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist.
  52. Elektronische Vorrichtung nach Anspruch 51, wobei das erste Benutzerschnittstellenobjekt zumindest einen Teil des zweiten Benutzerschnittstellenobjekts überlappt, wenn wenigstens ein Teil des ersten Benutzerschnittstellenobjekts wenigstens einen Teil des zweite Benutzerschnittstellenobjekts bedeckt.
  53. Elektronische Vorrichtung nach einem der Ansprüche 51–52, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während ein Fokus-Selektor über dem ersten Benutzerschnittstellenobjekt ist, Erfassen einer Zunahme in der Intensität des Kontakts über einen entsprechenden Intensitätsgrenzwert.
  54. Elektronische Vorrichtung nach einem der Ansprüche 51–53, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während eine Steuerung zum Ändern einer z-Anordnung des ersten Benutzerschnittstellenobjekts angezeigt wird, Erfassen eines Eingangs an der Steuerung, die einem Bewegen des ersten Benutzerschnittstellenobjekts nach unten in der z-Anordnung entspricht.
  55. Elektronische Vorrichtung nach einem der Ansprüche 51–54, wobei das Empfangen der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt zu bewegen beinhaltet, während eine Steuerung zum Ändern einer z-Anordnung des zweiten Benutzerschnittstellenobjekts angezeigt wird, Erfassen eines Eingangs an der Steuerung, die einem Bewegen des zweiten Benutzerschnittstellenobjekts nach oben in der z-Anordnung entspricht.
  56. Elektronische Vorrichtung nach einem der Ansprüche 51–55, wobei: die Mehrzahl von Benutzerschnittstellenobjekten ein intervenierendes Benutzerschnittstellenobjekt beinhaltet; das intervenierende Benutzerschnittstellenobjekt eine Position in der z-Anordnung zwischen dem ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt aufweist; und die Verarbeitungseinheit konfiguriert ist zum: in Reaktion auf die Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu verschieben: Bewegen des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt in der z-Anordnung vor dem Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt zumindest ein Teil des intervenierende Benutzerschnittstellenobjekt überlappt, Erzeugen, auf der berührungsempfindlichen Oberflächen-Einheit, einer taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt assoziiert ist, in Verbindung mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt; und in Übereinstimmung mit einer Bestimmung, dass das erste Benutzerschnittstellenobjekt das intervenierende Benutzerschnittstellenobjekt nicht überlappt, Verzicht auf die Erzeugung der taktilen Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt assoziiert ist.
  57. Elektronische Vorrichtung nach Anspruch 56, wobei: das erste Benutzeroberflächenobjekt das intervenierende Benutzerschnittstellenobjekt und das zweite Benutzerschnittstellenobjekt überlappt; die Verarbeitungseinheit konfiguriert ist zum: in Reaktion auf die Anforderung das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu verschieben: Erzeugen einer ersten taktilen Ausgabe, auf der berührungsempfindlichen Oberflächen-Einheit, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das intervenierende Benutzerschnittstellenobjekt, vor dem Bewegen des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung; und Erzeugen einer zweiten taktilen Ausgabe, auf der berührungsempfindlichen Oberflächen-Einheit, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, wobei die erste taktile Ausgabe von der zweiten taktile Ausgabe unterschiedlich ist.
  58. Elektronische Vorrichtung nach Anspruch 57, wobei: die erste taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt; die zweite taktile Ausgabe wird durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente haben unterschiedliche Amplituden.
  59. Elektronische Vorrichtung nach Anspruch 58, wobei: die Amplitude der ersten taktilen Ausgabe bestimmt wird auf Grundlage einer Position des intervenierenden Benutzerschnittstellenobjekts in der z-Anordnung bestimmt wird; und die Amplitude der zweiten taktilen Ausgabe auf Grundlage einer Position des zweiten Benutzerschnittstellenobjekts in der z-Anordnung.
  60. Elektronische Vorrichtung nach Anspruch 58, wobei die Amplitude der ersten taktilen Ausgabe bestimmt wird basierend auf einer Anzahl von Benutzerschnittstellenobjekten, die das erste Benutzerschnittstellenobjekt überlappt, die zwischen dem ersten Benutzerschnittstellenobjekt und dem intervenierenden Benutzerschnittstellenobjekt in der z-Anordnung sind.
  61. Elektronische Vorrichtung nach Anspruch 58, wobei die Amplitude der zweiten taktilen Ausgabe bestimmt wird basierend auf einer Anzahl von Benutzerschnittstellenobjekten, die das erste Benutzerschnittstellenobjekt überlappt, die zwischen dem ersten Benutzerschnittstellenobjekt und dem zweiten Benutzerschnittstellenobjekt in dem sich z-Anordnung sind.
  62. Elektronische Vorrichtung nach einem der Ansprüche 51–61, wobei die taktile Ausgabe, die mit der Bewegung des ersten Benutzerschnittstellenobjekts unter das zweite Benutzerschnittstellenobjekt assoziiert ist, eine Amplitude aufweist, die bestimmt wird basierend auf einer Position des zweiten Benutzerschnittstellenobjekts in der z- Anordnung vor dem Empfang der Anfrage das erste Benutzerschnittstellenobjekt unter das zweite Benutzerschnittstellenobjekt in der z-Anordnung zu bewegen.
  63. Elektronische Vorrichtung nach einem der Ansprüche 51–62, wobei die erste Benutzerschnittstelle eine Mehrzahl von anderen Benutzerschnittstellenobjekten in einer entsprechenden z-Anordnungssequenz überlappt und eine nächste taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekts unter ein nächstes Benutzerschnittstellenobjekt in der z-Anordnungssequenz auf einer mathematischen Progression einer vorherigen taktilen Ausgabe basiert, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein vorheriges Benutzerschnittstellenobjekt in der z-Anordnungssequenz entspricht.
  64. Elektronische Vorrichtung nach einem der Ansprüche 51–62, wobei die erste Benutzerschnittstelle eine Mehrzahl von anderen Benutzerschnittstellenobjekten in einer entsprechenden z-Anordnungssequenz überlappt und eine nächste taktile Ausgabe entsprechend der Bewegung des ersten Benutzerschnittstellenobjekts unter ein nächstes Benutzerschnittstellenobjekt in der z-Anordnungssequenz auf einer musischen Progression einer vorherigen taktilen Ausgabe basiert, die der Bewegung des ersten Benutzerschnittstellenobjekts unter ein vorheriges Benutzerschnittstellenobjekt in der z-Anordnungssequenz entspricht.
  65. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige: Anzeigen, auf der Anzeige, einer Steuerung zum Steuern eines Parameters, der mit dem entsprechenden Inhalt assoziiert ist; Erkennen einer Geste auf der berührungsempfindlichen Oberfläche zum Einstellen der Parameter; und in Reaktion auf das Erfassen der Geste: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer entsprechenden taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters, ohne das Erzeugen der entsprechenden taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  66. Verfahren nach Anspruch 65, beinhaltend, in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters die eine oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, Verzicht auf das Einstellen des Parameters.
  67. Verfahren nach Anspruch 65, beinhaltend, in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters die eine oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, Einstellen des Parameters, so dass die vordefinierte Anpassungsgrenze erreicht wird.
  68. Verfahren nach Anspruch 65, beinhaltend, in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters die eine oder mehreren vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters.
  69. Verfahren nach einem der Ansprüche 65–68, wobei: der Inhalt ein Medienclip ist, der Audio umfasst; der Parameter eine Lautstärke ist; die vordefinierten Anpassungsgrenzwerte ein Clipping-Limit beinhalten; und das Clipping-Limit überschritten wird, wenn ein Maximalvolumen, das in dem Inhalt auftritt, oberhalb des Clipping-Limits liegt.
  70. Verfahren nach einem der Ansprüche 65–68, wobei: der Inhalt ein Medienclip ist; der Parameter eine Zuschneidemaske ist; die vordefinierten Anpassungsgrenzen beinhalten eine zeitbasierte Inhaltsgrenze; und die zeitbasierte Inhaltsgrenze wird überschritten, wenn die Zuschneidemaske sich über die zeitbasierte Inhaltsgrenze erstreckt.
  71. Verfahren nach einem der Ansprüche 65–68, wobei: der Inhalt ein Bild ist; der Parameter eine Zuschneidemaske ist; die vordefinierten Anpassungsgrenzwerte eine Inhaltsgrenze beinhalten; und die Inhaltsgrenze überschritten wird, wenn die Zuschneidemaske über die Inhaltgrenze erstreckt.
  72. Verfahren nach einem der Ansprüche 65–68, wobei: der Inhalt ist eine Form; der Parameter ist ein Formanpassungsparameter; und die vordefinierten Anpassungsgrenzwerte beinhalten eine maximal zulässige Einstellung zu einem entsprechenden Abschnitt einer jeweiligen Form.
  73. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und konfiguriert sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei die ein oder mehreren Programme Anweisungen beinhalten zum: Anzeigen, auf der Anzeige, einer Steuerung zum Steuern eines Parameters mit dem jeweiligen Inhalten assoziiert ist; Erkennen einer Geste auf der berührungsempfindlichen Oberfläche zum Einstellen des Parameters; und in Reaktion auf das Erfassen der Geste: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  74. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, die ein oder mehrere Programme, die Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, ausgeführt werden, bewirken, dass die Vorrichtung: Anzeigen, auf der Anzeige, einer Steuerung zum Steuern eines Parameters mit dem jeweiligen Inhalten assoziiert ist; Erkennen einer Geste auf der berührungsempfindlichen Oberfläche zum Einstellen des Parameters; und in Reaktion auf das Erfassen der Geste: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  75. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle umfasst: eine Steuerung zum Steuern eines Parameters, der mit den jeweiligen Inhalten assoziiert ist; wobei: eine oder mehrere Gesten zum Einstellen des Parameter auf der berührungsempfindlichen Oberfläche erfasst werden; in Reaktion auf das Erfassen der einen oder mehreren Gesten: eine Anpassung des Parameters, der in einem Umfang der Geste entspricht, wird bestimmt; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters nicht die eine oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  76. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; Mittel zum Anzeigen, auf der Anzeige, einer Steuerung zum Steuern eines Parameters, der mit den jeweiligen Inhalten assoziiert ist; Mittel zum Erfassen einer Geste auf der berührungsempfindlichen Oberfläche zur Einstellung des Parameters; und Mittel zum Erfassen der Geste zum: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  77. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, und einer berührungsempfindliche Oberfläche, umfassend: Mittel zum Anzeigen, auf der Anzeige, einer Steuerung zum Steuern eines Parameters, der mit den jeweiligen Inhalten assoziiert ist; Mittel zum Erfassen einer Geste auf der berührungsempfindlichen Oberfläche zur Einstellung des Parameters; und Mittel zum Erfassen der Geste zum: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  78. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und konfiguriert sind, durch den einen oder mehrere Prozessoren ausgeführt zu werden, wobei die ein oder mehreren Programme, Anweisungen zum Ausführen jedes der Verfahren der Ansprüche 65–72 beinhalten.
  79. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei die ein oder mehrere Programme Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, ausgeführt werden, bewirken, dass die Vorrichtung ein Verfahren der Ansprüche 65–72 ausführt.
  80. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeicherten sind, auszuführen, wobei die graphische Benutzerschnittstelle Benutzerschnittstellen umfasst, die nach einem der Verfahren der Ansprüche 65–72 angezeigt werden.
  81. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Ausführen eines der Verfahren der Ansprüche 65–72.
  82. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Ausführen eines der Verfahren der Ansprüche 65–72.
  83. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist, eine Steuerung zum Steuern eines Parameters, der mit den jeweiligen Inhalten assoziiert ist, anzuzeigen; eine berührungsempfindliche Oberfläche, die konfiguriert, um Benutzerkontakte zu empfangen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächen-Einheit gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist zum: Gestatten der Anzeige einer Steuerung zum Steuern eines Parameters, der mit entsprechendem Inhalt auf der Anzeigeeinheit assoziiert ist; Erfassen eine Bewegung auf der berührungsempfindlichen Oberflächen-Einheit zum Einstellen des Parameters; in Reaktion auf das Erfassen der Geste: Bestimmen einer Anpassung des Parameters, der einem Ausmaß der Geste entspricht; in Übereinstimmung mit einer Bestimmung, dass die Anpassung des Parameters eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Erzeugen einer jeweiligen taktilen Ausgabe auf der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter nicht die eine oder mehrere vordefinierte Anpassungsgrenzen überschreiten würde, Durchführen der Einstellung des Parameters ohne das Erzeugen der jeweilige taktilen Ausgabe auf der berührungsempfindlichen Oberfläche.
  84. Elektronische Vorrichtung gemäß Anspruch 83, wobei die Verarbeitungseinheit konfiguriert ist, in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter die ein oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, auf das Einstellen der Parameter zu verzichten.
  85. Elektronische Vorrichtung gemäß Anspruch 83, wobei die Verarbeitungseinheit konfiguriert, in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter die ein oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, die Parameter so anzupassen, dass die vordefinierte Einstellungsgrenze erreicht wird.
  86. Elektronische Vorrichtung gemäß Anspruch 83, wobei die Verarbeitungseinheit konfiguriert ist, in Übereinstimmung mit einer Bestimmung, dass die Anpassung der Parameter die ein oder mehreren vordefinierten Anpassungsgrenzen überschreiten würde, den Parameter einzustellen.
  87. Elektronische Vorrichtung nach einem der Ansprüche 83–86, wobei: der Inhalt ein Medienclip ist, der Audio umfasst; der Parameter eine Lautstärke ist; die vordefinierten Anpassungsgrenzwerte eine Clipping-Grenze beinhalten; und das Clipping-Limit überschritten wird, wenn ein Maximalvolumen, das in dem Inhalt auftritt, oberhalb des Clipping-Limit ist.
  88. Elektronische Vorrichtung nach einem der Ansprüche 83–86, wobei: der Inhalt ein Medien-Clip ist; der Parameter eine Zuschneidemaske ist; die vordefinierten Anpassungsgrenzwerte eine zeitbasierte Inhaltsgrenze beinhalten; und die zeitbasierte Inhaltsgrenze überschritten wird, wenn die Zuschneidemaske sich über die zeitbasierte Inhaltsgrenze erstreckt.
  89. Elektronische Vorrichtung nach einem der Ansprüche 83–86, wobei: der Inhalt ein Bild ist; der Parameter eine Zuschneidemaske ist; die vordefinierten Anpassungsgrenzwerte eine Inhaltsgrenze beinhalten; und die Inhaltsgrenze überschritten wird, wenn die Zuschneidemaske über die Inhaltsgrenze hinausragt.
  90. Elektronische Vorrichtung nach einem der Ansprüche 83–86, wobei: der Inhalt ist eine Form ist; der Parameter ein Formanpassungsparameter ist; und die vordefinierten Anpassungsgrenzwerte eine maximal zulässige Anpassung zu einem entsprechenden Abschnitt einer jeweiligen Form beinhalten.
  91. Verfahren, umfassend: Bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige: Anzeigen einer Darstellung einer Uhr auf der Anzeige; Erfassen von Bewegung eines Fokus-Selektors über der Darstellung der Uhr; Bereitstellen taktiler Rückmeldung entsprechend der Uhr während der Fokus-Selektor über der Darstellung der Uhr erfasst wird, wobei die taktile Rückmeldung einem regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche entspricht; und Während des Bereitstellens von taktiler Rückmeldung, Erfassen von Bewegung des Fokus-Selektors weg von der Darstellung der Uhr; und Einstellen des Bereitstellens der taktilen Rückmeldung welche der Uhr entspricht in Antwort auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr.
  92. Verfahren nach Anspruch 91, wobei die taktilen Ausgaben in dem regelmäßigen Muster von taktilen Ausgaben in gleichmäßigen Abständen erzeugt werden.
  93. Verfahren nach einem der Ansprüche 91–92, während des Erfassens des Fokus-Selektors über der Darstellung der Uhr, beinhaltend: Erfassen von Bewegung des Fokus-Selektors, welche den Fokus-Selektor über der Darstellung der Uhr beibehält; und weiterhin die taktile Rückmeldung zugehörig zu der der Uhr in Antwort auf Erfassen von Bewegung des Fokus-Selektors ohne Änderung einer Periode des regelmäßigen Musters bereitstellen.
  94. Verfahren nach einem der Ansprüche 91–93, vor dem Erfassen des Fokus-Selektors über der Darstellung der Uhr beinhaltend, Anzeigen der Darstellung der Uhr ohne die taktile Rückmeldung bereitzustellen, zugehörig zu der Uhr auf der berührungsempfindlichen Oberfläche.
  95. Verfahren nach einem der Ansprüche 91–94, wobei das regelmäßige Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche eine Wechselfolge von taktilen Ausgaben umfasst, die verschiedene Ausgangscharakteristiken haben.
  96. Verfahren nach Anspruch 95, wobei: die Wechselfolge der taktilen Ausgaben eine erste Art von taktilen Ausgabe beinhaltet die sich mit einer zweiten Art von taktilen Ausgaben abwechseln; die erste Art von taktilen Ausgaben durch Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, welche eine erste dominante Bewegungskomponente beinhaltet; die zweite Art von taktilen Ausgaben durch Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, welche eine zweite dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiches Bewegungsprofil und unterschiedliche Amplituden haben.
  97. Verfahren nach Anspruch 95, wobei: die Wechselfolge der taktilen Ausgaben eine erste Art von taktilen Ausgabe beinhaltet die sich mit einer zweiten Art von taktilen Ausgaben abwechseln; die erste Art von taktilen Ausgaben durch Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, welche eine erste dominante Bewegungskomponente beinhaltet; die zweite Art von taktilen Ausgaben durch Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, welche eine zweite dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente unterschiedliche Bewegungsprofile und dieselbe Amplitude haben.
  98. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programmen, wobei das eine oder die mehreren Programme im Speicher gespeichert sind und konfiguriert sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Anweisungen beinhalten zum: Anzeigen einer Darstellung einer Uhr auf der Anzeige; Erfassen einer Bewegung eines Fokus-Selektors über der Darstellung der Uhr; während dem Erfassen des Fokus-Selektors über der Darstellung der Uhr, Bereitstellen taktiler Rückmeldung zugehörig zur Uhr, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche beinhaltet; und während dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr; und in Antwort auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr, Einstellen des Bereitstellens der taktile Rückmeldung zugehörig zur Uhr.
  99. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, das eine oder die mehreren Programme Anweisungen beinhalten, die, wenn sie durch eine elektronische Vorrichtung mit einem Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, die Vorrichtung veranlassen zum: Anzeigen einer Darstellung einer Uhr auf der Anzeige; Erkennen von Bewegung eines Fokus-Selektors über die Darstellung der Uhr; während des Erfassens des Fokus-Selektors über der Darstellung der Uhr, Bereitstellen einer taktilen Rückmeldung zugehörig zu der Uhr, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche beinhaltet; während dem Bereitstellen der taktilen Rückmeldung, Erfassen von Bewegung des Fokus-Selektors weg von der Darstellung der Uhr; und in Antwort auf das Erfassen der Bewegung des Fokus-Selektor weg von der Darstellung der Uhr, Einstellen des Bereitstellens der taktilen Rückmeldung zugehörig zu der Uhr.
  100. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle umfasst: eine Darstellung einer Uhr auf der Anzeige; wobei: Bewegung eines Fokus-Selektors über der Darstellung der Uhr erfasst wird; beim Erfassen des Fokus-Selektors über der Darstellung der Uhr eine taktile Rückmeldung zugehörig zur Uhr bereitgestellt wird, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche beinhaltet; während des Bereitstellens der taktilen Rückmeldung Bewegung des Fokus-Selektors weg von der Darstellung der Uhr erfasst wird; und in Antwort auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr, die taktile Rückmeldung zugehörig zur Uhr nicht mehr bereitgestellt wird.
  101. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Anzeigen einer Darstellung einer Uhr auf der Anzeige; Mittel zum Erfassen einer Bewegung eines Fokus-Selektors über die Darstellung der Uhr; Mittel zum Bereitstellen taktiler Rückmeldung zugehörig zur Uhr während der Fokus-Selektor über der Darstellung der Uhr erfasst wird, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche beinhaltet; Mittel zum Erfassen von Bewegung des Fokus-Selektors weg von der Darstellung der Uhr während des Bereitstellens der taktilen Rückmeldung; und Mittel zum Einstellen der taktilen Rückmeldung, zugehörig zur Uhr, in Antwort auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr.
  102. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Anzeigen einer Darstellung einer Uhr auf der Anzeige; Mittel zum Erfassen einer Bewegung eines Fokus-Selektors über die Darstellung der Uhr; Mittel zum Bereitstellung taktiler Rückmeldung zugehörig zur Uhr während des Erfassens des Fokus-Selektors über der Darstellung der Uhr, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberfläche beinhaltet; Mittel zum Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr während der Bereitstellung der taktilen Rückmeldung; und Mittel zum Einstellen der taktilen Rückmeldung zugehörig zur Uhr in Antwort auf das Erfassen von Bewegung des Fokus-Selektors weg von der Darstellung der Uhr.
  103. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programmen, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und konfiguriert sind, durch den einen oder die mehrere Prozessoren ausgeführt zu werden, das eine oder die mehreren Programme Instruktionen aufweisen zum Durchführen eines der Verfahren der Ansprüche 91–97.
  104. Computerlesbares Speichermedium, welches ein oder mehrere Programme speichert, das eine oder die mehrere Programme umfassen Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einem Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden bewirken, dass die Vorrichtung eines der Verfahren der Ansprüche 91–97 durchführt.
  105. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphischen Benutzerschnittstelle graphische Benutzerschnittstellen umfasst, die in Übereinstimmung mit einem der Verfahren der Ansprüche 91–97 angezeigt werden.
  106. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Ausführen eins der Verfahren der Ansprüche 91–97.
  107. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Ausführen jedes der Verfahren der Ansprüche 91–97.
  108. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist, eine Darstellung einer Uhr anzuzeigen; eine berührungsempfindliche Oberflächen-Einheit; und eine Verarbeitungseinheit, die an die Anzeigeeinheit und an die berührungsempfindliche Oberflächen-Einheit gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist zum: Erkennen von Bewegung eines Fokus-Selektors auf der Darstellung der Uhr; Bereitstellen einer taktilen Rückmeldung, zugehörig zur Uhr, während dem Erfassen des Fokus-Selektors über der Darstellung der Uhr, wobei die taktile Rückmeldung ein regelmäßiges Muster von taktilen Ausgaben auf der berührungsempfindlichen Oberflächen-Einheit beinhaltet; Erfassen von Bewegung des Fokus-Selektors weg von der Darstellung der Uhr während des Bereitstellens der taktilen Rückmeldung; und in Antwort auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung der Uhr, einstellen des Bereitstellens der taktilen Rückmeldung zugehörig zu der Uhr.
  109. Elektronische Vorrichtung nach Anspruch 108, wobei die taktilen Ausgaben des regelmäßigen Musters von taktilen Ausgaben in gleichmäßigen Abständen erzeugt werden.
  110. Elektronische Vorrichtung nach einem der Ansprüche 108–109, wobei die Verarbeitungseinheit während des Erfassens des Fokus-Selektors über der Darstellung der Uhr ferner konfiguriert ist zum: Erfassen von Bewegung des Fokus-Selektors, welche den Fokus-Selektor über der Darstellung der Uhr beibehält; und weiterhin die taktile Rückmeldung zugehörig zu der der Uhr in Antwort auf Erfassen von Bewegung des Fokus-Selektors ohne Änderung einer Periode des regelmäßigen Musters bereitstellen.
  111. Elektronische Vorrichtung nach einem der Ansprüche 108–110, wobei die Verarbeitungseinheit ferner konfiguriert ist, vor dem Erfassen des Fokus-Selektors über der Darstellung der Uhr, die Darstellung der Uhr auf der Anzeigeeinheit anzuzeigen, ohne die taktile Rückmeldung die der Uhr auf der berührungsempfindlichen Oberflächen-Einheit entspricht.
  112. Elektronische Vorrichtung nach einem der Ansprüche 108–111, wobei das regelmäßige Muster von taktilen Ausgängen auf der berührungsempfindlichen Oberflächen-Einheit eine abwechselnde Folge von taktilen Ausgängen ist, die verschiedene Ausgangscharakteristiken haben.
  113. Elektronische Vorrichtung nach Anspruch 112, wobei: die Wechselfolge der taktilen Ausgänge einen ersten Typ von taktiler Ausgabe abwechselnd mit einer zweiten Art von taktiler Ausgabe beinhaltet; die erste Art von taktiler Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit erzeugt wird, was eine erste dominante Bewegungskomponente beinhaltet; der zweite Typ von taktilen Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit erzeugt wird, was eine zweite dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente ein gleiches Bewegungsprofil und unterschiedliche Amplituden aufweisen.
  114. Elektronische Vorrichtung nach Anspruch 112, wobei: die Wechselfolge der taktilen Ausgänge einen ersten Typ von taktiler Ausgabe abwechselnd mit einer zweiten Art von taktiler Ausgabe beinhaltet; die erste Art von taktiler Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit erzeugt wird, was eine erste dominante Bewegungskomponente beinhaltet; der zweite Typ von taktilen Ausgabe durch die Bewegung der berührungsempfindlichen Oberflächen-Einheit erzeugt wird, was eine zweite dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente unterschiedliche Bewegungsprofile und eine gleiche Amplitude aufweisen.
  115. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige: Anzeigen einer Darstellung eines Musikstückes auf der Anzeige; Erfassen einer Bewegung eines Fokus-Selektors über der Darstellung des Musikstücks; während des Erfassens des Fokus-Selektors über der Darstellung des Musikstücks, Bereitstellen taktiler Rückmeldung, die zumindest einer Teilmenge der Beats des Musikstücks entspricht; nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks; und in Reaktion auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, Aufhören taktile Rückmeldung, die den Beats des Musikstücks entspricht, bereitzustellen.
  116. Verfahren nach Anspruch 115, wobei: der Fokus-Selektor in Übereinstimmung mit der Bewegung eines Kontakts auf einer berührungsempfindlichen Oberfläche bewegt wird; und die taktile Rückmeldung durch Erzeugung taktiler Ausgänge auf der berührungsempfindlichen Oberfläche bereitgestellt wird.
  117. Verfahren nach einem der Ansprüche 115–116, bei dem: das Musikstück derzeit in einer Media-Player-Anwendung gespielt wird; und die Darstellung des Musikstücks eine graphische Darstellung des Musikstückes ist.
  118. Verfahren nach einem der Ansprüche 115–117, bei dem: die Darstellung des Musikstücks in einen Media Player-Anwendung angezeigt wird; und die taktile Rückmeldung beinhaltet eine Mehrzahl von taktilen Ausgängen, die erzeugt werden, wenn entsprechende Beats in der Teilmenge der Beats von der Media Player-Anwendung gespielt werden.
  119. Verfahren nach einem der Ansprüche 115–116, bei dem die Darstellung des Musikstücks in einer Musikkompositions-Anwendung als musikalische Partitur angezeigt wird.
  120. Verfahren nach Anspruch 119, wobei die taktile Rückmeldung eine Mehrzahl von taktilen Ausgängen beinhaltet, die erzeugt werden, wenn sich der Fokus-Selektor über die Darstellungen entsprechender Beats in der Teilmenge von Beatsn in der Musikpartitur bewegt.
  121. Verfahren nach einem der Ansprüche 115–120, wobei die Teilmenge der Beats betonte Beats des Musikstückes beinhaltet.
  122. Verfahren nach einem der Ansprüche 115–121, wobei die Teilmenge der Beats unbetonte Beats des Musikstückes ausschließt.
  123. Verfahren nach einem der Ansprüche 115–121, bei dem: die Teilmenge der Beats ein oder mehrere betonte Beats und ein oder mehrere unbetonte Beats beinhaltet; die taktile Rückmeldung eine Mehrzahl von taktilen Ausgängen für entsprechende Beats in der Teilmenge der Beats beinhaltet; eine erste taktile Ausgabe für betonte Beats erzeugt; und eine zweite taktile Ausgabe, die von der ersten taktilen Ausgabe unterschiedlich ist, für unbetonte Beats erzeugt wird.
  124. Verfahren nach Anspruch 123, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, was eine erste dominante Bewegungskomponente beinhaltet; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, was eine zweiten dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente weisen eine gleiche Amplitude und unterschiedliche Bewegungsprofile auf.
  125. Verfahren nach Anspruch 123, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, was eine erste dominante Bewegungskomponente beinhaltet; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche erzeugt wird, was eine zweiten dominante Bewegungskomponente beinhaltet; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente weisen ein gleiches Bewegungsprofil und unterschiedliche Amplituden auf.
  126. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und konfiguriert sind, durch den einen oder die mehreren Prozessoren ausgeführt werden, wobei die ein oder mehreren Programme Anweisungen beinhalten zum: Anzeigen einer Darstellung eines Musikstückes auf der Anzeige; Erfassen einer Bewegung eines Fokus-Selektor über die Darstellung des Musikstücks; während des Erfassens des Fokus-Selektors über der Darstellung des Musikstücks, Bereitstellung taktiler Rückmeldung, die zumindest einer Teilmenge der Beats des Musikstücks entspricht; nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektor weg von der Darstellung des Musikstücks; und in Reaktion auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, Aufhören die taktile Rückmeldung, die den Beats des Musikstücks entspricht, bereitzustellen.
  127. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei die ein oder mehrere Programme Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, ausgeführt werden, bewirken, dass die Vorrichtung: eine Darstellung eines Musikstückes auf der Anzeige anzeigt; Bewegung eines Fokus-Selektors über der Darstellung des Musikstücks erkennt; während des Erfassens des Fokus-Selektors über der Darstellung des Musikstück, ein taktiles Feedback, das zumindest eine Teilmenge der Beats des Musikstücks entspricht, bereitstellt; nach dem Bereitstellen der taktile Rückmeldung, die Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks erfasst; und in Reaktion auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, aufhört, die taktile Rückmeldung, die dem Beats des Musikstücks entspricht, bereitzustellen.
  128. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle umfasst: eine Darstellung eines Musikstücks; wobei: Bewegung eines Fokus-Selektors über die Darstellung des Musikstückes erfasst wird; beim Erfassen des Fokus-Selektors über die Darstellung des Musikstücks eine taktile Rückmeldung bereitgestellt wird, die mindestens einer Teilmenge der Beats des Musikstücks entspricht; nach dem Bereitstellen der taktile Rückmeldung, wird Bewegung des Fokus-Selektors weg von der Darstellung des Musikstück erkannt; und in Reaktion auf das Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, wird mit der Bereitstellung einer taktilen Rückmeldung, die den Beats des Musikstücks entspricht, aufgehört.
  129. Eine elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; Mittel zum Anzeigen einer Darstellung eines Musikstückes auf der Anzeige; Mittel zum Erfassen einer Bewegung eines Fokus-Selektors über die Darstellung des Musikstücks; Mittel das, während des Erfassens des Fokus-Selektors über die Darstellung des Musikstücks, eine taktile Rückmeldung bereitstellt, die mindestens einer Teilmenge der Beats des Musikstücks entspricht; Mittel zum, nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstück; Mittel das, in Antwort auf die Erkennung der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, die Bereitstellung der taktile Rückmeldung, die den Beats des Musikstücks entspricht, beendet.
  130. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Anzeigen einer Darstellung eines Musikstückes auf der Anzeige; Mittel zum Erfassen einer Bewegung eines Fokus-Selektors über die Darstellung des Musikstücks; Mittel das, während des Erfassens des Fokus-Selektors über die Darstellung des Musikstücks, eine taktile Rückmeldung bereitstellt, die mindestens einer Teilmenge der Beats des Musikstücks entspricht; Mittel zum, nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstück; Mittel das, in Antwort auf die Erkennung der Bewegung des Fokus-Selektors weg von der Darstellung des Musikstücks, die Bereitstellung der taktile Rückmeldung, die den Beats des Musikstücks entspricht, beendet.
  131. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; ein oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei die ein oder mehreren Programme im Speicher gespeichert und konfiguriert sind durch die ein oder mehreren Prozessoren ausgeführt zu werden, wobei die ein oder mehrere Programme Anweisungen zum Ausführen eines der Verfahren der Ansprüche 115–125 beinhalten.
  132. Computerlesbares Speichermedium, welches ein oder mehrere Programme speichert, wobei die ein oder die mehreren Programme Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einem Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden bewirken, dass die Vorrichtung eines der Verfahren der Ansprüche 115–125 durchführt.
  133. Graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindliche Oberfläche, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphischen Benutzerschnittstelle graphische Benutzerschnittstellen umfasst, die in Übereinstimmung mit einem der Verfahren der Ansprüche 115–125 angezeigt werden.
  134. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; und Mittel zum Ausführen eines der Verfahren der Ansprüche 115–125.
  135. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, umfassend: Mittel zum Ausführen eines der Verfahren der Ansprüche 115–125.
  136. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert, ist eine Darstellung eines Musikstücks anzuzeigen; eine berührungsempfindliche Oberflächen-Einheit, die konfiguriert ist, um Benutzerkontakte zu empfangen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächen-Einheit gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist zum: Gestatten der Anzeige einer Darstellung eines Musikstücks auf der Anzeigeeinheit; Erfassen von Bewegung eines Fokus-Selektors über der Darstellung des Musikstücks; während des Erfassens des Fokus-Selektors über der Darstellung des Musikstück, Bereitstellen einer taktilen Rückmeldung, die zumindest einer Teilmenge der Beats des Musikstücks entspricht; nach dem Bereitstellen der taktile Rückmeldung, Erfassen der Bewegung des Fokus-Selektor weg von der Darstellung des Musikstücks; und in Reaktion auf das Erfassen der Bewegung des Fokus-Selektorweg von der Darstellung des Musikstücks, Aufhören die taktile Rückmeldung, die den Beats der Musikstück entspricht, bereitzustellen.
  137. Elektronisches Vorrichtung nach Anspruch 136, wobei: der Fokus-Selektor in Übereinstimmung mit der Bewegung eines Kontakts auf einer berührungsempfindlichen Oberfläche bewegt wird; und die taktile Rückmeldung durch Erzeugung taktiler Ausgänge auf der berührungsempfindlichen Oberfläche bereitgestellt wird.
  138. Die elektronische Vorrichtung nach einem der Ansprüche 136–137, wobei: das Musikstück wird derzeit in einer Media-Player-Anwendung gespielt; und die Darstellung des Musikstücks ist eine graphische Darstellung des Musikstücks.
  139. Elektronische Vorrichtung nach einem der Ansprüche 136–138, wobei: die Darstellung des Musikstücks in einer Media Player-Anwendung angezeigt wird; und die taktile Rückmeldung eine Mehrzahl von taktilen Ausgängen beinhaltet, die, wenn entsprechende Beats in der Teilmenge der Beats von der Media Player-Anwendung gespielt werden, erzeugt werden.
  140. Elektronische Vorrichtung nach einem der Ansprüche 136–137, wobei die Darstellung des Musikstücks als musikalische Partitur in einer Musikkompositions-Anwendung angezeigt wird.
  141. Elektronische Vorrichtung nach Anspruch 140, wobei die taktile Rückmeldung eine Mehrzahl von taktilen Ausgängen beinhaltet, die, wenn der Fokus-Selektor über Darstellungen entsprechender Beats in der Teilmenge von Beats in der Musikpartitur bewegt wird, erzeugt werden.
  142. Elektronische Vorrichtung nach einem der Ansprüche 136–141, wobei die Teilmenge der Beats betonte Beats des Musikstückes beinhaltet.
  143. Die elektronische Vorrichtung nach einem der Ansprüche 136–142, wobei die Teilmenge der Beats unbetonten Beats des Musikstückes ausschließt.
  144. Die elektronische Vorrichtung nach einem der Ansprüche 136–142, wobei: die Teilmenge der Beats eine oder mehrere betonte Beats und einer oder mehreren unbetonten Beats beinhaltet; die taktile Rückmeldung eine Mehrzahl von taktilen Ausgängen für entsprechende Beats in der Teilmenge der Beats beinhaltet; eine erste taktile Ausgabe wird für betonte Beats erzeugt; und eine zweite taktile Ausgabe, die von der ersten taktilen Ausgabe unterschiedlich ist, wird für unbetonte Beats erzeugt.
  145. Elektronische Vorrichtung nach einem der Ansprüche 136–144, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt wird; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine zweite dominante Bewegungskomponente beinhaltet, erzeugt wird; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente eine gleiche Amplitude und unterschiedliche Bewegungsprofile aufweisen.
  146. Elektronische Vorrichtung nach einem der Ansprüche 136–144, wobei: die erste taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die eine erste dominante Bewegungskomponente beinhaltet, erzeugt wird; die zweite taktile Ausgabe durch die Bewegung der berührungsempfindlichen Oberfläche, die einen zweiten dominanten Bewegungskomponente beinhaltet, erzeugt wird; und die erste dominante Bewegungskomponente und die zweite dominante Bewegungskomponente ein gleiches Bewegungsprofil und unterschiedliche Amplituden aufweisen.
DE112013002387.3T 2012-05-09 2013-05-08 Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle Withdrawn DE112013002387T5 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201261688227P 2012-05-09 2012-05-09
US61/688,227 2012-05-09
US201261747278P 2012-12-29 2012-12-29
US61/747,278 2012-12-29
US201361778284P 2013-03-12 2013-03-12
US61/778,284 2013-03-12
PCT/US2013/040070 WO2013169853A1 (en) 2012-05-09 2013-05-08 Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface

Publications (1)

Publication Number Publication Date
DE112013002387T5 true DE112013002387T5 (de) 2015-02-12

Family

ID=48468818

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013002387.3T Withdrawn DE112013002387T5 (de) 2012-05-09 2013-05-08 Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle

Country Status (8)

Country Link
US (6) US10481690B2 (de)
EP (3) EP2847658B1 (de)
JP (4) JP6082458B2 (de)
CN (4) CN104508618B (de)
AU (5) AU2013259613B2 (de)
DE (1) DE112013002387T5 (de)
HK (3) HK1207172A1 (de)
WO (1) WO2013169853A1 (de)

Families Citing this family (157)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
CN104508618B (zh) 2012-05-09 2018-01-05 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的设备、方法和图形用户界面
CN108052264B (zh) 2012-05-09 2021-04-27 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US9774917B1 (en) 2012-12-10 2017-09-26 Apple Inc. Channel bar user interface
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102301592B1 (ko) 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
USD772253S1 (en) * 2013-02-19 2016-11-22 Sony Computer Entertainment Inc. Display panel or screen with an animated graphical user interface
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
CN110908441B (zh) * 2013-09-03 2024-02-02 苹果公司 用于可穿戴电子设备的表冠输入
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
USD753152S1 (en) * 2013-12-03 2016-04-05 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD752066S1 (en) * 2013-12-03 2016-03-22 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD752067S1 (en) * 2013-12-03 2016-03-22 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD752065S1 (en) * 2013-12-03 2016-03-22 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US9652148B2 (en) * 2014-01-06 2017-05-16 Sap Se Soft keyboard with keypress markers
US9575639B2 (en) * 2014-02-27 2017-02-21 Ab Initio Technology Llc Compound controls
KR101846256B1 (ko) * 2014-05-09 2018-05-18 삼성전자주식회사 필기감을 제공하는 촉각 피드백 장치 및 방법
US9483763B2 (en) 2014-05-29 2016-11-01 Apple Inc. User interface for payments
AU2015100490C4 (en) 2014-05-30 2017-04-13 Apple Inc. Continuity
US9582185B2 (en) * 2014-06-05 2017-02-28 Good Will Instrument Co., Ltd. Method for scale adjustment of touch-based measurement equipment
CN117573019A (zh) 2014-06-24 2024-02-20 苹果公司 输入设备和用户界面交互
JP6482578B2 (ja) 2014-06-24 2019-03-13 アップル インコーポレイテッドApple Inc. ユーザインタフェースにおけるナビゲートのためのカラムインタフェース
AU2015279544B2 (en) 2014-06-27 2018-03-15 Apple Inc. Electronic device with rotatable input mechanism for navigating calendar application
JP6573755B2 (ja) * 2014-07-10 2019-09-11 富士通株式会社 表示制御方法、情報処理プログラム、及び情報処理装置
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
TW201610758A (zh) 2014-09-02 2016-03-16 蘋果公司 按鈕功能性
CN113824998A (zh) 2014-09-02 2021-12-21 苹果公司 音乐用户界面
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
DE102015206250A1 (de) * 2015-04-08 2016-10-13 Bayerische Motoren Werke Aktiengesellschaft Bedieneingaben für Systeme umfassend Touch Pads und Anzeigen
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9928029B2 (en) * 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US20170094360A1 (en) * 2015-09-30 2017-03-30 Apple Inc. User interfaces for navigating and playing channel-based content
US11182068B2 (en) * 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
US20170123560A1 (en) * 2015-11-02 2017-05-04 Mediatek Inc. Method for performing user-input control in an electronic device, and associated apparatus
US10379615B2 (en) 2015-12-09 2019-08-13 International Business Machines Corporation Providing haptic feedback to a user of a touch surface display
JP6668883B2 (ja) * 2016-03-30 2020-03-18 ブラザー工業株式会社 プログラムおよび情報表示装置
KR102511443B1 (ko) 2016-05-18 2023-03-16 애플 인크. 그래픽 메시징 사용자 인터페이스 내의 확인응답 옵션들의 적용
US10592098B2 (en) * 2016-05-18 2020-03-17 Apple Inc. Devices, methods, and graphical user interfaces for messaging
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
US10368208B2 (en) 2016-06-12 2019-07-30 Apple Inc. Layers in messaging applications
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
US10409421B2 (en) * 2016-06-12 2019-09-10 Apple Inc. Devices and methods for processing touch inputs based on adjusted input parameters
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US10698485B2 (en) * 2016-06-27 2020-06-30 Microsoft Technology Licensing, Llc Augmenting text narration with haptic feedback
CN109219790A (zh) * 2016-07-08 2019-01-15 伊兹特商户服务公司 用于删除用户界面中的对象的装置、方法和图形用户界面
US20190332173A1 (en) * 2016-08-10 2019-10-31 Alexander Wellen Method and device for tactilely reading time on a touch screen
US9842330B1 (en) 2016-09-06 2017-12-12 Apple Inc. User interfaces for stored-value accounts
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
CN111414082A (zh) * 2016-09-06 2020-07-14 苹果公司 用于提供触觉反馈的设备、方法和图形用户界面
EP3531250B1 (de) * 2016-09-06 2021-02-24 Apple Inc. Vorrichtungen, verfahren und grafische benutzeroberflächen zur haptischen mischung
KR20180043617A (ko) 2016-10-20 2018-04-30 삼성전자주식회사 피드백 제공 방법 및 이를 지원하는 전자 장치
US10496808B2 (en) * 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
WO2018213423A1 (en) * 2017-05-16 2018-11-22 Apple Inc. Tactile feedback for user interfaces
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
JP2018195025A (ja) * 2017-05-16 2018-12-06 富士通株式会社 情報処理装置、情報処理システム、及び情報処理方法
EP3380918B1 (de) * 2017-05-16 2023-06-28 Apple Inc. Vorrichtungen, verfahren und grafische benutzerschnittstellen zum navigieren zwischen benutzerschnittstellen und zur interaktion mit steuerungsobjekten
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
WO2019070249A1 (en) * 2017-10-04 2019-04-11 Hewlett-Packard Development Company, L.P. USER INTERFACES WITH STRAIN SENSORS
KR102469754B1 (ko) * 2018-02-13 2022-11-22 삼성전자주식회사 전자 장치 및 그 동작 방법
CN110310613A (zh) * 2018-03-27 2019-10-08 上海新啊利网络科技有限公司 一种用于生成颜色编码音乐的方法和设备
US10955956B2 (en) 2018-05-07 2021-03-23 Apple Inc. Devices, methods, and graphical user interfaces for interaction with an intensity-sensitive input region
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10901763B2 (en) * 2018-07-19 2021-01-26 Citrix Systems, Inc. Systems and methods for user interface detection
CN110134248B (zh) * 2018-09-11 2020-12-11 苹果公司 基于内容的触觉输出
CN115826750A (zh) * 2018-09-11 2023-03-21 苹果公司 基于内容的触觉输出
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
US11435830B2 (en) * 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
CN109343770B (zh) * 2018-09-27 2021-07-20 腾讯科技(深圳)有限公司 交互反馈方法、设备和记录介质
CN109656439A (zh) * 2018-12-17 2019-04-19 北京小米移动软件有限公司 快捷操作面板的显示方法、装置及存储介质
CN109976846B (zh) * 2019-02-22 2022-04-29 华为技术有限公司 一种图像处理方法、终端设备和系统
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US11445263B2 (en) 2019-03-24 2022-09-13 Apple Inc. User interfaces including selectable representations of content items
US20200301567A1 (en) 2019-03-24 2020-09-24 Apple Inc. User interfaces for viewing and accessing content on an electronic device
CN113906419A (zh) 2019-03-24 2022-01-07 苹果公司 用于媒体浏览应用程序的用户界面
EP3977245A1 (de) 2019-05-31 2022-04-06 Apple Inc. Benutzerschnittstellen für eine anwendung zum durchsuchen und wiedergeben von podcasts
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11797113B2 (en) 2019-06-01 2023-10-24 Apple Inc. Devices, methods, and graphical user interfaces for interaction with a control
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US10698701B1 (en) 2019-06-01 2020-06-30 Apple Inc. User interface for accessing an account
CN110286840B (zh) * 2019-06-25 2022-11-11 广州视源电子科技股份有限公司 可触控设备的手势缩放控制方法、装置和相关设备
USD928178S1 (en) * 2019-07-03 2021-08-17 Theta Lake, Inc. Computer display with graphical user interface showing timeline markers for a video
USD941851S1 (en) * 2019-07-03 2022-01-25 Theta Lake, Inc. Computer display with graphical user interface for video compliance review
US11269952B1 (en) 2019-07-08 2022-03-08 Meta Platforms, Inc. Text to music selection system
US11030914B2 (en) * 2019-08-23 2021-06-08 Hossein Zamanian Learning device and method
US11210339B1 (en) 2019-08-29 2021-12-28 Facebook, Inc. Transient contextual music streaming
US10911504B1 (en) 2019-08-29 2021-02-02 Facebook, Inc. Social media music streaming
USD924912S1 (en) 2019-09-09 2021-07-13 Apple Inc. Display screen or portion thereof with graphical user interface
US11775581B1 (en) 2019-09-18 2023-10-03 Meta Platforms, Inc. Systems and methods for feature-based music selection
USD941325S1 (en) 2019-09-25 2022-01-18 Facebook, Inc. Display screen with a graphical user interface for music fetching
US11416544B2 (en) 2019-09-25 2022-08-16 Meta Platforms, Inc. Systems and methods for digitally fetching music content
USD941324S1 (en) * 2019-09-25 2022-01-18 Facebook, Inc. Display screen with a graphical user interface for music fetching
CN110989879B (zh) * 2019-11-08 2021-04-09 东软集团股份有限公司 辅助线提示方法、装置、可读存储介质及电子设备
CN110908581B (zh) * 2019-11-20 2021-04-23 网易(杭州)网络有限公司 手势识别的方法及装置、计算机存储介质、电子设备
WO2021167603A1 (en) * 2020-02-19 2021-08-26 Hewlett-Packard Development Company, L.P. Generating a graphical user interface in a pre-operating system boot environment
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
JP2021157279A (ja) * 2020-03-25 2021-10-07 豊田合成株式会社 触感提示装置、振動信号、及び記憶媒体
CN111770381B (zh) * 2020-06-04 2022-08-05 北京达佳互联信息技术有限公司 视频编辑的提示方法、装置以及电子设备
US11816194B2 (en) 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
US11601419B2 (en) 2020-06-21 2023-03-07 Apple Inc. User interfaces for accessing an account
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
USD1023049S1 (en) * 2021-11-25 2024-04-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
USD1024128S1 (en) * 2021-11-25 2024-04-23 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface

Family Cites Families (1653)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6117428Y2 (de) * 1979-04-03 1986-05-28
JPS58182746A (ja) 1982-04-20 1983-10-25 Fujitsu Ltd タツチ式入力装置
JPS6074003A (ja) * 1983-09-30 1985-04-26 Ryozo Setoguchi 形状創成装置
US4903201A (en) 1983-11-03 1990-02-20 World Energy Exchange Corporation Automated futures trading exchange
US5270922A (en) 1984-06-29 1993-12-14 Merrill Lynch & Company, Inc. System for distributing, processing and displaying financial information
US4674044A (en) 1985-01-30 1987-06-16 Merrill Lynch, Pierce, Fenner & Smith, Inc. Automated securities trading system
US4750135A (en) 1986-05-01 1988-06-07 Reuters Limited Method for dynamically creating a receiver definable local trading instrument displayable record from a remotely transmitted trading instrument common data stream
US5038284A (en) 1988-02-17 1991-08-06 Kramer Robert M Method and apparatus relating to conducting trading transactions with portable trading stations
JP2870911B2 (ja) 1988-05-27 1999-03-17 コダック・リミテッド データ処理システムにおけるディスプレー用の文書フォルダー・アイコン
CA1328511C (en) 1988-10-11 1994-04-12 Jean-Marie Hullot System and method for managing graphic images
EP0388162A3 (de) 1989-03-14 1993-03-03 Chicago Board Of Trade Apparat für finanzielle Transaktionen
WO1990010910A1 (en) 1989-03-14 1990-09-20 Chicago Board Of Trade Simulated pit trading system
JPH03505938A (ja) 1989-03-28 1991-12-19 シカゴ ボード オブ トレード 模擬生き市況取引システム
US5077665A (en) 1989-05-25 1991-12-31 Reuters Limited Distributed matching system
US5136501A (en) 1989-05-26 1992-08-04 Reuters Limited Anonymous matching system
US5101353A (en) 1989-05-31 1992-03-31 Lattice Investments, Inc. Automated system for providing liquidity to securities markets
US5297031A (en) 1990-03-06 1994-03-22 Chicago Board Of Trade Method and apparatus for order management by market brokers
JPH0385481U (de) 1990-11-02 1991-08-29
GB9027249D0 (en) 1990-12-17 1991-02-06 Reuters Ltd Offer matching system
US5297032A (en) 1991-02-01 1994-03-22 Merrill Lynch, Pierce, Fenner & Smith Incorporated Securities trading workstation
US5184120A (en) 1991-04-04 1993-02-02 Motorola, Inc. Menu selection using adaptive force sensing resistor
US5664210A (en) 1991-08-19 1997-09-02 International Business Machines Corporation Method and system of providing multiple selections in text on a computer display
US6347997B1 (en) 1997-10-01 2002-02-19 Brad A. Armstrong Analog controls housed with electronic displays
US6208271B1 (en) 1998-09-04 2001-03-27 Brad A. Armstrong Remote controller with analog button(s)
US5717725A (en) 1992-03-12 1998-02-10 Ntp Incorporated System for wireless transmission and receiving of information through a computer bus interface and method of operation
US5544262A (en) 1992-04-07 1996-08-06 Apple Computer, Inc. Method and apparatus for processing graphically input equations
DE69324067T2 (de) 1992-06-08 1999-07-15 Synaptics Inc Objekt-Positionsdetektor
JPH0651738A (ja) 1992-07-27 1994-02-25 Canon Inc コンピュータシステムの情報表示装置
US5589855A (en) * 1992-08-14 1996-12-31 Transaction Technology, Inc. Visually impaired customer activated terminal method and system
JP2994888B2 (ja) 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
US5428730A (en) 1992-12-15 1995-06-27 International Business Machines Corporation Multimedia system having software mechanism providing standardized interfaces and controls for the operation of multimedia devices
US5455965A (en) 1993-02-26 1995-10-03 Motorola, Inc. Method for determining and utilizing simulcast transmit times
US5555354A (en) 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
JPH0798769A (ja) 1993-06-18 1995-04-11 Hitachi Ltd 情報処理装置及びその画面編集方法
US5463722A (en) 1993-07-23 1995-10-31 Apple Computer, Inc. Automatic alignment of objects in two-dimensional and three-dimensional display space using an alignment field gradient
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
JPH07151512A (ja) 1993-10-05 1995-06-16 Mitsutoyo Corp 三次元測定機の操作装置
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
EP0712513B1 (de) 1993-10-29 1997-06-04 Taligent, Inc. Graphisches editorfachwerksystem
DE69426919T2 (de) 1993-12-30 2001-06-28 Xerox Corp Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
CA2119921C (en) 1994-03-23 2009-09-29 Sydney H. Belzberg Computerized stock exchange trading system
AU2241195A (en) 1994-04-06 1995-10-30 Morgan Stanley Group Inc. Data processing system and method for financial debt instruments
US5526478A (en) 1994-06-30 1996-06-11 Silicon Graphics, Inc. Three dimensional model with three dimensional pointers and multimedia functions linked to the pointers
GB9416673D0 (en) 1994-08-17 1994-10-12 Reuters Ltd Data exchange filtering system
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5797002A (en) 1994-09-20 1998-08-18 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5774877A (en) 1994-09-20 1998-06-30 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
WO1996009579A1 (en) 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5689651A (en) 1994-10-13 1997-11-18 Lozman; Fane System for processing and displaying financial information
AU4158496A (en) 1994-11-14 1996-06-06 Catapult Entertainment, Inc. Method and apparatus for synchronizing the execution of multiple video game systems in a networked environment
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
JPH08227341A (ja) 1995-02-22 1996-09-03 Mitsubishi Electric Corp ユーザインターフェース
US5657246A (en) 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
US5845266A (en) 1995-12-12 1998-12-01 Optimark Technologies, Inc. Crossing network utilizing satisfaction density profile with price discovery features
IL117424A (en) 1995-04-27 1999-09-22 Optimark Tech Inc Crossing network utilizing satisfaction density profile
US6072488A (en) 1995-05-05 2000-06-06 Apple Computer, Inc. Systems and methods for replacing open windows in a graphical user interface
US5793360A (en) 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US5717438A (en) 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams
RU2190877C2 (ru) 1995-08-28 2002-10-10 И-Би-Эс Дилинг Ресорсиз, Инк. Анонимная система торговли с усовершенствованными возможностями ввода котировок
US5844560A (en) 1995-09-29 1998-12-01 Intel Corporation Graphical user interface control element
JP3417741B2 (ja) 1995-10-06 2003-06-16 富士通株式会社 取引制御システム
US5910882A (en) 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US5793377A (en) 1995-11-22 1998-08-11 Autodesk, Inc. Method and apparatus for polar coordinate snap in a computer implemented drawing tool
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US5719796A (en) 1995-12-04 1998-02-17 Advanced Micro Devices, Inc. System for monitoring and analyzing manufacturing processes using statistical simulation with single step feedback
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US6300936B1 (en) * 1997-11-14 2001-10-09 Immersion Corporation Force feedback system including multi-tasking graphical host environment and interface device
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5946647A (en) 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5820463A (en) 1996-02-06 1998-10-13 Bell Atlantic Network Services, Inc. Method and apparatus for multi-player gaming over a network
JPH09269883A (ja) 1996-03-29 1997-10-14 Seiko Epson Corp 情報処理装置および情報処理方法
US6223188B1 (en) * 1996-04-10 2001-04-24 Sun Microsystems, Inc. Presentation of link information as an aid to hypermedia navigation
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5924083A (en) 1996-05-29 1999-07-13 Geneva Branch Of Reuters Transaction Services Limited Distributed matching system for displaying a book of credit filtered bids and offers
US5819293A (en) 1996-06-06 1998-10-06 Microsoft Corporation Automatic Spreadsheet forms
GB2314245A (en) * 1996-06-10 1997-12-17 Ibm Graphical user interface
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US6014643A (en) 1996-06-28 2000-01-11 Minton; Vernon F. Interactive securities trading system
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US6247000B1 (en) 1996-08-21 2001-06-12 Crossmar, Inc. Method and system for confirmation and settlement for financial transactions matching
KR100627378B1 (ko) 1996-08-28 2006-09-22 임베디드 테크놀로지스, 엘엘씨 터치 스크린 장치 및 방법
JPH1089976A (ja) 1996-09-13 1998-04-10 Hitachi Ltd 情報表示装置およびナビゲーションシステム
US5870683A (en) 1996-09-18 1999-02-09 Nokia Mobile Phones Limited Mobile station having method and apparatus for displaying user-selectable animation sequence
US6195647B1 (en) 1996-09-26 2001-02-27 The Nasdaq Stock Market, Inc. On-line transaction processing system for security trading
US5963923A (en) 1996-11-12 1999-10-05 Garber; Howard B. System and method for trading having a principal market maker
US5973670A (en) 1996-12-31 1999-10-26 International Business Machines Corporation Tactile feedback controller for computer cursor control device
EP0859307A1 (de) 1997-02-18 1998-08-19 International Business Machines Corporation Steuerungseinrichtung für graphische Benutzerschnittstelle
US6031989A (en) 1997-02-27 2000-02-29 Microsoft Corporation Method of formatting and displaying nested documents
US6954899B1 (en) 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US7091948B2 (en) 1997-04-25 2006-08-15 Immersion Corporation Design of force sensations for haptic feedback computer interfaces
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
EP0979479A1 (de) 1997-04-30 2000-02-16 Roderick Malcolm Gordon Lawrie Computer-netzwerk-handelssystem
US6806893B1 (en) 1997-08-04 2004-10-19 Parasoft Corporation System and method for displaying simulated three dimensional buttons in a graphical user interface
US6266684B1 (en) 1997-08-06 2001-07-24 Adobe Systems Incorporated Creating and saving multi-frame web pages
US6411998B1 (en) 1997-09-08 2002-06-25 International Business Machines Corporation World wide web internet delay monitor
US6002397A (en) 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6456778B2 (en) 1997-10-01 2002-09-24 Brad A. Armstrong Analog controls housed with electronic displays for video recorders and cameras
US6532000B2 (en) 1997-10-01 2003-03-11 Brad A. Armstrong Analog controls housed with electronic displays for global positioning systems
US6317727B1 (en) 1997-10-14 2001-11-13 Blackbird Holdings, Inc. Systems, methods and computer program products for monitoring credit risks in electronic trading systems
US6131087A (en) 1997-11-05 2000-10-10 The Planning Solutions Group, Inc. Method for automatically identifying, matching, and near-matching buyers and sellers in electronic market transactions
US8020095B2 (en) 1997-11-14 2011-09-13 Immersion Corporation Force feedback system including multi-tasking graphical host environment
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
CN1284187A (zh) 1997-12-08 2001-02-14 新日本制铁株式会社 商品交易装置、商品交易系统、商品交易方法和存储媒体
US6035287A (en) 1997-12-17 2000-03-07 Omega Consulting, Inc. Method and apparatus for bundled asset trading
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
WO1999038149A1 (en) 1998-01-26 1999-07-29 Wayne Westerman Method and apparatus for integrating manual input
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US6219034B1 (en) 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
FI107859B (fi) 1998-03-23 2001-10-15 Nokia Networks Oy Tilauspalvelut matkaviestinjärjestelmässä
US6211880B1 (en) 1998-04-13 2001-04-03 Albert Joseph Impink, Jr. Display apparatus
US6180894B1 (en) 1998-05-07 2001-01-30 Aiptek International Inc. Dual mode digitizer tablet system
US6208340B1 (en) 1998-05-26 2001-03-27 International Business Machines Corporation Graphical user interface including a drop-down widget that permits a plurality of choices to be selected in response to a single selection of the drop-down widget
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6707443B2 (en) 1998-06-23 2004-03-16 Immersion Corporation Haptic trackball device
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
US6758749B2 (en) * 1998-07-31 2004-07-06 Radical Gaming Concepts Ltd. Enhanced payout feature for gaming machines
WO2000011588A1 (en) 1998-08-21 2000-03-02 Marketxt, Inc. Anti-manipulation method and system for a real-time computerized stock trading system
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
US6111575A (en) 1998-09-24 2000-08-29 International Business Machines Corporation Graphical undo/redo manager and method
DE19849460B4 (de) 1998-10-28 2009-11-05 Völckers, Oliver Numerische digitale Telefontastatur für ein Telefongerät mit einem Display und Verfahren zur schnellen Textauswahl aus einer Liste mittels der numerischen Telefontastatur
US6377940B2 (en) 1998-11-05 2002-04-23 International Securities Exchange, Llc Method and apparatus for setting a price for a security on an automated exchange based on a comparison of prices on other exchanges
US6405180B2 (en) 1998-11-05 2002-06-11 International Securities Exchange, Llc Automated exchange for matching bids between a party and a counterparty based on a relationship between the counterparty and the exchange
JP2000148348A (ja) 1998-11-13 2000-05-26 Internatl Business Mach Corp <Ibm> 起動中のアプリケーション・プログラムを容易に識別し、かつ終了させることができる方法およびシステム
WO2000031963A1 (en) 1998-11-24 2000-06-02 Niksun, Inc. Apparatus and method for collecting and analyzing communications data
US6252594B1 (en) 1998-12-11 2001-06-26 International Business Machines Corporation Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
US6292233B1 (en) 1998-12-31 2001-09-18 Stmicroelectronics S.R.L. Device controller with low power standby mode
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US7506252B2 (en) 1999-01-26 2009-03-17 Blumberg Marvin R Speed typing apparatus for entering letters of alphabet with at least thirteen-letter input elements
US6396962B1 (en) 1999-01-29 2002-05-28 Sony Corporation System and method for providing zooming video
US6512761B1 (en) 1999-02-02 2003-01-28 3Com Corporation System for adjusting billing for real-time media transmissions based on delay
US6272474B1 (en) 1999-02-08 2001-08-07 Crisostomo B. Garcia Method for monitoring and trading stocks via the internet displaying bid/ask trade bars
EP1028583A1 (de) 1999-02-12 2000-08-16 Hewlett-Packard Company Digitale Kamera mit Tonaufzeichnung
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
JP2003526833A (ja) 1999-02-26 2003-09-09 レヴェオ・インコーポレーテッド グローバル時間同期システム、装置および方法
US20020026321A1 (en) 1999-02-26 2002-02-28 Sadeg M. Faris Internet-based system and method for fairly and securely enabling timed-constrained competition using globally time-sychronized client subsystems and information servers having microsecond client-event resolution
US6408282B1 (en) 1999-03-01 2002-06-18 Wit Capital Corp. System and method for conducting securities transactions over a computer network
WO2000052619A1 (en) 1999-03-01 2000-09-08 Wit Capital Corporation A system and method for conducting securities transactions over a computer network
US7212999B2 (en) 1999-04-09 2007-05-01 Trading Technologies International, Inc. User interface for an electronic trading system
US6278982B1 (en) 1999-04-21 2001-08-21 Lava Trading Inc. Securities trading system for consolidation of trading on multiple ECNS and electronic exchanges
WO2000065510A1 (en) 1999-04-22 2000-11-02 Trading Technologies, Inc. Electronic securities trading system
JP2001034775A (ja) 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
DE60043008D1 (de) 1999-05-27 2009-11-05 Tegic Comm Inc Tastatursystem mit automatischer korrektur
US6227743B1 (en) 1999-07-01 2001-05-08 Karl A. Robb Pen cap stylus for use with touch screens
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6489978B1 (en) 1999-08-06 2002-12-03 International Business Machines Corporation Extending the opening time of state menu items for conformations of multiple changes
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
AU1250001A (en) 1999-08-30 2001-03-26 Epit Inc. User interface for semi-fungible trading
US7685048B1 (en) 1999-09-01 2010-03-23 Bloomberg L.P. Electronic trading system for forwards spread trades
JP2001078137A (ja) 1999-09-01 2001-03-23 Olympus Optical Co Ltd 電子カメラ
US6459442B1 (en) 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
US7181424B1 (en) 1999-09-23 2007-02-20 The Nasdaq Stock Market, Inc. Montage for automated market system
US8311926B1 (en) 1999-09-23 2012-11-13 The Nasdaq Omx Group, Inc. Montage for automated market system
US8239303B2 (en) 1999-09-23 2012-08-07 The Nasdaq Omx Group, Inc. Match-off of order flow in electronic market system
US6377636B1 (en) 1999-11-02 2002-04-23 Iospan Wirless, Inc. Method and wireless communications system using coordinated transmission and training for interference mitigation
US8482535B2 (en) * 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
AU2575301A (en) 1999-12-03 2001-06-12 Farms.Com, Ltd Computerized system and method for conducting an online virtual auction
US20020055899A1 (en) 1999-12-06 2002-05-09 Williams Joseph C. Display system and method for displaying and organizing financial information
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US7362331B2 (en) 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
US20080316171A1 (en) 2000-01-14 2008-12-25 Immersion Corporation Low-Cost Haptic Mouse Implementations
JP2001202192A (ja) 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6512530B1 (en) 2000-01-19 2003-01-28 Xerox Corporation Systems and methods for mimicking an image forming or capture device control panel control element
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP3845738B2 (ja) 2000-02-09 2006-11-15 カシオ計算機株式会社 オブジェクト移動装置及び記録媒体
WO2001061483A2 (en) 2000-02-14 2001-08-23 Geophoenix, Inc. System and method for graphical programming
GB2366630A (en) 2000-02-17 2002-03-13 Gold On Line Trading Ltd Internet Trading System
US6772132B1 (en) 2000-03-02 2004-08-03 Trading Technologies International, Inc. Click based trading with intuitive grid display of market depth
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001306207A (ja) 2000-04-27 2001-11-02 Just Syst Corp ドラッグアンドドロップ処理を支援するプログラムを記録した記録媒体
US20020035534A1 (en) 2000-05-04 2002-03-21 Buist Walter D. Method and apparatus for auctioning securities
US7246092B1 (en) 2000-05-12 2007-07-17 The Nasdaq Stock Market, Inc. Montage for an electronic market
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
KR20020007860A (ko) 2000-07-19 2002-01-29 백승헌 인터넷상의 시간보정 방법 및 이를 이용한 상거래시점관리 방법
US6583798B1 (en) 2000-07-21 2003-06-24 Microsoft Corporation On-object user interface
JP4501243B2 (ja) 2000-07-24 2010-07-14 ソニー株式会社 テレビジョン受像機およびプログラム実行方法
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3949912B2 (ja) * 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
US8924277B2 (en) 2000-08-17 2014-12-30 Nyse Group, Inc. Method and system for automatic execution of a securities transaction
JP2004507939A (ja) 2000-08-21 2004-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ・ストリームに埋め込まれたプロセス及びデータに応じてビデオ・コンテンツを能動的に修正する方法及びシステム
TW494323B (en) 2000-08-29 2002-07-11 Ibm System and method for locating on a physical document items referenced in another physical document
SE0003440D0 (sv) * 2000-09-26 2000-09-26 Landala Naet Ab Kommunikationssystem
US6734882B1 (en) 2000-09-29 2004-05-11 Apple Computer, Inc. Combined menu-list control element in a graphical user interface
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6577296B2 (en) 2000-11-14 2003-06-10 Vega Vista, Inc. Fixed cursor
US6590568B1 (en) 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6943778B1 (en) 2000-11-20 2005-09-13 Nokia Corporation Touch screen input technique
US7380216B2 (en) * 2000-11-30 2008-05-27 International Business Machines Corporation Zoom-capable scrollbar
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20020077117A1 (en) 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
JP2002182855A (ja) 2000-12-19 2002-06-28 Totoku Electric Co Ltd タッチパネル装置
GB2370739A (en) 2000-12-27 2002-07-03 Nokia Corp Flashlight cursor for set-top boxes
CN2501080Y (zh) * 2001-01-03 2002-07-17 丁鹉雄 经皮刺激报时器
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US20020107748A1 (en) 2001-02-05 2002-08-08 International Business Machines Corporation Method and system for decentralized order matching among individual marketplaces
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120837A1 (en) 2001-02-28 2002-08-29 Maxemchuk Nicholas Frank Distributed internet multicast system for the stock market
CA2375844C (en) 2001-03-09 2008-12-30 Research In Motion Limited Advanced voice and data operations in a mobile data communication device
JP2002268867A (ja) 2001-03-13 2002-09-20 Sony Corp 表示装置及び表示方法、プログラム記録媒体並びにプログラム
US20020178102A1 (en) 2001-03-15 2002-11-28 Larry Scheinberg Margin release system for an electronic-based market
JP2002286489A (ja) 2001-03-28 2002-10-03 Clarion Co Ltd カーナビゲーション装置及び方法並びにカーナビゲーション用ソフトウェア
TW502180B (en) 2001-03-30 2002-09-11 Ulead Systems Inc Previewing method of editing multimedia effect
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
US20020149630A1 (en) 2001-04-16 2002-10-17 Parascript Llc Providing hand-written and hand-drawn electronic mail service
US7134093B2 (en) 2001-04-18 2006-11-07 International Business Machines Corporation Graphical user interface for direct control of display of data
US20020161693A1 (en) 2001-04-30 2002-10-31 Greenwald Jamie A. Automated over-the-counter derivatives trading system
US8125492B1 (en) 2001-05-18 2012-02-28 Autodesk, Inc. Parameter wiring
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20020186257A1 (en) 2001-06-08 2002-12-12 Cadiz Jonathan J. System and process for providing dynamic communication access and information awareness in an interactive peripheral display
US7190379B2 (en) 2001-06-29 2007-03-13 Contex A/S Method for resizing and moving an object on a computer screen
US8001490B2 (en) 2001-07-10 2011-08-16 Nvidia International, Inc. System, method and computer program product for a content publisher for wireless devices
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP2003084744A (ja) 2001-09-10 2003-03-19 Sharp Corp エミュレーション装置、エミュレーション方法及びその方法を実行するプログラム並びにそのプログラムを記録した記録媒体
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6965645B2 (en) 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US20030206169A1 (en) 2001-09-26 2003-11-06 Michael Springer System, method and computer program product for automatically snapping lines to drawing elements
US7439975B2 (en) 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
US8001189B2 (en) 2001-10-16 2011-08-16 Microsoft Corporation Routing of network messages
CN101231553B (zh) 2001-11-01 2012-08-22 伊梅森公司 用于提供触感的方法和系统
JP2003157131A (ja) 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 入力方法、表示方法、メディア情報合成表示方法、入力装置、メディア情報合成表示装置、入力プログラム、メディア情報合成表示プログラム、これらのプログラムを記録した記録媒体
JP2003162355A (ja) 2001-11-26 2003-06-06 Sony Corp タスクの表示切り替え方法及び携帯機器及び携帯通信機器
JP2003186597A (ja) 2001-12-13 2003-07-04 Samsung Yokohama Research Institute Co Ltd 携帯端末装置
US20030112269A1 (en) 2001-12-17 2003-06-19 International Business Machines Corporation Configurable graphical element for monitoring dynamic properties of a resource coupled to a computing environment
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
CN1356493A (zh) 2001-12-30 2002-07-03 王森 承压蒸汽锅炉的上锅筒
US7043701B2 (en) 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US20030184574A1 (en) 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US6888537B2 (en) 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
ATE328319T1 (de) 2002-03-08 2006-06-15 Revelations In Design Lp Steuerkonsole für elektrische geräte
US7114091B2 (en) 2002-03-18 2006-09-26 National Instruments Corporation Synchronization of distributed systems
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
US20030189647A1 (en) 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
JP2004062648A (ja) 2002-07-30 2004-02-26 Kyocera Corp 表示制御装置及びこれに用いられる表示制御プログラム
US20030222915A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
US7801796B2 (en) 2002-06-05 2010-09-21 The Nasdaq Omx Group, Inc. Message prioritization process and method
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004054861A (ja) 2002-07-16 2004-02-19 Sanee Denki Kk タッチ式マウス
US20040015662A1 (en) 2002-07-22 2004-01-22 Aron Cummings Memory card, memory card controller, and software therefor
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US7549127B2 (en) 2002-08-01 2009-06-16 Realnetworks, Inc. Method and apparatus for resizing video content displayed within a graphical user interface
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
KR100486711B1 (ko) 2002-08-12 2005-05-03 삼성전기주식회사 개인용 정보 단말기의 페이지 넘김 장치 및 방법
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
JP4234968B2 (ja) 2002-09-27 2009-03-04 富士フイルム株式会社 デジタルカメラ
US20040138849A1 (en) 2002-09-30 2004-07-15 Albrecht Schmidt Load sensing surface as pointing device
EP1406150A1 (de) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Verfahren und Vorrichtung zur taktilen Rückkopplung und tragbares Gerät mit derselben
US7752115B2 (en) 2002-10-02 2010-07-06 Trading Technologies International, Inc. Method and apparatus for a fair exchange
US7814439B2 (en) 2002-10-18 2010-10-12 Autodesk, Inc. Pan-zoom tool
JP4173718B2 (ja) 2002-10-31 2008-10-29 富士通株式会社 ウィンドウ切替装置及びウィンドウ切替プログラム
JP2004152217A (ja) 2002-11-01 2004-05-27 Canon Electronics Inc タッチパネル付き表示装置
US20040155752A1 (en) 2002-11-27 2004-08-12 Jory Radke Reading fingerprints
US20050114785A1 (en) 2003-01-07 2005-05-26 Microsoft Corporation Active content wizard execution with improved conspicuity
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7453439B1 (en) 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
US7224362B2 (en) 2003-01-30 2007-05-29 Agilent Technologies, Inc. Systems and methods for providing visualization and network diagrams
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US20040155909A1 (en) 2003-02-07 2004-08-12 Sun Microsystems, Inc. Scroll tray mechanism for cellular telephone
JP2005317041A (ja) 2003-02-14 2005-11-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
JP4367897B2 (ja) 2003-02-27 2009-11-18 キヤノン株式会社 画像表示制御装置及び方法
US7185291B2 (en) 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7369102B2 (en) 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7380218B2 (en) 2003-03-27 2008-05-27 International Business Machines Corporation Method and apparatus for managing windows
US8984440B2 (en) 2010-10-01 2015-03-17 Z124 Managing expose views in dual display communication devices
US20040219968A1 (en) 2003-05-01 2004-11-04 Fiden Daniel P. Gaming machine with interactive pop-up windows
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US7516404B1 (en) 2003-06-02 2009-04-07 Colby Steven M Text correction
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
US7051282B2 (en) 2003-06-13 2006-05-23 Microsoft Corporation Multi-layer graphical user interface
EP1644816B1 (de) 2003-06-20 2016-09-14 Apple Inc. Computerschnittstelle mit virtuellem einzelschichtmodus zum betrachten sich überlappender objekte
US20040267823A1 (en) 2003-06-24 2004-12-30 Microsoft Corporation Reconcilable and undoable file system
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
JP2005031786A (ja) 2003-07-08 2005-02-03 Fujitsu Ten Ltd 文字入力装置
WO2005008444A2 (en) 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US7036088B2 (en) 2003-07-24 2006-04-25 Sap Ag Multi-modal method for application swapping
US7721228B2 (en) 2003-08-05 2010-05-18 Yahoo! Inc. Method and system of controlling a context menu
JP4003742B2 (ja) 2003-08-21 2007-11-07 カシオ計算機株式会社 電子カメラ
KR100580174B1 (ko) 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7426647B2 (en) 2003-09-18 2008-09-16 Vulcan Portals Inc. Low power media player for an electronic device
US7702733B2 (en) 2003-09-18 2010-04-20 Vulcan Portals Inc. Low power email functionality for an electronic device
US7500127B2 (en) 2003-09-18 2009-03-03 Vulcan Portals Inc. Method and apparatus for operating an electronic device in a low power mode
US7925298B2 (en) 2003-09-18 2011-04-12 Vulcan Portals Inc. User interface for a secondary display module of a mobile electronic device
KR100597588B1 (ko) 2003-10-02 2006-07-06 한국전자통신연구원 우선순위기반 능동 시험패킷을 이용한 노드간 경로특성측정방법
US7176902B2 (en) 2003-10-10 2007-02-13 3M Innovative Properties Company Wake-on-touch for vibration sensing touch input devices
US7554689B2 (en) * 2003-10-15 2009-06-30 Canon Kabushiki Kaisha Document layout method
US20050091604A1 (en) 2003-10-22 2005-04-28 Scott Davis Systems and methods that track a user-identified point of focus
US6990637B2 (en) 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
JP2005135106A (ja) 2003-10-29 2005-05-26 Sony Corp 表示画像制御装置及び方法
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US20050110777A1 (en) 2003-11-25 2005-05-26 Geaghan Bernard O. Light-emitting stylus and user input device using same
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP2005157842A (ja) 2003-11-27 2005-06-16 Fujitsu Ltd ブラウザプログラム、ブラウジング方法、及びブラウジング装置
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
DE60315845T2 (de) 2003-12-01 2008-05-21 Sony Ericsson Mobile Communications Ab Kamera zur Aufnahme einer Bildsequenz
DE202004021925U1 (de) 2003-12-01 2012-11-06 Research In Motion Limited Vorsehen von Benachrichtigungen über neue Ereignisse auf einer Vorrichtung mit kleinem Bildschirm
US20050125742A1 (en) 2003-12-09 2005-06-09 International Business Machines Corporation Non-overlapping graphical user interface workspace
US7079454B2 (en) * 2003-12-23 2006-07-18 Alexander Wellen Tactile timepiece
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
US7283120B2 (en) * 2004-01-16 2007-10-16 Immersion Corporation Method and apparatus for providing haptic feedback having a position-based component and a predetermined time-based component
DE602004013116T2 (de) 2004-01-20 2009-07-02 Sony Deutschland Gmbh Haptische tastengesteuerte Dateneingabe
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
JP4790990B2 (ja) 2004-01-27 2011-10-12 京セラ株式会社 携帯端末
US7441204B2 (en) 2004-02-06 2008-10-21 Microsoft Corporation Method and system for automatically displaying content of a window on a display that has changed orientation
CA2557507A1 (en) 2004-02-25 2005-09-09 Xplore Technologies Corporation Apparatus providing multi-mode digital input
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US20050190280A1 (en) 2004-02-27 2005-09-01 Haas William R. Method and apparatus for a digital camera scrolling slideshow
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7788595B2 (en) 2004-03-08 2010-08-31 Sap Ag Method and system for switching among management system applications
WO2005086854A2 (en) 2004-03-09 2005-09-22 Freedom Scientific, Inc. Low vision enhancement for graphic user interface
GB2412831A (en) 2004-03-30 2005-10-05 Univ Newcastle Highlighting important information by blurring less important information
US20050223338A1 (en) 2004-04-05 2005-10-06 Nokia Corporation Animated user-interface in electronic devices
CN100437464C (zh) 2004-04-05 2008-11-26 松下电器产业株式会社 显示屏管理单元
US20050229112A1 (en) 2004-04-13 2005-10-13 Clay Timothy M Method and system for conveying an image position
JP2005309933A (ja) 2004-04-23 2005-11-04 Canon Inc 拡張制御装置および画像処理システムおよびアプリケーションアイコン表示方法およびプログラムおよび記憶媒体
US7694236B2 (en) 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
US7787026B1 (en) 2004-04-28 2010-08-31 Media Tek Singapore Pte Ltd. Continuous burst mode digital camera
US7777730B2 (en) 2004-05-05 2010-08-17 Koninklijke Philips Electronics N.V. Browsing media items
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
CN104392292B (zh) 2004-05-21 2019-07-26 派拉斯科技术公司 图形重新检验用户设置界面
JP4869568B2 (ja) 2004-06-14 2012-02-08 ソニー株式会社 入力装置および電子機器
US8321786B2 (en) 2004-06-17 2012-11-27 Apple Inc. Routine and interface for correcting electronic text
US8453065B2 (en) 2004-06-25 2013-05-28 Apple Inc. Preview and installation of user interface elements in a display environment
US8281241B2 (en) 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060001657A1 (en) 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US20060012577A1 (en) 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
EP1776630A2 (de) 2004-08-02 2007-04-25 Koninklijke Philips Electronics N.V. Druckgesteuerte navigation bei einem berührungsbildschirm
WO2006013518A2 (en) 2004-08-02 2006-02-09 Koninklijke Philips Electronics N.V. Touch screen with pressure-dependent visual feedback
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
GB2417176A (en) 2004-08-12 2006-02-15 Ibm Mouse cursor display
US8117542B2 (en) 2004-08-16 2012-02-14 Microsoft Corporation User interface for displaying selectable software functionality controls that are contextually relevant to a selected object
US20060041846A1 (en) 2004-08-19 2006-02-23 International Business Machines Corporation Method of window management for a windowing system
FR2874432A1 (fr) 2004-08-20 2006-02-24 Gervais Danone Sa Procede d'analyse de produits industriels alimentaires, cosmetiques et/ou d'hygiene, interface de mesure pour la mise en oeuvre du procede et systeme electronique de mise en oeuvre de l'interface
JP2006059238A (ja) 2004-08-23 2006-03-02 Denso Corp 情報入力表示装置
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
EP1805578A1 (de) 2004-09-15 2007-07-11 Nokia Corporation Handhabung und rollen von inhalt auf einem schirm
JP2006091446A (ja) 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd カメラ
US20060067654A1 (en) 2004-09-24 2006-03-30 Magix Ag Graphical user interface adaptable to multiple display devices
JP4543863B2 (ja) * 2004-10-05 2010-09-15 ソニー株式会社 触覚機能付きの入出力装置及び電子機器
US8232969B2 (en) * 2004-10-08 2012-07-31 Immersion Corporation Haptic feedback for button and scrolling action simulation in touch input devices
WO2006041097A1 (ja) 2004-10-12 2006-04-20 Nippon Telegraph And Telephone Corporation 3次元ポインティング方法、3次元表示制御方法、3次元ポインティング装置、3次元表示制御装置、3次元ポインティングプログラム、及び3次元表示制御プログラム
US20080187861A1 (en) 2004-10-19 2008-08-07 Koninklijke Philips Electronics, N.V. Master Substrate and Method of Manufacturing a High-Density Relief Structure
US8413271B2 (en) 2004-10-29 2013-04-09 Stryker Corporation Patient support apparatus
US8677274B2 (en) 2004-11-10 2014-03-18 Apple Inc. Highlighting items for search results
US8473869B2 (en) 2004-11-16 2013-06-25 Koninklijke Philips Electronics N.V. Touchless manipulation of images for regional enhancement
US20060107226A1 (en) 2004-11-16 2006-05-18 Microsoft Corporation Sidebar autohide to desktop
FR2878344B1 (fr) 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20060136834A1 (en) 2004-12-15 2006-06-22 Jiangen Cao Scrollable toolbar with tool tip on small screens
US7458038B2 (en) 2004-12-20 2008-11-25 Microsoft Corporation Selection indication fields
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7629966B2 (en) 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
US20090058882A1 (en) 2005-01-05 2009-03-05 Matsushita Electric Industrial Co., Ltd. Screen Display Device
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US7552397B2 (en) 2005-01-18 2009-06-23 Microsoft Corporation Multiple window behavior system
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
US7574434B2 (en) 2005-02-25 2009-08-11 Sony Corporation Method and system for navigating and selecting media from large data sets
KR102246065B1 (ko) 2005-03-04 2021-04-29 애플 인크. 다기능 휴대용 장치
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US20060213754A1 (en) 2005-03-17 2006-09-28 Microsoft Corporation Method and system for computer application program task switching via a single hardware button
US7454702B2 (en) 2005-03-21 2008-11-18 Microsoft Corporation Tool for selecting ink and other objects in an electronic document
US8147248B2 (en) 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US7661069B2 (en) 2005-03-31 2010-02-09 Microsoft Corporation System and method for visually expressing user interface elements
US7478339B2 (en) 2005-04-01 2009-01-13 Microsoft Corporation Method and apparatus for application window grouping and management
US8014034B2 (en) 2005-04-13 2011-09-06 Acd Systems International Inc. Image contrast enhancement
US7355595B2 (en) 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US8023568B2 (en) 2005-04-15 2011-09-20 Avid Technology, Inc. Capture, editing and encoding of motion pictures encoded with repeating fields or frames
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US7609178B2 (en) 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US9569093B2 (en) 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US9785329B2 (en) 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US7797641B2 (en) 2005-05-27 2010-09-14 Nokia Corporation Mobile communications terminal and method therefore
ATE488958T1 (de) 2005-06-02 2010-12-15 Polyvision Corp Verfahren und vorrichtung für eine virtuelle flip-chart
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US9141718B2 (en) 2005-06-03 2015-09-22 Apple Inc. Clipview applications
JP2006345209A (ja) 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7903090B2 (en) 2005-06-10 2011-03-08 Qsi Corporation Force-based input device
TWI296395B (en) 2005-06-24 2008-05-01 Benq Corp Method for zooming image on touch screen
US20070004451A1 (en) 2005-06-30 2007-01-04 C Anderson Eric Controlling functions of a handheld multifunction device
US20070004461A1 (en) 2005-06-30 2007-01-04 Bathina Sridhar N Terminal with messaging application
KR100649523B1 (ko) 2005-06-30 2006-11-27 삼성에스디아이 주식회사 입체 영상 표시 장치
CN101814005B (zh) 2005-07-22 2013-02-27 运行移动系统公司 最适宜拇指的触摸屏用户界面的系统和方法
JP4622727B2 (ja) 2005-07-29 2011-02-02 日本電気株式会社 適応送信タイミング制御方法、無線通信システムおよび無線通信装置
US8049731B2 (en) 2005-07-29 2011-11-01 Interlink Electronics, Inc. System and method for implementing a control function via a sensor having a touch sensitive control input surface
US20080297475A1 (en) 2005-08-02 2008-12-04 Woolf Tod M Input Device Having Multifunctional Keys
US7680513B2 (en) 2005-08-08 2010-03-16 Palm, Inc. Contact-centric user-interface features for computing devices
WO2007024035A1 (en) 2005-08-26 2007-03-01 Ktf Technologies, Inc. User terminal for performing a plurality of applications simultaneously
CN101300621B (zh) 2005-09-13 2010-11-10 时空3D公司 用于提供三维图形用户界面的系统和方法
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
TW200715192A (en) 2005-10-07 2007-04-16 Elan Microelectronics Corp Method for a window to generate different moving speed
JP2007116384A (ja) 2005-10-20 2007-05-10 Funai Electric Co Ltd 電子番組情報表示装置
CN1955906A (zh) 2005-10-28 2007-05-02 华硕电脑股份有限公司 单键多程式的执行方法
US7725839B2 (en) 2005-11-15 2010-05-25 Microsoft Corporation Three-dimensional active file explorer
US8643605B2 (en) 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
US7331245B2 (en) 2005-11-22 2008-02-19 Avago Technologies Ecbu Ip Pte Ltd Pressure distribution sensor and sensing method
JP2007148927A (ja) 2005-11-29 2007-06-14 Alps Electric Co Ltd 入力装置及びこれを用いたスクロール制御方法
US7834850B2 (en) 2005-11-29 2010-11-16 Navisense Method and system for object control
JP4777055B2 (ja) 2005-11-29 2011-09-21 京セラ株式会社 表示装置、制御方法
WO2007068091A1 (en) * 2005-12-12 2007-06-21 Audiokinetic Inc. Method and system for multi-version digital authoring
JP2007163891A (ja) 2005-12-14 2007-06-28 Sony Corp 表示装置
US8325398B2 (en) 2005-12-22 2012-12-04 Canon Kabushiki Kaisha Image editing system, image management apparatus, and image editing program
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US20070152959A1 (en) 2005-12-29 2007-07-05 Sap Ag Pressure-sensitive button
JP2009522669A (ja) 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
US7797642B1 (en) 2005-12-30 2010-09-14 Google Inc. Method, system, and graphical user interface for meeting-spot-related contact lists
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US20070168369A1 (en) 2006-01-04 2007-07-19 Companionlink Software, Inc. User interface for a portable electronic device
US7757185B2 (en) 2006-01-06 2010-07-13 Apple Inc. Enabling and disabling hotkeys
US7603633B2 (en) 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7486282B2 (en) 2006-01-27 2009-02-03 Microsoft Corporation Size variant pressure eraser
US7536654B2 (en) 2006-02-06 2009-05-19 Microsoft Corporation Photo browse and zoom
US8510669B2 (en) 2006-02-06 2013-08-13 Yahoo! Inc. Method and system for presenting photos on a website
US8139514B2 (en) * 2006-02-24 2012-03-20 Yahoo! Inc. Method and system for communicating with multiple users via a map over the internet
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
KR100744400B1 (ko) 2006-03-07 2007-07-30 삼성전자주식회사 이동 통신 단말기의 메뉴 화면에서 빠른 메뉴 제공 방법 및장치
US7532837B2 (en) 2006-03-09 2009-05-12 Kabushiki Kaisha Toshiba Multifunction peripheral with template registration and template registration method
US8745526B2 (en) 2006-03-14 2014-06-03 Blackberry Limited Screen display in application switching
KR100746874B1 (ko) 2006-03-16 2007-08-07 삼성전자주식회사 이동 단말기에서 터치패드를 이용한 서비스 제공 장치 및방법
GB0605587D0 (en) 2006-03-20 2006-04-26 British Broadcasting Corp Graphical user interface methods and systems
WO2007111909A2 (en) 2006-03-24 2007-10-04 Northwestern University Haptic device with indirect haptic feedback
JP2007264808A (ja) 2006-03-27 2007-10-11 Nikon Corp 表示入力装置及び撮像装置
US8780139B2 (en) 2006-03-27 2014-07-15 Adobe Systems Incorporated Resolution monitoring when using visual manipulation tools
US7925250B2 (en) 2006-03-27 2011-04-12 International Business Machines Corporation Reuse of a mobile device application in a desktop environment
US7656413B2 (en) 2006-03-29 2010-02-02 Autodesk, Inc. Large display attention focus system
US7538760B2 (en) 2006-03-30 2009-05-26 Apple Inc. Force imaging input device and system
US8040142B1 (en) 2006-03-31 2011-10-18 Cypress Semiconductor Corporation Touch detection techniques for capacitive touch sense systems
US7861176B2 (en) 2006-04-13 2010-12-28 Touchcommerce, Inc. Methods and systems for providing online chat
US7979146B2 (en) * 2006-04-13 2011-07-12 Immersion Corporation System and method for automatically producing haptic events from a digital audio signal
US7607088B2 (en) 2006-04-18 2009-10-20 International Business Machines Corporation Computer program product, apparatus and method for displaying a plurality of entities in a tooltip for a cell of a table
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
WO2007121557A1 (en) 2006-04-21 2007-11-01 Anand Agarawala System for organizing and visualizing display objects
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
JP4926533B2 (ja) 2006-05-02 2012-05-09 キヤノン株式会社 動画像処理装置、動画像処理方法及びプログラム
US8279180B2 (en) 2006-05-02 2012-10-02 Apple Inc. Multipoint touch surface controller
JP4737539B2 (ja) 2006-05-03 2011-08-03 株式会社ソニー・コンピュータエンタテインメント マルチメディア再生装置および背景画像表示方法
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US20070271513A1 (en) 2006-05-22 2007-11-22 Nike, Inc. User Interface for Remotely Controlling a Digital Music Player
US20070299923A1 (en) 2006-06-16 2007-12-27 Skelly George J Methods and systems for managing messaging
US7921116B2 (en) 2006-06-16 2011-04-05 Microsoft Corporation Highly meaningful multimedia metadata creation and associations
KR101242030B1 (ko) 2006-06-22 2013-03-11 엘지디스플레이 주식회사 유기전계발광 소자
US7880728B2 (en) 2006-06-29 2011-02-01 Microsoft Corporation Application switching via a touch screen interface
JP2008009759A (ja) 2006-06-29 2008-01-17 Toyota Motor Corp タッチパネル装置
JP4751780B2 (ja) 2006-07-07 2011-08-17 株式会社エヌ・ティ・ティ・ドコモ キー入力装置
JP4583344B2 (ja) 2006-07-10 2010-11-17 シャープ株式会社 携帯電話機
EP1882902A1 (de) 2006-07-27 2008-01-30 Aisin AW Co., Ltd. Navigationsgerät und Verfahren zur Bereitstellung von Fahrzeugführung für einen Fahrzeugbenutzer mittels Berührungsbildschirm
US20080024454A1 (en) 2006-07-31 2008-01-31 Paul Everest Three-dimensional touch pad input device
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8255815B2 (en) 2006-08-04 2012-08-28 Apple Inc. Motion picture preview icons
US20080051989A1 (en) 2006-08-25 2008-02-28 Microsoft Corporation Filtering of data layered on mapping applications
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
CN101529874A (zh) 2006-09-06 2009-09-09 苹果公司 用于具有触摸屏显示器的便携式多功能设备的电话呼入管理
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7743338B2 (en) 2006-09-11 2010-06-22 Apple Inc. Image rendering with image artifact along a multidimensional path
US7581186B2 (en) 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
US7930650B2 (en) 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
US20080094398A1 (en) 2006-09-19 2008-04-24 Bracco Imaging, S.P.A. Methods and systems for interacting with a 3D visualization system using a 2D interface ("DextroLap")
JP2008076818A (ja) 2006-09-22 2008-04-03 Fujitsu Ltd 携帯端末装置
JP5176300B2 (ja) 2006-09-22 2013-04-03 富士通株式会社 電子機器、その制御方法及びその制御プログラム
WO2008037275A1 (en) 2006-09-27 2008-04-03 Nokia Corporation Tactile touch screen
US8245154B2 (en) 2006-11-03 2012-08-14 International Business Machines Corporation Most-recently-used task switching among parent and child windows
US20080106523A1 (en) 2006-11-07 2008-05-08 Conrad Richard H Ergonomic lift-clicking method and apparatus for actuating home switches on computer input devices
WO2008064142A2 (en) 2006-11-20 2008-05-29 Pham Don N Interactive sequential key system to input characters on small keypads
KR20080048837A (ko) 2006-11-29 2008-06-03 삼성전자주식회사 촉각 피드백을 출력하는 장치 및 방법
US8006002B2 (en) 2006-12-12 2011-08-23 Apple Inc. Methods and systems for automatic configuration of peripherals
JP2008146453A (ja) 2006-12-12 2008-06-26 Sony Corp 映像信号出力装置、操作入力処理方法
US8520866B2 (en) * 2006-12-15 2013-08-27 Nokia Corporation Apparatus, method, and computer program product providing sound-produced tactile feedback
KR20080058121A (ko) 2006-12-21 2008-06-25 삼성전자주식회사 휴대단말기에서의 촉각형 사용자 인터페이스 제공 장치 및방법
US20080163119A1 (en) 2006-12-28 2008-07-03 Samsung Electronics Co., Ltd. Method for providing menu and multimedia device using the same
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
WO2008085874A2 (en) 2007-01-05 2008-07-17 Marvell World Trade Ltd. Methods and systems for improving low-resolution video
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US8698727B2 (en) 2007-01-05 2014-04-15 Apple Inc. Backlight and ambient light sensor system
US7877707B2 (en) 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US7978176B2 (en) 2007-01-07 2011-07-12 Apple Inc. Portrait-landscape rotation heuristics for a portable multifunction device
US20080222545A1 (en) 2007-01-07 2008-09-11 Lemay Stephen O Portable Electronic Device with a Global Setting User Interface
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US7957762B2 (en) 2007-01-07 2011-06-07 Apple Inc. Using ambient light sensor to augment proximity sensor output
US20080168395A1 (en) 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US9001047B2 (en) 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US8082523B2 (en) 2007-01-07 2011-12-20 Apple Inc. Portable electronic device with graphical user interface supporting application switching
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
CN101578582A (zh) 2007-01-11 2009-11-11 皇家飞利浦电子股份有限公司 用于提供撤消/重做机制的方法和设备
WO2008090902A1 (ja) 2007-01-25 2008-07-31 Sharp Kabushiki Kaisha マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
US8201087B2 (en) 2007-02-01 2012-06-12 Tegic Communications, Inc. Spell-check for a keyboard system with automatic correction
CN101241397B (zh) 2007-02-07 2012-03-07 罗伯特·博世有限公司 具有鼠标功能的键盘及其输入方法
JP2008191086A (ja) 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
GB2446702A (en) 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
KR101450584B1 (ko) 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US8650505B2 (en) 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
EP2129111B1 (de) 2007-03-06 2013-01-09 Panasonic Corporation Bildgebungseinrichtung, editiereinrichtung, bildverarbeitungsverfahren und programm
WO2008109172A1 (en) 2007-03-07 2008-09-12 Wiklof Christopher A Recorder with retrospective capture
US8352881B2 (en) 2007-03-08 2013-01-08 International Business Machines Corporation Method, apparatus and program storage device for providing customizable, immediate and radiating menus for accessing applications and actions
US7895533B2 (en) 2007-03-13 2011-02-22 Apple Inc. Interactive image thumbnails
JP4424364B2 (ja) * 2007-03-19 2010-03-03 ソニー株式会社 画像処理装置、画像処理方法
US20080244448A1 (en) 2007-04-01 2008-10-02 Katharina Goering Generation of menu presentation relative to a given menu orientation
US20080259046A1 (en) 2007-04-05 2008-10-23 Joseph Carsanaro Pressure sensitive touch pad with virtual programmable buttons for launching utility applications
US7973778B2 (en) 2007-04-16 2011-07-05 Microsoft Corporation Visual simulation of touch pressure
CN101290553A (zh) 2007-04-17 2008-10-22 索尼(中国)有限公司 具有显示屏的电子设备
US8140996B2 (en) 2007-04-17 2012-03-20 QNX Software Systems Limtied System for endless loop scrolling and display
US20100127983A1 (en) 2007-04-26 2010-05-27 Pourang Irani Pressure Augmented Mouse
US20080270910A1 (en) 2007-04-30 2008-10-30 Lukasik Derek J User selection of a remote session
KR100807738B1 (ko) * 2007-05-02 2008-02-28 삼성전자주식회사 이동 통신 단말기의 진동 생성 방법 및 장치
JP2008283629A (ja) 2007-05-14 2008-11-20 Sony Corp 撮像装置、撮像信号処理方法、プログラム
CN201107762Y (zh) 2007-05-15 2008-08-27 宏达国际电子股份有限公司 具有可切换使用者界面以及无阻碍触控操作的电子装置
US8621348B2 (en) 2007-05-25 2013-12-31 Immersion Corporation Customizing haptic effects on an end user device
JPWO2008146784A1 (ja) 2007-05-29 2010-08-19 株式会社Access 端末装置、ヒストリ管理方法、およびヒストリ管理の為のコンピュータ使用可能な記憶媒体
US7801950B2 (en) 2007-06-01 2010-09-21 Clustrmaps Ltd. System for analyzing and visualizing access statistics for a web site
JP2008305174A (ja) 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US8745535B2 (en) 2007-06-08 2014-06-03 Apple Inc. Multi-dimensional desktop
US8381122B2 (en) 2007-06-08 2013-02-19 Apple Inc. Multi-dimensional application environment
US20080307359A1 (en) 2007-06-08 2008-12-11 Apple Inc. Grouping Graphical Representations of Objects in a User Interface
US8010900B2 (en) 2007-06-08 2011-08-30 Apple Inc. User interface for electronic backup
US8423914B2 (en) 2007-06-08 2013-04-16 Apple Inc. Selection user interface
US20080303795A1 (en) 2007-06-08 2008-12-11 Lowles Robert J Haptic display for a handheld electronic device
US8667418B2 (en) 2007-06-08 2014-03-04 Apple Inc. Object stack
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8302033B2 (en) 2007-06-22 2012-10-30 Apple Inc. Touch screen device, method, and graphical user interface for providing maps, directions, and location-based information
US8315482B2 (en) 2007-06-26 2012-11-20 Microsoft Corporation Integrated platform for user input of digital ink
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US20090015563A1 (en) * 2007-07-11 2009-01-15 John Thomas Sadler Stylized interactive icon for portable mobile communications device
US7805681B2 (en) * 2007-07-12 2010-09-28 Sony Ericsson Mobile Communications Ab System and method for generating a thumbnail image for an audiovisual file
JP4380746B2 (ja) 2007-07-23 2009-12-09 ヤマハ株式会社 ディジタルミキサ
US20090030758A1 (en) * 2007-07-26 2009-01-29 Gennaro Castelli Methods for assessing potentially compromising situations of a utility company
US20090046110A1 (en) 2007-08-16 2009-02-19 Motorola, Inc. Method and apparatus for manipulating a displayed image
US20110210931A1 (en) 2007-08-19 2011-09-01 Ringbow Ltd. Finger-worn device and interaction methods and communication methods
KR20090019161A (ko) 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
KR101424259B1 (ko) 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8826132B2 (en) 2007-09-04 2014-09-02 Apple Inc. Methods and systems for navigating content on a portable device
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8683378B2 (en) * 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US8825802B2 (en) 2007-09-04 2014-09-02 Sony Computer Entertainment America Llc System and method for identifying compatible users
US9477395B2 (en) 2007-09-04 2016-10-25 Apple Inc. Audio file interface
US20110145068A1 (en) 2007-09-17 2011-06-16 King Martin T Associating rendered advertisements with digital content
US20090089293A1 (en) 2007-09-28 2009-04-02 Bccg Ventures, Llc Selfish data browsing
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US8125458B2 (en) 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
TWI417764B (zh) 2007-10-01 2013-12-01 Giga Byte Comm Inc A control method and a device for performing a switching function of a touch screen of a hand-held electronic device
KR101570368B1 (ko) 2008-08-22 2015-11-20 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
EP2045700A1 (de) 2007-10-04 2009-04-08 LG Electronics Inc. Menüanzeigeverfahren für ein Mobilkommunikationsendgerät
WO2009049331A2 (en) 2007-10-08 2009-04-16 Van Der Westhuizen Willem Mork User interface
KR20090036877A (ko) 2007-10-10 2009-04-15 삼성전자주식회사 다중 프로젝션 윈도우 환경에서 기준자 기반으로오브젝트를 관리하는 방법 및 그 시스템
KR100823871B1 (ko) 2007-10-11 2008-04-21 주식회사 자티전자 드래그 버튼을 이용하여 절전을 관리하는 휴대용 단말기 및그 동작방법
CN101414231B (zh) 2007-10-17 2011-09-21 鸿富锦精密工业(深圳)有限公司 触摸屏装置及其图像显示方法
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
DE102007052008A1 (de) 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
US8024670B1 (en) 2007-10-30 2011-09-20 Intuit Inc. Workflow management using live thumbnails
JP4974236B2 (ja) 2007-10-30 2012-07-11 アズビル株式会社 情報連携ウィンドウシステムおよびプログラム
US8201101B2 (en) 2007-10-31 2012-06-12 Stratovan Corporation Resolution independent layout
JP2009122011A (ja) * 2007-11-16 2009-06-04 Takashi Koyabata 触知式バイブレーション時計
JP2009129171A (ja) 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
DE102007059919A1 (de) 2007-11-26 2009-05-28 Sms Demag Ag Verfahren und Vorrichtung zum Vergleichsmäßigen des Erstarrungsvorganges eines insbesondere beim Strang- oder Bandgießen erzeugten schmelzflüssigen Metalles
TW200923758A (en) 2007-11-27 2009-06-01 Wistron Corp A key-in method and a content display method of an electronic device, and the application thereof
US8245155B2 (en) 2007-11-29 2012-08-14 Sony Corporation Computer implemented display, graphical user interface, design and method including scrolling features
US20090140985A1 (en) 2007-11-30 2009-06-04 Eric Liu Computing device that determines and uses applied pressure from user interaction with an input interface
US9513765B2 (en) 2007-12-07 2016-12-06 Sony Corporation Three-dimensional sliding object arrangement method and system
US20090167507A1 (en) * 2007-12-07 2009-07-02 Nokia Corporation User interface
US7839269B2 (en) * 2007-12-12 2010-11-23 Immersion Corporation Method and apparatus for distributing haptic synchronous signals
US8140974B2 (en) 2007-12-14 2012-03-20 Microsoft Corporation Presenting secondary media objects to a user
JP4605214B2 (ja) 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
TW200930009A (en) 2007-12-21 2009-07-01 Inventec Appliances Corp Procedure of acting personally hot function setting
JP2009151684A (ja) * 2007-12-21 2009-07-09 Sony Corp 触覚シート部材、入力装置及び電子機器
KR101456570B1 (ko) 2007-12-21 2014-10-31 엘지전자 주식회사 디지털 이퀄라이저를 구비한 이동 단말기 및 그 제어방법
US8233671B2 (en) 2007-12-27 2012-07-31 Intel-Ge Care Innovations Llc Reading device with hierarchal navigation
US9170649B2 (en) 2007-12-28 2015-10-27 Nokia Technologies Oy Audio and tactile feedback based on visual environment
US8042190B2 (en) 2007-12-31 2011-10-18 Intel Corporation Pre-boot protected memory channel
US8707215B2 (en) 2007-12-31 2014-04-22 Motorola Mobility Llc Hand-held device and method for operating a single pointer touch sensitive user interface
US9857872B2 (en) 2007-12-31 2018-01-02 Apple Inc. Multi-touch display screen with localized tactile feedback
US8373549B2 (en) 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device
US9274612B2 (en) 2008-01-04 2016-03-01 Tactus Technology, Inc. User interface system
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US9063627B2 (en) 2008-01-04 2015-06-23 Tactus Technology, Inc. User interface and methods
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
JP5001182B2 (ja) 2008-01-10 2012-08-15 パナソニック株式会社 表示制御装置、電子機器、表示制御方法、およびプログラム
US8196042B2 (en) 2008-01-21 2012-06-05 Microsoft Corporation Self-revelation aids for interfaces
US8140973B2 (en) * 2008-01-23 2012-03-20 Microsoft Corporation Annotating and sharing content
US9665197B2 (en) 2008-01-30 2017-05-30 Nokia Technologies Oy Apparatus and method for enabling user input
US20090195959A1 (en) 2008-01-31 2009-08-06 Research In Motion Limited Electronic device and method for controlling same
US8423076B2 (en) 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8504945B2 (en) 2008-02-01 2013-08-06 Gabriel Jakobson Method and system for associating content with map zoom function
KR101503714B1 (ko) * 2008-02-05 2015-03-20 삼성전자주식회사 Gui 제공방법 및 이를 적용한 멀티미디어 기기
KR101467513B1 (ko) 2008-02-11 2014-12-01 삼성전자 주식회사 모바일 단말 제어장치 및 그 방법
US20090295713A1 (en) 2008-05-30 2009-12-03 Julien Piot Pointing device with improved cursor control in-air and allowing multiple modes of operations
US20090207140A1 (en) 2008-02-19 2009-08-20 Sony Ericsson Mobile Communications Ab Identifying and responding to multiple time-overlapping touches on a touch panel
JP2009200713A (ja) 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
US8314801B2 (en) 2008-02-29 2012-11-20 Microsoft Corporation Visual state manager for control skinning
JP4752853B2 (ja) 2008-03-03 2011-08-17 株式会社デンソー 流量制御弁
US20090276730A1 (en) 2008-03-04 2009-11-05 Alexandre Aybes Techniques for navigation of hierarchically-presented data
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
JP4650699B2 (ja) 2008-03-06 2011-03-16 Necインフロンティア株式会社 入力装置、入力方法およびプログラム
KR101012300B1 (ko) 2008-03-07 2011-02-08 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 사용자 인터페이스장치 및 그 방법
JP4670879B2 (ja) 2008-03-11 2011-04-13 ブラザー工業株式会社 接触入力型の情報処理装置、接触入力型の情報処理方法、及び情報処理プログラム
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
KR101007045B1 (ko) 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
US20090237374A1 (en) 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using
JP4530067B2 (ja) 2008-03-27 2010-08-25 ソニー株式会社 撮像装置、撮像方法及びプログラム
US8228300B2 (en) * 2008-03-28 2012-07-24 Sprint Communications Company L.P. Physical feedback to indicate object directional slide
JP2009245239A (ja) 2008-03-31 2009-10-22 Sony Corp ポインタ表示装置、ポインタ表示検出方法、ポインタ表示検出プログラム及び情報機器
US8612888B2 (en) 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
GB0806183D0 (en) 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
US20090251421A1 (en) 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications Ab Method and apparatus for tactile perception of digital images
JP5200641B2 (ja) 2008-04-10 2013-06-05 ソニー株式会社 リスト表示装置及びリスト表示方法
US8745514B1 (en) 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
JP5428189B2 (ja) 2008-04-17 2014-02-26 三洋電機株式会社 ナビゲーション装置
TW200945171A (en) 2008-04-25 2009-11-01 Htc Corp Operation method of user interface and computer readable and accessable medium and portable device
US20090267906A1 (en) 2008-04-25 2009-10-29 Nokia Corporation Touch sensitive apparatus
US20090271731A1 (en) 2008-04-27 2009-10-29 Htc Corporation Electronic device and user interface display method thereof
JP4792058B2 (ja) 2008-04-28 2011-10-12 株式会社東芝 情報処理装置、制御方法およびプログラム
US20150205775A1 (en) 2008-05-01 2015-07-23 Eric Berdahl Managing Documents and Document Workspaces
US8159469B2 (en) 2008-05-06 2012-04-17 Hewlett-Packard Development Company, L.P. User interface for initiating activities in an electronic device
KR101461954B1 (ko) 2008-05-08 2014-11-14 엘지전자 주식회사 단말기 및 그 제어 방법
US20090280860A1 (en) 2008-05-12 2009-11-12 Sony Ericsson Mobile Communications Ab Mobile phone with directional force feedback and method
US20090284478A1 (en) 2008-05-15 2009-11-19 Microsoft Corporation Multi-Contact and Single-Contact Input
WO2009143294A2 (en) 2008-05-20 2009-11-26 Citrix Systems, Inc. Methods and systems for using external display devices with a mobile computing device
US7958447B2 (en) 2008-05-23 2011-06-07 International Business Machines Corporation Method and system for page navigating user interfaces for electronic devices
US20090295739A1 (en) 2008-05-27 2009-12-03 Wes Albert Nagara Haptic tactile precision selection
US8314859B2 (en) 2008-05-29 2012-11-20 Lg Electronics Inc. Mobile terminal and image capturing method thereof
EP2129085B1 (de) 2008-05-29 2011-03-30 LG Electronics Inc. Transparente Anzeige und Betriebsverfahren dafür
WO2009147755A1 (ja) 2008-06-04 2009-12-10 富士通株式会社 情報処理装置および入力制御方法
US8099332B2 (en) 2008-06-06 2012-01-17 Apple Inc. User interface for application management for a mobile device
US20090307633A1 (en) 2008-06-06 2009-12-10 Apple Inc. Acceleration navigation of media device displays
CN101604208A (zh) 2008-06-12 2009-12-16 欧蜀平 一种易于使用的键盘及其软件
KR101498623B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
JP4896932B2 (ja) 2008-06-26 2012-03-14 京セラ株式会社 入力装置
US8254902B2 (en) 2008-06-26 2012-08-28 Apple Inc. Apparatus and methods for enforcement of policies upon a wireless device
WO2009155981A1 (en) 2008-06-26 2009-12-30 Uiq Technology Ab Gesture on touch sensitive arrangement
US8174372B2 (en) 2008-06-26 2012-05-08 Immersion Corporation Providing haptic feedback on a touch surface
US8504946B2 (en) 2008-06-27 2013-08-06 Apple Inc. Portable device, method, and graphical user interface for automatically scrolling to display the top of an electronic document
WO2009158549A2 (en) 2008-06-28 2009-12-30 Apple Inc. Radial menu selection
JP4938733B2 (ja) 2008-06-30 2012-05-23 株式会社ソニー・コンピュータエンタテインメント メニュー画面表示方法およびメニュー画面表示装置
US8477228B2 (en) 2008-06-30 2013-07-02 Verizon Patent And Licensing Inc. Camera data management and user interface apparatuses, systems, and methods
EP2141574B1 (de) 2008-07-01 2017-09-27 LG Electronics Inc. Mobiles Endgerät mit Näherungssensor und Verfahren zur Steuerung des mobilen Endgerätes
KR101540779B1 (ko) 2008-07-01 2015-07-29 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US20100013613A1 (en) * 2008-07-08 2010-01-21 Jonathan Samuel Weston Haptic feedback projection system
US10095375B2 (en) 2008-07-09 2018-10-09 Apple Inc. Adding a contact to a home screen
JP4198190B1 (ja) 2008-07-11 2008-12-17 任天堂株式会社 画像通信システム、画像通信装置、および画像通信プログラム
WO2010006639A1 (en) * 2008-07-15 2010-01-21 Gueneux Roland Conductor centric electronic music stand system
US8638301B2 (en) 2008-07-15 2014-01-28 Immersion Corporation Systems and methods for transmitting haptic messages
US8274484B2 (en) 2008-07-18 2012-09-25 Microsoft Corporation Tracking input in a screen-reflective interface environment
KR101495559B1 (ko) 2008-07-21 2015-02-27 삼성전자주식회사 사용자 명령 입력 방법 및 그 장치
KR20100010302A (ko) 2008-07-22 2010-02-01 엘지전자 주식회사 이동단말기 및 그 메뉴 표시방법
US9176620B2 (en) 2008-07-22 2015-11-03 Lg Electronics Inc. Mobile terminal and method for displaying information list thereof
KR20100010860A (ko) 2008-07-23 2010-02-02 엘지전자 주식회사 이동 단말기 및 그의 이벤트 제어방법
US20100220065A1 (en) 2009-02-27 2010-09-02 Research In Motion Limited Touch-sensitive display including a force-sensor and portable electronic device including same
US8237807B2 (en) 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
JP5100556B2 (ja) 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US10983665B2 (en) 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US9280286B2 (en) * 2008-08-07 2016-03-08 International Business Machines Corporation Managing GUI control auto-advancing
CN101650615B (zh) 2008-08-13 2011-01-26 怡利电子工业股份有限公司 按压式触控板的光标控制器与键盘的自动切换方法
US8604364B2 (en) 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
KR101537683B1 (ko) * 2008-09-02 2015-07-20 엘지전자 주식회사 휴대 단말기
US8913176B2 (en) 2008-09-05 2014-12-16 Lg Electronics Inc. Mobile terminal and method of performing multi-focusing and photographing image including plurality of objects using the same
JP4636146B2 (ja) 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
KR101505681B1 (ko) 2008-09-05 2015-03-30 엘지전자 주식회사 터치 스크린을 구비한 이동 단말기 및 이를 이용한 이미지 촬상 방법
KR101482125B1 (ko) * 2008-09-09 2015-01-13 엘지전자 주식회사 휴대 단말기 및 그 동작방법
WO2010032402A1 (ja) 2008-09-16 2010-03-25 パナソニック株式会社 データ表示装置、集積回路、データ表示方法、データ表示プログラム及び記録媒体
WO2010032598A1 (ja) 2008-09-17 2010-03-25 日本電気株式会社 入力装置及びその制御方法並びに入力装置を備えた電子機器
US8000694B2 (en) * 2008-09-18 2011-08-16 Apple Inc. Communications device having a commute time function and methods of use thereof
US9041650B2 (en) 2008-09-18 2015-05-26 Apple Inc. Using measurement of lateral force for a tracking input device
US20100070908A1 (en) 2008-09-18 2010-03-18 Sun Microsystems, Inc. System and method for accepting or rejecting suggested text corrections
US8769427B2 (en) 2008-09-19 2014-07-01 Google Inc. Quick gesture input
KR101451667B1 (ko) 2008-09-24 2014-10-16 엘지전자 주식회사 단말기 및 그 제어 방법
CN101685370A (zh) 2008-09-26 2010-03-31 联想(北京)有限公司 一种进行浏览控制的方法、装置及电子设备
US8359547B2 (en) 2008-10-01 2013-01-22 Nintendo Co., Ltd. Movable user interface indicator of at least one parameter that is adjustable with different operations for increasing and decreasing the parameter and/or methods of providing the same
US8462107B2 (en) 2008-10-03 2013-06-11 International Business Machines Corporation Pointing device and method with error prevention features
EP2175344B1 (de) * 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Anzeige der grafischen Benutzerschnittstelle in Abhängigkeit von dem Kontaktmuster des Benutzers
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
US20100088628A1 (en) 2008-10-07 2010-04-08 Sony Ericsson Mobile Communications Ab Live preview of open windows
US20100085314A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited Portable electronic device and method of controlling same
US8245143B2 (en) 2008-10-08 2012-08-14 Research In Motion Limited Method and handheld electronic device having a graphical user interface which arranges icons dynamically
EP2175357B1 (de) 2008-10-08 2012-11-21 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerverfahren dafür
CA2680666A1 (en) 2008-10-08 2010-04-08 Research In Motion Limited An electronic device having a state aware touchscreen
US9395867B2 (en) 2008-10-08 2016-07-19 Blackberry Limited Method and system for displaying an image on an electronic device
KR100941512B1 (ko) 2008-10-15 2010-02-10 (주)엠쓰리모바일 스타일러스 펜
KR100961473B1 (ko) 2008-10-15 2010-06-08 주식회사 케이티 무선 인터넷 브라우저의 웹 페이지 내용을 메시징하는 이동단말 및 그 방법
JP2010097353A (ja) 2008-10-15 2010-04-30 Access Co Ltd 情報端末
KR101510738B1 (ko) 2008-10-20 2015-04-10 삼성전자주식회사 휴대단말의 대기화면 구성 방법 및 장치
KR100902354B1 (ko) * 2008-10-22 2009-06-12 (주)이미지스테크놀로지 직렬 인터페이스를 이용한 진동모터 구동장치
US8497690B2 (en) 2008-10-27 2013-07-30 Microchip Technology Incorporated Automated capacitive touch scan
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
JP5540344B2 (ja) 2008-10-30 2014-07-02 シャープ株式会社 電子機器、メニューの選択方法、メニューの選択プログラム
WO2010051493A2 (en) 2008-10-31 2010-05-06 Nettoons, Inc. Web-based real-time animation visualization, creation, and distribution
CN101727268A (zh) 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
US8704775B2 (en) 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
EP2863289A1 (de) 2008-11-18 2015-04-22 Studer Professional Audio GmbH Eingabevorrichtung und Verfahren zur Detektion einer Benutzereingabe mit einer Eingabevorrichtung
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US20100123686A1 (en) 2008-11-19 2010-05-20 Sony Ericsson Mobile Communications Ab Piezoresistive force sensor integrated in a display
US8788977B2 (en) 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US9116569B2 (en) 2008-11-26 2015-08-25 Blackberry Limited Touch-sensitive display method and apparatus
US20100138776A1 (en) 2008-11-30 2010-06-03 Nokia Corporation Flick-scrolling
US20110221776A1 (en) 2008-12-04 2011-09-15 Mitsuo Shimotani Display input device and navigation device
CN102239069B (zh) 2008-12-04 2014-03-26 三菱电机株式会社 显示输入装置
US20100146507A1 (en) 2008-12-05 2010-06-10 Kang Dong-Oh System and method of delivery of virtual machine using context information
KR20100065640A (ko) 2008-12-08 2010-06-17 삼성전자주식회사 터치스크린의 햅틱 피드백 방법
US8638311B2 (en) 2008-12-08 2014-01-28 Samsung Electronics Co., Ltd. Display device and data displaying method thereof
JP2010165337A (ja) 2008-12-15 2010-07-29 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2010071630A1 (en) 2008-12-15 2010-06-24 Hewlett-Packard Development Company, L.P. Gesture based edit mode
US8711011B2 (en) 2008-12-16 2014-04-29 Dell Products, Lp Systems and methods for implementing pressure sensitive keyboards
US8737800B2 (en) * 2008-12-16 2014-05-27 At&T Intellectual Property I, L.P. System and method to display a progress bar
US9246487B2 (en) 2008-12-16 2016-01-26 Dell Products Lp Keyboard with user configurable granularity scales for pressure sensitive keys
US20100149096A1 (en) 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
KR101352264B1 (ko) 2008-12-18 2014-01-17 엘지디스플레이 주식회사 멀티 터치 감지방법 및 장치
KR101476088B1 (ko) 2008-12-18 2014-12-23 닛본 덴끼 가부시끼가이샤 슬라이드바 디스플레이 제어 장치 및 슬라이드바 디스플레이 제어 방법
US8330732B2 (en) 2008-12-19 2012-12-11 Honeywell International Inc. Method and apparatus for avionic touchscreen operation providing sensible feedback
US8331992B2 (en) 2008-12-19 2012-12-11 Verizon Patent And Licensing Inc. Interactive locked state mobile communication device
US8289286B2 (en) 2008-12-19 2012-10-16 Verizon Patent And Licensing Inc. Zooming keyboard/keypad
US8547342B2 (en) 2008-12-22 2013-10-01 Verizon Patent And Licensing Inc. Gesture-based delivery from mobile device
JP4975722B2 (ja) 2008-12-22 2012-07-11 京セラ株式会社 入力装置および入力装置の制御方法
US8451236B2 (en) 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
US8453057B2 (en) 2008-12-22 2013-05-28 Verizon Patent And Licensing Inc. Stage interaction for mobile device
US20100156823A1 (en) 2008-12-23 2010-06-24 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling same to provide tactile feedback
US8686952B2 (en) 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
EP2202619A1 (de) 2008-12-23 2010-06-30 Research In Motion Limited Tragbare elektronische Vorrichtung, die eine taktile, berührungsempfindliche Eingabevorrichtung enthält, und Verfahren zu deren Steuerung
JP4885938B2 (ja) 2008-12-25 2012-02-29 京セラ株式会社 入力装置
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4683126B2 (ja) 2008-12-26 2011-05-11 ブラザー工業株式会社 入力装置
WO2010077063A2 (ko) 2008-12-30 2010-07-08 엘지전자 주식회사 영상표시기기 및 그 제어 방법
US8219927B2 (en) 2009-01-06 2012-07-10 Microsoft Corporation Revealing of truncated content on scrollable grid
US8446376B2 (en) 2009-01-13 2013-05-21 Microsoft Corporation Visual response to touch inputs
US20100180136A1 (en) 2009-01-15 2010-07-15 Validity Sensors, Inc. Ultra Low Power Wake-On-Event Mode For Biometric Systems
US8378979B2 (en) 2009-01-27 2013-02-19 Amazon Technologies, Inc. Electronic device with haptic feedback
JP2010176174A (ja) 2009-01-27 2010-08-12 Fujifilm Corp 電子機器および電子機器の操作入力制御方法、並びに電子機器の操作入力制御プログラム
JP5173870B2 (ja) 2009-01-28 2013-04-03 京セラ株式会社 入力装置
EP2214087B1 (de) 2009-01-30 2015-07-08 BlackBerry Limited Tragbare elektronische Vorrichtung mit einem Berührungsbildschirm und Verfahren zur Verwendung eines Berührungsbildschirms einer tragbaren elektronischen Vorrichtung
US20100194693A1 (en) 2009-01-30 2010-08-05 Sony Ericsson Mobile Communications Ab Electronic apparatus, method and computer program with adaptable user interface environment
JP5174704B2 (ja) 2009-02-03 2013-04-03 株式会社ゼンリンデータコム 画像処理装置および画像処理方法
JP4723656B2 (ja) 2009-02-03 2011-07-13 京セラ株式会社 入力装置
US9152292B2 (en) 2009-02-05 2015-10-06 Hewlett-Packard Development Company, L.P. Image collage authoring
US9176747B2 (en) 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
WO2010096193A2 (en) 2009-02-18 2010-08-26 Exbiblio B.V. Identifying a document by performing spectral analysis on the contents of the document
US20100214239A1 (en) 2009-02-23 2010-08-26 Compal Electronics, Inc. Method and touch panel for providing tactile feedback
DE102009010277A1 (de) * 2009-02-24 2010-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Eingabevorrichtung und Verfahren zum Bereitstellen eines einer Sensorfeldbelegung zugeordneten Ausgangssignals
JP5734546B2 (ja) 2009-02-25 2015-06-17 京セラ株式会社 オブジェクト表示装置
US20100214135A1 (en) * 2009-02-26 2010-08-26 Microsoft Corporation Dynamic rear-projected user interface
CN101498979B (zh) 2009-02-26 2010-12-29 苏州瀚瑞微电子有限公司 利用电容式触摸屏实现虚拟键盘的方法
KR100993064B1 (ko) 2009-03-02 2010-11-08 주식회사 팬택 터치 스크린 적용 음원 재생 장치에서의 음원 선택 재생 방법
US8077021B2 (en) 2009-03-03 2011-12-13 Empire Technology Development Llc Dynamic tactile interface
JP5157969B2 (ja) 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
JP5267229B2 (ja) 2009-03-09 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
EP2406704A1 (de) 2009-03-12 2012-01-18 Immersion Corporation Systeme und verfahren für eine textur-engine
EP2406702B1 (de) * 2009-03-12 2019-03-06 Immersion Corporation System und verfahren für schnittstellen mit auf der oberfläche basierenden haptischen effekten
US10007340B2 (en) * 2009-03-12 2018-06-26 Immersion Corporation Systems and methods for interfaces featuring surface-based haptic effects
WO2010105244A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Performing actions based on capturing information from rendered documents, such as documents under copyright
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US9262071B2 (en) 2009-03-16 2016-02-16 Microsoft Technology Licensing, Llc Direct manipulation of content
US8510665B2 (en) 2009-03-16 2013-08-13 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US9852761B2 (en) 2009-03-16 2017-12-26 Apple Inc. Device, method, and graphical user interface for editing an audio or video attachment in an electronic message
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
KR101549558B1 (ko) 2009-03-18 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8499243B2 (en) 2009-03-23 2013-07-30 Panasonic Corporation Information processing device, information processing method, recording medium, and integrated circuit
US20100241955A1 (en) 2009-03-23 2010-09-23 Microsoft Corporation Organization and manipulation of content items on a touch-sensitive display
JP5252378B2 (ja) 2009-03-26 2013-07-31 ヤマハ株式会社 ミキサ装置のウィンドウ制御方法、ミキサ装置、およびミキサ装置のウィンドウ制御プログラム
US8355698B2 (en) 2009-03-30 2013-01-15 Microsoft Corporation Unlock screen
US8175653B2 (en) 2009-03-30 2012-05-08 Microsoft Corporation Chromeless user interface
JP4904375B2 (ja) 2009-03-31 2012-03-28 京セラ株式会社 ユーザインタフェース装置及び携帯端末装置
DE102009015991A1 (de) * 2009-04-02 2010-10-07 Pi Ceramic Gmbh Keramische Technologien Und Bauelemente Vorrichtung zur Erzeugung einer haptischen Rückmeldung einer tastenlosen Eingabeeinheit
US8884925B2 (en) 2009-04-05 2014-11-11 Radion Engineering Co. Ltd. Display system and method utilizing optical sensors
US9189124B2 (en) 2009-04-15 2015-11-17 Wyse Technology L.L.C. Custom pointer features for touch-screen on remote client devices
US20100271312A1 (en) 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
WO2010122814A1 (ja) * 2009-04-24 2010-10-28 京セラ株式会社 入力装置
JP5325979B2 (ja) 2009-04-24 2013-10-23 京セラ株式会社 入力装置
KR20100118458A (ko) 2009-04-28 2010-11-05 엘지전자 주식회사 이미지 처리 방법 및 이를 적용한 카메라가 장착된 이동 통신 단말기
US9354795B2 (en) 2009-04-29 2016-05-31 Lenovo (Singapore) Pte. Ltd Refining manual input interpretation on touch surfaces
US8418082B2 (en) 2009-05-01 2013-04-09 Apple Inc. Cross-track edit indicators and edit selections
US8627207B2 (en) * 2009-05-01 2014-01-07 Apple Inc. Presenting an editing tool in a composite display area
US8739055B2 (en) 2009-05-07 2014-05-27 Microsoft Corporation Correction of typographical errors on touch displays
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
US20100293460A1 (en) 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
US8427503B2 (en) 2009-05-18 2013-04-23 Nokia Corporation Method, apparatus and computer program product for creating graphical objects with desired physical features for usage in animation
KR101601040B1 (ko) 2009-05-19 2016-03-09 삼성전자주식회사 휴대 단말기의 화면 표시 방법 및 이를 지원하는 휴대 단말기
KR101640463B1 (ko) * 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
KR101613838B1 (ko) 2009-05-19 2016-05-02 삼성전자주식회사 휴대 단말기의 홈 스크린 지원 방법 및 이를 지원하는 휴대 단말기
US8473862B1 (en) 2009-05-21 2013-06-25 Perceptive Pixel Inc. Organizational tools on a multi-touch display device
US20140078318A1 (en) 2009-05-22 2014-03-20 Motorola Mobility Llc Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
KR101560718B1 (ko) 2009-05-29 2015-10-15 엘지전자 주식회사 이동 단말기 및 이동 단말기에서의 정보 표시 방법
US9148618B2 (en) 2009-05-29 2015-09-29 Apple Inc. Systems and methods for previewing newly captured image content and reviewing previously stored image content
US8549432B2 (en) 2009-05-29 2013-10-01 Apple Inc. Radial menus
KR20100129424A (ko) 2009-06-01 2010-12-09 한국표준과학연구원 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US9372536B2 (en) 2009-06-05 2016-06-21 Empire Technology Development Llc Touch screen with tactile feedback
US9086875B2 (en) 2009-06-05 2015-07-21 Qualcomm Incorporated Controlling power consumption of a mobile device based on gesture recognition
US8681106B2 (en) 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9405456B2 (en) 2009-06-08 2016-08-02 Xerox Corporation Manipulation of displayed objects by virtual magnetism
US8555185B2 (en) 2009-06-08 2013-10-08 Apple Inc. User interface for multiple display regions
US8732592B2 (en) 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
US20100313158A1 (en) 2009-06-08 2010-12-09 Lg Electronics Inc. Method for editing data in mobile terminal and mobile terminal using the same
US8823749B2 (en) 2009-06-10 2014-09-02 Qualcomm Incorporated User interface methods providing continuous zoom functionality
KR101598335B1 (ko) 2009-06-11 2016-02-29 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US9330503B2 (en) 2009-06-19 2016-05-03 Microsoft Technology Licensing, Llc Presaging and surfacing interactivity within data visualizations
US8593415B2 (en) 2009-06-19 2013-11-26 Lg Electronics Inc. Method for processing touch signal in mobile terminal and mobile terminal using the same
CN101609380A (zh) 2009-06-23 2009-12-23 苏州瀚瑞微电子有限公司 一种在触摸屏上文件操作的方法
US9626094B2 (en) 2009-06-26 2017-04-18 Kyocera Corporation Communication device and electronic device
JP5370754B2 (ja) 2009-06-30 2013-12-18 ソニー株式会社 入力装置および入力方法
US20100328229A1 (en) 2009-06-30 2010-12-30 Research In Motion Limited Method and apparatus for providing tactile feedback
JP5531467B2 (ja) 2009-07-03 2014-06-25 ソニー株式会社 撮像装置、および画像処理方法、並びにプログラム
CN105260110A (zh) 2009-07-03 2016-01-20 泰克图斯科技公司 用户界面增强系统
US20110010626A1 (en) 2009-07-09 2011-01-13 Jorge Fino Device and Method for Adjusting a Playback Control with a Finger Gesture
KR101608764B1 (ko) 2009-07-14 2016-04-04 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
WO2011011025A1 (en) 2009-07-24 2011-01-27 Research In Motion Limited Method and apparatus for a touch-sensitive display
JP2011028635A (ja) 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
JP5197521B2 (ja) 2009-07-29 2013-05-15 京セラ株式会社 入力装置
US9244562B1 (en) 2009-07-31 2016-01-26 Amazon Technologies, Inc. Gestures and touches on force-sensitive input devices
KR101276749B1 (ko) 2009-08-03 2013-06-19 엘지디스플레이 주식회사 전기영동 표시장치 및 그 제조 방법
CN101630230A (zh) 2009-08-04 2010-01-20 苏州瀚瑞微电子有限公司 感应量控制缩放倍率的方法
JP5398408B2 (ja) 2009-08-07 2014-01-29 オリンパスイメージング株式会社 カメラ、カメラの制御方法、表示制御装置、および表示制御方法
KR101608532B1 (ko) 2009-08-11 2016-04-01 엘지전자 주식회사 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기
US20110039602A1 (en) 2009-08-13 2011-02-17 Mcnamara Justin Methods And Systems For Interacting With Content On A Mobile Device
US8243983B2 (en) 2009-08-14 2012-08-14 Microsoft Corporation Graphically encoded data copy and paste
US20110037706A1 (en) 2009-08-14 2011-02-17 Research In Motion Limited Electronic device including tactile touch-sensitive input device and method of controlling same
US8434153B2 (en) 2009-08-24 2013-04-30 Microsoft Corporation Application display on a locked device
JP2011048023A (ja) * 2009-08-25 2011-03-10 Pioneer Electronic Corp 体感振動生成装置および体感振動生成方法
US20110055135A1 (en) 2009-08-26 2011-03-03 International Business Machines Corporation Deferred Teleportation or Relocation in Virtual Worlds
US20110070342A1 (en) 2009-08-26 2011-03-24 Wilkens Patrick J Method for evaluating and orientating baked product
JP2011048669A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
JP2011048686A (ja) 2009-08-27 2011-03-10 Kyocera Corp 入力装置
US8363020B2 (en) 2009-08-27 2013-01-29 Symbol Technologies, Inc. Methods and apparatus for pressure-based manipulation of content on a touch screen
JP5310389B2 (ja) 2009-08-27 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP5304544B2 (ja) 2009-08-28 2013-10-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8390583B2 (en) 2009-08-31 2013-03-05 Qualcomm Incorporated Pressure sensitive user interface for mobile devices
JP5267388B2 (ja) 2009-08-31 2013-08-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5593655B2 (ja) 2009-08-31 2014-09-24 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20110023977A (ko) 2009-09-01 2011-03-09 삼성전자주식회사 휴대단말기의 위젯 관리 방법 및 장치
JP2011053974A (ja) 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP2011053971A (ja) 2009-09-02 2011-03-17 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5310403B2 (ja) 2009-09-02 2013-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9262063B2 (en) 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
JP5709871B2 (ja) 2009-09-02 2015-04-30 アマゾン テクノロジーズ インコーポレイテッド タッチスクリーンユーザインターフェース
JP5182260B2 (ja) 2009-09-02 2013-04-17 ソニー株式会社 操作制御装置、操作制御方法およびコンピュータプログラム
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
TW201109990A (en) 2009-09-04 2011-03-16 Higgstec Inc Touch gesture detecting method of a touch panel
KR101150545B1 (ko) 2009-09-07 2012-06-11 주식회사 팬택앤큐리텔 이동통신단말기 및 그것의 화면 전환 방법
JP5278259B2 (ja) 2009-09-07 2013-09-04 ソニー株式会社 入力装置、入力方法及びプログラム
KR101691823B1 (ko) 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
EP2302496A1 (de) 2009-09-10 2011-03-30 Research In Motion Limited Dynamische Sortierung von Identifikator in einer berührungsempfindlichen Anzeige
US20110057886A1 (en) 2009-09-10 2011-03-10 Oliver Ng Dynamic sizing of identifier on a touch-sensitive display
KR20110028834A (ko) 2009-09-14 2011-03-22 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 터치 압력을 이용한 사용자 인터페이스 제공 방법 및 장치
JP5218353B2 (ja) 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
EP3260969B1 (de) 2009-09-22 2021-03-03 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten
US8264471B2 (en) 2009-09-22 2012-09-11 Sony Mobile Communications Ab Miniature character input mechanism
JP5393377B2 (ja) 2009-09-25 2014-01-22 京セラ株式会社 入力装置
US8421762B2 (en) * 2009-09-25 2013-04-16 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US8970507B2 (en) 2009-10-02 2015-03-03 Blackberry Limited Method of waking up and a portable electronic device configured to perform the same
US8780055B2 (en) 2009-10-02 2014-07-15 Blackberry Limited Low power wakeup detection circuit and a portable electronic device having a low power wakeup detection circuit
US8436806B2 (en) 2009-10-02 2013-05-07 Research In Motion Limited Method of synchronizing data acquisition and a portable electronic device configured to perform the same
US9141260B2 (en) 2009-10-08 2015-09-22 Red Hat, Inc. Workspace management tool
US20110084910A1 (en) 2009-10-13 2011-04-14 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
KR101092592B1 (ko) 2009-10-14 2011-12-13 주식회사 팬택 이동통신단말기 및 이의 터치 인터페이스 제공 방법
US10068728B2 (en) 2009-10-15 2018-09-04 Synaptics Incorporated Touchpad with capacitive force sensing
CA2680602C (en) 2009-10-19 2011-07-26 Ibm Canada Limited - Ibm Canada Limitee System and method for generating and displaying hybrid context menus
KR20110047349A (ko) 2009-10-30 2011-05-09 주식회사 팬택 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법
US20110102829A1 (en) * 2009-10-30 2011-05-05 Jourdan Arlene T Image size warning
US8677284B2 (en) 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
JP5328611B2 (ja) 2009-11-05 2013-10-30 シャープ株式会社 携帯情報端末
US20110109617A1 (en) 2009-11-12 2011-05-12 Microsoft Corporation Visualizing Depth
KR101725888B1 (ko) 2009-11-13 2017-04-13 삼성전자주식회사 카메라 또는 원격 제어 장치에서의 이미지 제공 방법 및 그 장치
JP2011107823A (ja) 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
WO2011060382A1 (en) 2009-11-13 2011-05-19 Google Inc. Live wallpaper
KR101611440B1 (ko) 2009-11-16 2016-04-11 삼성전자주식회사 이미지 처리 방법 및 장치
US8665227B2 (en) 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US8432367B2 (en) 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
KR101620058B1 (ko) 2009-11-23 2016-05-24 삼성전자주식회사 가상 머신 간 화면 전환 장치 및 방법
KR101073309B1 (ko) 2009-11-24 2011-10-12 삼성모바일디스플레이주식회사 터치 스크린 시스템 및 그 구동방법
US8799816B2 (en) 2009-12-07 2014-08-05 Motorola Mobility Llc Display interface and method for displaying multiple items arranged in a sequence
US9268466B2 (en) 2009-12-09 2016-02-23 Citrix Systems, Inc. Methods and systems for updating a dock with a user interface element representative of a remote application
US8633916B2 (en) 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
US9557735B2 (en) 2009-12-10 2017-01-31 Fisher-Rosemount Systems, Inc. Methods and apparatus to manage process control status rollups
JP5490508B2 (ja) * 2009-12-11 2014-05-14 京セラ株式会社 タッチセンサを有する装置、触感呈示方法及び触感呈示プログラム
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US8381125B2 (en) 2009-12-16 2013-02-19 Apple Inc. Device and method for resizing user interface content while maintaining an aspect ratio via snapping a perimeter to a gridline
US20110154199A1 (en) * 2009-12-17 2011-06-23 Flying Car Ltd. Method of Playing An Enriched Audio File
GB2490272B (en) 2009-12-21 2014-08-06 Promethean Ltd Multi-point contacts with pressure data on an interactive surface
US8274592B2 (en) 2009-12-22 2012-09-25 Eastman Kodak Company Variable rate browsing of an image collection
KR20110074024A (ko) 2009-12-24 2011-06-30 삼성전자주식회사 멀티미디어 기기
US8862576B2 (en) 2010-01-06 2014-10-14 Apple Inc. Device, method, and graphical user interface for mapping directions between search results
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
US8793611B2 (en) 2010-01-06 2014-07-29 Apple Inc. Device, method, and graphical user interface for manipulating selectable user interface objects
US8698845B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface with interactive popup views
US8525839B2 (en) 2010-01-06 2013-09-03 Apple Inc. Device, method, and graphical user interface for providing digital content products
US20110167339A1 (en) 2010-01-06 2011-07-07 Lemay Stephen O Device, Method, and Graphical User Interface for Attachment Viewing and Editing
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8510677B2 (en) 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
KR101616875B1 (ko) * 2010-01-07 2016-05-02 삼성전자주식회사 터치 패널 및 이를 구비한 전자기기
US9053098B2 (en) 2010-01-14 2015-06-09 Abbyy Development Llc Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense
US20110175826A1 (en) 2010-01-15 2011-07-21 Bradford Allen Moore Automatically Displaying and Hiding an On-screen Keyboard
US9715332B1 (en) 2010-08-26 2017-07-25 Cypress Lake Software, Inc. Methods, systems, and computer program products for navigating between visual components
JP2011170834A (ja) 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
JP5636678B2 (ja) 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US10007393B2 (en) 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
US20110179381A1 (en) 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US8914732B2 (en) 2010-01-22 2014-12-16 Lg Electronics Inc. Displaying home screen profiles on a mobile terminal
KR101319264B1 (ko) 2010-01-22 2013-10-18 전자부품연구원 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
US20110181521A1 (en) * 2010-01-26 2011-07-28 Apple Inc. Techniques for controlling z-ordering in a user interface
JP2011176794A (ja) 2010-01-26 2011-09-08 Canon Inc 撮像装置及び撮像方法
US8683363B2 (en) 2010-01-26 2014-03-25 Apple Inc. Device, method, and graphical user interface for managing user interface content and user interface elements
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
JP5489118B2 (ja) 2010-01-28 2014-05-14 健治 吉田 入出力装置、情報入出力システム
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20110185299A1 (en) 2010-01-28 2011-07-28 Microsoft Corporation Stamp Gestures
US10397639B1 (en) * 2010-01-29 2019-08-27 Sitting Man, Llc Hot key systems and methods
US20110191675A1 (en) * 2010-02-01 2011-08-04 Nokia Corporation Sliding input user interface
US8988367B2 (en) 2010-02-05 2015-03-24 Broadcom Corporation Systems and methods for providing enhanced touch sensing
US20110193881A1 (en) 2010-02-05 2011-08-11 Sony Ericsson Mobile Communications Ab Regulation of navigation speed among displayed items and tilt angle thereof responsive to user applied pressure
US8839150B2 (en) 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
KR101673918B1 (ko) 2010-02-11 2016-11-09 삼성전자주식회사 휴대단말에서 복수의 정보들을 제공하는 방법 및 장치
US8782556B2 (en) 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
US9417787B2 (en) 2010-02-12 2016-08-16 Microsoft Technology Licensing, Llc Distortion effects to indicate location in a movable data collection
KR101690786B1 (ko) 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
EP2362615A1 (de) 2010-02-15 2011-08-31 Research In Motion Limited Methode, Programm und System zur Darstellung eines Kontakt-Ikons und des entsprechenden Status des Kontakts auf einen oder mehrere Kommunikationsdienste in einer Anzeige eines mobilen Kommunikationsgeräts
CA2731772C (en) 2010-02-15 2014-08-12 Research In Motion Limited Graphical context short menu
JP2011170538A (ja) 2010-02-17 2011-09-01 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2011197848A (ja) 2010-03-18 2011-10-06 Rohm Co Ltd タッチパネル入力装置
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
EP2360507B1 (de) 2010-02-22 2014-11-05 DST Innovations Limited Anzeigeelemente
KR20120137371A (ko) 2010-02-23 2012-12-20 쿄세라 코포레이션 전자 기기
US20130328770A1 (en) 2010-02-23 2013-12-12 Muv Interactive Ltd. System for projecting content to a display surface having user-controlled size, shape and location/direction and apparatus and methods useful in conjunction therewith
US8751970B2 (en) 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US9535500B2 (en) * 2010-03-01 2017-01-03 Blackberry Limited Method of providing tactile feedback and apparatus
EP2363790A1 (de) * 2010-03-01 2011-09-07 Research In Motion Limited Procédé pour fournir une réponse tactile et appareil
US9361018B2 (en) * 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
KR101161943B1 (ko) 2010-03-04 2012-07-04 삼성전기주식회사 햅틱 피드백 디바이스 및 전자 장치
JP5413250B2 (ja) 2010-03-05 2014-02-12 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8941600B2 (en) 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
US20110221684A1 (en) 2010-03-11 2011-09-15 Sony Ericsson Mobile Communications Ab Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
JP2011192215A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
JP2011192179A (ja) 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
CN101840299A (zh) 2010-03-18 2010-09-22 华为终端有限公司 一种触摸操作方法、装置和移动终端
WO2011114630A1 (ja) 2010-03-18 2011-09-22 京セラ株式会社 電子機器
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US8884913B2 (en) 2010-03-19 2014-11-11 Smart Skin Technologies Systems and methods for determining the location and pressure of a touchload applied to a touchpad
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US9383887B1 (en) 2010-03-26 2016-07-05 Open Invention Network Llc Method and apparatus of providing a customized user interface
US9990062B2 (en) 2010-03-26 2018-06-05 Nokia Technologies Oy Apparatus and method for proximity based input
US8725706B2 (en) 2010-03-26 2014-05-13 Nokia Corporation Method and apparatus for multi-item searching
US20130021288A1 (en) 2010-03-31 2013-01-24 Nokia Corporation Apparatuses, Methods and Computer Programs for a Virtual Stylus
US8996901B2 (en) 2010-03-31 2015-03-31 Lenovo (Singapore) Pte. Ltd. Power management of electronic device with display
US8826184B2 (en) 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
JP2011221640A (ja) 2010-04-06 2011-11-04 Sony Corp 情報処理装置、情報処理方法およびプログラム
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8423911B2 (en) 2010-04-07 2013-04-16 Apple Inc. Device, method, and graphical user interface for managing folders
US9823831B2 (en) 2010-04-07 2017-11-21 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US8291344B2 (en) 2010-04-07 2012-10-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US20110248930A1 (en) 2010-04-08 2011-10-13 Research In Motion Limited Portable electronic device and method of controlling same to provide tactile feedback
US9417695B2 (en) 2010-04-08 2016-08-16 Blackberry Limited Tactile feedback method and apparatus
EP2375309A1 (de) 2010-04-08 2011-10-12 Research in Motion Limited Tragbare elektronische Vorrichtung mit lokalisierten Verzögerungen für taktile Rückmeldung
US20110248948A1 (en) * 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
EP2375314A1 (de) 2010-04-08 2011-10-12 Research in Motion Limited Berührungsempfindlichen Vorrichtung und Steuerungsverfahren
JP5459031B2 (ja) 2010-04-13 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP2378406B1 (de) 2010-04-13 2018-08-22 LG Electronics Inc. Tragbares Endgerät und Verfahren zur Steuerung des Betriebs des tragbaren Endgeräts
US9026932B1 (en) 2010-04-16 2015-05-05 Amazon Technologies, Inc. Edge navigation user interface
KR101668240B1 (ko) 2010-04-19 2016-10-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9285988B2 (en) 2010-04-20 2016-03-15 Blackberry Limited Portable electronic device having touch-sensitive display with variable repeat rate
KR101704531B1 (ko) 2010-04-22 2017-02-08 삼성전자주식회사 휴대 단말기의 텍스트 정보 표시 방법 및 장치
JP2011242386A (ja) * 2010-04-23 2011-12-01 Immersion Corp 接触センサと触覚アクチュエータとの透明複合圧電材結合体
US8631350B2 (en) 2010-04-23 2014-01-14 Blackberry Limited Graphical context short menu
US9134897B2 (en) 2010-04-26 2015-09-15 Via Technologies, Inc. Electronic system and method for operating touch screen thereof
JP2011232947A (ja) 2010-04-27 2011-11-17 Lenovo Singapore Pte Ltd 情報処理装置、そのウィンドウ表示方法、およびコンピュータが実行可能なプログラム
JP2011238125A (ja) 2010-05-12 2011-11-24 Sony Corp 画像処理装置および方法、並びにプログラム
US8451255B2 (en) * 2010-05-14 2013-05-28 Arnett Ryan Weber Method of providing tactile feedback and electronic device
US8466889B2 (en) 2010-05-14 2013-06-18 Research In Motion Limited Method of providing tactile feedback and electronic device
EP2386935B1 (de) * 2010-05-14 2015-02-11 BlackBerry Limited Verfahren zur Bereitstellung taktiler Rückmeldung und elektronischen Vorrichtung
US20110285656A1 (en) 2010-05-19 2011-11-24 Google Inc. Sliding Motion To Change Computer Keys
US20110296333A1 (en) 2010-05-25 2011-12-01 Bateman Steven S User interaction gestures with virtual keyboard
JP4983961B2 (ja) 2010-05-25 2012-07-25 株式会社ニコン 撮像装置
US20110296351A1 (en) 2010-05-26 2011-12-01 T-Mobile Usa, Inc. User Interface with Z-axis Interaction and Multiple Stacks
US8860672B2 (en) 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
US20130120280A1 (en) 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Interoperability of Gesture Recognizers
WO2011148884A1 (ja) 2010-05-28 2011-12-01 楽天株式会社 コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムが記録された記録媒体
US8669946B2 (en) 2010-05-28 2014-03-11 Blackberry Limited Electronic device including touch-sensitive display and method of controlling same
KR101626301B1 (ko) 2010-05-28 2016-06-01 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
EP2390772A1 (de) 2010-05-31 2011-11-30 Sony Ericsson Mobile Communications AB Benutzerschnittstelle mit dreidimensionaler Benutzereingabe
CN102939578A (zh) 2010-06-01 2013-02-20 诺基亚公司 用于接收用户输入的方法、设备和系统
JP2011257941A (ja) 2010-06-08 2011-12-22 Panasonic Corp 文字入力装置、文字装飾方法、及び文字装飾プログラム
US9329767B1 (en) 2010-06-08 2016-05-03 Google Inc. User-specific customization based on characteristics of user-interaction
US20120089951A1 (en) 2010-06-10 2012-04-12 Cricket Communications, Inc. Method and apparatus for navigation within a multi-level application
US20110307778A1 (en) 2010-06-10 2011-12-15 Acer Incorporated Mobile electronic apparatus and method of switching application programs thereof
US20110304559A1 (en) 2010-06-11 2011-12-15 Research In Motion Limited Portable electronic device including touch-sensitive display and method of changing tactile feedback
US20110304577A1 (en) 2010-06-11 2011-12-15 Sp Controls, Inc. Capacitive touch screen stylus
WO2011158054A1 (en) 2010-06-14 2011-12-22 Sony Ericsson Mobile Communications Ab Regulation of audio volume and/or speed responsive to user applied pressure and related methods
US20110319136A1 (en) 2010-06-23 2011-12-29 Motorola, Inc. Method of a Wireless Communication Device for Managing Status Components for Global Call Control
US8477109B1 (en) 2010-06-24 2013-07-02 Amazon Technologies, Inc. Surfacing reference work entries on touch-sensitive displays
US8542205B1 (en) 2010-06-24 2013-09-24 Amazon Technologies, Inc. Refining search results based on touch gestures
KR20120002727A (ko) 2010-07-01 2012-01-09 주식회사 팬택 3d ui 표시 장치
US20120001856A1 (en) 2010-07-02 2012-01-05 Nokia Corporation Responding to tactile inputs
GB201011146D0 (en) 2010-07-02 2010-08-18 Vodafone Ip Licensing Ltd Mobile computing device
US8972903B2 (en) 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
JP5589625B2 (ja) 2010-07-08 2014-09-17 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5659586B2 (ja) * 2010-07-09 2015-01-28 ソニー株式会社 表示制御装置および表示制御方法、表示制御プログラム、記録媒体
US20120013541A1 (en) 2010-07-14 2012-01-19 Research In Motion Limited Portable electronic device and method of controlling same
US20120013542A1 (en) 2010-07-16 2012-01-19 Research In Motion Limited Portable electronic device and method of determining a location of a touch
US8854316B2 (en) 2010-07-16 2014-10-07 Blackberry Limited Portable electronic device with a touch-sensitive display and navigation device and method
KR20120009564A (ko) 2010-07-19 2012-02-02 삼성전자주식회사 3차원 마우스 포인터 생성방법 및 생성장치
EP2410413B1 (de) 2010-07-19 2018-12-12 Telefonaktiebolaget LM Ericsson (publ) Verfahren, Vorrichtung und Computerprogramm zur Texteingabe
US20120019448A1 (en) 2010-07-22 2012-01-26 Nokia Corporation User Interface with Touch Pressure Level Sensing
JP5529663B2 (ja) 2010-07-28 2014-06-25 京セラ株式会社 入力装置
JP2012027875A (ja) 2010-07-28 2012-02-09 Sony Corp 電子機器、処理方法及びプログラム
JP5494337B2 (ja) 2010-07-30 2014-05-14 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8799815B2 (en) 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
US8402533B2 (en) 2010-08-06 2013-03-19 Google Inc. Input to locked computing device
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US9756163B2 (en) 2010-08-09 2017-09-05 Intelligent Mechatronic Systems, Inc. Interface between mobile device and computing device
US8698765B1 (en) 2010-08-17 2014-04-15 Amazon Technologies, Inc. Associating concepts within content items
JP5625612B2 (ja) 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
US8576184B2 (en) 2010-08-19 2013-11-05 Nokia Corporation Method and apparatus for browsing content files
JP5510185B2 (ja) 2010-08-20 2014-06-04 ソニー株式会社 情報処理装置、プログラム及び表示制御方法
JP5573487B2 (ja) 2010-08-20 2014-08-20 ソニー株式会社 情報処理装置、プログラム及び操作制御方法
US8751838B2 (en) 2010-08-23 2014-06-10 Nokia Corporation Method, apparatus and computer program product for presentation of information in a low power mode
JP2011048832A (ja) * 2010-08-27 2011-03-10 Kyocera Corp 入力装置
JP5813301B2 (ja) 2010-09-01 2015-11-17 京セラ株式会社 表示装置
JP5732783B2 (ja) 2010-09-02 2015-06-10 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20120060123A1 (en) 2010-09-03 2012-03-08 Hugh Smith Systems and methods for deterministic control of instant-on mobile devices with touch screens
US8954427B2 (en) 2010-09-07 2015-02-10 Google Inc. Search result previews
KR101739054B1 (ko) 2010-09-08 2017-05-24 삼성전자주식회사 디바이스상의 움직임 제어 방법 및 장치
US8593534B2 (en) 2010-09-08 2013-11-26 Apple Inc. Auto-triggered camera self-timer based on recognition of subject's presence in scene
US20120062470A1 (en) 2010-09-10 2012-03-15 Chang Ray L Power Management
US10645344B2 (en) * 2010-09-10 2020-05-05 Avigilion Analytics Corporation Video system with intelligent visual display
US20120066648A1 (en) 2010-09-14 2012-03-15 Xerox Corporation Move and turn touch screen interface for manipulating objects in a 3d scene
US8751951B2 (en) 2010-09-15 2014-06-10 International Business Machines Corporation Controlling computer-based instances
US9164670B2 (en) 2010-09-15 2015-10-20 Microsoft Technology Licensing, Llc Flexible touch-based scrolling
JP6049990B2 (ja) 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
KR101657122B1 (ko) 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US8311514B2 (en) 2010-09-16 2012-11-13 Microsoft Corporation Prevention of accidental device activation
EP2431870B1 (de) 2010-09-17 2019-11-27 LG Electronics Inc. Mobiles Endgerät und Steuerungsverfahren dafür
GB201015720D0 (en) 2010-09-20 2010-10-27 Gammons Richard Findability of data elements
US20120154303A1 (en) 2010-09-24 2012-06-21 Research In Motion Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
KR20130005296A (ko) 2010-09-24 2013-01-15 큐엔엑스 소프트웨어 시스템즈 리미티드 휴대용 전자 디바이스 및 그 제어 방법
JP5959797B2 (ja) 2010-09-28 2016-08-02 京セラ株式会社 入力装置及び入力装置の制御方法
US9030419B1 (en) 2010-09-28 2015-05-12 Amazon Technologies, Inc. Touch and force user interface navigation
JP5725533B2 (ja) 2010-09-29 2015-05-27 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置および入力方法
US9323442B2 (en) 2010-09-30 2016-04-26 Apple Inc. Managing items in a user interface
US8817053B2 (en) 2010-09-30 2014-08-26 Apple Inc. Methods and systems for opening a file
KR101685991B1 (ko) 2010-09-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20120084644A1 (en) 2010-09-30 2012-04-05 Julien Robert Content preview
US8713474B2 (en) 2010-10-05 2014-04-29 Citrix Systems, Inc. Providing user interfaces and window previews for hosted applications
EP2447818A1 (de) 2010-10-07 2012-05-02 Research in Motion Limited Verfahren und tragbares elektronisches Gerät zur Textdarstellung
US20120089942A1 (en) 2010-10-07 2012-04-12 Research In Motion Limited Method and portable electronic device for presenting text
JP5664103B2 (ja) 2010-10-08 2015-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP5751934B2 (ja) 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
KR20130052743A (ko) 2010-10-15 2013-05-23 삼성전자주식회사 항목 선택 방법
KR101726607B1 (ko) 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US20120092381A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Snapping User Interface Elements Based On Touch Input
US9043732B2 (en) 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US20120102437A1 (en) 2010-10-22 2012-04-26 Microsoft Corporation Notification Group Touch Gesture Dismissal Techniques
JP5710934B2 (ja) 2010-10-25 2015-04-30 シャープ株式会社 コンテンツ表示装置、およびコンテンツ表示方法
US8706172B2 (en) 2010-10-26 2014-04-22 Miscrosoft Corporation Energy efficient continuous sensing for communications devices
US8655085B2 (en) 2010-10-28 2014-02-18 Microsoft Corporation Burst mode image compression and decompression
US20120105367A1 (en) * 2010-11-01 2012-05-03 Impress Inc. Methods of using tactile force sensing for intuitive user interface
US9262002B2 (en) * 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9141285B2 (en) 2010-11-05 2015-09-22 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US9760241B1 (en) 2010-11-05 2017-09-12 Amazon Technologies, Inc. Tactile interaction with content
EP2638450A1 (de) 2010-11-09 2013-09-18 Koninklijke Philips Electronics N.V. Benutzerschnittstelle mit haptischem feedback
EP2641156A1 (de) 2010-11-18 2013-09-25 Google, Inc. Anzeige von bildschirmexternen sichtbaren objekten
US9645722B1 (en) 2010-11-19 2017-05-09 A9.Com, Inc. Preview search results
JP5719205B2 (ja) 2010-11-22 2015-05-13 シャープ株式会社 電子機器および表示制御方法
US8560960B2 (en) 2010-11-23 2013-10-15 Apple Inc. Browsing and interacting with open windows
US9069452B2 (en) 2010-12-01 2015-06-30 Apple Inc. Morphing a user-interface control object
JP2012118825A (ja) 2010-12-01 2012-06-21 Fujitsu Ten Ltd 表示装置
US10503255B2 (en) 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
US9223445B2 (en) 2010-12-02 2015-12-29 Atmel Corporation Position-sensing and force detection panel
JP5700783B2 (ja) 2010-12-07 2015-04-15 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US9223461B1 (en) 2010-12-08 2015-12-29 Wendell Brown Graphical user interface
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
AU2011349513B2 (en) 2010-12-20 2015-04-02 Apple Inc. Event recognition
US9223471B2 (en) 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
KR101701852B1 (ko) 2010-12-29 2017-02-13 엘지전자 주식회사 이동단말기 및 그 제어방법
US9354804B2 (en) 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device
JP5698529B2 (ja) 2010-12-29 2015-04-08 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
TW201227393A (en) 2010-12-31 2012-07-01 Acer Inc Method for unlocking screen and executing application program
KR101788051B1 (ko) 2011-01-04 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20120179967A1 (en) 2011-01-06 2012-07-12 Tivo Inc. Method and Apparatus for Gesture-Based Controls
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US20120180001A1 (en) 2011-01-06 2012-07-12 Research In Motion Limited Electronic device and method of controlling same
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR101892630B1 (ko) 2011-01-10 2018-08-28 삼성전자주식회사 터치 디스플레이 장치 및 그 디스플레이 방법
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US8713471B1 (en) 2011-01-14 2014-04-29 Intuit Inc. Method and system for providing an intelligent visual scrollbar position indicator
US20120183271A1 (en) * 2011-01-17 2012-07-19 Qualcomm Incorporated Pressure-based video recording
US9519418B2 (en) 2011-01-18 2016-12-13 Nokia Technologies Oy Method and apparatus for providing a multi-stage device transition mechanism initiated based on a touch gesture
US9582144B2 (en) 2011-01-20 2017-02-28 Blackberry Limited Three-dimensional, multi-depth presentation of icons associated with a user interface
US20120192108A1 (en) 2011-01-26 2012-07-26 Google Inc. Gesture-based menu controls
US20120218203A1 (en) 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
JP5537458B2 (ja) 2011-02-10 2014-07-02 シャープ株式会社 タッチ入力可能な画像表示装置、表示装置の制御装置、及びコンピュータプログラム
KR101802522B1 (ko) 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
WO2012108213A1 (ja) 2011-02-10 2012-08-16 京セラ株式会社 入力装置
EP3734407A1 (de) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Tragbare vorrichtung mit einer berührungsbildschirmanzeige und verfahren zur steuerung davon
JP5452739B2 (ja) 2011-02-10 2014-03-26 京セラ株式会社 入力装置
US8780140B2 (en) 2011-02-16 2014-07-15 Sony Corporation Variable display scale control device and variable playing speed control device
US8756503B2 (en) 2011-02-21 2014-06-17 Xerox Corporation Query generation from displayed text documents using virtual magnets
US9727177B2 (en) 2011-02-23 2017-08-08 Kyocera Corporation Electronic device with a touch sensor
US8593420B1 (en) 2011-03-04 2013-11-26 Amazon Technologies, Inc. Providing tactile output and interaction
EP2686758B1 (de) 2011-03-17 2020-09-30 Laubach, Kevin Eingabevorrichtung mit verbesserter benutzeroberfläche
US8479110B2 (en) 2011-03-20 2013-07-02 William J. Johnson System and method for summoning user interface objects
US20120242584A1 (en) * 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
WO2012128361A1 (ja) 2011-03-23 2012-09-27 京セラ株式会社 電子機器、操作制御方法および操作制御プログラム
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US11580155B2 (en) 2011-03-28 2023-02-14 Kodak Alaris Inc. Display device for displaying related digital images
US9220062B2 (en) 2011-03-30 2015-12-22 Nokia Technologies Oy Method and apparatus for low-power browsing
US20120256857A1 (en) 2011-04-05 2012-10-11 Mak Genevieve Elizabeth Electronic device and method of controlling same
US20120256846A1 (en) 2011-04-05 2012-10-11 Research In Motion Limited Electronic device and method of controlling same
EP2508972B1 (de) 2011-04-05 2017-10-18 2236008 Ontario Inc. Tragbare elektronische Vorrichtung und Kontrollverfahren dafür
US8872773B2 (en) 2011-04-05 2014-10-28 Blackberry Limited Electronic device and method of controlling same
US8736716B2 (en) 2011-04-06 2014-05-27 Apple Inc. Digital camera having variable duration burst mode
KR101772979B1 (ko) 2011-04-06 2017-08-31 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
JPWO2012137946A1 (ja) 2011-04-06 2014-07-28 京セラ株式会社 電子機器、操作制御方法および操作制御プログラム
US20120260219A1 (en) 2011-04-08 2012-10-11 Piccolotto Jose P Method of cursor control
CN102752441A (zh) 2011-04-22 2012-10-24 比亚迪股份有限公司 一种具有触控屏的移动终端及其控制方法
US20120274578A1 (en) 2011-04-26 2012-11-01 Research In Motion Limited Electronic device and method of controlling same
GB201107273D0 (en) 2011-04-28 2011-06-15 Inq Entpr Ltd Application control in electronic devices
US9110556B2 (en) 2011-04-28 2015-08-18 Nokia Technologies Oy Method and apparatus for increasing the functionality of an electronic device in a locked state
US10222974B2 (en) 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
WO2012153555A1 (ja) 2011-05-12 2012-11-15 アルプス電気株式会社 入力装置及び前記入力装置を用いた複数点の荷重検出方法
JP2012236166A (ja) * 2011-05-12 2012-12-06 Mitsubishi Heavy Ind Ltd Co2回収装置およびco2回収方法
US9152288B2 (en) 2011-05-19 2015-10-06 Microsoft Technology Licensing, Llc Remote multi-touch
US8952987B2 (en) 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
CN103649936B (zh) 2011-05-20 2016-03-16 西里克斯系统公司 在移动设备上针对在服务器上远程执行的应用的外壳集成
CN103999028B (zh) 2011-05-23 2018-05-15 微软技术许可有限责任公司 不可见控件
WO2012162399A2 (en) 2011-05-23 2012-11-29 Visible Market Inc. Dynamic visual statistical data display and navigation system and method for limited display device
KR101240406B1 (ko) 2011-05-24 2013-03-11 주식회사 미성포리테크 힘센서를 이용한 휴대형 정보통신 단말기의 프로그램 동작 제어 방법
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US10180722B2 (en) * 2011-05-27 2019-01-15 Honeywell International Inc. Aircraft user interfaces with multi-mode haptics
US9798408B2 (en) 2011-05-27 2017-10-24 Kyocera Corporation Electronic device
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
KR101802759B1 (ko) 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US9032338B2 (en) 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US9244605B2 (en) 2011-05-31 2016-01-26 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
KR101290145B1 (ko) * 2011-05-31 2013-07-26 삼성전자주식회사 터치 스크린 제어 방법 및 장치, 컴퓨터에 의해 독출될 수 있는 기록 매체, 그리고 단말장치
US8508494B2 (en) 2011-06-01 2013-08-13 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US8587542B2 (en) 2011-06-01 2013-11-19 Motorola Mobility Llc Using pressure differences with a touch-sensitive display screen
US9310958B2 (en) 2011-06-02 2016-04-12 Lenovo (Singapore) Pte. Ltd. Dock for favorite applications
KR101838260B1 (ko) 2011-06-03 2018-03-13 구글 엘엘씨 텍스트를 선택하기 위한 제스처들
US20120311504A1 (en) 2011-06-03 2012-12-06 Van Os Marcel Extensible architecture for navigating a hierarchy
US9383820B2 (en) 2011-06-03 2016-07-05 Apple Inc. Custom vibration patterns
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
US8661337B2 (en) 2011-06-05 2014-02-25 Apple Inc. Techniques for use of snapshots with browsing transitions
US8823813B2 (en) 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
WO2012169176A1 (ja) 2011-06-07 2012-12-13 パナソニック株式会社 電子機器
KR20120135723A (ko) 2011-06-07 2012-12-17 김연수 터치패널 타입의 신호입력장치
CN102819331B (zh) 2011-06-07 2016-03-02 联想(北京)有限公司 移动终端及其触摸输入方法
US20140123080A1 (en) 2011-06-07 2014-05-01 Beijing Lenovo Software Ltd. Electrical Device, Touch Input Method And Control Method
US20120313847A1 (en) 2011-06-09 2012-12-13 Nokia Corporation Method and apparatus for contextual gesture recognition
US8830188B2 (en) 2011-06-21 2014-09-09 Microsoft Corporation Infrastructural haptics on wall scale interactive displays
TWI431516B (zh) 2011-06-21 2014-03-21 Quanta Comp Inc 觸覺回饋方法及其電子裝置
US9304668B2 (en) 2011-06-28 2016-04-05 Nokia Technologies Oy Method and apparatus for customizing a display screen of a user interface
US8932412B2 (en) 2011-06-29 2015-01-13 Whirlpool Corporation Method and apparatus for an appliance with a power saving mode
US20130135243A1 (en) 2011-06-29 2013-05-30 Research In Motion Limited Character preview method and apparatus
KR101560308B1 (ko) 2011-07-04 2015-10-14 후아웨이 디바이스 컴퍼니 리미티드 가상 필기 입력을 위한 방법 및 전자 장치
US20130014057A1 (en) 2011-07-07 2013-01-10 Thermal Matrix USA, Inc. Composite control for a graphical user interface
US9720587B2 (en) 2011-07-11 2017-08-01 Kddi Corporation User interface device enabling input motions by finger touch in different modes, and method and program for recognizing input motion
US9158455B2 (en) * 2011-07-12 2015-10-13 Apple Inc. Multifunctional environment for image cropping
JP5325943B2 (ja) 2011-07-12 2013-10-23 富士フイルム株式会社 情報処理装置、情報処理方法及びプログラム
US20130016042A1 (en) 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
JP5799628B2 (ja) 2011-07-15 2015-10-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20130212515A1 (en) 2012-02-13 2013-08-15 Syntellia, Inc. User interface for text input
US9285976B2 (en) 2011-07-22 2016-03-15 Kddi Corporation User interface device capable of image scrolling not accompanying finger movement, image scrolling method, and program
CN102243662A (zh) 2011-07-27 2011-11-16 北京风灵创景科技有限公司 一种在移动设备上显示浏览器界面的方法
US8713482B2 (en) 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
JP5295328B2 (ja) 2011-07-29 2013-09-18 Kddi株式会社 スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
KR101830965B1 (ko) 2011-08-03 2018-02-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
CN103797784A (zh) 2011-08-05 2014-05-14 汤姆逊许可公司 视频偷看
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US20130044062A1 (en) 2011-08-16 2013-02-21 Nokia Corporation Method and apparatus for translating between force inputs and temporal inputs
US20130047100A1 (en) 2011-08-17 2013-02-21 Google Inc. Link Disambiguation For Touch Screens
CN102354269B (zh) 2011-08-18 2013-06-12 宇龙计算机通信科技(深圳)有限公司 用于控制显示装置的方法和系统
US9086757B1 (en) * 2011-08-19 2015-07-21 Google Inc. Methods and systems for providing functionality of an interface to control directional orientations of a device
US20130050131A1 (en) 2011-08-23 2013-02-28 Garmin Switzerland Gmbh Hover based navigation user interface control
JP2013046306A (ja) 2011-08-25 2013-03-04 Sony Corp 情報処理装置、情報処理システムおよび情報処理方法
US8806369B2 (en) 2011-08-26 2014-08-12 Apple Inc. Device, method, and graphical user interface for managing and interacting with concurrently open software applications
KR101351162B1 (ko) 2011-08-30 2014-01-14 주식회사 팬택 플리킹을 이용한 리스트 선택 지원 단말 장치 및 방법
US9052765B2 (en) 2011-08-31 2015-06-09 Sony Corporation Method for operating a touch sensitive user interface
US20130050143A1 (en) 2011-08-31 2013-02-28 Samsung Electronics Co., Ltd. Method of providing of user interface in portable terminal and apparatus thereof
US8743069B2 (en) 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
CN102981659B (zh) 2011-09-06 2016-01-27 宸鸿光电科技股份有限公司 触控面板的控制系统与控制方法及其使用的触控笔
TWI475470B (zh) 2011-09-07 2015-03-01 Acer Inc 電子裝置及應用程式操作方法
US20130067411A1 (en) 2011-09-08 2013-03-14 Google Inc. User gestures indicating rates of execution of functions
JP5576841B2 (ja) 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US9071854B2 (en) 2011-09-12 2015-06-30 Disney Enterprises, Inc. System and method for transmitting a services list to a playback device
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US8976128B2 (en) 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9501213B2 (en) 2011-09-16 2016-11-22 Skadool, Inc. Scheduling events on an electronic calendar utilizing fixed-positioned events and a draggable calendar grid
US9519350B2 (en) 2011-09-19 2016-12-13 Samsung Electronics Co., Ltd. Interface controlling apparatus and method using force
US8959430B1 (en) 2011-09-21 2015-02-17 Amazon Technologies, Inc. Facilitating selection of keys related to a selected key
US20130074003A1 (en) 2011-09-21 2013-03-21 Nokia Corporation Method and apparatus for integrating user interfaces
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
CN103019427B (zh) 2011-09-28 2017-06-27 联想(北京)有限公司 控制方法及电子设备
US20130076651A1 (en) 2011-09-28 2013-03-28 Robert Reimann Methods and apparatus to change control centexts of controllers
US20130086056A1 (en) 2011-09-30 2013-04-04 Matthew G. Dyor Gesture based context menus
US9395800B2 (en) 2011-09-30 2016-07-19 Qualcomm Incorporated Enabling instant handwritten input on mobile computing devices
JP5762912B2 (ja) 2011-09-30 2015-08-12 京セラ株式会社 装置、方法、及びプログラム
US20130082824A1 (en) 2011-09-30 2013-04-04 Nokia Corporation Feedback response
US9342235B2 (en) 2011-10-03 2016-05-17 Kyocera Corporation Device, method, and storage medium storing program
JP2012027940A (ja) 2011-10-05 2012-02-09 Toshiba Corp 電子機器
EP2764427B1 (de) 2011-10-06 2020-07-29 Sony Corporation Verfahren und elektronische vorrichtung zur manipulation eines ersten oder zweiten benutzerschnittstellenobjekts
KR101924835B1 (ko) 2011-10-10 2018-12-05 삼성전자주식회사 터치 디바이스의 기능 운용 방법 및 장치
US10394441B2 (en) 2011-10-15 2019-08-27 Apple Inc. Device, method, and graphical user interface for controlling display of application windows
US8634807B2 (en) 2011-10-17 2014-01-21 Blackberry Limited System and method for managing electronic groups
US9170607B2 (en) 2011-10-17 2015-10-27 Nokia Technologies Oy Method and apparatus for determining the presence of a device for executing operations
JP5527304B2 (ja) 2011-10-17 2014-06-18 株式会社デンソー 入力装置
US8810535B2 (en) 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
US9075631B2 (en) 2011-10-18 2015-07-07 Blackberry Limited Method of rendering a user interface
CA2792900C (en) 2011-10-18 2017-09-05 Research In Motion Limited Method of rendering a user interface
EP2584445A1 (de) 2011-10-18 2013-04-24 Research In Motion Limited Verfahren zum Animieren der Neuanordnung von UI-Elementen auf einem Anzeigebildschirm einer elektronischen Vorrichtung
EP2584464B1 (de) 2011-10-18 2020-02-19 BlackBerry Limited Verfahren zur Darstellung einer Benutzeroberfläche
US9218105B2 (en) 2011-10-18 2015-12-22 Blackberry Limited Method of modifying rendered attributes of list elements in a user interface
US9389707B2 (en) 2011-10-28 2016-07-12 Atmel Corporation Active stylus with configurable touch sensor
US20130111415A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
US20130111345A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
US20130111378A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Portable electronic device, associated apparatus and methods
US20130111579A1 (en) 2011-10-31 2013-05-02 Nokia Corporation Electronic device mode, associated apparatus and methods
CN102436345A (zh) * 2011-10-31 2012-05-02 广州市动景计算机科技有限公司 一种移动设备界面操作控制的方法及实现装置
JP5204286B2 (ja) 2011-11-02 2013-06-05 株式会社東芝 電子機器および入力方法
DE102012110278A1 (de) 2011-11-02 2013-05-02 Beijing Lenovo Software Ltd. Verfahren und Vorrichtungen zur Fensterdarstellung und Verfahren und Vorrichtungen zur Berührungsbedienung von Anwendungen
US20130113760A1 (en) 2011-11-07 2013-05-09 Google Inc. Techniques for providing localized tactile feedback to a user via an electro-acoustic touch display of a user device
US9582178B2 (en) 2011-11-07 2017-02-28 Immersion Corporation Systems and methods for multi-pressure interaction on touch-sensitive surfaces
CN103092386A (zh) 2011-11-07 2013-05-08 联想(北京)有限公司 一种电子设备及其触控方法
JP2013101465A (ja) 2011-11-08 2013-05-23 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
EP2776907A4 (de) 2011-11-09 2015-07-15 Blackberry Ltd Berührungsempfindliche anzeige mit doppeltem virtuellem laufpolster
JP5884421B2 (ja) 2011-11-14 2016-03-15 ソニー株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP5520918B2 (ja) 2011-11-16 2014-06-11 富士ソフト株式会社 タッチパネル操作方法及びプログラム
KR101888457B1 (ko) 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
US9099971B2 (en) 2011-11-18 2015-08-04 Sentons Inc. Virtual keyboard interaction using touch input force
US9449476B2 (en) 2011-11-18 2016-09-20 Sentons Inc. Localized haptic feedback
KR101796481B1 (ko) 2011-11-28 2017-12-04 삼성전자주식회사 저전력 셔터랙 제거 방법, 카메라 모듈 및 이를 구비하는 모바일 기기
US9372593B2 (en) 2011-11-29 2016-06-21 Apple Inc. Using a three-dimensional model to render a cursor
KR101873744B1 (ko) 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101824007B1 (ko) 2011-12-05 2018-01-31 엘지전자 주식회사 이동 단말기 및 그의 멀티 태스킹 방법
US8581870B2 (en) 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
US9230393B1 (en) 2011-12-08 2016-01-05 Google Inc. Method and system for advancing through a sequence of items using a touch-sensitive component
CN102566908A (zh) 2011-12-13 2012-07-11 鸿富锦精密工业(深圳)有限公司 电子设备及其页面缩放方法
US8633911B2 (en) 2011-12-14 2014-01-21 Synaptics Incorporated Force sensing input device and method for determining force information
CN102722312B (zh) 2011-12-16 2015-12-16 江南大学 一种基于压力传感器的动作趋势预测交互体验方法及系统
EP2605129B1 (de) 2011-12-16 2019-03-13 BlackBerry Limited Verfahren zum Darstellen einer Benutzeroberfläche
US20130159930A1 (en) 2011-12-19 2013-06-20 Nokia Corporation Displaying one or more currently active applications
US20130154959A1 (en) 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
US20130154933A1 (en) 2011-12-20 2013-06-20 Synaptics Incorporated Force touch mouse
JP2013131185A (ja) 2011-12-22 2013-07-04 Kyocera Corp 装置、方法、及びプログラム
CN103988159B (zh) 2011-12-22 2017-11-24 索尼公司 显示控制装置和显示控制方法
US9257098B2 (en) 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
CN103186329B (zh) 2011-12-27 2017-08-18 富泰华工业(深圳)有限公司 电子设备及其触摸输入控制方法
KR102006470B1 (ko) 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
US10248278B2 (en) 2011-12-30 2019-04-02 Nokia Technologies Oy Method and apparatus for intuitive multitasking
US8756511B2 (en) 2012-01-03 2014-06-17 Lg Electronics Inc. Gesture based unlocking of a mobile terminal
US9141262B2 (en) 2012-01-06 2015-09-22 Microsoft Technology Licensing, Llc Edge-based hooking gestures for invoking user interfaces
DE102012207931A1 (de) 2012-01-07 2013-07-11 Johnson Controls Gmbh Kameraanordnung zur Distanzmessung
JP2015508357A (ja) 2012-01-09 2015-03-19 エアビクティ インコーポレイテッド 携帯デバイス用ユーザインタフェース
KR101710547B1 (ko) 2012-01-10 2017-02-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
JP2013153376A (ja) 2012-01-26 2013-08-08 Sony Corp 画像処理装置、画像処理方法および記録媒体
JP5410555B2 (ja) 2012-01-26 2014-02-05 京セラドキュメントソリューションズ株式会社 タッチパネル装置
KR101973631B1 (ko) 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US20130198690A1 (en) 2012-02-01 2013-08-01 Microsoft Corporation Visual indication of graphical user interface relationship
US9524272B2 (en) 2012-02-05 2016-12-20 Apple Inc. Navigating among content items in a browser using an array mode
US9164779B2 (en) 2012-02-10 2015-10-20 Nokia Technologies Oy Apparatus and method for providing for remote user interaction
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
US9146914B1 (en) 2012-02-17 2015-09-29 Google Inc. System and method for providing a context sensitive undo function
US9778706B2 (en) 2012-02-24 2017-10-03 Blackberry Limited Peekable user interface on a portable electronic device
KR101356368B1 (ko) 2012-02-24 2014-01-29 주식회사 팬택 어플리케이션 전환 장치 및 방법
TWI519155B (zh) 2012-02-24 2016-01-21 宏達國際電子股份有限公司 影像連續拍攝方法與相關影像擷取系統
KR101894567B1 (ko) 2012-02-24 2018-09-03 삼성전자 주식회사 락스크린 운용 방법 및 이를 지원하는 단말기
US20130227413A1 (en) 2012-02-24 2013-08-29 Simon Martin THORSANDER Method and Apparatus for Providing a Contextual User Interface on a Device
EP2820527A4 (de) 2012-02-27 2015-10-21 Nokia Technologies Oy Vorrichtung und entsprechende verfahren
US9898174B2 (en) 2012-02-28 2018-02-20 Google Llc Previewing expandable content items
KR20130099647A (ko) 2012-02-29 2013-09-06 한국과학기술원 사이드 인터페이스를 이용한 사용자 단말 컨텐츠 제어방법 및 제어장치
US9817568B2 (en) 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
US20130232402A1 (en) 2012-03-01 2013-09-05 Huawei Technologies Co., Ltd. Method for Processing Sensor Data and Computing Node
US9542013B2 (en) 2012-03-01 2017-01-10 Nokia Technologies Oy Method and apparatus for determining recipients of a sharing operation based on an indication associated with a tangible object
US9460029B2 (en) 2012-03-02 2016-10-04 Microsoft Technology Licensing, Llc Pressure sensitive keys
US9078208B1 (en) 2012-03-05 2015-07-07 Google Inc. Power modes of computing devices
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US20130234929A1 (en) 2012-03-07 2013-09-12 Evernote Corporation Adapting mobile user interface to unfavorable usage conditions
WO2013135270A1 (en) 2012-03-13 2013-09-19 Telefonaktiebolaget L M Ericsson (Publ) An apparatus and method for navigating on a touch sensitive screen thereof
US9378581B2 (en) 2012-03-13 2016-06-28 Amazon Technologies, Inc. Approaches for highlighting active interface elements
US8760425B2 (en) 2012-03-20 2014-06-24 Sony Corporation Method and apparatus for enabling touchpad gestures
US10331769B1 (en) 2012-03-23 2019-06-25 Amazon Technologies, Inc. Interaction based prioritized retrieval of embedded resources
US10673691B2 (en) 2012-03-24 2020-06-02 Fred Khosropour User interaction platform
CN102662573B (zh) 2012-03-24 2016-04-27 上海量明科技发展有限公司 通过触压获得选择项的方法及终端
CN102662571B (zh) 2012-03-26 2016-05-25 华为技术有限公司 解锁屏幕保护的方法及用户设备
US9063644B2 (en) 2012-03-26 2015-06-23 The Boeing Company Adjustment mechanisms for virtual knobs on a touchscreen interface
US9251329B2 (en) 2012-03-27 2016-02-02 Synaptics Incorporated Button depress wakeup and wakeup strategy
JP5934537B2 (ja) 2012-03-27 2016-06-15 京セラ株式会社 電子機器および電子機器の制御方法
US11474645B2 (en) 2012-03-27 2022-10-18 Nokia Technologies Oy Method and apparatus for force sensing
US9116571B2 (en) 2012-03-27 2015-08-25 Adonit Co., Ltd. Method and system of data input for an electronic device equipped with a touch screen
CN104246681B (zh) 2012-03-28 2018-07-31 索尼公司 信息处理装置、信息处理方法和程序
CN102662577B (zh) 2012-03-29 2016-08-10 华为终端有限公司 一种基于三维显示的光标操作方法及移动终端
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
KR101924095B1 (ko) 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9104260B2 (en) 2012-04-10 2015-08-11 Typesoft Technologies, Inc. Systems and methods for detecting a press on a touch-sensitive surface
TWI455011B (zh) 2012-04-11 2014-10-01 Wistron Corp 觸控顯示裝置及條件式改變顯示範圍之方法
WO2013154720A1 (en) 2012-04-13 2013-10-17 Tk Holdings Inc. Pressure sensor including a pressure sensitive material for use with control systems and methods of using the same
US20130271355A1 (en) 2012-04-13 2013-10-17 Nokia Corporation Multi-segment wearable accessory
EP2839366A4 (de) 2012-04-18 2016-05-11 Nokia Technologies Oy Anzeigevorrichtung mit haptischer rückmeldung
TWI459287B (zh) 2012-04-20 2014-11-01 Hon Hai Prec Ind Co Ltd 觸控操作方法及使用其的電子系統
US9552037B2 (en) 2012-04-23 2017-01-24 Google Inc. Switching a computing device from a low-power state to a high-power state
US9864483B2 (en) 2012-04-26 2018-01-09 Blackberry Limited Methods and apparatus for the management and viewing of calendar event information
US9317119B2 (en) 2012-04-27 2016-04-19 Panasonic Intellectual Property Management Co., Ltd. Haptic feedback device, haptic feedback method, driving signal generating device and driving signal generation method
EP2660702B1 (de) 2012-05-02 2020-12-30 Sony Corporation Verfahren zur Anzeige basierend auf der Betätigungsdauer eines Eingabegerätes
KR102004262B1 (ko) 2012-05-07 2019-07-26 엘지전자 주식회사 미디어 시스템 및 이미지와 연관된 추천 검색어를 제공하는 방법
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169304A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Determining characteristics of user input to input and output devices
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
CN104508618B (zh) 2012-05-09 2018-01-05 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的设备、方法和图形用户界面
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN108052264B (zh) 2012-05-09 2021-04-27 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
JP2013236298A (ja) 2012-05-10 2013-11-21 Olympus Corp 撮像装置
WO2013169070A1 (en) 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US9454303B2 (en) * 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
US20130307790A1 (en) 2012-05-17 2013-11-21 Nokia Corporation Methods And Apparatus For Device Control
AU2013262488A1 (en) 2012-05-18 2014-12-18 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US20130321306A1 (en) 2012-05-21 2013-12-05 Door Number 3 Common drawing model
US8816989B2 (en) 2012-05-22 2014-08-26 Lenovo (Singapore) Pte. Ltd. User interface navigation utilizing pressure-sensitive touch
US9251763B2 (en) 2012-05-25 2016-02-02 Picmonkey, Llc System and method for image collage editing
WO2013180454A1 (en) 2012-05-29 2013-12-05 Samsung Electronics Co., Ltd. Method for displaying item in terminal and terminal using the same
JP2013250602A (ja) 2012-05-30 2013-12-12 Seiko Epson Corp 端末装置、端末装置の制御方法、及び、プログラム
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
CN102799347B (zh) 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
KR101909030B1 (ko) 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
CN102819401A (zh) 2012-06-08 2012-12-12 中标软件有限公司 一种Android操作系统及其桌面图标布置方法
US9063595B2 (en) 2012-06-08 2015-06-23 Apple Inc. Devices and methods for reducing power usage of a touch-sensitive display
JP2013257657A (ja) 2012-06-11 2013-12-26 Fujitsu Ltd 情報端末装置及び表示制御方法
US9041667B2 (en) 2012-06-12 2015-05-26 Blackberry Limited Electronic device and method of control of displays
KR20130142301A (ko) 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
US20130339001A1 (en) 2012-06-19 2013-12-19 Microsoft Corporation Spelling candidate generation
US20140002374A1 (en) 2012-06-29 2014-01-02 Lenovo (Singapore) Pte. Ltd. Text selection utilizing pressure-sensitive touch
US20140013271A1 (en) 2012-07-05 2014-01-09 Research In Motion Limited Prioritization of multitasking applications in a mobile device interface
US9119156B2 (en) 2012-07-13 2015-08-25 Microsoft Technology Licensing, Llc Energy-efficient transmission of content over a wireless connection
US20140026098A1 (en) 2012-07-19 2014-01-23 M2J Think Box, Inc. Systems and methods for navigating an interface of an electronic device
US9256351B2 (en) 2012-07-20 2016-02-09 Blackberry Limited Method and electronic device for facilitating user control of a menu
EP3672227B1 (de) 2012-07-20 2022-05-04 BlackBerry Limited Dynamische anpassung einer region von interesse und damit ausgestattete bildaufnahmevorrichtung
US9298295B2 (en) 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
US20140028554A1 (en) 2012-07-26 2014-01-30 Google Inc. Recognizing gesture on tactile input device
US9836213B2 (en) 2012-07-27 2017-12-05 Symbol Technologies, Llc Enhanced user interface for pressure sensitive touch screen
JP5482842B2 (ja) 2012-07-30 2014-05-07 カシオ計算機株式会社 情報処理装置およびその制御プログラム
KR102014775B1 (ko) 2012-07-30 2019-08-27 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
US9280280B2 (en) 2012-07-31 2016-03-08 Nokia Technologies Oy Method, apparatus and computer program product for presenting designated information on a display operating in a restricted mode
US8896556B2 (en) 2012-07-31 2014-11-25 Verizon Patent And Licensing Inc. Time-based touch interface
JP2014032506A (ja) 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
CN103959802B (zh) * 2012-08-10 2018-01-26 松下电器(美国)知识产权公司 影像提供方法、发送装置以及接收装置
KR101946365B1 (ko) 2012-08-20 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9280206B2 (en) 2012-08-20 2016-03-08 Samsung Electronics Co., Ltd. System and method for perceiving images with multimodal feedback
US9250783B2 (en) 2012-08-21 2016-02-02 Apple Inc. Toggle gesture during drag gesture
US9720586B2 (en) 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
TWI484405B (zh) 2012-08-23 2015-05-11 Egalax Empia Technology Inc 圖形使用者界面的顯示方法及使用該方法的電子裝置
KR101946366B1 (ko) 2012-08-23 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US9063731B2 (en) 2012-08-27 2015-06-23 Samsung Electronics Co., Ltd. Ultra low power apparatus and method to wake up a main processor
JP5883745B2 (ja) 2012-08-28 2016-03-15 京セラ株式会社 携帯端末、カーソル位置制御プログラムおよびカーソル位置制御方法
KR20140029720A (ko) 2012-08-29 2014-03-11 엘지전자 주식회사 이동단말 제어방법
JP6077794B2 (ja) 2012-08-29 2017-02-08 キヤノン株式会社 情報処理装置及びその制御方法、並びにプログラム
KR101956170B1 (ko) 2012-08-29 2019-03-08 삼성전자 주식회사 카메라의 이미지 저장 장치 및 방법
US20140067293A1 (en) 2012-09-05 2014-03-06 Apple Inc. Power sub-state monitoring
US8732613B2 (en) 2012-09-06 2014-05-20 Google Inc. Dynamic user interface for navigating among GUI elements
US9696879B2 (en) 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
JP5977627B2 (ja) 2012-09-07 2016-08-24 シャープ株式会社 情報処理装置、情報処理方法およびプログラム
US20140071060A1 (en) 2012-09-11 2014-03-13 International Business Machines Corporation Prevention of accidental triggers of button events
US20140078343A1 (en) 2012-09-20 2014-03-20 Htc Corporation Methods for generating video and multiple still images simultaneously and apparatuses using the same
US9063563B1 (en) 2012-09-25 2015-06-23 Amazon Technologies, Inc. Gesture actions for interface elements
US9372538B2 (en) 2012-09-28 2016-06-21 Denso International America, Inc. Multiple-force, dynamically-adjusted, 3-D touch surface with feedback for human machine interface (HMI)
US9785217B2 (en) 2012-09-28 2017-10-10 Synaptics Incorporated System and method for low power input object detection and interaction
US9671943B2 (en) 2012-09-28 2017-06-06 Dassault Systemes Simulia Corp. Touch-enabled complex data entry
CN104903832B (zh) 2012-10-05 2020-09-25 触觉实验室股份有限公司 用于低等待时间用户输入处理和反馈的混合型系统和方法
US20140109016A1 (en) 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
KR102032336B1 (ko) 2012-10-19 2019-11-08 한국전자통신연구원 압력 변화를 통한 촉각 피드백을 제공하는 터치 패널 및 그것의 동작 방법
US20140111670A1 (en) 2012-10-23 2014-04-24 Nvidia Corporation System and method for enhanced image capture
US20140118268A1 (en) 2012-11-01 2014-05-01 Google Inc. Touch screen operation using additional inputs
US9448694B2 (en) 2012-11-09 2016-09-20 Intel Corporation Graphical user interface for navigating applications
US10503359B2 (en) 2012-11-15 2019-12-10 Quantum Interface, Llc Selection attractive interfaces, systems and apparatuses including such interfaces, methods for making and using same
CN103019586B (zh) 2012-11-16 2017-03-15 小米科技有限责任公司 用户界面管理方法及装置
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
KR102108061B1 (ko) 2012-11-27 2020-05-08 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US20140152581A1 (en) 2012-11-30 2014-06-05 Lenovo (Singapore) Pte. Ltd. Force as a device action modifier
JP5786909B2 (ja) 2012-11-30 2015-09-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、情報の表示方法、制御方法、及びプログラム
KR20140071118A (ko) 2012-12-03 2014-06-11 삼성전자주식회사 가상 버튼을 디스플레이하기 위한 방법 및 그 전자 장치
US10282088B2 (en) 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
US10564792B2 (en) 2012-12-06 2020-02-18 Samsung Electronics Co., Ltd. Display device and method of indicating an active region in a milti-window display
US9082348B2 (en) 2012-12-07 2015-07-14 Blackberry Limited Methods and devices for scrolling a display page
US9189131B2 (en) 2012-12-11 2015-11-17 Hewlett-Packard Development Company, L.P. Context menus
WO2014092038A1 (ja) 2012-12-12 2014-06-19 株式会社村田製作所 タッチ式入力装置
US20140168093A1 (en) 2012-12-13 2014-06-19 Nvidia Corporation Method and system of emulating pressure sensitivity on a surface
CN103870190B (zh) 2012-12-17 2018-03-27 联想(北京)有限公司 一种控制电子设备的方法及电子设备
US20140168153A1 (en) 2012-12-17 2014-06-19 Corning Incorporated Touch screen systems and methods based on touch location and touch force
KR20140079110A (ko) 2012-12-18 2014-06-26 엘지전자 주식회사 이동 단말기 및 그 동작 방법
US9223403B2 (en) 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
WO2014094283A1 (en) 2012-12-20 2014-06-26 Intel Corporation Touchscreen including force sensors
JP2014123809A (ja) 2012-12-20 2014-07-03 Canon Inc 撮像装置、撮像システム、および、撮像装置の制御方法
KR101457632B1 (ko) 2012-12-20 2014-11-10 주식회사 팬택 프로그램 알림 기능을 갖는 휴대용 전자 기기 및 이를 위한 프로그램 알림 방법
US9244576B1 (en) 2012-12-21 2016-01-26 Cypress Semiconductor Corporation User interface with child-lock feature
US20150332107A1 (en) 2012-12-24 2015-11-19 Nokia Technologies Oy An apparatus and associated methods
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
KR20170081744A (ko) 2012-12-29 2017-07-12 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR101958582B1 (ko) 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102301592B1 (ko) 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR102072582B1 (ko) 2012-12-31 2020-02-03 엘지전자 주식회사 듀얼 디스플레이 방법 및 장치
US9665762B2 (en) 2013-01-11 2017-05-30 Synaptics Incorporated Tiered wakeup strategy
US10082949B2 (en) 2013-01-17 2018-09-25 Samsung Electronics Co., Ltd. Apparatus and method for application peel
US9141259B2 (en) 2013-01-21 2015-09-22 International Business Machines Corporation Pressure navigation on a touch sensitive user interface
JP6075854B2 (ja) 2013-01-21 2017-02-08 キヤノン株式会社 表示制御装置、その制御方法、およびプログラム、並びに撮像装置および記憶媒体
JP2014142863A (ja) 2013-01-25 2014-08-07 Fujitsu Ltd 情報処理装置、及び、タッチパネルパラメータの補正方法並びにプログラム
KR20140097902A (ko) 2013-01-30 2014-08-07 삼성전자주식회사 햅틱 패턴을 생성하는 휴대 단말 및 방법
KR102133410B1 (ko) 2013-01-31 2020-07-14 삼성전자 주식회사 멀티태스킹 운용 방법 및 이를 지원하는 단말기
US20140210798A1 (en) 2013-01-31 2014-07-31 Hewlett-Packard Development Company, L.P. Digital Drawing Using A Touch-Sensitive Device To Detect A Position And Force For An Input Event
US9652136B2 (en) 2013-02-05 2017-05-16 Nokia Technologies Oy Method and apparatus for a slider interface element
EP2767896B1 (de) 2013-02-14 2019-01-16 LG Electronics Inc. Mobiles Endgerät und Verfahren zur Steuerung des mobilen Endgerätes
US20140237408A1 (en) 2013-02-15 2014-08-21 Flatfrog Laboratories Ab Interpretation of pressure based gesture
US9910527B2 (en) 2013-02-15 2018-03-06 Flatfrog Laboratories Ab Interpretation of pressure based gesture
KR101761190B1 (ko) 2013-02-22 2017-07-25 삼성전자 주식회사 휴대 단말기의 사용자 인터페이스 제공 방법 및 장치
CN103186345B (zh) 2013-02-25 2016-09-14 北京极兴莱博信息科技有限公司 一种文段选择方法及装置
JP2014165663A (ja) 2013-02-25 2014-09-08 Kyocera Corp 携帯端末装置、プログラムおよび携帯端末装置の制御方法
CN104020868B (zh) 2013-02-28 2017-09-01 联想(北京)有限公司 一种信息处理的方法及电子设备
US8769431B1 (en) 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
US9035752B2 (en) 2013-03-11 2015-05-19 Amazon Technologies, Inc. Force sensing input device under an unbroken exterior portion of a device
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR102039688B1 (ko) 2013-03-14 2019-11-01 삼성전자주식회사 사용자 기기 및 그 동작 방법
US10203815B2 (en) 2013-03-14 2019-02-12 Apple Inc. Application-based touch sensitivity
US10121065B2 (en) 2013-03-14 2018-11-06 Nike, Inc. Athletic attribute determinations from image data
US9451230B1 (en) * 2013-03-15 2016-09-20 Google Inc. Playback adjustments for digital media items
US9225677B2 (en) 2013-03-15 2015-12-29 Facebook, Inc. Systems and methods for displaying a digest of messages or notifications without launching applications associated with the messages or notifications
WO2014143706A1 (en) 2013-03-15 2014-09-18 Tk Holdings Inc. Adaptive human machine interfaces for pressure sensitive control in a distracted operating environment and method of using the same
US9274685B2 (en) 2013-03-15 2016-03-01 Google Technology Holdings LLC Systems and methods for predictive text entry for small-screen devices with touch-based two-stage text input
US9949890B2 (en) 2013-03-15 2018-04-24 Sambhu Choudhury Garment with remote controlled vibration array
US9355472B2 (en) 2013-03-15 2016-05-31 Apple Inc. Device, method, and graphical user interface for adjusting the appearance of a control
KR20170073710A (ko) 2013-03-15 2017-06-28 애플 인크. 동시에 열린 소프트웨어 애플리케이션들을 관리하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US10055418B2 (en) 2014-03-14 2018-08-21 Highspot, Inc. Narrowing information search results for presentation to a user
CN104077014B (zh) 2013-03-28 2018-04-10 阿里巴巴集团控股有限公司 一种信息处理的方法和设备
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9389718B1 (en) 2013-04-04 2016-07-12 Amazon Technologies, Inc. Thumb touch interface
US20140304646A1 (en) 2013-04-04 2014-10-09 Klip, Inc. Sliding side menu gui with menu items displaying indicia of updated content
KR20140122000A (ko) 2013-04-09 2014-10-17 옥윤선 모바일 메신저 기반의 드래그를 이용한 정보전달 방법, 그리고 모바일 메신저 기반의 드래그를 이용한 정보전달을 위한 모바일단말
KR102091235B1 (ko) 2013-04-10 2020-03-18 삼성전자주식회사 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
US20140306897A1 (en) 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
WO2014178842A1 (en) 2013-04-30 2014-11-06 Hewlett-Packard Development Company, L.P. Generate preview of content
CN103279295A (zh) 2013-05-03 2013-09-04 广东欧珀移动通信有限公司 一种终端桌面图标切换方法及装置
KR20140132632A (ko) 2013-05-08 2014-11-18 삼성전자주식회사 휴대 장치 및 휴대 장치의 오브젝트 표시 방법
CN105324979A (zh) 2013-05-08 2016-02-10 诺基亚技术有限公司 一种装置和相关联的方法
CN104142798A (zh) 2013-05-10 2014-11-12 北京三星通信技术研究有限公司 启动应用程序的方法及触摸屏智能终端设备
CN103268184A (zh) 2013-05-17 2013-08-28 广东欧珀移动通信有限公司 一种移动文本光标的方法及装置
US20140344765A1 (en) 2013-05-17 2014-11-20 Barnesandnoble.Com Llc Touch Sensitive UI Pinch and Flick Techniques for Managing Active Applications
KR20140137509A (ko) 2013-05-22 2014-12-03 삼성전자주식회사 알림 기능 운용 방법 및 이를 지원하는 전자 장치
JP2014232347A (ja) 2013-05-28 2014-12-11 シャープ株式会社 文字入力装置および携帯端末装置
US9307112B2 (en) 2013-05-31 2016-04-05 Apple Inc. Identifying dominant and non-dominant images in a burst mode capture
US9319589B2 (en) 2013-05-31 2016-04-19 Sony Corporation Device and method for capturing images and selecting a desired image by tilting the device
US10282067B2 (en) 2013-06-04 2019-05-07 Sony Corporation Method and apparatus of controlling an interface based on touch operations
US9626087B2 (en) 2013-06-09 2017-04-18 Apple Inc. Device, method, and graphical user interface for navigating between user interfaces
US10481769B2 (en) 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10282083B2 (en) 2013-06-09 2019-05-07 Apple Inc. Device, method, and graphical user interface for transitioning between user interfaces
US9477393B2 (en) 2013-06-09 2016-10-25 Apple Inc. Device, method, and graphical user interface for displaying application status information
KR102113674B1 (ko) 2013-06-10 2020-05-21 삼성전자주식회사 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
US9405379B2 (en) 2013-06-13 2016-08-02 Microsoft Technology Licensing, Llc Classification of user input
CN104238904B (zh) 2013-06-17 2019-08-06 中兴通讯股份有限公司 一种显示界面滑动的方法及移动终端
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
CN103309618A (zh) 2013-07-02 2013-09-18 姜洪明 移动操作系统
US20150012861A1 (en) 2013-07-02 2015-01-08 Dropbox, Inc. Syncing content clipboard
US20150020033A1 (en) 2013-07-09 2015-01-15 Qualcomm Incorporated Method and apparatus for activating a user interface from a low power state
KR102136602B1 (ko) 2013-07-10 2020-07-22 삼성전자 주식회사 휴대단말기의 컨텐츠 처리 장치 및 방법
KR102080746B1 (ko) 2013-07-12 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US10152199B2 (en) 2013-07-16 2018-12-11 Pinterest, Inc. Object based contextual menu controls
US9342228B2 (en) 2013-07-17 2016-05-17 Blackberry Limited Device and method for filtering messages using sliding touch input
US20150022482A1 (en) 2013-07-19 2015-01-22 International Business Machines Corporation Multi-touch management for touch screen displays
KR102187505B1 (ko) 2013-07-22 2020-12-08 삼성전자 주식회사 전자 디바이스의 표시 제어 방법 및 장치
KR20150013991A (ko) 2013-07-25 2015-02-06 삼성전자주식회사 휴대단말기의 어플리케이션 실행 방법 및 장치
US20150040065A1 (en) 2013-07-31 2015-02-05 Vonage Network Llc Method and apparatus for generating customized menus for accessing application functionality
CN104349124A (zh) 2013-08-01 2015-02-11 天津天地伟业数码科技有限公司 录像机上扩展多屏显示的结构及方法
US9335897B2 (en) 2013-08-08 2016-05-10 Palantir Technologies Inc. Long click display of a context menu
KR20150019165A (ko) 2013-08-12 2015-02-25 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102101741B1 (ko) 2013-08-16 2020-05-29 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10108310B2 (en) 2013-08-16 2018-10-23 Marvell World Trade Ltd Method and apparatus for icon based application control
US9547525B1 (en) 2013-08-21 2017-01-17 Google Inc. Drag toolbar to enter tab switching interface
US9740712B2 (en) 2013-08-26 2017-08-22 Ab Minenda Oy System for processing image data, storing image data and accessing image data
CN108415634B (zh) 2013-08-30 2020-12-15 烟台正海科技股份有限公司 一种触控装置
KR102332675B1 (ko) 2013-09-02 2021-11-30 삼성전자 주식회사 전자 장치의 컨텐츠 공유 방법 및 장치
KR20150026649A (ko) 2013-09-03 2015-03-11 삼성전자주식회사 전자 장치에서 제스처를 설정하는 장치 및 방법
US20150066950A1 (en) 2013-09-05 2015-03-05 Sporting Vote, Inc. Sentiment scoring for sports entities and filtering techniques
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
US9798443B1 (en) 2013-09-10 2017-10-24 Amazon Technologies, Inc. Approaches for seamlessly launching applications
US10037130B2 (en) 2013-09-13 2018-07-31 Samsung Electronics Co., Ltd. Display apparatus and method for improving visibility of the same
JP6138641B2 (ja) 2013-09-13 2017-05-31 株式会社Nttドコモ 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
US20150082238A1 (en) 2013-09-18 2015-03-19 Jianzhong Meng System and method to display and interact with a curve items list
JP2016538619A (ja) 2013-10-08 2016-12-08 ティーケー ホールディングス インク.Tk Holdings Inc. 圧力応答式タッチスクリーンの検出タッチ位置と関連する入力区域の固定装置及び方法
US9407964B2 (en) 2013-10-25 2016-08-02 Verizon Patent And Licensing Inc. Method and system for navigating video to an instant time
KR20150049700A (ko) 2013-10-30 2015-05-08 삼성전자주식회사 전자 장치에서 입력을 제어하는 방법 및 장치
US10067651B2 (en) 2013-11-15 2018-09-04 Thomson Reuters Global Resources Unlimited Company Navigable layering of viewable areas for hierarchical content
CN103677632A (zh) 2013-11-19 2014-03-26 三星电子(中国)研发中心 一种虚拟键盘调整方法和移动终端
US9111076B2 (en) 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
JP6177669B2 (ja) 2013-11-20 2017-08-09 株式会社Nttドコモ 画像表示装置およびプログラム
US20150143294A1 (en) 2013-11-21 2015-05-21 UpTo, Inc. System and method for presenting a responsive multi-layered ordered set of elements
CN103699292B (zh) 2013-11-29 2017-02-15 小米科技有限责任公司 一种进入文本选择模式的方法和装置
US20150153897A1 (en) 2013-12-03 2015-06-04 Microsoft Corporation User interface adaptation from an input source identifier change
JP2015114836A (ja) 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
CN104714741A (zh) 2013-12-11 2015-06-17 北京三星通信技术研究有限公司 触控操作的方法及装置
CN103699295A (zh) 2013-12-12 2014-04-02 宇龙计算机通信科技(深圳)有限公司 终端和图标显示方法
US9483118B2 (en) 2013-12-27 2016-11-01 Rovi Guides, Inc. Methods and systems for selecting media guidance functions based on tactile attributes of a user input
US9804665B2 (en) 2013-12-29 2017-10-31 Google Inc. Apparatus and method for passing event handling control from a primary processor to a secondary processor during sleep mode
US9753527B2 (en) 2013-12-29 2017-09-05 Google Technology Holdings LLC Apparatus and method for managing graphics buffers for a processor in sleep mode
CN103793134A (zh) 2013-12-30 2014-05-14 深圳天珑无线科技有限公司 一种触摸屏终端多界面切换的方法及触摸屏终端
KR20150081125A (ko) 2014-01-03 2015-07-13 삼성전자주식회사 전자 장치 스크린에서의 입자 효과 디스플레이
CN103777850A (zh) 2014-01-17 2014-05-07 广州华多网络科技有限公司 菜单显示方法、装置和终端
CN104834456A (zh) 2014-02-12 2015-08-12 深圳富泰宏精密工业有限公司 触控界面多任务切换方法、系统及电子装置
WO2015126848A1 (en) 2014-02-18 2015-08-27 Arokia Nathan Dynamic switching of power modes for touch screens using force touch
CN103838465B (zh) 2014-03-08 2018-03-02 广东欧珀移动通信有限公司 一种生动有趣的桌面图标显示方法及装置
US9436348B2 (en) 2014-03-18 2016-09-06 Blackberry Limited Method and system for controlling movement of cursor in an electronic device
JP6247651B2 (ja) 2014-03-24 2017-12-13 株式会社 ハイディープHiDeep Inc. メニュー操作方法及びこれを行うタッチ入力装置を含むメニュー操作装置
US9829979B2 (en) 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
KR102129798B1 (ko) 2014-05-08 2020-07-03 엘지전자 주식회사 비히클 및 그 제어 방법
US20150332607A1 (en) 2014-05-13 2015-11-19 Viewplus Technologies, Inc. System for Producing Tactile Images
CN104020955B (zh) 2014-05-30 2016-05-11 深圳市爱培科技术股份有限公司 基于WinCE系统的触摸式设备桌面自定义方法及系统
CN103984501B (zh) 2014-05-30 2017-02-08 东莞市沃视界电子科技有限公司 一种基于触摸屏的文段复制粘贴方法、装置及其移动终端
US9032321B1 (en) 2014-06-16 2015-05-12 Google Inc. Context-based presentation of a user interface
CN104021021A (zh) 2014-06-19 2014-09-03 深圳市中兴移动通信有限公司 移动终端及其通过压力检测实现快捷启动的方法和装置
CN104038838A (zh) 2014-06-24 2014-09-10 北京奇艺世纪科技有限公司 一种数据播放方法及装置
US9477653B2 (en) 2014-06-26 2016-10-25 Blackberry Limited Character entry for an electronic device using a position sensing keyboard
US9294719B2 (en) 2014-06-30 2016-03-22 Salesforce.Com, Inc. Systems, methods, and apparatuses for implementing in-app live support functionality
US20160004393A1 (en) 2014-07-01 2016-01-07 Google Inc. Wearable device user interface control
TW201602893A (zh) 2014-07-07 2016-01-16 欣興電子股份有限公司 附加資訊提供方法及使用其的觸控顯示裝置
US9990105B2 (en) 2014-07-08 2018-06-05 Verizon Patent And Licensing Inc. Accessible contextual controls within a graphical user interface
US9363644B2 (en) 2014-07-16 2016-06-07 Yahoo! Inc. System and method for detection of indoor tracking units
US20160019718A1 (en) 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
CN104090979B (zh) 2014-07-23 2017-10-24 上海天脉聚源文化传媒有限公司 一种网页编辑方法及装置
US9600114B2 (en) 2014-07-31 2017-03-21 International Business Machines Corporation Variable pressure touch system
KR20160021524A (ko) 2014-08-18 2016-02-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10203858B2 (en) 2014-08-28 2019-02-12 Blackberry Limited Portable electronic device and method of controlling the display of information
CN104270565B (zh) 2014-08-29 2018-02-02 小米科技有限责任公司 图像拍摄方法、装置及设备
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
CN104267902B (zh) 2014-09-22 2017-03-08 努比亚技术有限公司 一种应用程序交互控制方法、装置及终端
US20160124924A1 (en) 2014-10-09 2016-05-05 Wrap Media, LLC Displaying a wrap package of cards within an overlay window embedded in an application or web page
US20160132139A1 (en) 2014-11-11 2016-05-12 Qualcomm Incorporated System and Methods for Controlling a Cursor Based on Finger Pressure and Direction
CN104331239A (zh) 2014-11-26 2015-02-04 上海斐讯数据通信技术有限公司 单手操作手持设备的方法及系统
TW201624260A (zh) 2014-12-30 2016-07-01 富智康(香港)有限公司 資訊查看系統及方法
KR20150021977A (ko) 2015-01-19 2015-03-03 인포뱅크 주식회사 휴대용 단말기에서의 ui 구성 방법
US20160224220A1 (en) 2015-02-04 2016-08-04 Wipro Limited System and method for navigating between user interface screens
US10191614B2 (en) 2015-02-25 2019-01-29 Htc Corporation Panel displaying method, portable electronic device and recording medium using the method
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10101877B2 (en) 2015-04-16 2018-10-16 Blackberry Limited Portable electronic device including touch-sensitive display and method of providing access to an application
US9625987B1 (en) 2015-04-17 2017-04-18 Google Inc. Updating and displaying information in different power modes
DK179360B1 (en) 2015-06-07 2018-05-22 Apple Inc Devices, methods and graphical user interfaces for providing and interacting with notifications
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10319177B2 (en) 2015-07-31 2019-06-11 Novomatic Ag User interface with slider and popup window feature
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US20170046058A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Adjusting User Interface Objects
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9619113B2 (en) 2015-09-09 2017-04-11 Quixey, Inc. Overloading app icon touchscreen interaction to provide action accessibility
US10346510B2 (en) 2015-09-29 2019-07-09 Apple Inc. Device, method, and graphical user interface for providing handwriting support in document editing
KR102348670B1 (ko) 2015-09-30 2022-01-06 엘지디스플레이 주식회사 멀티 터치 감지형 표시장치와 그의 터치 식별코드 할당방법
US11182068B2 (en) 2015-10-27 2021-11-23 Verizon Patent And Licensing Inc. Method and system for interacting with a touch screen
US10506165B2 (en) 2015-10-29 2019-12-10 Welch Allyn, Inc. Concussion screening system
JP6685695B2 (ja) 2015-10-30 2020-04-22 キヤノン株式会社 端末及び撮像装置
KR101749933B1 (ko) 2015-11-12 2017-06-22 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20170085419A (ko) 2016-01-14 2017-07-24 삼성전자주식회사 터치 입력에 기반한 동작 방법 및 그 전자 장치
CN107329602A (zh) 2016-04-28 2017-11-07 珠海金山办公软件有限公司 一种触摸屏轨迹识别方法及装置
US10402042B2 (en) 2016-06-13 2019-09-03 Lenovo (Singapore) Pte. Ltd. Force vector cursor control
US11307755B2 (en) 2016-08-25 2022-04-19 Parade Technologies, Ltd. Determination of valid touches based on force shape
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
US10445935B2 (en) 2017-05-26 2019-10-15 Microsoft Technology Licensing, Llc Using tracking to simulate direct tablet interaction in mixed reality
US20180364898A1 (en) 2017-06-14 2018-12-20 Zihan Chen Systems, Devices, and/or Methods for Managing Text Rendering
EP3731068A4 (de) 2017-12-19 2021-05-12 Sony Corporation Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
US10908783B2 (en) 2018-11-06 2021-02-02 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects and providing feedback
US10785591B2 (en) 2018-12-04 2020-09-22 Spotify Ab Media content playback based on an identified geolocation of a target venue
US11544928B2 (en) 2019-06-17 2023-01-03 The Regents Of The University Of California Athlete style recognition system and method
US20210191975A1 (en) 2019-12-20 2021-06-24 Juwei Lu Methods and systems for managing image collection

Also Published As

Publication number Publication date
AU2016247194A1 (en) 2016-11-10
US20150067497A1 (en) 2015-03-05
CN108241465B (zh) 2021-03-09
AU2018256626A1 (en) 2018-11-22
AU2016247194B2 (en) 2018-08-02
US20220129076A1 (en) 2022-04-28
AU2018256626B2 (en) 2019-08-22
US20150067496A1 (en) 2015-03-05
EP3185116B1 (de) 2019-09-11
CN108287651A (zh) 2018-07-17
HK1208539A1 (en) 2016-03-04
US10175757B2 (en) 2019-01-08
WO2013169853A1 (en) 2013-11-14
JP6722314B2 (ja) 2020-07-15
EP3594797A1 (de) 2020-01-15
EP3185116A1 (de) 2017-06-28
US20190138101A1 (en) 2019-05-09
JP2019114278A (ja) 2019-07-11
JP2017107581A (ja) 2017-06-15
JP6486395B2 (ja) 2019-03-20
HK1257322A1 (zh) 2019-10-18
CN108241465A (zh) 2018-07-03
AU2019268116A1 (en) 2019-12-12
AU2013259613B2 (en) 2016-07-21
JP2015521316A (ja) 2015-07-27
JP2020166888A (ja) 2020-10-08
US11947724B2 (en) 2024-04-02
EP2847658B1 (de) 2017-06-21
AU2021254568A1 (en) 2021-11-18
JP6082458B2 (ja) 2017-02-15
CN108287651B (zh) 2021-04-13
CN107977084B (zh) 2021-11-05
US11221675B2 (en) 2022-01-11
US20240152210A1 (en) 2024-05-09
US10481690B2 (en) 2019-11-19
US20190138102A1 (en) 2019-05-09
AU2013259613A1 (en) 2014-12-04
AU2021254568B2 (en) 2023-07-13
CN107977084A (zh) 2018-05-01
US10942570B2 (en) 2021-03-09
EP2847658A1 (de) 2015-03-18
AU2019268116B2 (en) 2021-10-14
HK1207172A1 (en) 2016-01-22
CN104508618A (zh) 2015-04-08
CN104508618B (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
US20230254573A1 (en) User interface for camera effects
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE112016000085B4 (de) Gerät, Verfahren und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt
US20200081614A1 (en) Device and Method for Facilitating Setting Autofocus Reference Point in Camera Application User Interface
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE202015006055U1 (de) Benutzeroberfläche zum Empfangen von Benutzereingaben
DE202016002906U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016001845U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016002908U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016001489U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zum Anzeigen und Verwenden von Menüs
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
DE202016001513U1 (de) Vorrichtung und Benutzerschnittstelle zur Verarbeitung einer Intensität von Berührungskontakten
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE202016005219U1 (de) Benutzerschnittstelle zum Navigieren und Wiedergeben von Inhalt
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
DE112016001105T5 (de) Reagieren von konkurrierenden Vorrichtungen auf Sprachauslöser
DE212015000213U1 (de) Multidimensionale Objektneuordnung
DE112015004021T5 (de) Elektronische touch-kommunikation
DE202015003916U1 (de) Benutzerschnittstellen für Nachrichten zum Erfassen und Übertragen von Medien- und Standortinhalten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee