DE112013002381T5 - Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts - Google Patents

Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts Download PDF

Info

Publication number
DE112013002381T5
DE112013002381T5 DE112013002381.4T DE112013002381T DE112013002381T5 DE 112013002381 T5 DE112013002381 T5 DE 112013002381T5 DE 112013002381 T DE112013002381 T DE 112013002381T DE 112013002381 T5 DE112013002381 T5 DE 112013002381T5
Authority
DE
Germany
Prior art keywords
contact
touch
sensitive
intensity
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112013002381.4T
Other languages
English (en)
Inventor
c/o Apple Inc. Berstein Jeffrey Traer
c/o Apple Inc. Khoe Mai-Li
c/o Apple Inc. Hart David J.
c/o Apple Inc. Victor Michael B.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US201261688227P priority Critical
Priority to US61/688,227 priority
Priority to US201261747278P priority
Priority to US61/747,278 priority
Priority to US61/778,414 priority
Priority to US201361778414P priority
Application filed by Apple Inc filed Critical Apple Inc
Priority to PCT/US2013/040108 priority patent/WO2013169882A2/en
Publication of DE112013002381T5 publication Critical patent/DE112013002381T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object or an image, setting a parameter value or selecting a range
    • G06F3/04842Selection of a displayed object
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object or an image, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for entering handwritten data, e.g. gestures, text
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the screen or tablet into independently controllable areas, e.g. virtual keyboards, menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Abstract

Eine elektronische Vorrichtung erfasst einen Kontakt, der mit einem Fokus-Selektor verbunden ist, der Bewegung eines entsprechenden Benutzerschnittstellenobjekts steuert, und während eines kontinuierlichen Erfassens des Kontakts, erkennt die Vorrichtung eine erste Bewegung des Kontakts. In Reaktion auf das Erfassen der ersten Bewegung des Kontakts, bewegt die Vorrichtung den Fokus-Selektor und das entsprechende Benutzerschnittstellenobjekt und bestimmt die Intensität des Kontakts. Die Vorrichtung erfasst eine zweite Bewegung des Kontakts und in Reaktion auf das Erfassen der zweiten Bewegung des Kontakts: wenn der Kontakt die entsprechenden Intensitätskriterien erfüllt, bewegt die Vorrichtung den Fokus- Selektor und das Benutzerschnittstellenobjekt und wenn der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, bewegt die Vorrichtung den Fokus-Selektor, ohne das Benutzerschnittstellenobjekt zu bewegen.

Description

  • Verwandte Anmeldungen
  • Diese Anmeldung beansprucht die Priorität der vorläufige US Patentanmeldung Seriennummer 61/778.414, eingereicht am 13. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für ein Verschieben und ein Löschen eines Benutzerschnittstellenobjekts;” Vorläufige US-Patentanmeldung Nr 61/747.278, eingereicht am 29. Dezember 2012, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Manipulation von Benutzerschnittstellenobjekten mit visueller und/oder haptischer Rückmeldung;” und der vorläufigen US-Patentanmeldung Nr 61/688.227, eingereicht am 9. Mai 2012 mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Manipulation von Benutzerschnittstellenobjekten mit visueller und/oder haptischer Rückmeldung”, die Anmeldungen sind in ihrer Gesamtheit. durch Bezugnahme hierin eingeschlossen.
  • Diese Anmeldung ist hängt auch mit dem folgenden zusammen: vorläufige US Patentanmeldung mit der Seriennummer 61/778.092, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Auswahl eines Objekts innerhalb einer Ansammlung von Objekten;” Vorläufige US-Patentanmeldung mit der Seriennummer 61/778.125, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Navigations-Benutzerschnittstelle-Hierarchien;” Vorläufige US-Patentanmeldung mit der Seriennummer 61/778.156, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Manipulation von geframten grafischen Objekten;” Vorläufige US-Patentanmeldung mit der Seriennummer 61/778.179, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für Scrolling von Nested Regionen;” Vorläufige US-Patentanmeldung mit der Seriennummer 61/778.171, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzer-Kontakt;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.191, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für eine Anzeige von Benutzerschnittstellenobjekte entsprechend einer Anwendung;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.211, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für eine Erleichterung der Benutzerinteraktion mit Steuerungen in einer Benutzerschnittstelle;” vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.239, eingereicht 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für eine verzichtende Erzeugung von einer taktilen Ausgabe für eine Multi-Kontakt-Geste;” vorläufigen US-Patentanmeldung Nr. 61/778.284, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für eine Bereitstellung einer taktilen Rückmeldung für Operationen, die in einer Benutzerschnittstelle durchgeführt werden;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.287, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Bereitstellen von Feedback zum Ändern von Aktivierungszuständen eines Benutzerschnittstellenobjekts;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.363, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Überführung zwischen Berührungs-Input zu Anzeige-Output Beziehungen;” vorläufigen US-Patentanmeldung Serial No. 61/778.367, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Bewegen eines Benutzerschnittstellenobjekts basierend auf einer Intensität einer Druck-Eingabe;” vorläufigen US-Patentanmeldung mit der Seriennummer 61/778.265, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Überführung zwischen Anzeige Zuständen in Reaktion auf eine Geste;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.373, eingereicht am 12. März 2013, mit dem Titel ”Vorrichtung, ein Verfahren und grafische Benutzerschnittstelle für die Aktivierungsverwaltung einer Steuerung auf der Basis einer Kontakt-Intensität;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.412, eingereicht am 13. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für den angezeigten Inhalt, der mit einer entsprechenden Aufforderung verknüpft ist;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.413, eingereicht am 13. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle für die Auswahl von Benutzerschnittstellenobjekten;” vorläufige US-Patentanmeldung mit der Seriennummer 61/778.416, eingereicht am 13. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle zur Bestimmung, ob Inhalt geblättert oder selektiert wird;” und vorläufige US-Patentanmeldung mit der Seriennummer 61/778.418, eingereicht am 13. März 2013, mit dem Titel ”Vorrichtung, Verfahren und grafische Benutzerschnittstelle zum Umschalten zwischen Benutzerschnittstellen”, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen sind.
  • Diese Anmeldung ist hängt auch mit dem Folgenden zusammen: Anmeldung mit der Seriennummer 61/645.033, eingereicht am 9. Mai 2012, mit dem Titel ”Adaptive haptische Rückmeldung für elektronische Vorrichtungen;” vorläufige US-Patentanmeldung mit der Seriennummer 61/665.603, eingereicht am 28. Juni 2012, mit dem Titel ”Adaptive haptische Rückmeldung für elektronische Vorrichtungen;” und vorläufige US-Patentanmeldung mit der Seriennummer 61/681.098, eingereicht am 8. August 2012, mit dem Titel ”Adaptive haptische Rückmeldung für elektronische Vorrichtungen”, die hierin durch Bezugnahme in ihrer Gesamtheit aufgenommen werden.
  • Technisches Gebiet
  • Dies bezieht sich allgemein auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich, aber nicht beschränkt auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, die Eingaben für die Manipulation von Benutzerschnittstellen erfassen.
  • HINTERGRUND
  • Die Verwendung von berührungsempfindlichen Oberflächen als Eingabevorrichtungen für Computer und andere elektronische Rechenvorrichtungen haben in den letzten Jahren erheblich zugenommen. Beispielhafte berührungsempfindliche Oberflächen umfassen Touchpads und Berührungsbildschirm-Anzeigen. Solche Oberflächen werden häufig verwendet, um Benutzerschnittstellenobjekte auf einer Anzeige zu manipulieren.
  • Beispielhafte Manipulationen beinhalten ein Einstellen der Position und/oder der Größe eines oder mehrerer Benutzerschnittstellenobjekte oder Aktivierungsknöpfe oder Öffnen von Dateien/Anwendungen die von Benutzerschnittstellenobjekten dargestellt werden, sowie die Metadaten eines oder mehrere zugehörigen Benutzerschnittstellenobjekten oder anderweitiges Manipulieren von Benutzerschnittstellen. Beispielhafte Benutzerschnittstellenobjekte sind digitale Bilder, Videos, Texte, Symbole, Steuerungselemente wie Knöpfe und andere Grafiken. Ein Benutzer wird, in einigen Fällen solche Manipulationen an Benutzerschnittstellenobjekten in einem Dateiverwaltungsprogramm durchführen müssen (z. B. Finder von Apple Inc. aus Cupertino, Kalifornien), einer Bildverwaltungsanwendung (z. B. Aperture oder iPhoto von Apple Inc. Cupertino, Kalifornien), einem digitalen Inhalt (z. B. Videos und Musik) Management-Anwendung (z. B. iTunes von Apple Inc. aus Cupertino, Kalifornien), einem Zeichenprogramm, einem Präsentationsprogramm (z. B. Keynote von Apple Inc., Cupertino, Kalifornien), einem Textverarbeitungsprogramm (z. B. Seiten von Apple Inc. aus Cupertino, Kalifornien), einer Webseitenerstellungsanwendung (z. B. iWeb von Apple Inc. aus Cupertino, Kalifornien), einer Disk-Authoring-Anwendung (z. B. iDVD von Apple Inc. aus Cupertino, Kalifornien), oder einem Tabellenkalkulationsprogramm (z. B. Numbers von Apple Inc. aus Cupertino, Kalifornien).
  • Aber bestehenden Verfahren für diese Manipulationen sind schwerfällig und ineffizient. Darüber hinaus dauern bestehende Methoden länger als nötig, und verschwenden damit Energie. Dieser letztere Aspekt ist bei batteriebetriebenen Vorrichtungen besonders wichtig.
  • ZUSAMMENFASSUNG
  • Dementsprechend besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Methoden und Schnittstellen für die Manipulation von Benutzerschnittstellen. Derartige Verfahren und Schnittstellen ergänzen oder ersetzen gegebenenfalls herkömmliche Methoden zur Manipulation von Benutzerschnittstellen. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer und erzeugen eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Vorrichtungen, sparen solche Methoden und Schnittstellen sparen Energie und erhöhen die Zeit bis der Akku wieder aufgeladen wird.
  • Die oben genannten Mängel und andere Probleme mit Benutzerschnittstellen für elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen werden reduziert oder durch die offenbarten Vorrichtungen eliminiert. In einigen Ausführungsformen ist die Vorrichtung ein Desktop-Computer.
  • In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. einem Notebook-Computer, Tablet-Computer oder eine Handheld-Vorrichtung). In einigen Ausführungsformen weist die Vorrichtung ein Touchpad auf. In einigen Ausführungsformen weist die Vorrichtung eine berührungsempfindliche Anzeige (auch als ”Berührungsbildschirm” oder ”Berührungsbildschirm-Anzeige” bekannt). In einigen Ausführungsformen weist die Vorrichtung eine grafische Benutzerschnittstelle (GUI), einen oder mehrere Prozessoren, Speicher und ein oder mehrere Module, Programme oder Anweisungssätze, die im Speicher zum Durchführen mehrerer Funktionen, gespeichert sind. In einigen Ausführungsformen interagiert der Benutzer mit der GUI primär durch Fingerkontakte und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen können die Funktionen wahlweise Bildbearbeitung, Zeichnen, Präsentation, Textverarbeitung, Webseiten-Erstellung, Disk-Erstellung, Tabellenkalkulation machen, Spiele spielen, Telefonieren, Videokonferenzen, E-Mail, Instant Messaging, Training Support, digitale Fotografieren, digitales Videoing, Web-Browsing, digitale Musik zu spielen, und/oder digitale Videospiele. Ausführbare Anweisungen zum Ausführen dieser Funktionen sind, gegebenenfalls in einem nicht-flüchtigen computerlesbaren Speichermedium oder einem anderen Computerprogrammprodukt, das zur Ausführung durch einen oder mehrere Prozessoren konfiguriert ist, enthalten.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Methoden und Schnittstellen für die Vorschau und Auswahl von Inhaltselementen.
  • Derartige Verfahren und Schnittstellen können herkömmliche Verfahren zur Vorschau und Auswahl von Inhaltselementen ergänzen oder ersetzen. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer und erzeugen eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Vorrichtungen, sparen solche Methoden und Schnittstellen Energie und erhöhen die Zeit vis der Akku wieder aufgeladen wird.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren an einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige durchgeführt, wobei die Vorrichtung einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen. Das Verfahren umfasst Anzeigen eines Inhaltsfelds auf der Anzeige und zum Erfassen einer Berührung auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht. Das Verfahren umfasst ferner, während eines kontinuierlichen Erfassens der Berührung auf der berührungsempfindlichen Oberfläche, ein Erfassen einer Druck-Eingabe, der eine Erhöhung der Intensität des Kontakts über eine jeweilige Intensitätsschwelle umfasst, während der Fokus-Selektor über dem Inhaltsfeld ist und in Reaktion auf das Erfassen den Druck-Eingabe, eine Anzeige eines Inhaltsmenüs, das Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet. Das Verfahren umfasst auch, während eines kontinuierlichen Erfassens der Berührung auf der berührungsempfindlichen Oberfläche und während der Anzeige des Inhaltsmenüs, ein Erfassen der Bewegung des Kontakts, der der Bewegung des Fokus-Selektors über einer Darstellung eines ersten Inhaltselements in dem Inhaltsmenü entspricht, und als Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, eine Vorschau des ersten Inhaltselements in dem Inhaltsfeld anzeigt. Das Verfahren umfasst ferner ein Erfassen einer Bestätigungseingabe während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements in dem Inhaltsmenü und als Reaktion auf ein Erfassen der Bestätigungseingabe, ein Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die konfiguriert ist um ein Inhaltsfeld anzuzeigen, eine berührungsempfindliche Oberflächeneinheit, die konfiguriert ist um Benutzerkontakte zu empfangen, eine oder mehrere Sensoreinheiten, die konfiguriert sind, um die Intensität der Kontakte mit der berührungsempfindlichen Oberflächeneinheit zu erfassen und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindliche Oberflächeneinheit und den Sensoreinheiten gekoppelt ist. Die Verarbeitungseinheit ist konfiguriert, um einen Kontakt auf der berührungsempfindlichen Oberflächeneinheit zu erfassen, wobei der Kontakt einem Fokus-Selektor auf der Anzeigeeinheit entspricht und während eines kontinuierlichen Erfassens der Berührung auf der berührungsempfindlichen Oberfläche, eine Druck-Eingabe zu erkennen, die eine Erhöhung der Intensität des Kontakts über einer entsprechenden Intensitätsschwelle beinhaltet während der Fokus-Selektor über dem Inhaltsfeld ist und als Reaktion auf die Erfassung der Druck-Eingabe, eine Anzeige eines Inhaltsmenüs aktivieren, die die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet.
  • Die Verarbeitungseinheit ist auch konfiguriert, um, während eines kontinuierlichen Erfassens der Berührung auf der berührungsempfindlichen Oberfläche und während der Anzeige des Inhaltmenüs, eine Bewegung des Kontakts, das der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements entspricht, zu erfassen und als Reaktion auf den Fokus-Selektor, der über die Darstellung des ersten Inhaltselements im Inhaltsmenü ist, eine Anzeige einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld zu aktivieren. Die Verarbeitungseinheit ist ferner konfiguriert, um eine Bestätigungseingabe, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, zu erfassen und in Reaktion auf die Erfassung der Bestätigungseingabe, das erste Inhaltselement in das Inhaltfeld einzufügen.
  • Somit, werden elektronische Vorrichtungen mit Anzeigen, berührungsempfindlichen Oberflächen und einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, mit schnelleren, effizienteren Methoden und Schnittstellen für die Vorschau und Auswahl von Inhaltselementen bereitgestellt, wodurch eine die Effektivität, Effizienz und Zufriedenheit der Benutzer mit solchen Vorrichtungen erhöht wird. Derartige Verfahren und Schnittstellen können herkömmliche Verfahren zur Vorschau und Auswahl von Inhaltselementen ergänzen oder ersetzen.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Methoden und Schnittstellen zum Bewegen und Ablegen einer Benutzerschnittstellenobjekt. Derartige Verfahren und Schnittstellen können als Ergänzung oder Ersatz herkömmlicher Methoden zum Verschieben und Ablegen eines Benutzerschnittstellenobjekts gesehen werden. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer und erzeugen eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Vorrichtungen, sparen solche Methoden und Schnittstellen Energie und erhöhen die Zeit bis der Akku wieder aufgeladen wird.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren in einem elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren durchgeführt, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen. Das Verfahren umfasst: Erfassen einer Berührung mit der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, der die Bewegung eines entsprechenden Benutzerschnittstellenobjekts steuert, das derzeit ausgewählt ist; und während kontinuierlichem Erfassen des Kontakts auf der berührungsempfindlichen Oberfläche: ein Erfassen ersten Kontakts über die berührungsempfindliche Oberfläche entsprechend der Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf das Erfassen des ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche:
    Ein Bewegen des Fokus-Selektors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des jeweiligen Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors, und Bestimmen einer Intensität des Kontaktes auf der berührungsempfindlichen Oberfläche, während der Fokus-Selektor an der jeweiligen Stelle auf der Anzeige ist; ein Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, die auf die Bewegung des Fokus-Selektors von der jeweiligen Stelle entspricht; und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: in Übereinstimmung mit einer Bestimmung, dass der Kontakt die jeweiligen Intensitätskriterien erfüllt, den Fokus-Selektor und das Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung des Kontakts über der berührungsempfindlichen Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt nicht die jeweilige Intensitätskriterien erfült, den Fokus-Selektor in Übereinstimmung mit dem zweiten Bewegung der Kontakt über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, die eine Anzeigeeinheit; eine berührungsempfindliche Oberflächeneinheit. die konfiguriert ist, um Kontakte aufzunehmen; ein oder mehrere Sensoreinheiten die konfiguriert sind, um die Intensität der Kontakte mit der berührungsempfindlichen Oberflächeneinheit zu erfassen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindlichen Oberflächeneinheit und den Sensoreinheiten verbunden ist.
  • Die Verarbeitungseinheit ist konfiguriert um: einen Kontakt mit der berührungsempfindlichen Oberflächeneinheit zu erkennen, wobei der Kontakt mit einem Fokus Selektor verbunden ist, der die Bewegung eines entsprechenden Benutzerschnittstellenobjekts steuert, das derzeit ausgewählt ist; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberflächeneinheit: eine erste Bewegung des Kontakts über der berührungsempfindliche Oberflächeneinheit erkennen, die entsprechend der Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit: eine Bewegung des Fokus-Selektors auf der Anzeigeeinheit in Übereinstimmung mit der ersten Bewegung des Kontakts und den entsprechenden Benutzerschnittstellenobjekt in Übereinstimmung mit der Bewegung des Fokus Selektor bewegen und die Intensität des Kontaktes auf der berührungsempfindlichen Oberflächeneinheit bestimmen während der Fokus-Selektor an der betreffenden Stelle auf der Anzeigeeinheit ist; ein Erkennen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit, die auf der Bewegung des Fokus-Selektors von der jeweiligen Stelle entspricht; und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit: in Übereinstimmung mit einer Bestimmung, dass der Kontakt die jeweiligen Intensitätskriterien erfüllt, ein Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über der berührungsempfindlichen Oberflächeneinheit; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt nicht die jeweilige Intensitätskriterien erfüllt, ein Bewegen des Fokus-Selektor in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit, ohne das Benutzerschnittstellenobjekt zu bewegen.
  • Somit werden elektronische Vorrichtungen mit Anzeigen, berührungsempfindlichen Oberflächen, und einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, mit schnelleren, effizienteren Methoden und Schnittstellen zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts bereitgestellt, um die Effektivität, Effizienz und Zufriedenheit der Benutzer mit solchen Vorrichtungen zu erhöhen. Derartige Verfahren und Schnittstellen können herkömmlicher Methoden zum Verschieben und Ablegen eines Benutzerschnittstellenobjekts ergänzen oder ersetzen.
  • Es besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Methoden und Schnittstellen zum Durchführen einer Operation gemäß einem ausgewählten Betriebsmodus. Derartige Verfahren und Schnittstellen können herkömmlicher Verfahren zum Ausführen einer Operation gemäß einem ausgewählten Betriebsmodus ergänzen oder ersetzen. Solche Methoden und Schnittstellen reduzieren die kognitive Belastung für einen Benutzer und erzeugen eine effizientere Mensch-Maschine-Schnittstelle. Für batteriebetriebene Vorrichtungen, sparen solche Methoden und Schnittstellen Energie und erhöhen die Zeit bis der Akku wieder aufgeladen wird.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, durchgeführt. Das Verfahren umfasst: ein Anzeigen, in der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; ein Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei ein Erfassen der Sequenz von Eingaben, ein Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der kontinuierlich auf der berührungsempfindlichen Oberfläche während der Sequenz von Eingaben erfasst wird, beinhaltet, wobei die Sequenz von Eingaben eine erste Eingabe und eine zweite Eingabe enthält, wobei die erste Eingabe das Erfassen einer Erhöhung in der Intensität des jeweiligen Kontakts und die zweite Eingabe das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet. Das Verfahren umfasst ferner, in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe eine Erhöhung der Intensität der jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle nicht beinhaltet, der in einem ersten Betriebsmodus arbeitend während die zweite Eingabe, und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe das Erhöhen der Intensität des jeweiligen Kontakts über dem Modus-Auswahlintensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus arbeitend, die sich von dem ersten Betriebsmodus unterscheidet, während die zweite Eingabe; und in Reaktion auf die Erfassung der zweiten Eingabe, eine Operation in Übereinstimmung mit dem zweiten Eingabe durchführt, basierend zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder dem zweiten Betriebsmodus arbeitet.
  • In Übereinstimmung mit manchen Ausführungsformen, beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die konfiguriert ist, um eine Benutzerschnittstelle für die elektronische Vorrichtung anzeigen, eine berührungsempfindliche Oberfläche, die konfiguriert ist, um Eingaben zu empfangen, einem oder mehreren Sensoren, die konfiguriert sind, um die Intensität der Kontakte mit der berührungsempfindliche Oberflächeneinheit zu erfassen und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindlichen Oberflächeneinheit und den Sensoren gekoppelt ist. Die Verarbeitungseinheit ist konfiguriert, zum: Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberflächeneinheit, wobei ein Erfassen der Sequenz von Eingaben, ein Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, die auf der berührungsempfindlichen Oberflächeneinheit fortlaufend, während die Sequenz von Eingaben erfasst werden, beinhaltet, die Sequenz von Eingaben beinhaltet eine erste Eingabe und eine zweite Eingabe, wobei die erste Eingabe das Erfassen einer Erhöhung in der Intensität des jeweiligen Kontakts und die zweite Eingabe das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberflächeneinheit beinhaltet. Die Verarbeitungseinheit ist ferner konfiguriert, um in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahlintensitätsschwelle nicht beinhaltet, arbeiten in einem erstem Betriebsmodus, während der zweite Eingabe und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe das Erhöhen der Intensität die jeweiligen Kontakt über die Modus-Auswahlintensitätsschwelle, arbeiten in einer zweiten Betriebsmodus, die sich von dem ersten Betriebsmodus, während der zweiten Eingabe; und in Reaktion auf die Erfassung der zweiten Eingabe, eine Operation in Übereinstimmung mit dem zweiten Eingabe der Grundlage durchführt, wenigstens zum Teil basierend darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet.
  • Somit werden elektronischen Vorrichtungen mit Anzeigen, berührungsempfindliche Oberflächen, und einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, mit schnelleren, effizienteren Methoden und Schnittstellen für eine Durchführung einer Operation in Übereinstimmung mit einem ausgewählten Betriebsmodus, wodurch die Effektivität, Effizienz und Benutzerzufriedenheit mit solchen Vorrichtungen zunimmt. Derartige Verfahren und Schnittstellen können herkömmlicher Verfahren zum Ausführen einer Operation gemäß einem ausgewählten Betriebsmodus ergänzen oder ersetzen.
  • In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung, eine Anzeige, eine berührungsempfindlicher Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme; die ein oder mehrere Programme sind im Speicher gespeichert und konfiguriert, dass sie durch den einen oder die mehreren Prozessoren ausführbar sind, und die ein oder mehrere Programme umfassen Anweisungen zum Ausführen der Operationen nach einem der in Absatz [0043] genannten Verfahren. In Übereinstimmung mit einigen Ausführungsformen beinhaltet, eine grafische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, eine berührungsempfindliche Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, zum Ausführen eines oder mehrere Programme, die im Speicher abgelegt sind, einen oder mehrere Elemente, die in einer der in Absatz [0043] bezeichneten Verfahren angezeigt sind, die als Reaktion auf Eingaben aktualisiert werden, wie in einem der in Absatz [0043] genannten Methoden beschrieben. In Übereinstimmung mit einigen Ausführungsformen ist ein computerlesbares Speichermedium, mit darin gespeicherten Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, und gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, führen sie die Vorrichtung dazu, die Operationen von einer der in Absatz [0043] genannten Methoden durchzuführen. In Übereinstimmung mit manchen Ausführungsformen umfasst eine elektronische Vorrichtung: eine Anzeige, eine berührungsempfindliche Oberfläche und wahlweise einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Durchführen der Operationen von einer der in Absatz [0043] genannten Methoden. In Übereinstimmung mit einigen Ausführungsformen einer Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche, gegebenenfalls einen oder mehrere Sensoren, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche zu erfassen, beinhaltet Mittel zum Durchführen der Operationen von einer der in Absatz [0043] genannten Methoden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Zum besseren Verständnis der verschiedenen beschriebenen Ausführungsformen, sei auf die Beschreibung der Ausführungsformen verwiesen, in Verbindung mit den unten folgenden Zeichnungen, in denen gleiche Bezugszeichen sich auf entsprechende Teile in den Figuren beziehen.
  • 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten für die Ereignisverarbeitung in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
  • 2 zeigt eine tragbare Multifunktionsvorrichtung mit einem Berührungsbildschirm in Übereinstimmung mit einigen Ausführungsformen.
  • 3 zeigt ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B zeigt eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen Oberfläche, der von der Anzeige getrennt ist, in Übereinstimmung mit einigen Ausführungsformen.
  • Die 5A5N zeigen beispielhafte Benutzerschnittstellen für die Vorschau und Auswahl von Inhaltselementen in Übereinstimmung mit einigen Ausführungsformen.
  • Die 6A6C sind Flussdiagramme, die ein Verfahren zur Vorschau und Auswahl von Inhaltselementen in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 7 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 8A bis 8J zeigen beispielhafte Benutzerschnittstellen zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts in Übereinstimmung mit einigen Ausführungsformen.
  • Die 9A9C sind Flussdiagramme, die ein Verfahren zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts in Übereinstimmung mit einigen Ausführungsformen veranschaulichen.
  • 10 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Die 11A11W veranschaulicht beispielhafte Benutzerschnittstellen zum Ausführen einer Operation gemäß einem ausgewählten Betriebsmodus in Übereinstimmung mit manchen Ausführungsformen.
  • Die 12A12D sind Ablaufdiagramme, die ein Verfahren zum Durchführen einer Operation gemäß einem ausgewählten Betriebsmodus in Übereinstimmung mit manchen Ausführungsformen veranschaulichen.
  • 13 ist ein Funktionsblockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die Verfahren, Vorrichtungen und grafische Benutzerschnittstellen, die hier beschrieben sind, stellen visuelle und/oder haptische Rückmeldung bereit, das eine Manipulation von Benutzerschnittstellenobjekten effizienter und intuitiv für einen Benutzer macht. Zum Beispiel in einem System, wo das Klickwirkung eines Trackpads von der Kontaktintensität entkoppelt ist (z. B. Kontaktkraft, Kontaktdruck oder ein Ersatz dafür), die erforderlich ist, um eine Aktivierungsschwelle zu erreichen, kann die Vorrichtung unterschiedliche taktile Ausgaben erzeugen (z. B. ”verschiedene Klicks”) für verschiedene Aktivierungsereignisse (z. B. so, dass Klicks, die ein bestimmtes Ergebnis erreichen unterschieden werden von Klicks, die kein Ergebnis produzieren, oder die ein anderes Ergebnis aus dem bestimmten Ergebnis produzieren). Zusätzlich können taktile Ausgaben als Reaktion auf andere Ereignisse, die nicht mit einer Erhöhung der Intensität eines Kontakts verbunden sind, wie das Erzeugen einer taktilen Ausgabe (z. B. ein ”Rast”) erzeugt werden, wenn ein Benutzerschnittstellenobjekt zu einer bestimmten Position bewegt wird, Grenze oder Orientierung, oder wenn ein Ereignis auf der Vorrichtung stattfindet.
  • Zusätzlich kann in einem System, wo ein Trackpad oder eine Berührungsbildschirm-Anzeige empfindlich gegenüber einer Reihe von Kontaktintensitäten ist, die mehr als eine oder zwei bestimmte Intensitätswerte enthält (beispielsweise mehr als ein einfaches Ein/Aus, binäre Intensitätsbestimmung) kann die Benutzerschnittstelle Reaktionen bereitzustellen (z. B. visuelle oder taktile Signale), die indikativ für die Intensität des Kontaktes innerhalb der Reichweite sind. In einigen Implementierungen wird eine Voraktivierung-Schwellenreaktion und/oder ein post-Aktivierung-Schwellenreaktion auf eine Eingabe als kontinuierliche Animation angezeigt. Als ein Beispiel einer solchen Reaktion wird eine Vorschau einer Operation in Reaktion auf eine Erfassung einer Erhöhung einer Kontaktintensität, die noch unterhalb einer Aktivierungsschwelle für die Durchführung der Operation ist, angezeigt. Als weiteres Beispiel für eine solche Reaktion, wird eine Animation, die einer Operation zugeordnet ist, fortgesetzt, auch nachdem die Aktivierungsschwelle für den Betrieb erreicht wurde. Beide Beispiele geben einen Benutzer mit einer kontinuierlichen Reaktion auf die Kraft oder den Druck der Berührung eines Benutzers, die einem Benutzer mit einer visuellen und/oder haptischen Rückmeldung, die reicher und intuitiv ist, bereitstellt. Genauer gesagt, geben solche Dauerkraft-Reaktionen dem Benutzer die Erfahrung fähig zu sein leicht zu drücken, um eine Vorschau einer Operation zu erhalten und/oder tief ”hinter” oder ”durch” einen vordefinierten Benutzerschnittstelle-Zustand entsprechend des Betriebs, zu drücken.
  • Zusätzlich kann für eine Vorrichtung mit einer berührungsempfindlichen Oberfläche, die gegenüber einem Bereich der Kontaktintensität sensibel ist, mehrere Kontaktintensitätsschwellen können von der Vorrichtung überwacht werden und verschiedene Funktionen können unterschiedlichen Kontaktintensitätsschwellen zugeordnet werden. Dies dient dazu, den verfügbaren ”Gesten-Raum” zu erhöhen, der einen einfachen Zugang zu erweiterten Funktionen für Benutzer bereitstellt, die wissen, dass die Erhöhung der Intensität eines Kontakts an oder jenseits eines zweiten ”tief drücken”-Intensitätsschwelle wird die Vorrichtung dazu veranlassen, eine andere Operation von einer Operation durchführen, die durchgeführt werden würde, wenn die Intensität des Kontaktes zwischen einer ersten ”Aktivierung”-Intensitätsschwelle und der zweite ”tief drücken”-Intensitätsschwelle ist. Ein Vorteil der Zuweisung zusätzlicher Funktionalität zu einer zweiten ”tief drücken”-Intensitätsschwelle, während vertraute Funktionalität bei einer ersten ”Aktivierung”-Intensitätsschwelle beibehalten wird, ist, dass unerfahrene Nutzer, die unter Umständen durch die zusätzliche Funktionalität verwirrt sind, können die vertraute Funktionalität nutzen, durch ein einfaches Anlegen einer Intensität bis zur ersten ”Aktivierung”-Intensitätsschwelle, während erfahrene Benutzer die Vorteile der zusätzlichen Funktionen nutzen können, indem eine Intensität an der zweiten ”tief drücken”-Intensitätsschwelle angewendet wird.
  • Zusätzlich kann, für eine Vorrichtung mit einer berührungsempfindlichen Oberfläche, die empfindlich auf eine Reihe von Kontaktintensität ist, die Vorrichtung zusätzliche Funktionen bereitstellen, indem Benutzer erlaubt wird, komplexe Operationen mit einem einzigen kontinuierlichen Kontakt durchzuführen. Zum Beispiel, wenn eine Gruppe von Objekten selektiert wird, kann ein Benutzer einen kontinuierlichen Kontakt rund um die berührungsempfindliche Oberfläche bewegen und kann während dem Ziehen drücken (z. B. Anlegen einer Intensität größer als eine ”tief drücken”-Intensitätsschwelle), um zusätzliche Elemente einer Auswahl hinzuzufügen, drücken. Auf diese Weise kann ein Benutzer intuitiv mit einer Benutzerschnittstelle interagieren, in dem festeres Drücken mit einem Kontakt Objekte in der Benutzerschnittstelle ”klebriger”-sein lässt, bewirkt.
  • Eine Anzahl unterschiedlicher Ansätze für eine intuitive Benutzerschnittstelle auf einer Vorrichtung, bei der eine Klickwirkung von der Kraft entkoppelt ist, die erforderlich ist, um eine Aktivierungsschwelle zu erreichen und/oder die Vorrichtung ist empfindlich gegenüber einer Vielzahl von Kontaktintensitäten, wie unten beschrieben. Verwendung einer oder mehrerer dieser Ansätze (gegebenenfalls in Verbindung miteinander) hilft, eine Benutzerschnittstelle, die intuitiv Benutzern zusätzliche Informationen und Funktionen bietet, wodurch die kognitive Belastung des Benutzers verringert und eine Verbesserung der Mensch-Maschine-Schnittstelle bereitgestellt wird. Durch derartige Verbesserungen in der Mensch-Maschine-Schnittstelle können Benutzer, die Vorrichtung schneller und effizienter zu nutzen. Für batteriebetriebene Vorrichtungen, sparen diese Verbesserungen Energie und erhöhen die Zeit bis der Akku wieder aufgeladen wird. Zur Vereinfachung der Erläuterung, Systeme, Verfahren und Benutzerschnittstellen für mit erläuternden Beispielen einiger dieser Ansätze werden nachstehend wie folgt beschrieben: Viele elektronische Vorrichtungen verfügen über grafische Benutzerschnittstellen, die Inhaltselemente anzeigen (z. B. ein Foto in einem Fotoalbum). Inhaltselemente können auf verschiedene Arten, darunter beispielsweise die Auswahl, Vorschau oder neu anordnen von Fotos innerhalb eines Fotoalbums individuell, angepasst werden. Solche Operationen erfordern oft mehrere aufeinanderfolgende Eingaben, die zeitaufwendig und verwirrend für die Nutzer sein können. Die nachfolgend beschriebenen Ausführungsformen stellen eine bequeme und intuitive Methode der Vorschau von Inhaltselementen und eine Auswahl angesehener Inhaltselemente in Übereinstimmung mit einer Intensität von einem Kontakt dar. Insbesondere 5A5N zeigen beispielhafte Benutzerschnittstellen für Vorschau und Auswahl (beispielsweise in Übereinstimmung mit Benutzereingaben auf einer berührungsempfindlichen Oberfläche) Inhaltselemente entsprechend einem Inhaltsfeld in Übereinstimmung mit einigen Ausführungsformen. 6A bis 6C sind Flussdiagramme, die ein Verfahren zur Vorschau und Auswahl (beispielsweise in Übereinstimmung mit Benutzereingaben auf einer berührungsempfindlichen Oberfläche) von Inhaltselementen entsprechend einem Inhaltsfeld in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Die Benutzerschnittstellen in den 5A5N werden ferner dazu verwendet, die nachstehend unter Bezugnahme auf die 6A6C beschriebenen Verfahren zu veranschaulichen. Viele elektronische Vorrichtungen haben graphische Benutzerschnittstellen, die einem Benutzer erlauben, ein Benutzerschnittstellenobjekt zu bewegen, beispielsweise ein Symbol. Manchmal wird ein Benutzer benötigt, um mehrere aufeinander folgende Eingabeoperationen durchführen, um ein Benutzerschnittstelleobjekt so wie Klicken, Ziehen und unclicking. Dies kann zeitaufwendig, verwirrend und störend auf die Interaktion eines Benutzers mit der Vorrichtung sein. Die nachfolgend beschriebenen Ausführungsformen stellen ein bequemes und intuitives Verfahren zum Bewegen von Benutzerschnittstellenobjekten und zum Aufzuhören einer Bewegung von Benutzerschnittstellenobjekten bereit, basierend auf der Intensität eines kontinuierlich erfassten Kontakts, wodurch eine komfortable und intuitive Benutzerschnittstelle zum Verschieben von Benutzerschnittstellenobjekten bereitgestellt wird. Insbesondere 8A bis 8J zeigen beispielhafte Benutzerschnittstellen zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts. 9A9C sind Flussdiagramme, die ein Verfahren zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts. Die Benutzerschnittstellen in den 8A8J werden verwendet, um die Prozesse in den 9A bis 9C zu veranschaulichen. Viele elektronische Vorrichtungen verfügen über Benutzerschnittstellen, in welchen mehrere Operationen, optional, durch eine gleiche Gestenart ausgeführt werden. In einigen Situationen kann ein Benutzer zwischen den Betriebsmodi wechseln, durch die Auswahl eines anderen Modus aus einem Menü von Optionen oder einen zweiten Kontakt zusätzlich zu der Geste zum Aktivieren der Operation. Allerdings sind diese Ansätze für die Umschaltung zwischen Betriebsmodi ineffizient und verwirrend und schwierig für die Nutzer zu merken. Die nachfolgenden beschriebenen Ausführungsformen stellen ein bequemes und intuitives Verfahren zum Wechseln zwischen verschiedenen Betriebsmodi durch die Auswahl des Betriebsmodus in Übereinstimmung mit einer Intensität einer Eingabe auf einer berührungsempfindlichen Oberfläche dar. Unten, veranschaulichen 11A11W beispielhafte Benutzerschnittstellen für eine Durchführung einer Operation in Übereinstimmung mit einem ausgewählten Betriebsmodus. 12A12D sind Ablaufdiagramme, die ein Verfahren zum Durchführen einer Operation gemäß einem ausgewählten Betriebsmodus veranschaulichen. Die Benutzerschnittstellen in den 11A11W verwendet werden, um die Prozesse in den 12A bis 12D zu veranschaulichen.
  • Beispielhafte Vorrichtungen
  • Es wird nun im Detail auf Ausführungsformen verwiesen, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Jedoch wird es offensichtlich sein für einen Fachmann, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details praktiziert werden kann. In anderen Fällen sind gut bekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben, um nicht unnötig Aspekte der beschriebenen Ausführungsformen beschrieben, zu verschleiern.
  • Es wird auch verstanden werden, dass, obwohl die Ausdrücke erste, zweite usw. sind, in einigen Fällen, die hier verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Ausdrücke begrenzt sein. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erster Kontakt als einen zweiten Kontakt bezeichnet werden, und in ähnlicher Weise könnte als ein zweiter Kontakt ein erster Kontakt bezeichnet werden, ohne von dem Umfang der verschiedenen beschriebenen Ausführungsformen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beide Kontakte, aber sie sind nicht der gleiche Kontakt.
  • Die in der Beschreibung der verschiedenen beschriebenen Ausführungsformen verwendeten Terminologie hierin sind zum Zweck der Beschreibung bestimmter Ausführungsformen und ist nicht dazu gedacht, einschränkend zu sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den beigefügten Ansprüchen verwendet, die Singularformen ”ein”, ”eine” und ”der” sollen auch die Pluralformen umfassen, sofern der Kontext nicht eindeutig etwas anderes angibt. Es wird auch verstanden werden, dass der Begriff ”und/oder”, wie er hier verwendet wird, bezeichnet und umfasst jegliche und alle möglichen Kombinationen von einem oder mehreren der zugeordneten aufgelisteten Elemente. Es versteht sich ferner, dass die Begriffe ”umfasst”, ”enthalten”, ”umfasst” und/oder ”umfassend”, wenn sie in dieser Beschreibung verwendet werden, die Anwesenheit der angegebenen Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, jedoch nicht das Vorhandensein oder Hinzufügen von einem oder mehreren anderen Merkmalen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.
  • Wie hierin verwendet, bedeutet der Ausdruck ”wenn” ist, wahlweise, ausgelegt um zu bedeuten ”wenn” oder ”auf” oder ”in Antwort auf die Bestimmung” oder ”in Reaktion auf das Erfassen,” je nach Kontext. Auch die Formulierung ”wenn festgestellt wird,” oder ”,wenn [bestimmte Bedingungen oder Event] erkannt wird” ist wahlweise auszulegen als, ”bei der Feststellung” als Antwort auf meine oder ”Bestimmung” oder ”beim Erfassen [den angegebenen Bedingungen oder Ereignisse]” oder ”in Reaktion auf das Erkennen [den angegebenen Bedingungen oder Ereignisse],” je nach Kontext.
  • Ausführungsbeispiele der elektronischen Vorrichtungen, Benutzerschnittstellen für solche Vorrichtungen und zugehörige Verfahren zur Verwendung solcher Vorrichtungen werden beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie etwa ein Mobiltelefon, das auch andere Funktionen, wie PDA und/oder Musikspielerfunktionen enthält. Ausführungsbeispiele der tragbaren Multifunktionsvorrichtungen beinhalten, ohne Einschränkung, das iPhone (R), iPod Touch (R) und iPad (R) Vorrichtungen von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Vorrichtungen wie Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Berührungsbildschirm-Anzeigen und/oder Touch-Pads) werden wahlweise verwendet. Es sollte auch verstanden werden, dass in einigen Ausführungsformen ist die Vorrichtung nicht eine tragbare Kommunikationsvorrichtung, sondern ist ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche (z. B. einer Berührungsbildschirmanzeige und/oder ein Berührungsfeld).
  • In der folgenden Diskussion, ist ein elektronische Vorrichtung, die eine Anzeige und eine berührungsempfindliche Oberfläche beinhaltet, beschrieben. Es sollte jedoch verstanden werden, dass die elektronische Vorrichtung wahlweise eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen umfasst, wie eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Das Vorrichtung unterstützt in der Regel eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der folgenden Eigenschaften: eine Zeichenanwendung, eine Präsentationsanwendung, ein Textverarbeitungsprogramm, eine Website Applikationserstellung, einen Datenträger-Authoring-Anwendung, eine Tabellenkalkulation, ein Spiel-Anwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine E-Mail-Anwendung, ein Instant-Messaging-Anwendungen, ein Workout-Support-Anwendung, ein Foto-Management-Anwendung, eine digitale Kamera-Anwendung, eine digitale Videokamera-Anwendung, ein Web-Browsing-Anwendung, eine digitale Musik-Player-Anwendung, und/oder eine digitaler Video-Player-Anwendung.
  • Die verschiedenen Anwendungen, die auf dem Vorrichtung ausgeführt werden, verwenden gegebenenfalls mindestens eine gemeinsame physikalische Benutzerschnittstelleneinrichtung, wie beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie entsprechende Informationen die auf der Vorrichtung angezeigt werden, die gegebenenfalls von einer Anwendung zur nächsten und/oder innerhalb einer jeweiligen Anwendung angepasst und/oder variiert sind. Auf diese Weise unterstützt eine gemeinsame physische Architektur (wie etwa die berührungsempfindliche Oberfläche) der Vorrichtung wahlweise die Vielzahl von Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent für den Benutzer sind.
  • Die Achtung wird nun in Richtung von Ausführungsformen von tragbaren Vorrichtungen mit berührungsempfindlichen Anzeigen gerichtet. 1A ist ein Blockdiagramm, welches eine tragbare Multifunktionsvorrichtung 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsformen veranschaulicht. Die berührungsempfindliche Anzeige 112 wird manchmal auch als ”Berührungsbildschirm” aus Bequemlichkeit genannt, und ist manchmal bekannt oder genannt als ein berührungsempfindliches Anzeige-System. Vorrichtung 100 umfasst einen Speicher 102 (der gegebenenfalls ein oder mehrere computerlesbare Speichermedien), die Speichersteuerung 122, eine oder mehrere Verarbeitungseinheiten (CPU) 120, Peripherieschnittstelle 118, HF-Schaltung 108, Audioschaltung 110, Lautsprecher 111, Mikrofon 113, Eingabe/Ausgabe (I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und den externen Port 124. Vorrichtung 100 umfasst optional einen oder mehrere optische Sensoren 164. Vorrichtung 100 umfasst optional einen oder mehrere Intensitätssensoren 165 zum Erfassen der Intensität von Kontakten auf der Vorrichtung 100 (beispielsweise einer berührungsempfindlichen Oberfläche, wie etwa das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 umfasst optional einen oder mehrere taktile Ausgabeerzeuger 167 zur Erzeugung von taktilen Ausgaben auf der Vorrichtung 100 (beispielsweise die Erzeugung taktiler Ausgaben auf einer berührungsempfindlichen Oberfläche, wie etwa das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100 oder die Touchpad-Vorrichtung 355 der Vorrichtung 300). Diese Komponenten kommunizieren über gegebenenfalls einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und den Ansprüchen benutzt, entspricht der Begriff ”Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche der Kraft oder des Drucks (Kraft pro Flächeneinheit) eines Kontakts (zum Beispiel ein Fingerkontakt) auf die berührungsempfindliche Oberfläche oder auf einen Ersatz (Proxy) für die Kraft oder der Druck eines Kontakts auf der berührungsempfindlichen Oberfläche. Die Intensität eines Kontakts hat einen Wertebereich, der mindestens vier verschiedene Werte beinhaltet und typischerweise hunderte von verschiedenen Werten enthält (z. B. mindestens 256). Eine Intensität einer Kontaktierung wird, gegebenenfalls, (oder gemessen) unter Verwendung verschiedener Ansätze und verschiedene Sensoren oder Kombinationen von Sensoren bestimmt. Zum Beispiel ein oder mehrere Kraftsensoren, die unterhalb oder benachbart zu der berührungsempfindlichen Oberfläche sind, werden wahlweise verwendet, um Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche zu messen. In einigen Implementierungen werden Kraftmessungen von mehreren Kraftsensoren kombiniert (beispielsweise ein gewichteter Mittelwert), um eine geschätzte Kraft einer Berührung zu bestimmen. Ähnlich wird eine druckempfindliche Spitze eines Stifts, gegebenenfalls verwendet, um einen Druck des Stiftes auf der berührungsempfindlichen Oberfläche zu bestimmen. Alternativ kann die Größe der Kontaktfläche auf der berührungsempfindlichen Oberfläche und/oder Änderungen daran, die Kapazität der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen daran, und/oder der Widerstand der berührungsempfindlichen Oberfläche nahe dem Kontakt und/oder Änderungen daran, die gegebenenfalls als Ersatz für die Kraft oder den Druck der Berührung auf der berührungsempfindlichen Oberfläche verwendet werden, erkannt werden. In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder Druck direkt verwendet, um zu bestimmen, ob eine Intensitätsschwelle überschritten worden ist (beispielsweise wird die Intensitätsschwelle in Einheiten entsprechend den Ersatzmessungen beschrieben). In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder Druck zu einer geschätzte Kraft oder einem geschätztem Druck umgewandelt und die geschätzte Kraft oder der geschätzte Druck werden verwendet, um zu bestimmen, ob eine Intensitätsschwelle überschritten wurde (z. B. ist die Intensitätsschwelle eine Druckschwelle gemessen in Einheiten des Drucks).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bedeutet der Begriff ”taktile Ausgabe” eine körperliche Verschiebung der Vorrichtung relativ zu einer früheren Position der Vorrichtung, körperliche Verschiebung einer Komponente (beispielsweise eine berührungsempfindliche Oberfläche) einer Vorrichtung relativ zu einer anderen Komponente (z. B. Gehäuse) der Vorrichtung oder eine Verschiebung der Komponente relativ zu einem Zentrum der Masse der Vorrichtung, die von einem Benutzer mit der Tastsinn des Benutzers erkannt wird. Zum Beispiel in Situationen, in denen die Vorrichtung oder die Komponente der Vorrichtung in Kontakt mit einer Oberfläche eines Benutzers, die empfindlich auf eine Berührung (beispielsweise einen Finger, eine Handfläche, oder einen anderen Teil der Hand des Benutzers) ist, wird, die taktile Ausgabe, die durch die physikalische Verschiebung erzeugt wird, von dem Benutzer als eine taktile Empfindung interpretiert werden, die einer wahrgenommenen Änderung der physikalischen Eigenschaften der Vorrichtung oder der Komponente der Vorrichtung entspricht. Zum Beispiel wird die Bewegung einer berührungsempfindlichen Oberfläche (z. B. eine berührungsempfindliche Anzeige oder Trackpad) gegebenenfalls vom Benutzer als ”down Klick” oder ”up Klick” eines physischen Betätigungsknopfs interpretiert.
  • In einigen Fällen wird ein Benutzer eine taktile Empfindung fühlen, wie einen ”down Klick” oder ”up Klick”, auch wenn es keine Bewegung eines physikalischen Betätigungsknopfs, der mit der berührungsempfindlichen Oberfläche verbunden ist und der physisch (z. B. verschoben) durch eine Bewegungen des Benutzers gedrückt wird, gibt. Als weiteres Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche, gegebenenfalls, durch den Benutzer als ”Rauhigkeit” der berührungsempfindlichen Oberfläche interpretiert oder gefühlt, selbst wenn es keine Veränderung der Glätte der berührungsempfindlichen Oberfläche gibt. Während solche Interpretationen der Berührung durch einen Benutzer den individualisierten Sinneswahrnehmungen des Benutzers unterliegen, gibt es viele Sinneswahrnehmungen einer Berührung, die für eine große Mehrheit der Nutzer gemeinsam sind. Wenn somit eine taktile Ausgabe als einer bestimmten Sinneswahrnehmung eines Benutzers (z. B. ein ”up Klick”, ein ”down Klick”, ”Rauhigkeit”) entsprechend beschrieben wird, wenn nicht anders angegeben, entspricht die erzeugte taktile Ausgabe einer physischen Verschiebung der Vorrichtung oder einer Komponente davon, welche die beschriebene sensorische Wahrnehmung für einen typischen (oder durchschnittlichen) Benutzer erzeugt.
  • Es sollte klar sein, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung ist und die Vorrichtung 100 wahlweise mehr oder weniger Komponenten als gezeigt hat, gegebenenfalls kombiniert sie zwei oder mehr Komponenten oder sie hat gegebenenfalls eine unterschiedliche Konfiguration oder Anordnung der Komponenten. Die verschiedenen in 1A gezeigten Komponenten sind in Hardware, Software oder einer Kombination aus Hardware und Software implementiert, einschließlich eines oder mehrerer Signalverarbeitung und/oder anwendungsspezifischen integrierten Schaltungen.
  • Der Speicher 102 umfasst wahlweise Hochgeschwindigkeits-Direktzugriffsspeicher und gegebenenfalls auch nicht-flüchtigen Speicher, wie etwa eine oder mehrere Magnetplattenspeichervorrichtungen, Flashspeichervorrichtungen oder andere nicht-flüchtige Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie etwa CPU 120 und die Peripherieschnittstelle 118 wird wahlweise durch die Speichersteuerung 122 gesteuert.
  • Die Peripherieschnittstelle 118 kann zur Kopplung von Eingabe- und Ausgabeperipherievorrichtungen der Vorrichtung an die CPU 120 und der Speicher 102 verwendet werden. Der eine oder die mehreren Prozessoren 120 laufen oder führen verschiedene Softwareprogramme und/oder Sätze von Anweisungen, die im Speicher 102 gespeichert sind, aus, um verschiedene Funktionen für der Vorrichtung 100 auszuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsformen, sind die Peripherieschnittstelle 118, die CPU 120 und die Speichersteuerung 122 wahlweise auf einem einzigen Chip implementiert ist, wie Chip 104. In einigen anderen Ausführungsformen, sind sie gegebenenfalls auf getrennten Chips implementiert.
  • HF(Hochfrequenz)-Schaltung 108 empfängt und sendet HF Signale, auch elektromagnetische Signale. HF-Schaltung 108 wandelt elektrische Signale in/von elektromagnetischen Signalen um und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. HF-Schaltungsanordnung 108 beinhaltet wahlweise bekannte eine Schaltungsanordnung zum Ausführen dieser Funktionen, einschließlich aber nicht beschränkt auf ein Antennensystem, ein HF-Transceiver, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC Chipsatz, eine begrenzte Teilnehmeridentitätsmodul(SIM)-Karte, Speicher und so weiter. Der HF-Schaltkreis 108 kommuniziert wahlweise mit Netzwerken, wie dem Internet, auch als World Wide Web (WWW) bezeichnet, einem Intranet und/oder einem drahtlosen Netzwerk, wie einem Mobiltelefonnetz, einem drahtlosen lokalen Netzwerk (LAN) und/oder einem Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional irgendeinen einer Vielzahl von Kommunikationsstandards, Protokollen und Technologien, einschließlich aber nicht beschränkt auf Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), High-Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Evolution, Daten-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DCHSDPA), Long Term Evolution (LTE), Near Field Communication (NFC), Wideband Code Division Multiple Access (W-CDMA), Code Division Multiple Access (CDMA), Time Division Multiple Access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.1 la, IEEE 802.1 lb IEEE 802.1 lg und/oder IEEE 802.1 In), Voice over Internet Protocol (VoIP), Wi-MAX, ein Protokoll für E-Mail (z. B.
  • Internet Message Access Protocol (IMAP) und/oder Post Office Protocol (POP)), Instant Messaging (z. B. Extensible Messaging und Presence Protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), Instant Messaging und Presence Service (IMPS)), und/oder Short Message Service (SMS), oder jede andere geeignete Kommunikationsprotokoll, einschließlich Kommunikationsprotokolle, die noch nicht zum Zeitpunkt der Einreichung dieses Dokuments Entwickelt sind.
  • Audio-Schaltung 110, Lautsprecher 111 und das Mikrofon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit.
  • Audioschaltung 110 empfängt Audiodaten von der Peripherieschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal um und überträgt das elektrische Signal an den Lautsprecher 111. Lautsprecher 111 wandelt das elektrische Signal an menschlich-hörbare Schallwellen um. Audio-Schaltung 110 empfängt auch elektrische Signale, die durch das Mikrofon 113 von Schallwellen umgewandelt sind. Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten um und überträgt die Audiodaten an die Peripherieschnittstelle 118 zur Verarbeitung. Die Audio-Daten werden, gegebenenfalls abgerufenen von und/oder übertragen zum Speicher 102 und/oder der HF-Schaltung 108 von der Peripherieschnittstelle 118. In einigen Ausführungsformen, beinhaltet die Audioschaltung 110 auch eine Kopfhörerbuchse (z. B. 212, 2). Der Kopfhörerausgang stellt eine Schnittstelle zwischen der Audioschaltung 110 und abnehmbare Audio-Eingang/Ausgang-Peripherievorrichtungen wie nur-ausgabe-Kopfhörer oder ein Headset mit beiden, Ausgabe (z. B. einen Kopfhörer für ein oder beide Ohren) und Eingabe (z. B. ein Mikrofon) bereit.
  • I/O-Untersystem 106 verknüpft Eingabe/Ausgabe-Peripherievorrichtungen auf der Vorrichtung 100, wie den Berührungsbildschirm 112 und andere Eingabesteuereinrichtungen 116, mit der Peripherieschnittstelle 118. I/O-Untersystem 106 beinhaltet wahlweise Anzeige-Steuerungen 156, optischen Sensorsteuerungen 158, die Intensität Sensorsteuerung 159, haptische Rückkopplungsregler 161 und eine oder mehrere Eingabesteuerungen 160 für andere Eingabe- oder Steuervorrichtungen. Der eine oder die mehreren Eingabesteuerungen 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabesteuervorrichtungen 116 beinhalten optional physische Tasten (z. B. Taster, Wipptasten, etc.), Zifferblätter, Schiebeschaltern, Joysticks, Klickräder, und so weiter. In einigen alternativen Ausführungsformen sind Eingabesteuerung(en) 160, gegebenenfalls, mit einem (oder keinem) der folgenden verbunden: eine Tastatur, Infrarotanschluss, USB-Anschluss und ein Zeigervorrichtung wie eine Maus. Die eine oder mehrere Tasten (z. B. 208, 2) beinhalten wahlweise eine hoch/runter-Taste zur Lautstärkeregelung des Lautsprechers 111 und/oder des Mikrofons 113. Die eine oder mehrere Tasten beinhalten wahlweise einen Taster (z. B. 206, 2).
  • Die berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Eine Anzeigesteuerung 156 empfängt und/oder sendet elektrische Signale von/zu dem Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgaben dem Benutzer an. Die visuelle Ausgabe beinhaltet wahlweise Grafiken, Text, Ikone, Video und jede Kombination davon (zusammengefasst als ”Grafik”). In einigen Ausführungsformen können einige oder alle der visuellen Ausgaben den Benutzerschnittstellenobjekten entsprechen.
  • Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder eine Reihe von Sensoren, die Eingabe vom Benutzer basierend auf einem haptischen und/oder taktilen Kontakt annehmen. Der Berührungsbildschirm 112 und die Anzeige-Steuerung 156 (zusammen mit allen zugehörigen Module und/oder Sätze von Anweisungen im Speicher 102) erkennen einen Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Berührungsbildschirm 112 und wandeln den erfassten Kontakt in eine Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Funktionstasten, Ikonen, Web-Seiten oder Bilder), die auf dem Berührungsbildschirm 112 angezeigt werden. In einer beispielhaften Ausführungsform entspricht ein Kontaktpunkt zwischen dem Berührungsbildschirm 112 und dem Benutzer einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 verwendet optional LCD(Liquid Crystal Anzeige)-Technologie, LPD (lichtemittierende Polymeranzeige) Technologie, oder LED (lichtemittierende Diode) Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden. Berührungsbildschirm 112 und Anzeige-Steuerung 156 erfasst wahlweise einen Kontakt und jede Bewegung oder davon unterbrechen unter Benutzung einer aus einer Vielzahl von berührungsempfindlichen Technologien, die jetzt bekannt sind oder später entwickelt werden, einschließlich, aber nicht beschränkt auf, kapazitiv, resistiv, Infrarot und akustische Oberflächenwellen-Technologien, sowie wie andere Näherungssensor-Arrays oder andere Elemente für die Bestimmung einer oder mehrerer Kontaktpunkte mit Berührungsbildschirm 112. In einer beispielhaften Ausführungsform wird projizierte gegenseitige Kapazitätssensortechnik eingesetzt, wie sie in dem iPhone (R), iPod Touch (R) und iPad (R) von Apple Inc. aus Cupertino, Kalifornien, gefunden wird.
  • Berührungsbildschirm 112 hat gegebenenfalls eine Videoauflösung von über 100 dpi. In einigen Ausführungsformen hat der Berührungsbildschirm eine Video-Auflösung von etwa 160 dpi. Der Benutzer macht wahlweise unter Verwendung eines geeigneten Objekts oder Anhängsel, Kontakt mit dem Berührungsbildschirm 112, wie mit einem Eingabestift, einem Finger, und so weiter. In einigen Ausführungsformen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, die weniger genau als Stift basierte Eingaben sind,- aufgrund der größeren Kontaktfläche eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsformen übersetzt die Vorrichtung die groben fingerbasierte Eingaben in eine präzise Zeiger-/Zeigerposition oder einen Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsformen zusätzlich zu der Berührungsbildschirm, beinhaltet die-Vorrichtung 100 optional ein Touchpad (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad eine berührungsempfindliche Oberfläche der Vorrichtung, das im Gegensatz zu dem Berührungsbildschirm, nicht visuelle Ausgabe anzeigt. Das Touchpad ist gegebenenfalls eine berührungsempfindliche Oberfläche, die getrennt vom Berührungsbildschirm 112 oder als eine Verlängerung der berührungsempfindlichen Oberfläche des Berührungsbildschirms gebildet ist.
  • Die Vorrichtung 100 umfasst auch ein Energiesystem 162 zur Stromversorgung der verschiedenen Komponenten. Das Energiesystem 162 beinhaltet optional ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (AC)), ein Aufladesystem, eine Stromausfalldetektionsschaltung, einen Stromrichter oder Wechselrichter, einen Stromstatusindikator (z. B., eine Leuchtdiode (LED)) und jegliche anderen Komponenten die der Erzeugung, Verwaltung und Verteilung von Energie in tragbaren Vorrichtungen zugeordnet ist.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor, die mit der optischen Sensorsteuerung 158 in dem I/O-Untersystem 106 gekoppelt ist. Der optische Sensor 164 umfasst wahlweise eine ladungsgekoppelte Vorrichtung (CCD) oder komplementäre Metalloxid-Halbleiter (CMOS) Phototransistoren. Der optische Sensor 164 empfängt Licht aus der Umgebung, das durch eine oder mehrere Linsen projiziert wird, und wandelt das Licht in Daten um, die ein Bild darstellen. In Verbindung mit bildgebenden Modul 143 (auch ein Kameramodul genannt), erfasst der optische Sensor 164 wahlweise Standbilder oder Videos. In einigen Ausführungsformen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100, gegenüber der Berührungsbildschirmanzeige 112 auf der Vorderseite der Vorrichtung, angeordnet, so dass die Berührungsbildschirmanzeige eine Verwendung als Sucher für stehende und/oder Videobildaufnahme ermöglicht. In einigen Ausführungsformen wird ein anderer optischer Sensor auf der Vorderseite der Vorrichtung angeordnet, so dass das Bild des Benutzers, gegebenenfalls, zum erhaltenen einer Videokonferenz, während der Benutzer die anderen Videokonferenzteilnehmer auf der Berührungsbildschirm-Anzeige sieht.
  • Die Vorrichtung 100 umfasst wahlweise auch eine oder mehrere Kontaktintensitätssensoren 165. 1A zeigt einen Kontaktintensitätssensor der mit einer Intensitätssensorsteuerung 159 im I/O-Untersystem 106 gekoppelt ist. Der Kontaktintensitätssensor 165 umfasst wahlweise eine oder mehrere piezoresistive Dehnmessstreifen, kapazitiven Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen oder andere Intensitätssensoren (z. B. Sensoren die verwendet werden, um die Kraft (oder Druck) von einem Kontakt auf einer berührungsempfindlichen Oberfläche zu messen). Der Kontaktintensitätssensor 165 empfängt Kontaktintensitäts-Informationen (z. B. Druckinformationen oder einen Proxy für Druckinformation) aus der Umwelt. In einigen Ausführungsformen wird mindestens ein Kontaktintensitätssensor nebeneinanderstehend oder in der Nähe, einer berührungsempfindlichen Oberfläche (z. B. dem berührungsempfindlichen Anzeigesystem 112). In einigen Ausführungsformen wird mindestens ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüber der Berührungsbildschirmanzeige 112, die sich auf der Vorderseite der Vorrichtung 100 befindet.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166 mit der Peripherieschnittstelle 118 gekoppelt. Alternativ wird der Näherungssensor 166 mit der Eingabessteuerung 160 im I/O-Untersystem 106 gekoppelt. In einigen Ausführungsformen, schaltet und deaktiviert der Näherungssensor den Berührungsbildschirm 112 aus, wenn die Multifunktionsvorrichtung nahe von dem Ohr des Benutzers platziert ist (z. B. wenn der Benutzer einen Anruf tätigt).
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere taktile Ausgabeerzeuger 167. 1A zeigt einen taktilen Ausgabegenerator der mit der haptischen Rückkopplungssteuerung 161 im I/O-Untersystem 106 gekoppelt ist. Der taktile Ausgabegenerator 167 enthält optional einen oder mehrere elektroakustische Vorrichtungen wie, Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, die Energie in eine lineare Bewegung umwandeln, wie ein Motor, ein Solenoid, ein elektroaktiver Polymer, ein piezoelektrischer Aktor, elektrostatischen Aktuatoren, oder andere taktile Ausgabeerzeugungs-Komponente (z. B. eine Komponente, die elektrische Signale in taktile Ausgaben auf der Vorrichtung umwandelt). Der Kontaktintensitätssensor 165 empfängt taktilen Rückmeldungserzeuger-Anweisungen von einem haptischen Rückmeldungs-Modul 133 und erzeugt taktile Ausgaben auf der Vorrichtung 100, die in der Lage sind, von einem Benutzer der Vorrichtung 100 erfasst zu werden. In einigen Ausführungsformen wird mindestens ein taktiler Ausgabegenerator nebeneinanderstehend, oder in der Nähe, eine berührungsempfindliche Oberfläche (z. B. dem berührungsempfindlichen Anzeigesystem 112) und, optional, wird eine taktile Ausgabe erzeugt, indem die berührungsempfindlichen Oberfläche vertikal (z. B. in/aus einer Oberfläche der Vorrichtung 100) oder seitlich (z. B. hin und her in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100) bewegt wird. In einigen Ausführungsformen wird mindestens ein taktiler Ausgabegenerator-Sensor auf der Rückseite der Vorrichtung 100 gegenüber der Berührungsbildschirmanzeige 112, die sich auf der Vorderseite der Vorrichtung 100 befindet.
  • Die Vorrichtung 100 umfasst wahlweise auch einen oder mehrere Beschleunigungsmesser 168. 1A zeigt den Beschleunigungsmesser 168 der mit der Peripherieschnittstelle 118 gekoppelt ist. Alternativ, ist der Beschleunigungsmesser 168 wahlweise mit einer Eingabesteuerung 160 im I/O-Untersystem 106 gekoppelt. In einigen Ausführungsformen werden Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, auf der Grundlage einer Analyse der von einem oder mehreren Beschleunigungsmessern empfangenen Daten, angezeigt. Die Vorrichtung 100 umfasst optional zusätzlich zu den Beschleunigungsmesser(n) 168, einen Magnetometer (nicht gezeigt) und einen GPS(oder GLONASS oder ein anderes globales Navigationssystem)-Empfänger (nicht dargestellt) zum Erhalten von Informationen bezüglich der Lage und Ausrichtung (z. B. Hoch- oder Querformat) der Vorrichtung 100.
  • In einigen Ausführungsformen beinhalten die im Speicher 102 gespeicherten Softwarekomponenten, ein Betriebssystem 126, ein Kommunikationsmodul (oder Bewegung von Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Bewegung von Anweisungen) 130, ein Grafikmodul (oder Bewegung von Anweisungen) 132, ein Texteingabemodul (oder Bewegung von Anweisungen) 134, ein Global Positioning System (GPS) Modul (oder eine Reihe von Anweisungen) 135, und Anwendungen (oder Sätze von Anweisungen) 136. Weiterhin speichert in einigen Ausführungsformen der Speicher 102 Vorrichtung-/global-interne Zustand 157, wie in den 1A und 3 dargestellt. Der Vorrichtung/globalen interne Zustand 157 beinhaltet einen oder mehrere der folgenden:
    einen Aktiven Anwendungszustand, der angibt, welche Anwendungen, wenn überhaupt welche, gerade aktiv sind; einen Anzeigezustand, der angibt, welche Anwendungen, Ansichten oder andere Informationen verschiedenen Regionen der Berührungsbildschirm-Anzeige 112 besetzen; einen Sensorzustand, einschließlich Informationen von verschiedenen Sensoren der Vorrichtung und der Eingabesteuerungsvorrichtungen 116; und Standortinformationen über Ort und/oder Haltung der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, Linux, Unix, OS X, WINDOWS oder ein eingebettetes Betriebssystem wie Vx Works) enthält verschiedene Softwarekomponenten und/oder Treiber zur Steuerung und Verwaltung allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichervorrichtungssteuerung, Power-Management, etc.) und erleichtert die Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Ports 124 und beinhaltet auch verschiedene Softwarekomponenten zum Handhaben von der HF-Schaltung 108 und/oder von dem externen Port 124 empfangenen Daten. Der externe Port 124 (z. B., Universal Serial Bus (USB), FIREWIRE, etc.) ist für eine direkte Kupplung mit anderen Vorrichtungen oder eine indirekte Kupplung über ein Netzwerk angepasst (z. B. das Internet, drahtloses LAN, etc.). In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 30-polig)-Stecker, der gleich oder ähnlich und/oder kompatibel ist mit dem 30-poligen Stecker, der beim iPod (Marke von Apple Inc.) Vorrichtungen verwendet wird.
  • Ein Kontakt/Bewegungsmodul 130 erfasst wahlweise einen Kontakt mit dem Berührungsbildschirm 112 (In Verbindung mit der Anzeigensteuerung 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. einem Touchpad oder physikalische Klickrad). Das Kontakt-/Bewegungsmodul 130 enthält verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, im Zusammenhang eines Nachweises eines Kontakts, wie eine Bestimmung, ob ein Kontakt stattgefunden hat (zum Beispiel ein Erfassen eines Finger-ab Ereignisses), eine Bestimmung einer Intensität des Kontaktes (z. B. der Kraft oder des Druckes des Kontakts oder eines Ersatzes der Kraft oder des Druckes des Kontakts) eine Bestimmung, ob es eine Bewegung des Kontakts gibt und ein Verfolgen der Bewegung über die berührungsempfindliche Oberfläche (z. B. Nachweis eines oder mehrerer Finger-verschiebe Ereignisse), und eine Bestimmung, ob der Kontakt aufgehört hat (z. B. Erfassen eines Fingers-auf Ereignisses oder einen Bruch im Kontakt). Das Kontakt/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Ein Bestimmen der Bewegung des Kontaktpunkts, der durch eine Reihe von Kontaktdaten dargestellt wird, gegebenenfalls ein Bestimmen einer Geschwindigkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder eine Beschleunigung (eine Änderung in der Größe und/oder Richtung) des Kontaktpunkts, beinhaltend. Diese Operationen werden gegebenenfalls auf einzelne Kontakte (z. B. ein Fingerkontakte) oder auf mehrere gleichzeitige Kontakte (z. B. ”multitouch' multiple Fingerkontakte) angewendet. In einigen Ausführungsformen erkennen das Kontakt-/Bewegungsmodul 130 und die Anzeige-Steuerung 156 einen Kontakt auf einem Touchpad.
  • In einigen Ausführungsformen verwendet das Kontakt-/Bewegungsmodul 130 einen Bewegung von einem oder mehreren Intensitätsschwellen, um zu bestimmen, ob eine Operation durch einen Benutzer erfolgt ist (beispielsweise um festzustellen, ob ein Benutzer auf ein Symbol ”geklickt” hat). In einigen Ausführungsformen wird wenigstens ein Teil der Intensitätsschwellen in Übereinstimmung mit Software-Parametern bestimmt (beispielsweise werden die Intensitätsschwellen durch die Aktivierungsschwellen der besonderen physikalischen Aktoren bestimmt und können ohne Veränderung der physikalischen Hardware der Vorrichtung 100 eingestellt werden). Zum Beispiel kann eine Maus-”klick”-Schwelle eines Trackpads oder Berührungsbildschirms auf einen großen Bereich an vordefinierten Schwellenwerten festgelegt werden, ohne dass das Trackpad oder die Berührungsbildschirm-Anzeige-Hardware geändert werden. Zusätzlich werden in einigen Implementierungen einem Benutzer der Vorrichtung Softwareeinstellungen zum Einstellen eines oder mehrere des Satzes von Intensitätsschwellenwerten (beispielsweise durch Anpassung einzelner Intensitätsschwellen und/oder durch Einstellen einer Vielzahl von Intensitätsschwellen zugleich mit einer Systemebene-Klick-Parameter-”Intensität”) bereitgestellt.
  • Das Kontakt/Bewegungsmodul 130 erfasst wahlweise eine Gesteneingabe von einem Benutzer.
  • Verschiedene Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster und Intensitäten. Somit wird eine Geste, gegebenenfalls, durch Erfassen eines speziellen Kontaktmusters erfasst. Zum Beispiel beinhaltet ein Erfassen einer Fingertippgeste, ein Erfassen eines Fingers-ab Ereignisses gefolgt von einem Erfassen eines Finger-auf (abheben) Ereignisses an der gleichen Position (oder im Wesentlichen die gleiche Position) als das Finger-ab-Ereignis (z. B. an der Position eines Symbols). Als ein anderes Beispiel, beinhaltet ein Erfassen einer Fingerwisch-Geste auf der berührungsempfindlichen Oberfläche das Erfassen eines Finger-ab Ereignis gefolgt von einem Erfassen eines oder mehrerer Fingerziehen Ereignisse, dann durch Erfassen eines Fingers-auf (abheben) Ereignis gefolgt.
  • Das Grafik-Modul 132 umfasst verschiedene bekannte Softwarekomponenten für das Rendering und die Darstellung von Grafiken auf dem Berührungsbildschirm 112 oder einer anderen Anzeige, einschließlich Komponenten zum Ändern der visuellen Wirkung (beispielsweise Helligkeit, Transparenz, Farbsättigung, Kontrast und andere optischer Eigenschaften) von Grafiken, die angezeigt werden. Wie hierin verwendet, bezeichnet der Begriff ”Grafik” jedes beliebige Objekt, das einem Benutzer angezeigt werden kann, einschließlich, ohne Einschränkung, Text, Webseiten, Ikone (wie etwa Benutzerschnittstellenobjekte einschließlich Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • In einigen Ausführungsformen, speichert das Grafikmodul 132 Daten, die Grafiken für eine Benutzung darstellen. Jede Grafik wird wahlweise ein entsprechender Code zugeordnet. Das Grafikmodul 132 empfängt von Anwendungen usw., einen oder mehrere Codes, welche die Grafiken angibt, die zusammen mit, wenn nötig, Koordinatendaten und anderen grafischen Eigenschaftsdaten angezeigt werden und erzeugt dann Bildschirm-Bild-Daten an die Anzeigesteuerung 156 auszugeben.
  • Das haptische Rückmeldungsmodul 133 enthält verschiedene Softwarekomponenten zum Erzeugen von Anweisungen durch den taktilen Ausgabegenerator(en) 167 um taktile Ausgaben an einer oder mehreren Stellen der Vorrichtung 100 in Reaktion auf Benutzerinteraktionen mit der Vorrichtung 100 zu erzeugen.
  • Das Texteingabemodul 134, welches gegebenenfalls eine Komponente des Graphikmoduls 132 ist, bietet eine Software-Tastatur für die Eingabe von Text in verschiedenen Anwendungen (z. B. Kontakte 137, E-Mail 140, IM 141, Browser 147, und jede andere Anwendung, die eine Texteingabe benötigt).
  • GPS-Modul 135 bestimmt die Position der Vorrichtung und stellt diese Informationen für den Einsatz in verschiedenen Anwendungen (z. B. dem Telefon für den Einsatz beim ortsbasierten Wählen 138, der Kamera 143 als Bild/Video-Metadaten und zu Anwendungen, die Ortsbasierte Dienste bereitstellen, wie Wetter Widgets, lokale Gelbe-Seiten-Widgets und Karten/Navigations Widgets).
  • Die Anwendungen 136 beinhalten wahlweise die folgenden Module (oder Sätze von Anweisungen) oder eine Teilmenge oder Obermenge davon:
    • – Kontakte-Modul 137 (manchmal auch ein Adressbuch oder eine Kontaktliste);
    • – Telefonmodul 138;
    • – Videokonferenz-Modul 139;
    • – E-Mail-Client-Modul 140;
    • – Instant Messaging (IM) Modul 141;
    • – Workout Unterstützungsmodul 142;
    • – Kameramodul 143 für stehende und/oder Videobilder;
    • – Bildverwaltungsmodul 144;
    • – Browser-Modul 147;
    • – Kalendermodul 148;
    • – Widget-Module 149, die gegebenenfalls ein oder mehrere von: Wetter-Widget 149-1, Aktien Widget 149-2, Taschenrechner Widget 149-3, Wecker-Widget 149-4, Wörterbuch Widget 149-5 und andere Widgets durch die erhaltene Benutzer sowie Benutzer erstellten Widgets 149-6 beinhalten;
    • – Widget Erzeungungs Modul 150 für die Herstellung von Benutzer erstellten Widgets 149-6;
    • – Suchmodul 151;
    • – Video- und Musik-Player-Modul 152, die gegebenenfalls, sich aus einem Video-Player-Modul und einem Musik-Player-Modul zusammensetzt;
    • – Notizen-Modul 153;
    • – Kartenmodul 154; und/oder
    • – Online-Video-Modul 155.
  • Beispiele für andere Anwendungen 136, die wahlweise im Speicher 102 gespeichert werden, beinhalten andere Textverarbeitungsprogramme, andere Bildbearbeitungsprogrammen, Zeichenanwendungen, Präsentationsanwendungen, Java-fähige Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprach Replikation.
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, wird das Kontakt-Modul 137 wahlweise verwendet, um eine Verwaltung eines Adressbuchs oder einer Kontaktliste (z. B. gespeichert im Anwendungs-internen Zustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 370), beinhalten: ein Hinzufügen von Name(n) in das Adressbuch; ein Löschen von Name(n) aus dem Adressbuch; ein Assoziieren von Telefonnummer(n), E-Mail-Adresse(n), physikalische Adresse(n) oder andere Informationen mit einem Namen; Zuordnen eines Bildes zu einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellung von Telefonnummern oder E-Mail-Adressen zu initiieren und/oder zu, erleichtern einer Kommunikation per Telefon 138, Videokonferenz 139, E-Mail 140 oder IM 141; und so weiter.
  • In Verbindung mit der HF-Schaltung 108, der Audio-Schaltung 110, der Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, wird das Telefon-Modul 138 wahlweise verwendet, um eine Sequenz von Zeichen, die eine Telefonnummer ergeben, einzugeben, auf eine oder mehrere Telefonnummern im Adressbuch 137 zuzugreifen, eine Telefonnummer, die eingegeben wurden, zu ändern, eine entsprechende Telefonnummer zu wählen, führen eines Gesprächs und trennen oder auflegen, wenn das Gespräch beendet ist. Wie oben erwähnt, verwendet die drahtlose Kommunikation gegebenenfalls ein beliebiges einer Mehrzahl von Kommunikationsstandards, Protokollen und Technologien.
  • In Verbindung mit der HF-Schaltung 108, der Audio-Schaltung 110, den Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem optischer Sensor 164, der optischen Sensor-Steuerung 158, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134, das Kontaktliste Modul 137, und das Telefon 138, enthält das Videokonferenz-Modul 139 ausführbare Anweisungen, um die Initiierung, Durchführung und Beendigung einer Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmer in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, enthält das E-Mail-Client-Modul 140 ausführbare Befehle zum Erstellen, Senden, Empfangen und Verwalten von E-Mails als Antwort auf Benutzeranweisungen. In Verbindung mit dem Bildverwaltungsmodul 144, macht es das E-Mail-Client-Modul 140 sehr einfach um E-Mails, die mit Stand- oder Videobilder enthalten, die mit dem Kameramodul 143 gemacht wurden, zu erstellen und zu senden.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigensteuervorrichtung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, enthält das Instant Messaging Modul 141 ausführbare Anweisungen, um eine Sequenz von Zeichen, die einer Sofortnachricht entsprechen, einzugeben, um zuvor eingegebene Zeichen zu ändern, um eine bestimmte Sofortnachricht zu senden (zum Beispiel mit einem Short Message Service (SMS) oder Multimedia Message Service (MMS) Protokoll für die Telefonie-basierten Sofortnachrichten oder über XMPP, SIMPLE, oder IMPS für Internet-basierte Sofortnachrichten), um Sofortnachrichten zu empfangen und empfangen Sofortnachrichten anzuzeigen. In einigen Ausführungsformen beinhalten übertragene und/oder empfangene Sofortnachrichten wahlweise Grafiken, Fotos, Audiodateien, Videodateien und/oder anderen Anlagen, wie sie in einer MMS und/oder in einem Enhanced Messaging Service (EMS) unterstützt werden. Wie hier verwendet, beziehen sich ”Sofortnachrichten” sowohl auf Telefonie basierte Nachrichten (beispielsweise Nachrichten, die mit SMS oder MMS gesendet werden) und Internet-basierte Nachrichten (beispielsweise Nachrichten, die mit XMPP, SIMPLE oder IMPS gesendet werden).
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigensteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musik-Player-Modul 146, umfasst das Trainings-Unterstützungs-Modul 142 ausführbare Anweisungen, um Trainingseinheiten zu erstellen (z. B. mit der Zeit, Entfernung und/oder Kalorienverbrennungsziele); um mit Trainingssensoren (Sportvorrichtungen) zu kommunizieren; um Trainings-Sensordaten zu erhalten; um Sensoren, die ein Training überwachen, zu kalibrieren; Musik für ein Training auswählen und abspielen; und um Trainingsdaten anzuzeigen, zu speichern und zu übermitteln.
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, den optischen Sensor(en) 164, der optischen Sensorsteuerung 158, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Bildverwaltungsmodul 144, enthält das Kameramodul 143 ausführbare Anweisungen, um Standbilder oder Video (einschließlich eines Video-Streams) zu erfassen und um sie in dem Speicher 102 zu speichern, um Merkmale eines Standbilds oder Videos zu modifizieren, oder um ein Foto oder Video aus dem Speicher 102 zu löschen.
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143, enthält das Bildverwaltungsmodul 144 ausführbare Anweisungen um stehende und/oder Videobilder anzuordnen, zu verändern (z. B. edit) oder in anderer Weise zu manipulieren, zu kennzeichnen, zu löschen, darzustellen (z. B. in einer digitalen Diashow oder Album) und zu speichern.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, enthält das Browser-Modul 147 ausführbare Anweisungen, um das Internet in Übereinstimmung mit Benutzeranweisungen zu durchsuchen, einschließlich suchen, verknüpfen zu, empfangen und anzeigen von Webseiten oder Teilen davon, sowie Anhänge und andere Dateien, die auf den Web-Seiten verlinkt sind.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147, enthält das Kalendermodul 148 ausführbare Anweisungen um Kalender und Daten, die Kalendern zugeordnet sind (z. B. Kalendereinträge, Aufgabenlisten, etc.) gemäß den Benutzeranweisungen, anzulegen, anzuzeigen, zu ändern und zu speichern,.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 dem Texteingabemodul 134 und dem Browsermodul 147, sind Widget-Module 149 Mini-Anwendungen, die wahlweise heruntergeladen werden und von einem Benutzer verwendet werden (z. B. Wetter-Widget 149-1, Aktien Widget 149-2, Taschenrechner Widget 149-3, Wecker-Widget 149-4 und Wörterbuch Widget 149-5) oder vom Benutzer erstellt werden (z. B. Benutzer- erstelltes Widget 149-6). In einigen Ausführungsformen umfasst ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript-Datei. In einigen Ausführungsformen umfasst ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript-Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147, wird das Widget-Erzeugungs-Modul 150 wahlweise von einem Benutzer verwendet um Widgets zu erzeugen (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget).
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134, enthält das Suchmodul 151 ausführbare Anweisungen um Text, Musik, Ton, Bild, Video, und/oder andere Dateien im Speicher 102 zu suchen, die ein oder mehrere Suchkriterien erfüllen (z. B. eine oder mehrere vom Benutzer angegebene Suchbegriffe) gemäß den Benutzeranweisungen.
  • In Verbindung mit dem Berührungsbildschirm 112, Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul, dem 132 Audioschaltung 110, dem Lautsprecher 111, der HF-Schaltung 108 und dem Browsermodul 147, enthält das Video- und Musik-Player-Modul 152 ausführbare Anweisungen, die dem Benutzer erlauben um, aufgezeichnete Musik und andere Audiodateien, die in einen oder mehreren Dateiformaten, wie MP3 oder AAC-Dateien, gespeichert sind, herunterzuladen und abzuspielen und ausführbare Anweisungen um Videos anzuzeigen, darzustellen oder anderweitig wiederzugeben (z. B. auf dem Berührungsbildschirm 112 oder auf einer externen, verbundenen Anzeige über den externen Port 124). In einigen Ausführungsformen beinhaltet die Vorrichtung 100 optional die Funktionalität von einem MP3-Player, wie beispielsweise einem iPod (Marke von Apple Inc.).
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132 und dem Texteingabemodul 134 enthält das Notizen-Modul 153 ausführbare Anweisungen um Notizen zu erstellen und zu verwalten, Listen zu erstellen und dergleichen in Übereinstimmung mit den Benutzeranweisungen.
  • In Verbindung mit der HF-Schaltung 108, dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browsermodul 147, wird das Kartenmodul 154 wahlweise verwendet um Karten und Daten, die Karten zugeordnet sind (z. B. Anfahrtsbeschreibung; Daten über Geschäfte und andere Punkten von Interesse an oder nahe einem bestimmten Ort; und andere standortbasierte Daten) in Übereinstimmung mit den Benutzeranweisungen zu empfangen, anzuzeigen, zu bearbeiten und zu speichern.
  • In Verbindung mit dem Berührungsbildschirm 112, der Anzeigesteuerung 156, dem Kontaktmodul 130, dem Graphikmodul 132, der Audioschaltung 110, dem Lautsprecher 111, der HF-Schaltung 108, dem Texteingabemodul 134, dem E-Mail-Client-Modul 140 und dem Browsermodul 147 enthält das Online-Video-Modul 155 Anweisungen die dem Benutzer erlauben, um zuzugreifen, zu durchsuchen, zu empfangen (z. B. durch Streaming und/oder Download), wiederzugeben (z. B. auf dem Berührungsbildschirm oder auf einer externen, verbunden Anzeige über den externen Port 124), eine E-Mail mit einem Link zu einem bestimmten Online-Video zu senden, und ansonsten Online-Videos in einem oder mehreren Dateiformaten, wie H.264, zu verwalten. In einigen Ausführungsformen, wird das Sofortnachricht-Modul 141, anstatt von dem E-Mail-Client-Modul 140 verwendet, um einen Link zu einem bestimmten Online-Video zu senden.
  • Jedes der oben identifizierten Module und Anwendungen entspricht einem Bewegung von ausführbaren Anweisungen zum Durchführen eines oder mehrere der oben beschriebenen Funktionen und die in dieser Anmeldung beschriebenen Verfahren (z. B. die computerimplementierte Verfahren und anderen Informationsverarbeitungsverfahren, die hier beschrieben werden). Diese Module (d. h. Sätze von Anweisungen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert werden, und damit sind verschiedene Teilmengen von diesen Modulen gegebenenfalls in verschiedenen Ausführungsformen kombiniert oder anders neu angeordnet. In einigen Ausführungsformen speichert der Speicher 102 gegebenenfalls eine Teilmenge der Module und Datenstrukturen, die oben identifiziert wurden. Ferner speichert der Speicher 102 gegebenenfalls zusätzliche Module und Datenstrukturen, die oben nicht beschrieben werden.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der der Betrieb eines vordefinierten Satzes von Funktionen auf der Vorrichtung exklusiv durch einen Berührungsbildschirm und/oder ein Touchpad ausgeführt wird. Durch die Verwendung eines Berührungsbildschirms und/oder eines Touchpads als primäre Eingabesteuervorrichtung für den Betrieb der Vorrichtung 100, wird die Anzahl der physischen Eingabesteuervorrichtungen (wie Taster, Regler und dergleichen) auf der Vorrichtung 100 wahlweise reduziert.
  • Der vordefinierte Bewegung von Funktionen, der ausschließlich über einen Berührungsbildschirm und/oder ein Touchpad ausgeführt wird, beinhaltet wahlweise eine Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad, wenn es vom Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt, Home oder Rootmenü von jeder Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt wird. In solchen Ausführungsformen wird eine ”Menü-Knopf” unter Benutzung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist der Menü-Knopf ein physische Druckknopf oder eine andere physikalische Eingabesteuervorrichtung, anstelle eines Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten für die Ereignisverarbeitung in Übereinstimmung mit einigen Ausführungsformen veranschaulicht. In einigen Ausführungsformen beinhaltet der Speicher 102 (in 1A) oder 370 (3) einen Ereignis-Sortierer 170 (z. B. im Betriebssystem 126) und eine entsprechende Anwendung 136-1 (z. B. eine der oben genannten Anwendungen 137-151, 155, 380390).
  • Der Ereignis-Sortierer 170 empfängt Informationen zu Ereignissen und bestimmt die Anwendung 136-1 und Anwendungsansicht 191 der Anwendung 136-1, zu der die Ereignis-Informationen zu liefern sind. Der Ereignis-Sortierer 170 beinhaltet einen Ereignismonitor 171 und ein Ereignis-Dispatcher-Modul 174. In einigen Ausführungsformen beinhaltet die Anwendung 136-1 einen Anwendungs-internen Zustand 192, der die aktuelle Anwendungsansicht(en), die auf der berührungsempfindlichen Anzeige 112 angezeigt werden, wenn die Anwendung aktiv ist oder ausgeführt wird, angibt. In einigen Ausführungsformen wird der Vorrichtung/global internen Zustand 157 von dem Ereignis-Sortierer 170 verwendet, um zu ermitteln, welche Anwendung(en) gerade aktiv ist (sind), und der anwendungsinterne Zustand 192 wird vom Ereignis-Sortierer 170 verwendet, um Anwendungsansichten 191 zu ermitteln, an welche die Ereignisinformationen zu liefern sind.
  • In einigen Ausführungsformen beinhalten der anwendungsinterne Zustand 192 zusätzliche Informationen, wie beispielsweise eine oder mehrere von: Fortsetzungsinformationen, zum Benutzen, wenn die Anwendung 136-1 die Ausführung wieder aufnimmt, Benutzerschnittstellenzustands-Informationen, welche Informationen angeben, die von der Anwendung angezeigt werden oder die bereit für die Anzeige durch Anwendung 136-1 sind, einen Warteschlangenzustand, der dem Benutzer ermöglicht, zurück zu einem früheren Zustand oder Ansicht der Anwendung 136-1 zu gehen, und eine Wiederhol-/Rückgängig-(redo/undo)Warteschlange von vorherigen Aktionen, die durch den Benutzer gemacht wurden.
  • Ereignismonitor 171 empfängt Ereignisinformationen aus der Peripherieschnittstelle 118.
  • Ereignisinformationen enthalten Informationen über ein Unter-Ereignis (z. B. eine Benutzer Berührung auf der berührungsempfindliche Anzeige 112, als Teil eines Multi-Touch-Geste). Die Peripherieschnittstelle 118 überträgt Informationen, die sie vom I/O-Untersystem 106 oder einem Sensor wie dem Näherungssensor 166, dem Beschleunigungssensor(en) 168 und/oder dem Mikrofon 113 (über die Audioschaltung 110), empfängt. Informationen, die die Peripherieschnittstelle 118 vom I/O-Untersystem 106 erhält, beinhalten Informationen der berührungsempfindlichen Anzeige 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 Anforderungen an die Peripherieschnittstelle 118 in vorbestimmten Intervallen. Als Reaktion überträgt die Peripherieschnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen sendet die Peripherieschnittstelle 118 Ereignisinformationen nur dann, wenn es ein signifikantes Ereignis (z. B. Empfangen einer Eingabe oberhalb einer vorbestimmten Rauschschwelle und/oder länger als eine vorbestimmte Zeitdauer).
  • In einigen Ausführungsformen, enthält der Ereignis-Sortierer 170 auch ein Trefferansicht-Bestimmungsmodul 172 und/oder eine aktives Ereignis-Erkennungsbestimmungsmodul 173.
  • Das Trefferansicht-Bestimmungsmodul 172 stellt Software-Verfahren zur Bestimmung, wo ein Unter-Ereignis innerhalb von einer oder mehreren Ansichten, wenn die berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt, stattgefunden hat, bereit. Ansichten werden aus Steuerungen und anderen Elementen gemacht, die ein Benutzer auf der Anzeige sehen kann.
  • Ein weiterer Aspekt der Benutzerschnittstelle, die mit einer Anwendung verknüpft ist, ist ein Bewegung von Ansichten, manchmal hier Anwendungsansichten oder Benutzerschnittstellenfenster genannt, in denen Informationen angezeigt werden und Berührungs-basierte Gesten auftreten. Die Anwendungsansichten (einer jeweiligen Anwendung), in denen eine Berührung erfasst wird, entsprechen optional programmatischen Ebenen innerhalb einer programmatischen Hierarchie oder Ansichts-Hierarchie der Anwendung. Zum Beispiel, die niedrigste Ebenenansicht, in der eine Berührung erkannt wird, gegebenenfalls, die so genannte Trefferansicht und die Menge der Ereignisse, die für eine richtige Eingaben erfasst werden, werden gegebenenfalls basierend, zumindest teilweise, auf der Trefferansicht der anfänglichen Berührung, die eine Berührung-basierte Geste beginnt, bestimmt.
  • Das Trefferansicht-Bestimmungsmodul 172 empfängt Informationen die mit Unter-Ereignissen einer Berührung-basierten Geste zusammenhängen. Wenn eine Anwendung mehrere Ansichten in einer Hierarchie organisiert, identifiziert das Trefferansicht-Bestimmungsmodul 172 eine Trefferansicht als niedrigste Ansicht in der Hierarchie, die das Unter-Ereignis behandeln sollte. In den meisten Fällen ist die Trefferansicht die niedrigste Ebenenansicht, in der ein initiierendes Unter-Ereignis eintritt (d. h. das erste Unter-Ereignis in der Sequenz der Unter-Ereignisse, die ein Ereignis oder potenziellen Ereignis bilden). Sobald die Trefferansicht von dem Trefferansicht Bestimmungsmodul identifiziert wird, erhält die Trefferansicht, typischerweise alle die Unter-Ereignisse, die sich die gleiche Berührungs- oder Eingabequelle beziehen, für die sie als Hit Ansicht identifiziert wurde.
  • Ein Aktive Ereignis-Erkennungs-Bestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansicht-Hierarchie eine bestimmte Sequenz von Unter-Ereignissen empfangen sollen. In einigen Ausführungsformen bestimmt das aktive Ereignis-Erkennungs-Bestimmungsmodul 173, dass nur die Trefferansicht eine bestimmte Sequenz von Unter-Ereignissen empfangen soll. In anderen Ausführungsformen bestimmt das aktiven Ereignis-Erkennungs-Bestimmungsmodul 173, dass alle Ansichten, die den physischen Standort einer Unter-Ereignis beinhalten, aktiv beteiligte Ansichten sind, und bestimmt deshalb, dass alle aktiv beteiligten Ansichten eine bestimmte Sequenz von Unter-Ereignis erhalten sollen. In anderen Ausführungsformen, auch wenn Berührungs-Unter-Ereignisse vollständig auf den Bereich, die einer bestimmten Ansicht zugeordnet ist, beschränkt wurden, würden Ansichten, die höher in der Hierarchie sind, immer noch als aktiv beteiligte Ansichten bleiben.
  • Ein Ereignis-Dispatcher-Modul 174 fertigt die Ereignisinformationen zu einem Ereignis-Erkenner ab (z. B. Ereignis-Erkenner 180). In Ausführungsformen, die das aktive Ereignis-Erkennungs-Bestimmungsmodul 173 beinhalten, liefert das Event-Dispatcher-Modul 174 die Ereignisinformationen zu einem Ereignis-Erkenner, der von dem aktiven Ereignis-Erkennungs-Bestimmungsmodul 173 bestimmt werden. In einigen Ausführungsformen speichert das Event-Dispatcher-Modul 174 die Ereignisinformationen in eine Ereigniswarteschlange, die von einem entsprechenden Ereignis-Empfängermodul 182 abgerufen wird.
  • In einigen Ausführungsformen, enthält das Betriebssystem 126 einen Ereignis-Sortierer 170. Alternativ enthält die Anwendung 136-1 einen Ereignis-Sortierer 170. In noch anderen Ausführungsformen ist der Ereignis-Sortierer 170 ein eigenständiges Modul oder ein Teil eines anderen Moduls, das in einem Speicher 102 gespeichert ist, wie das Kontakt-/Bewegungsmodul 130.
  • In einigen Ausführungsformen, umfasst die Anwendung 136-1 eine Vielzahl von Event-Händler 190 und ein oder mehrere Anwendungsansichten 191, von denen jeder für den Umgang mit Berührungsereignissen, die innerhalb einer jeweiligen Ansicht der Benutzerschnittstelle der Anwendung auftreten, Anweisungen enthält. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Ereignis-Erkenner 180. Typischerweise enthält eine jeweilige Anwendungsansicht 191 eine Vielzahl von Ereignis-Erkenner 180. In anderen Ausführungsformen können eine oder mehrere der Ereignis Erkenner 180 Teil eines separaten Modul sein, wie ein Benutzerschnittstelle Kit (nicht dargestellt) oder ein Objekt einer höheren Ebene, von welchem die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen umfasst jeweils ein Ereignis-Händler 190 eine oder mehrere von: Datenaktualisierer 176, Objektaktualisierer 177, GUI-Aktualisierer 178, und/oder Ereignisdaten 179, die vom Ereignis-Sortierer 170 empfangen werden. Event-Handler 190 nutzen oder fordern wahlweise Datenaktualisierer 176, Objektaktualisierer 177 oder GUI-Aktualisierer 178, den interner Zustand der Anwendung 192 zu aktualisieren. Alternativ können ein oder mehrere der Anwendungsansichten 191 einen oder mehrere entsprechende Event-Händler 190 umfassen. Auch in einigen Ausführungsformen sind eine oder mehrere der Aktualisierungsdaten 176, Objektaktualisierer 177 und GUI-Aktualisierer 178 in einer entsprechenden Anwendungsansicht 191 umfasst.
  • Eine entsprechende Ereigniserkennungseinrichtung 180 empfängt Ereignisinformationen (beispielsweise die Ereignisdaten 179) vom Event-Sortierer 170 und identifiziert ein Ereignis aus den Ereignisinformationen. Der Ereignis-Erkenner 180 enthält einen Ereignisempfänger 182 und einen Event-Komparator 184.
  • In einigen Ausführungsformen weist der Ereignis Erkenner 180 auch mindestens eine Teilmenge: von Metadaten 183 und Ereignislieferinstruktionen 188 (die gegebenenfalls Unter-Ereignis-Lieferinstruktionen beinhalten) auf.
  • Der Ereignisempfänger 182 empfängt Ereignisinformationen von dem Ereignis-Sortierer 170. Die Ereignisinformationen enhalten Informationen über eine Unter-Ereignis zum Beispiel eine Berührung oder eine Berührungsbewegung. In Abhängigkeit von dem Unter-Ereignis, umfassen die Ereignisinformation auch zusätzliche Informationen, wie eine Position des Unter-Ereignisses. Wenn das Unter-Ereignis eine Bewegung einer Berührung betrifft, umfassen die Ereignisinformationen optional auch Geschwindigkeit und Richtung des Unter-Ereignisses. In einigen Ausführungsformen umfassen Ereignisse eine Rotation der Vorrichtung von einer Ausrichtung zu einer anderen (beispielsweise von einem Hochformat auf Querformat oder umgekehrt) und die Ereignisinformationen enthalten entsprechende Informationen über die gegenwärtige Ausrichtung (auch Vorrichtungshaltung genannt) der Vorrichtung.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformationen auf vordefinierte Ereignis-oder Unter-Ereignisdefinitionen und bestimmt, basierend auf dem Vergleich, ein Ereignis oder ein Unter-Ereignis oder bestimmt oder aktualisiert den Status eines Ereignisses oder Unter-Ereignisses. In einigen Ausführungsformen umfasst der Ereignis Komparator 184 Ereignisdefinitionen 186. Die Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. vordefinierten Sequenzen von Unter-Ereignissen), zum Beispiel, Ereignis 1 (187-1), Ereignis 2 (187-2), und andere. In einigen Ausführungsformen umfassen Unter-Ereignisse in einem Ereignis 187 zum Beispiel Berührungsbeginn, Berührungsende, Berührungsbewegung, Berührungsaufhören und mehrfache Berührungen. In einem Beispiel ist die Definition für das Ereignis 1 (187-1) ein Doppel-Tippen auf ein angezeigtes Objekt. Das Doppel-Tippen, umfasst zum Beispiel eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein erstes Abheben (Berührungsende) für eine vorbestimmte Phase, eine zweite Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine vorbestimmte Phase und einer zweites Abheben (Berührungsende) für eine vorbestimmte Phase. In einem anderen Beispiel ist die Definition für das Ereignis 2 (187-2) ein Ziehen auf einem angezeigten Objekt. Das Ziehen, umfasst beispielsweise eine Berührung (oder Kontakt) auf dem angezeigten Objekt für eine vorbestimmte Phase, eine Bewegung der Berührung über die berührungsempfindliche Anzeige 112 und ein Abheben der Berührung (Berührungsende). In einigen Ausführungsformen enthält das Ereignis auch Informationen für eine oder mehrere zugeordnete Ereignis-Händler 190.
  • In einigen Ausführungsformen umfasst die Ereignisdefinition 187 eine Definition eines Ereignisses eines entsprechende Benutzerschnittstellenobjekts. In einigen Ausführungsformen führt der Ereignis Komparator 184 eine Trefferüberprüfung durch, um zu bestimmen, welche Benutzerschnittstellenobjekte dem Unter-Ereignis zugeordnet sind. Zum Beispiel in einer Anwendung-Ansicht, in der drei Benutzerschnittstellenobjekte auf berührungsempfindlichen Anzeige 112 angezeigt werden, wenn eine Fingereingabe auf berührungsempfindliche Anzeige 112 erfasst wird, führt der Event Komparator 184 einen Treffertest durch, um festzustellen, welches der drei Benutzerschnittstellenobjekte mit der Berührung (Unter-Ereignis) verbunden wird.
  • Wenn jedes angezeigte Objekt einem entsprechenden Ereignis-Handler 190 zugeordnet ist, verwendet der Ereignis Komparator das Ergebnis der Trefferüberprüfung, um zu bestimmen, welche Ereignis-Handler 190 aktiviert werden soll. Zum Beispiel, wählt der Event Komparator 184 einen Ereignishandler, der mit dem Sub-Ereignis und dem Objekt, die den Treffertest auslösen, verbunden ist.
  • In einigen Ausführungsformen umfasst die Definition für ein jeweiliges Ereignis 187 auch verzögerte Aktionen, die die Übermittlung der Ereignisinformation verzögern, bis nachdem bestimmt worden ist, ob die Sequenz der Unter-Ereignisse dem oder nicht dem Ereignistyp des Ereignis-Erkenners entspricht.
  • Wenn ein jeweiliger Ereignis Erkenner 180 bestimmt, dass die Sequenz von Unter-Ereignissen nicht eines der Ereignisse in den Ereignisdefinitionen 186 entsprecht, gibt der jeweilige Ereignis Erkenner 180 ein Ereignis unmöglich, Ereignis fehlgeschlagen oder Ereignis beendet Zustand aus, nach dem er nachfolgenden Unter-Ereignisse der Berührungs-basierten Geste missachtet. In dieser Situation setzen andere Ereignis-Erkenner, sofern vorhanden, die für die Trefferansicht aktiv bleiben, weiterhin das Überwachen und Ausführen von Unter-Ereignisse einer laufenden Berührungs-basierten Geste fort.
  • In einigen Ausführungsformen umfasst ein e entsprechende Ereigniserkennung 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Markierungen, und/oder Listen, die zeigen, wie das Ereignis-Liefer-System Zustellungen von Unter-Ereignissen zu aktiv beteiligt Ereignis-Erkenner durchführen sollte. In einigen Ausführungsformen umfassen Metadaten 183 konfigurierbare Eigenschaften, Markierungen, und/oder Listen, die zeigen, wie Ereignis-Erkenner miteinander zu interagieren, oder ermöglicht sind miteinander zu interagieren.
  • In einigen Ausführungsformen umfassen Metadaten 183 konfigurierbaren Eigenschaften, Markierungen, und/oder Listen, die anzeigen, ob Unter-Ereignisse in unterschiedlichen Ebenen in der Ansicht oder programmatischen Hierarchie ausgeliefert werden.
  • In einigen Ausführungsformen aktiviert jeweils ein Ereignis-Erkenner 180 die Ereignis-Handler 190, der mit einem Ereignis assoziiert ist, wenn ein oder mehrere bestimmte Unter-Ereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert jeweils ein Ereignis-Erkenner 180 Ereignisinformationen, die mit dem Ereignis verbunden sind, zu dem Ereignis-Handler 190. Aktivieren eines Ereignis-Handler 190 unterscheidet sich vom Senden (und verzögertem Senden) von Unter-Ereignisse an eine entsprechende Trefferansicht. In einigen Ausführungsformen wirft der Ereignis Erkenner 180 eine Markierung, die mit dem anerkannten Ereignis verbunden ist, und der Event-Handler 190, der mit der Markierung assoziiert ist, fängt die Markierung und führt einen vordefinierten Prozess aus.
  • In einigen Ausführungsformen umfassen Ereignis Lieferinstruktionen 188 Unter-Ereignis Lieferinstruktionen, die Ereignis-Informationen über ein Unter-Ereignis liefern ohne eine Aktivierung eines Event-Handlers. Stattdessen liefern die Unter-Ereignis-Lieferanweisungen Ereignisinformationen an Event-Handler, die mit der Reihe von Unter-Ereignissen oder mit aktiv beteiligten Ansichten verbunden sind. Die Event-Handler, die mit der Reihe von Unter-Ereignissen oder mit aktiv beteiligten Ansichten verbunden sind, empfangen die Ereignis-Informationen und führen einen vorgegebenen Prozess aus.
  • In einigen Ausführungsformen erstellt und aktualisiert der Datenaktualisierer 176 Daten, die in der Anwendung 136-1 verwendet werden.
  • Zum Beispiel aktualisiert der Datenaktualisierer 176 die Telefonnummern, die in dem Kontakten Modul 137 verwendet werden oder speichert eine Videodatei, die in dem Video-Player-Modul 145 verwendet wird. In einigen Ausführungsformen Objektaktualisierer 177 erstellt und aktualisiert Objekte, die in der Anwendung 136-1 verwendet werden. Zum Beispiel Objektaktualisierer 176 erzeugt ein neues Benutzerschnittstellenobjekts oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Aktualisierer 178 aktualisiert die GUI. z. B. bereitet der GUI Aktualisierer 178 Anzeigeinformation vor und sendet sie an das Grafikmodul 132 zur Anzeige auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen umfasst oder hat der Ereignis-Handler(n) 190 Zugriff auf den Datenaktualisierer 176, den Objektaktualisierer 177 und den GUI Aktualisierer 178. In einigen Ausführungsformen sind der Datenaktualisierer 176, der Objektaktualisierer 177 und der GUI-Aktualisierer 178 in einem Modul der jeweiligen Applikation 136-1 oder der Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehr Software-Modulen enthalten.
  • Es versteht sich, dass die vorangehende Diskussion über die Ereignisbehandlung der Benutzerberührungen auf berührungsempfindlichen Anzeigen auch für andere Formen von Benutzereingaben an Multifunktionsvorrichtungen 100 mit einer Eingabevorrichtungen gilt, von denen nicht alle auf Berührungsbildschirms ausgelöst werden. Zum Beispiel, Mausbewegungen und Mausknopfdrücke, wahlweise mit Einzel- oder Mehrfach Tastatur-Druckeingaben oder Halteeingaben koordiniert; Kontakt-Bewegungen wie tippen, ziehen, scrollen, usw. auf Touch-Pads; Stifteingaben; Bewegung der Vorrichtung; mündliche Anweisungen; erkannt Augenbewegungen; biometrische Eingaben; und/oder eine Kombination davon sind, gegebenenfalls als Eingaben verwenden werden, die Unter-Ereignissen, welche ein zu erkennendes Ereignis definieren, entsprechen.
  • 2 zeigt eine tragbares Multifunktionsvorrichtung 100 mit einem Berührungsbildschirm 112 in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm zeigt optional ein oder mehrere Grafiken innerhalb einer Benutzerschnittstelle (UI) 200.
  • In dieser Ausführungsform sowie anderen unten beschriebenen, ist einem Benutzer ermöglicht, um mit einem oder mehreren Fingern 202 (nicht gezeichnet um die Figur zu skalieren) oder auf eine oder mehrere der Graphiken durch eine Geste auf den Grafiken, beispielsweise wählen, einen oder mehrere Stifte 203 (nicht maßstabsgetreu in der Figur dargestellt). In einigen Ausführungsformen, erfolgt die Auswahl von einer oder mehreren Grafiken, wenn der Benutzer den Kontakt mit der einen oder mehreren Grafiken bricht. In einigen Ausführungsformen umfasst die Geste wahlweise einen oder mehrere Tippen, einen oder mehrere Wischen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, nach oben und/oder unten), die den Kontakt mit der Vorrichtung 100 hergestellt hat. In einigen Implementierungen oder Umständen, wählt ein unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel kann eine Wisch-Geste, die über ein Anwendungssymbol fegt gegebenenfalls nicht den entsprechenden Anwendung zu wählen, wenn die Geste für entsprechend Auswahl ist ein Tippen.
  • Die Vorrichtung 100 umfasst optional auch einen oder mehrere physikalische Knöpfe, wie einen ”Home” oder Menü-Knopf 204. Wie zuvor beschrieben, wird der Menü-Knopf 204 optional verwendet zum Navigieren jeder Anwendung 136 in einem Satz von Anwendungen, die optional auf der Vorrichtung 100 ausgeführt werden. Alternativ ist in einigen Ausführungsformen der Menü-Knopf als Soft Key in einer GUI, die auf dem Touchscreen 112 angezeigt wird, implementiert.
  • In einer Ausführungsform umfasst die Vorrichtung 100 einen Touchscreen 112, einen Menü-Knopf 204, einen Push-Knopf 206 zum Ein- oder Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, Lautstärkeregelknopf/Knöpfe 208, einen Subscriber-Identity-Module-(SIM)-Kartenschacht 210, eine Kopfhörerbuchse 212 und einen Docking-/Lade-externen Port 124. Der Push-Knopf 206 wird optional verwendet zum Ein- und Ausschalten der Vorrichtung durch Hinunterdrücken des Knopfs und Festhalten des Knopfs in dem gedrückten Zustand für eine vorbestimmte Zeitdauer; zum Sperren der Vorrichtung durch Hinunterdrücken des Knopfs und Loslassen des Knopfs vor Ablauf der vorbestimmten Zeitdauer und/oder zum Entsperren der Vorrichtung oder zum Initiieren eines Entsperrvorgangs. In einer alternativen Ausführungsform akzeptiert die Vorrichtung 100 auch verbale Eingaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113. Die Vorrichtung 100 umfasst optional auch ein oder mehrere Kontaktintensitätssensoren 165 zum Detektieren von Intensität der Kontakte auf dem Touchscreen 112 und/oder einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 100. 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. In einigen Ausführungsformen ist die Vorrichtung 300 ein Laptop Computer, ein Desktop Computer, ein Tablet Computer, eine Multimediaspielervorrichtung, eine Navigationsvorrichtung, eine Lernvorrichtung (wie ein Lernspielzeug eines Kindes), ein Spielesystem oder eine Steuervorrichtung (z. B. ein Haus- oder industrieller Controller). Die Vorrichtung 300 umfasst typischerweise eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipset bezeichnet), der Kommunikationen zwischen Systemkomponenten verbindet und steuert. Die Vorrichtung 300 umfasst eine Eingabe-/Ausgabe-(I/O)-Schnittstelle 330 umfassend die Anzeige 340, die typischerweise eine Touchscreen-Anzeige ist. Die I/O-Schnittstelle 330 umfasst optional auch eine Tastatur und/oder eine Maus (oder eine andere Zeigevorrichtung) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167 wie oben beschrieben mit Verweis auf 1A), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche, und/oder Kontaktintensitätssensoren ähnlich dem/den Kontaktintensitätssensor(en) 165 wie oben beschrieben mit Verweis auf 1A). Der Speicher 370 umfasst Hochgeschwindigkeits-Random-Access-Speicher wie DRAM, SRAM, DDR RAM oder andere Random-Access-Solid-State-Speichervorrichtungen; und umfasst optional nichtflüchtigen Speicher, wie eine oder mehrere magnetische Diskspeichervorrichtungen, optische Diskspeichervorrichtungen, Flash-Speichervorrichtungen, oder andere nichtflüchtige Solid-State-Speichervorrichtungen. Der Speicher 370 umfasst optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 310 angeordnet sind. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Datenstrukturen, die in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 gespeichert sind (1A) oder eine Teilmenge davon. Ferner speichert der Speicher 370 optional zusätzliche Programme, Module und Datenstrukturen, die nicht in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorliegen. Zum Bespiel speichert der Speicher 370 der Vorrichtung 300 optional ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Webseiten-Erstellungsmodul 386, ein Disk-Authoring-Modul 388 und/oder Tabellenkalkulationsmodul 390, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben identifizierten Elemente in 3 wird optional in einer oder in mehreren der zuvor beschriebenen Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einer Menge von Instruktionen zum Ausführen einer Funktion wie oben beschrieben. Die oben identifizierten Module oder Programme (d. h. Mengen von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein, und somit werden verschiedene Untermengen dieser Module optional kombiniert oder anderweitig in verschiedenen Ausführungsformen zusammengefügt. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der Module und Datenstrukturen, die oben identifiziert sind. Ferner kann der Speicher 370 zusätzliche Module und Datenstrukturen speichern, die oben nicht beschrieben sind. Die Aufmerksamkeit wird nun gerichtet auf Ausführungsformen der Benutzerschnittstellen (”UI”), die optional auf einer tragbaren Multifunktionsvorrichtung 100 implementiert ist. 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzerschnittstellen sind auf der Vorrichtung 300 optional implementiert. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 400 die folgenden Elemente oder eine Teilmenge oder eine Obermenge davon:
    • • Signalstärkenindikator(en) 402 für drahtlose Kommunikation(en), wie Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Indikator 405;
    • • Batteriestatusindikator 406;
    • • Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie:
    • – Symbol 416 für das Telefonmodul 138, bezeichnet ”Telefon”, welches optional einen Hinweis 414 der Zahl von verpassten Anrufen oder Voicemail-Nachrichten umfasst;
    • – Symbol 418 für das Email-Client-Modul 140, bezeichnet ”Mail”, welches optional einen Hinweis 410 der Anzahl von ungelesenen Emails umfasst;
    • – Symbol 420 für das Browsermodul 147, bezeichnet ”Browser; und
    • – Symbol 422 für das Video- und Musikplayermodul 152, auch bezeichnet als iPod(Markenzeichen von Apple Inc.)-Modul 152, bezeichnet iPod
    • • Symbole anderer Anwendungen, wie beispielsweise:
    • – Symbol 424 für IM-Modul 141, bezeichnet „Text”;
    • – Symbol 426 für das Kalendermodul 148, bezeichnet ”Kalender”;
    • – Symbol 428 für das Bildverwaltungsmodul 144, bezeichnet ”Fotos”;
    • – Symbol 430 für das Kameramodul 143, bezeichnet ”Kamera”;
    • – Symbol 432 für das Online-Videomodul 155, bezeichnet „Online Video”;
    • – Symbol 434 für das Aktien-Widget 149-2, bezeichnet ”Aktien”;
    • – Symbol 436 für das Kartenmodul 154, bezeichnet ”Karte”;
    • – Symbol 438 für das Wetter-Widget 149-1, bezeichnet ”Wetter”;
    • – Symbol 440 für das Wecker-Widget 149-4, bezeichnet ”Uhr”;
    • – Symbol 442 für das Trainingsunterstützungsmodul 142, bezeichnet ”Trainingsunterstützung”;
    • – Symbol 444 für das Notizenmodul 153, bezeichnet ”Notizen”; und
    • – Symbol 446 für eine Einstellungsanwendung oder -modul, welches Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellt.
  • Es ist klar, dass die Symbolbezeichnungen, welche in 4A gezeigt sind, lediglich beispielhaft sind. Zum Beispiel ist das Symbol 422 für das Video- und Musikplayermodul 152 bezeichnet ”Musik” oder ”Musikplayer”. Andere Bezeichnungen werden optional verwendet für verschiedene Anwendungssymbole. In einigen Ausführungsformen umfasst eine Bezeichnung für ein jeweiliges Anwendungssymbol einen Namen einer Anwendung, welche dem jeweiligen Anwendungssymbol entspricht. In einigen Ausführungsformen ist eine Bezeichnung für ein spezielles Anwendungssymbol verschieden von einem Namen einer Anwendung, welches dem speziellen Anwendungssymbol entspricht. 4B zeigt eine beispielhafte Benutzerschnittstelle auf einer Vorrichtung (z. B. Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), welches getrennt ist von der Anzeige 450 (z. B. Touchscreen 112). Die Vorrichtung 300 umfasst auch optional ein oder mehrere Kontaktintensitätssensoren (z. B. ein oder mehrere der Sensoren 357) zum Detektieren von Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451, und/oder ein oder mehrere taktile Ausgabegeneratoren 359 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 300. Wenngleich einige der Beispiele, die folgen werden, unter Verweis auf Eingaben auf einem Touchscreen 112 gegeben sein werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche, die separat ist von der Anzeige, wie in 4B gezeigt. In einigen Ausführungsformen hat die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B), die einer primären Achse entspricht (z. B. 453 in 4B) auf der Anzeige (z. B. 450). In Übereinstimmung mit diesen Ausführungsformen erkennt die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Positionen, die entsprechenden Positionen auf der Anzeige entsprechen (z. B. entspricht in 4B 460 der 468 und 462 entspricht der 470). Auf diese Weise werden Benutzereingaben (z. B. Kontakte 460 und 462 und Bewegungen davon), die durch die Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt werden (z. B. 451 in 4B), von der Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn die berührungsempfindliche Oberfläche separat von der Anzeige ist. Es ist anzumerken, dass ähnliche Verfahren für andere Benutzerschnittstellen, die hier beschrieben sind, optional verwendet werden.
  • Während die folgenden Beispiele primär unter Verweis auf Fingereingaben gegeben sind (z. B. Fingerkontakte, Fingertappgesten, Fingerwischgesten), ist zusätzlich festzuhalten, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe von einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Stylus-Eingabe). Zum Beispiel wird optional eine Wischgeste durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt durch eine Bewegung des Cursors entlang des Pfades des Wischens (z. B. anstelle der Bewegung des Kontakts). Als ein weiteres Beispiel wird eine Tippgeste optional durch einen Mausklick ersetzt, während der Cursor sich über der Position der Tippgeste befindet (z. B. anstelle des Erkennens des Kontakts, gefolgt durch das Beenden des Erkennens des Kontakts). Ähnlich ist anzumerken, dass, wenn mehrere Benutzereingaben simultan erkannt werden, mehrere Computermäuse optional simultan verwendet werden, oder eine Maus und Fingerkontakte optional simultan verwendet werden. Wie hierin verwendet, bezieht sich der Ausdruck ”Fokus-Selektor” auf ein Eingabeelement, welches einen derzeitigen Teil einer Benutzerschnittstelle anzeigt, mit welcher ein Benutzer interagiert. In einigen Implementierungen, welche einen Cursor oder andere Ortsmarkierung umfassen, agiert der Cursor als ein ”Fokus-Selektor', so dass, wenn eine Eingabe (z. B. eine Druckeingabe) auf einer berührungsempfindlichen Oberfläche (z. B. Touchpad 355 in 3 oder berührungsempfindliche Oberfläche 451 in 4B) detektiert wird, während der Cursor über einem speziellen Benutzerschnittstellenelement ist (z. B. einer Taste, Fenster, Schieber oder anderem Benutzerschnittstellenelement), wird das spezielle Benutzerschnittstellenelement gemäß der detektierten Eingabe angepasst. In einigen Implementierungen, welche einen Touchscreen umfassen (z. B. das berührungsempfindliche Anzeigesystem 112 in 1A oder den Touchscreen 112 in 4A), welche direkte Interaktion mit Benutzerschnittstellenelementen auf dem Touchscreen ermöglicht, agiert ein detektierter Kontakt auf dem Touchscreen als ein ”Fokus-Selektor”, so dass, wenn eine Eingabe (z. B. eine Druckeingabe durch den Kontakt) auf dem Touchscreen an einem Ort eines speziellen Benutzerschnittstellenelements detektiert wird (z. B. eine Taste, Fenster, Schieber oder anderes Benutzerschnittstellenelement), wird das spezielle Benutzerschnittstellenelement gemäß der detektierten Eingabe angepasst. In einigen Implementierungen wird der Fokus von einer Region einer Benutzerschnittstelle zu einer anderen Region der Benutzerschnittstelle bewegt, ohne entsprechende Bewegung eines Cursors oder Bewegung eines Kontakts auf einem Touchscreen (z. B. durch Verwenden eines Tab-Keys oder File-Keys zum Bewegen des Fokus von einer Taste zu einer anderen Taste); in diesen Implementierungen bewegt sich der Fokus-Selektor gemäß der Bewegung des Fokus zwischen unterschiedlichen Regionen der Benutzerschnittstelle. Unabhängig von der spezifischen Form, welche durch den Fokus-Selektor angenommen wird, ist der Fokus-Selektor im Allgemeinen das Benutzerschnittstellenelement (oder Kontakt auf dem Touchscreen), welches durch den Benutzer gesteuert wird, um die beabsichtigte Interaktion des Benutzers mit der Benutzerschnittstelle zu kommunizieren (z. B. durch Anzeigen an die Vorrichtung des Elements der Benutzerschnittstelle, mit welchem der Benutzer beabsichtigt zu interagieren). Zum Beispiel wird der Ort eines Fokus-Selektors (z. B. ein Cursor, ein Kontakt oder eine Auswahlbox) über eine jeweilige Taste, während eine Druckeingabe auf der berührungsempfindlichen Oberfläche (z. B. einem Touchpad oder einem Touchscreen) detektiert wird, anzeigen, dass der Benutzer beabsichtigt, die jeweilige Taste zu aktivieren (im Gegensatz zu anderen Benutzerschnittstellenelementen, welche auf einer Anzeige der Vorrichtung gezeigt sind).
  • Die unten beschriebenen Figuren der Benutzerschnittstelle beinhalten verschiedene Intensitätsdiagramme, die die Intansität des Kontakts auf der berührungsempfindlichen Oberfläche im Verhältnis zu einer oder mehreren Intensitätsschwellen zeigen (z. B. eine Kontakterkennung-Intensitätsschwelle IT o, durch leichten Druck-Intensitätsschwelle IT L, ein tiefer Druck-Intensitätsschwelle IT D, und/oder einem oder mehreren anderen Intensitätsschwellen). Diese Intensitätsbild ist typischerweise nicht Teil der angezeigten Benutzerschnittstelle, jedoch ist vorgesehen, um die Interpretation der Figuren zu erleichtern. In einigen Ausführungsformen entspricht die leichte Druck-Intensitätsschwelle einer Intensität, bei der die Vorrichtung Operationen durchführt, die in der Regel mit einem Klick auf einen Knopf einer physischen Maus oder eines Trackpads verbunden sind. In einigen Ausführungsformen entspricht tiefe Druck-Intensitätsschwelle einer Intensität, bei der die Vorrichtung Operationen durchführt, die in der Regel mit einem Klick auf einen Knopf einer physischen Maus oder eines Trackpads verbunden sind. In einigen Ausführungsformen, wenn ein Kontakt mit einer Intensität unterhalb der leichten Druck-Intensitätsschwelle erfasst wird (z. B. oberhalb einer nominalen Kontakterfassungs-Intensitätsschwelle IUm unterhalb dessen die Kontakt nicht mehr erkannt wird), wird die Vorrichtung einen Fokus-Selektor in Übereinstimmung mit der Bewegung des Kontakts auf der berührungsempfindlichen Oberfläche bewegen, ohne eine Operation, die mit der leichten Druck-Intensitätsschwelle oder dem tiefen Druck-Intensitätsschwelle verbunden ist, durchzuführen. Im Allgemeinen, sofern nicht anders angegeben, sind diese Intensitätsschwellen konsistent zwischen verschiedenen Sätzen von Figuren der Benutzerschnittstelle.
  • Eine Erhöhung der Intensität des Kontakts von einer Intensität unterhalb der leichten Druck-Intensitätsschwelle IT L zu einer Intensität zwischen der leichte Druck-Intensitätsschwelle und der tiefen Druck-Intensitätsschwelle IT D wird manchmal als ”leichte Druck-Eingabe” bezeichnet. Eine Erhöhung der Intensität des Kontakts von einer Intensität unterhalb der tiefen Druck-Intensitätsschwelle IT D zu einer Intensität über der tiefen Druck-Intensitätsschwelle IT D wird manchmal als ”tiefe Druck-Eingabe” bezeichnet. Eine Erhöhung der Intensität des Kontakts aus einer Intensität unterhalb der Kontakterfassungsschwelle IT o zu Intensität zwischen einer Intensität der Kontakterfassungsschwelle und der leichten Druck-Intensitätsschwelle IT L wird manchmal als Erfassen des Kontakts auf der Berührungs-Oberfläche bezeichnet. Eine Abnahme der Intensität des Kontakts aus einer Intensität oberhalb der Kontakterfassungsschwelle ITo zu einer Intensität unterhalb der Kontakterfassungsschwelle IT o manchmal als Abheben des Kontakts bezeichnet. In einigen Ausführungsformen ist ITO Null. In einigen Ausführungsformen IT o größer als Null ist. In einigen Darstellungen ein schattiger Kreis oder Oval dient zur Darstellung einer Intensität eines Kontakts auf der berührungsempfindlichen Oberfläche. In einigen Darstellungen wird ein Kreis oder ein Oval ohne Schattierung verwendet um einen entsprechenden Kontakt auf dem berührungsempfindlichen Oberfläche ohne Angabe der Intensität des jeweiligen Kontakts darzustellen.
  • In einigen hierin beschriebenen Ausführungsformen werden eine oder mehrere Operationen in Reaktion auf das Erkennen einer Geste, die einen jeweiligen Druck-Eingang oder in Reaktion auf das Erfassen der jeweiligen Druck Eingangs mit einem jeweiligen Kontakt geführt (oder eine Vielzahl von Kontakten), wobei enthält geführt die jeweilige Druckeingang detektiert zumindest teilweise auf Erfassung einer Zunahme in der Intensität des Kontakts (oder mehrere Kontakte) über einen Presseingangsintensitätsschwelle basiert.
  • In einigen Ausführungsformen wird der entsprechende Vorgang in Reaktion auf das Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des Presseingangsintensitätsschwelle (z. B. eine ”Abwärtsbewegung” des jeweiligen Druckeingabe) durchgeführt. In einigen Ausführungsformen die Druckeingang umfasst eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb des Presseingabeintensitätsschwelle und einer anschließenden Abnahme der Intensität des Kontakts unterhalb der Presseingangsintensitätsschwelle, und die jeweilige Operation wird in Reaktion auf die Erfassung durchgeführt wird die anschließende Abnahme der Intensität der jeweiligen Kontakt unterhalb der Presseingangsschwelle (z. B. ein ”Aufwärtshub” des jeweiligen Druckeingang).
  • In einigen Ausführungsformen verwendet die Vorrichtung Intensität Hysterese, um versehentliche Eingaben manchmal als ”Jitter”, wobei die Vorrichtung bestimmt oder wählt einen Hysterese-Intensitätsschwelle mit einer vorgegebenen Beziehung zu dem Druckeingangsintensitätsschwelle (z. B. die Hysterese Intensitätsschwelle zu vermeiden, ist X Intensitätseinheiten niedriger als der Presse-Eingangsintensitätsschwelle oder die Hysterese Intensitätsschwelle beträgt 75%, 90% oder ein angemessener Anteil an der Presse-Eingangsintensitätsschwelle). Somit kann in einigen Ausführungsformen die Druckeingang beinhaltet eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb des Presseingabeintensitätsschwelle und einer anschließenden Abnahme der Intensität des Kontakts unterhalb der Hysterese-Intensitätsschwelle, die auf dem Presseingangsintensitätsschwellenwert entspricht, und die jeweilige Operation wird in Reaktion auf die Erfassung der nachfolgenden Abnahme der Intensität der jeweiligen Kontakt unterhalb der Hysterese Intensitätsschwelle durchgeführt (beispielsweise eine ”Aufwärtshub” der jeweiligen Press Eingang). Ähnlich wird in einigen Ausführungsformen wird die Druckeingang nur erkannt, wenn die Vorrichtung einen Anstieg der Intensität des Kontakts aus einer Intensität bei oder unterhalb der Hysterese Intensitätsschwelle zu einer Intensität bei oder oberhalb des Presseingangsintensitätsschwelle, und gegebenenfalls eine anschließende Abnahme der Intensität des Kontakts zu einer Intensität bei oder unterhalb der Hysterese der Intensität und der jeweilige Betrieb wird in Reaktion auf das Erfassen des Eingangspresse (z. B. die Erhöhung der Intensität des Kontakts oder der Abnahme der Intensität des Kontaktes je durch von den Umständen).
  • Für eine einfache Erläuterung wird die Beschreibung der Operationen in Reaktion auf einen Druckeingang mit einer Druckeingangsintensitätsschwelle oder in Reaktion auf eine Geste mit der Presse verbundenen Eingang durchgeführt werden, optional ausgelöst in Reaktion auf das Erfassen entweder einer Steigerung der Intensität eines Kontakts über der Presseingangsintensitätsschwelle, eine Erhöhung der Intensität eines Kontakts aus einer Intensität unterhalb des Hysterese-Intensitätsschwelle zu einer Intensität oberhalb der Presseingangsintensitätsschwellenwert, eine Verringerung der Intensität der Kontakt unter der Press-Eingabeintensitätsschwellenwert und/oder eine Abnahme der Intensität des Kontakts unterhalb der Hysterese Intensitätsschwellenwert entsprechend dem Druckeingangsintensitätsschwelle. Zusätzlich wird in den Beispielen, wo eine Operation wie die in Reaktion auf das Erfassen einer Abnahme der Intensität eines Kontakts unterhalb der Presseingangsintensitätsschwelle beschrieben durchgeführt, ist der Betrieb wahlweise in Reaktion auf die Erfassung einer Abnahme der Intensität des Kontakt unten durch eine Hysterese Intensitätsschwelle entspricht, und niedriger als die Presse-Eingangsintensitätsschwelle.
  • Benutzerschnittstellen und zugehörige Prozesse
  • Vorschau und Auswahl von Inhaltsobjekten
  • Viele elektronische Vorrichtungen verfügen über eine grafische Benutzerschnittstellen, die verschiedene Inhaltsfelder und eine Vielzahl von Inhaltsobjekten umfassen. Zum Beispiel erlaubt eine Fotoalbum-Software einem Benutzer Bilder zu ordnen und anzupassen um angezeigt oder zu einem späteren Zeitpunkt gedruckt zu werden. In diesem Beispiel umfasst die Anpassung der Bilder wahlweise das Auswählen zwischen verschiedenen Bildern, um sie in einem bestimmten Rahmen anzuzeigen. Einige Methoden der Auswahl zwischen verschiedenen Bildern erfordern mehrere sequentielle Eingaben, die mit verschiedenen Kontakten, durch Pop-up oder Drop-Down Menüs, das eine lange Zeit in Anspruch nehmen kann und verwirrend für einen Benutzer sein kann, durchgeführt werden. Es besteht die Notwendigkeit, eine schnelle, effiziente und komfortable Möglichkeit für die Vorschau und Auswahl von Inhaltselementen entsprechend einem Inhaltsfeld, die getrennte Schritte oder Eingaben oder Benutzerschnittstellen verringern oder beseitigen, durch die ein Benutzer sonst navigieren würde, um eine Inhaltsauswahl-Operation auszuführen. Die nachstehenden Ausführungsformen verbessern die bestehenden Verfahren durch Verminderung der kognitiven Belastung für einen Benutzer und erzeugen eine effiziente Mensch-Maschine-Schnittstelle.
  • Die 5A5N zeigen beispielhafte Benutzerschnittstellen für die Vorschau und die Auswahl von Inhaltselementen, die einem Inhaltsfeld in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden benutzt, um die nachfolgenden beschriebenen Verfahren zu veranschaulichen, einschließlich der nachstehend unter Bezugnahme auf die 6A bis 6C beschriebenen Verfahren. 5A5L umfassen Intensitätsdiagramme, die die aktuelle Intensität des Kontaktes auf der berührungsempfindlichen Oberfläche in Bezug auf eine Vielzahl von Intensitätsschwellen, eine entsprechende Schwelle beinhaltend, (beispielsweise ”IT L”) anzeigen. In einigen Ausführungsformen, werden Operationen ähnlich zu denjenigen, die nachstehend unter Bezugnahme auf LIT beschrieben werden, mit Bezug auf eine andere Intensitätsschwelle (beispielsweise ”IT D”) durchgeführt.
  • Die 5A bis 5F veranschaulichen ein Beispiel einer Vorschau und Auswahl einer elektronischer Nachrichten, die einem Lesebereich entsprechen. Die 5A5F zeigen eine Benutzerschnittstelle 18002 einschließlich einer E-Mail-Anwendung 18004 mit einem Lesebereich 18006 auf der Anzeige 450 einer Vorrichtung (z. B. Vorrichtung 300, 3). Die 5A5F zeigen auch einen Kontakt 18010 auf einer berührungsempfindliche Oberfläche 451 und eine Intensität des Kontakts 18010. In Übereinstimmung mit einigen Ausführungsformen, veranschaulichen die 5A5F ferner eine angezeigte Darstellung des Fokus-Selektors (z. B. Zeiger 18008). 5B zeigt die Intensität des Kontakts 18010 über ITL während der Zeiger 18008 über dem Lesebereich 18006 ist. 5B zeigt auch ein Inhaltsmenü 18012 einschließlich mehrerer Optionen, die einzelnen E-Mails entsprechen. 5C zeigt die Bewegung des Kontakts 18010 und die entsprechenden Bewegung des Zeigers 18008 zu einer Position über einer Darstellung von der E-Mail 1 im Inhaltsmenü 18012. 5D zeigt den Zeiger 18008 über der Darstellung der E-Mail-1 im Inhaltsmenü 18012 und eine Vorschau 18014 der E-Mail 1 im Lesebereich 18006. Die 5D5E zeigen die Intensität des Kontakts 18010, die sich von einer Intensität unterhalb IT D in 5D zu einer Intensität über IT D in 5E erhöht, während der Zeiger 18008 über der Darstellung der E-Mail-1 im Inhaltsmenü 18012 ist. 5E zeigt auch eine Vorschau 18014 der E-Mail-1, die im Lesebereich 18006 expandiert. 5F zeigt eine r E-Mail 18016 im Lesebereich 18006.
  • In einigen Ausführungsformen wird die E-Mail in den Lesebereich 18006 eingeführt, wenn die Intensität des Kontakts 18010 über IT D erhöht wird. In einigen Ausführungsformen wird die E-Mail im Lesebereich 18006 eingeführt, wenn, nachdem die Intensität des Kontakts 18010 eine Intensität über IT D erreicht hat, die Intensität des Kontakts 18010 unter einer Hysterese-Intensitätsschwelle reduziert wird, die mit (und unterhalb) IT D verbunden ist.
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einer separaten Anzeige (z. B. Anzeige 450) und einer separaten berührungsempfindlichen Oberfläche (z. B. berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung eine tragbare Multifunktionsvorrichtung 100, die Anzeige ist ein berührungsempfindliches Anzeigesystem 112 und die berührungsempfindliche Oberfläche beinhaltet Kontaktintensitätssensoren 165 auf der Anzeige (1A). Zur Vereinfachung der Erläuterung werden, die Ausführungsformen, die mit Bezug auf die 5A bis 5F beschrieben werden, mit Bezug auf die Anzeige 450 und eine separate berührungsempfindliche Oberfläche 451 diskutiert. Jedoch werden analoge Operationen gegebenenfalls auf einer Vorrichtung mit einem berührungsempfindlichen Anzeigesystem 112 durchgeführt in Reaktion auf die Erfassung der Kontakte, die in den 5A5F beschreiben werden, auf dem berührungsempfindlichen Anzeigesystem 112, während eine Anzeige der Benutzerschnittstellen, die in den 5A5F gezeigt sind, auf dem berührungsempfindlichen Anzeigesystem 112; in solchen Ausführungsformen ist der Fokus-Selektor, gegebenenfalls: ein entsprechender Kontakt, ein repräsentativer Punkt, der einem Kontakt entspricht (z. B. ein Schwerpunkt eines entsprechenden Kontakts oder ein Punkt, der mit einem entsprechenden Kontakt zugeordnet ist) oder ein Schwerpunkt von zwei oder mehr Kontakten auf dem berührungsempfindlichen Anzeigesystem 112, an Stelle des Zeigers 18008.
  • Die 5G5N zeigen ein Beispiel für die Vorschau und Auswahl von Bildern, die einem Bilderrahmen entsprechen. 5G5N zeigen den Berührungsbildschirm 112 auf einer tragbaren Multifunktionsvorrichtung 100. 5G5N zeigen ferner eine Bild-Bearbeitungsanwendung 18020, den Rahmen 18022 umfassend, auf dem Berührungsbildschirm ein 112. 5G zeigt einen Kontakt 18024 mit einer Intensität unterhalb von IT L, der über dem Rahmen 18022 erfasst wird. 5G5H zeigen eine Intensität des Kontakts 18024, der sich von einer Intensität unterhalb von LIT in 5G zu einer Intensität oberhalb von LIT in 5H erhöht und ein Inhaltsmenü 18026, die ein Darstellungen von Bildern 18028 umfasst, die in Reaktion auf das Erfassen der Erhöhung der Intensität des Kontakts 18024 angezeigt werden. 515J zeigen eine Bewegung des Kontakts 18024 über die Bilddarstellung 18028-2 im Inhaltsmenü 18026. 5J zeigt den Kontakt 18024 über der Bilddarstellung 18028-2 und eine Vorschau von Bild 2 18030 im Rahmen 18022. 5K5L zeigen eine Bewegung des Kontakts 18024 über der Bilddarstellung 18028-1 im Inhaltsmenü 18026. 5L zeigt den Kontakt 18024 über der Bilddarstellung 18028-1 und die Vorschau von Bild 1 18032 im Rahmen 18022. 5M zeigt ein Abheben des Kontakts 18024 (z. B. eine Abnahme der Intensität des Kontakts 18024 von einer Intensität oberhalb von ITo auf eine Intensität unterhalb von IT o), während er über der Bilddarstellung 18028-1 ist. 5M zeigt auch eine Vorschau von Bild 1 18032 die im Rahmen 18022 expandiert. 5N zeigt ein Bild 18034 im Rahmen 18022.
  • 6A6C sind Flussdiagramme, die das Verfahren 18100 von Vorschau und Auswahl von Inhaltsobjekten, die einem Inhaltsfeld in Übereinstimmung mit einigen Ausführungsformen veranschaulicht. Das Verfahren 18100 wird auf einer elektronischen Vorrichtung durchgeführt (z. B. Vorrichtung 300, 3, oder der tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist die Anzeige eine Berührungsbildschirm-Anzeige und die berührungsempfindliche Oberfläche ist auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 18100 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie unten beschrieben, stellt das Verfahren 18100 eine intuitive Möglichkeit, um eine Vorschau und Auswahl von Inhaltselementen entsprechend einem Inhaltsfeld in Übereinstimmung mit einigen Ausführungsformen, bereit. Das Verfahren reduziert die kognitive Belastung für einen Benutzer beim Navigieren der Benutzerschnittstelle-Hierarchien, wodurch eine effizientere Mensch-Maschine-Schnittstelle entsteht. Für batteriebetriebene elektronische Vorrichtungen, die es einem Benutzer ermöglicht die Vorschau und Auswahl von Inhaltselementen schneller und effizienter durchzuführen, spart Strom und erhöht die Zeit zwischen Batterieladungen.
  • Die Vorrichtung zeigt (18102) ein Inhaltsfeld (z. B. ein Rahmen für ein Bild oder ein Bild, ein Textfeld oder ein Feld für die Eingabe eines numerischen Werts) auf dem Anzeige. Zum Beispiel, zeigt die Vorrichtung in 5A den Lesebereich 18006 in der E-Mail-Anwendung 18004. Als ein anderes Beispiel zeigt die Vorrichtung in 5G einen Rahmen 18022 in einer Bild-Bearbeitungsanwendung 18020.
  • Die Vorrichtung erfasst (18104) einen Kontakt auf der berührungsempfindlichen Oberfläche, wo der Kontakt einem Fokus-Selektor auf dem Anzeige entspricht. Zum Beispiel erfasst die Vorrichtung in 5A 18010 den Kontakt auf berührungsempfindlichen Oberfläche 451, der dem Zeiger 18008 auf der Anzeige 450 entspricht. Als weiteres Beispiel, erfasst die Vorrichtung in 5G einen Kontakt 18024 auf dem Berührungsbildschirm 112.
  • Während eines kontinuierlichen Erfassens (18106) des Kontakts auf der berührungsempfindlichen Oberfläche: Die Vorrichtung erfasst (18108) eine Druck-Eingabe, die eine Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle (z. B. IT-L) beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist. In einigen Ausführungsformen ist die jeweilige Intensitätsschwelle eine Intensitätsschwelle, die höher als eine Eingabeserfassungs-Intensitätsschwelle ist, bei der der Kontakt initial festgestellt wird. Zum Beispiel in den 5A5B erfasst die Vorrichtung die Intensität des Kontakts 18010 sich darüber ITL erhöhend, während der Zeiger 18008 über dem Lesebereich 18006 ist. Als ein anderes Beispiel erfasst die Vorrichtung in 5G5H die Intensität des Kontakts 18024 sich von einer Intensität unterhalb von IT L zu einer Intensität über IT L erhöhen.
  • In Reaktion auf das Erkennen der Druck-Eingabe, zeigt die Vorrichtung (18110) ein Inhaltsmenü, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, umfasst. Beispielsweise zeigt die Vorrichtung in 5B ein Inhaltsmenü 18012, das eine Vielzahl von Email-Darstellungen beinhaltet. Als ein anderes Beispiel zeigt die Vorrichtung in 5H ein Inhaltsmenü 18026, das eine Vielzahl von Bilddarstellungen 18028 beinhaltet.
  • Während der Anzeige des Inhaltsmenüs, erfasst die Vorrichtung (18112) eine Bewegung des Kontakts, die der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht. Zum Beispiel, erfasst die Vorrichtung in 5C5D Bewegungen des Kontakts 18010 über die Darstellung der E-Mail-1 im Inhaltsmenü 18012. Als ein anderes Beispiel, erfasst die Vorrichtung in den 5I5L, die Bewegung des Kontakts 18024 über der Darstellung von Bild 1 18028-1.
  • Als Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, zeigt die Vorrichtung (18114) eine Vorschau (z. B. eine vorübergehende Vorschau) des ersten Inhaltselements in dem Inhaltsfeld an. Beispielsweise zeigt die 5D den Zeiger 18008 über der Darstellung von E-Mail 1 im Inhaltsmenü 18012 und die Vorrichtung zeigt in 5D die Vorschau von E-Mail 1 18014 im Lesebereich 18006. Als ein anderes Beispiel, zeigt die Vorrichtung in 5L, eine Vorschau von Bild 1 18032 im Rahmen 18022.
  • In einigen Ausführungsformen, während eines kontinuierlichen Erfassens des Kontakts, nach dem Erkennen der ersten Druck-Eingabe und vor der Erfassung der Bewegung des Kontakts, die der Bewegung des Fokus-Selektors im Inhaltsmenü über die Darstellung des ersten Inhaltselement entspricht:
    Die Vorrichtung erfasst (18116) eine Bewegung des Kontakts, die der Bewegung des Fokus-Selektors über eine oder mehrere andere Darstellungen von entsprechenden anderen Inhaltselementen neben dem ersten Inhaltselement entspricht, und als Reaktion auf das Erfassen der Bewegung des Kontakts, die der Bewegung des Fokus-Selektors über eine Darstellung von einem der anderen Inhaltselemente entspricht, zeigt die Vorrichtung eine Vorschau (z. B. eine vorübergehende Vorschau) des entsprechenden anderen Inhaltselements im Inhaltsfeld (z. B. ohne dauerhaftes Einfügen des anderen Dokumentbestandteils in das Inhaltsfeld). Zum Beispiel, erfasst die tragbare Multifunktionsvorrichtung 100 in den 5I5J Bewegungen von dem Kontakt 18024 über der Bilddarstellung 18028-2 im Inhaltsmenü 18026 und zeigt (in 5J) eine Vorschau von Bild 2 18030 im Rahmen 18022 (in 5J). In Übereinstimmung mit diesen Ausführungen, erfasst die tragbare Multifunktionsvorrichtung 100 Bewegungen des Kontakts 18024 über der Bilddarstellung 18028-2 in den 5I5J vor dem Erfassen der Bewegung des Kontakts 18024 über der Bilddarstellung 18028-1 in den 5K5L.
  • Das Vorrichtung erfasst (18118) eine Bestätigungeingabe, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist. Zum Beispiel erfasst die Vorrichtung in den 5D bis 5E eine Erhöhung der Intensität des Kontakts 18010 von einer Intensität unterhalb IT D in 5D zu einer Intensität oberhalb von IT D in 5E, während der Zeiger 18008 über der Darstellung von E-Mail-1 im Inhaltsmenü 18012 ist. Als ein anderes Beispiel erfasst die Vorrichtung, in 5L5M, ein Abheben des Kontakts 18024 von dem Berührungsbildschirm 112.
  • In einigen Ausführungsformen werden die Druck-Eingabe, die Bewegung des Kontakts und die Bestätigungseingabe (18120) mit einem einzelnen kontinuierlichen Kontakt durchgeführt (zum Beispiel als Teil einer einzigen Geste). In Übereinstimmung mit diesen Ausführungsformen, erfasst die Vorrichtung beispielsweise in den 5A5F eine Erhöhung der Intensität des Kontakts 18010 oberhalb von IT L in 5B, eine Bewegung des Kontakts 18010 in 5C, und eine Erhöhung der Intensität des Kontakts 18010 über IT D in 5E als Teil eines einzigen, durchgehenden Kontakts (z. B. einer einzigen Geste).
  • Als ein anderes Beispiel wird der Kontakt 18024 kontinuierlich in den 5G5L erfasst.
  • In einigen Ausführungsformen beinhaltet eine Erfassung der Bestätigungseingabe (18122), ein Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberfläche. Zum Beispiel erfasst die tragbare Multifunktionsvorrichtung 100 in 5L5M ein Abheben des Kontakts 18024, und in Reaktion darauf fügt sie in 5N ein Bild 18034 in einen Rahmen 18022 ein.
  • In einigen Ausführungsformen, umfasst ein Erfassen der Eingabebestätigung (18124), ein Erfassen einer Erhöhung der Intensität des Kontakts über eine Einführungsintensitätsschwelle (beispielsweise die jeweilige Intensitätsschwelle oder eine Intensitätsschwelle der oberhalb der jeweiligen Intensitätsschwelle ist), während der Fokus-Selektor über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist. Zum Beispiel erfasst die Vorrichtung in den 5D bis 5E eine Erhöhung der Intensität des Kontakts 18010 von einer Intensität unterhalb IT D in 5D zu einer Intensität oberhalb von IT D in 5E und fügt in Reaktion darauf in 5F eine Mail 18016 in einen Lesebereich 18006 ein.
  • Als Reaktion auf die Erfassung der Bestätigungseingabe, fügt die Vorrichtung (18126) das erste Inhaltselement in das Inhaltsfeld ein. Zum Beispiel fügt die Vorrichtung in 5N das Bild 18034 in den 18022 Rahmen ein. Als ein anderes Beispiel, fügt die Vorrichtung in 5F die E-Mail 1 in den Lesebereich 18006 ein. In einigen Implementierungen ermöglicht, das Einsetzen des ersten Inhaltselements in das Inhaltsfeld, weitere Operationen, die auf dem ersten Inhaltselement durchgeführt werden, welche mindestens eine Operation umfassen, die nicht verfügbar für die Verwendung mit der entsprechenden Vorschau ist.
  • In einigen Implementierungen ist eine Vorschau vorübergehend und entweder nicht funktionsfähig oder weniger voll-funktionsfähig im Vergleich mit den jeweiligen Inhaltselementen, die in das Inhaltsfeld eingefügt werden. In einigen Implementierungen bedeutet ein Einsetzen des ersten Inhaltselements in das Inhaltsfeld, eine nicht-transiente Zuordnung des ersten Inhaltselements mit dem Inhaltsfeld und Anzeigen einer Darstellung des ersten Inhaltselements in dem Inhaltsfeld. Zum Beispiel in Übereinstimmung mit einigen Implementierungen zeigt eine Foto-Anwendung eine Vorschau einer Foto nur, wenn der Fokus-Selektor über einer entsprechenden Foto-Darstellung in einem Inhaltsmenü ist. In diesem Beispiel wird, wenn kein Bestätigungseingabe erfasst wird, die Bildvorschau dann nicht fortgeführt, wenn der Fokus-Selektor aufhört die entsprechenden Foto-Darstellung im Inhaltsmenü zu fokussieren (beispielsweise, wenn ein Zeiger oder Kontakt sich von einem Bereich, der einer Darstellung der Inhalte, wie beispielsweise einer Fotovorschau, entspricht, weg bewegt). Umgekehrt wird in diesem Beispiel, wenn eine Bestätigungseingabe erfasst wird, das Foto dann mit der Foto-Anwendung zugeordnet und wird auch weiterhin angezeigt werden, nachdem der Fokus Selektor aufhört die entsprechende Bilder-Darstellung im Inhaltsmenü zu fokussieren (z. B. wenn sich der Zeiger oder Kontakt sich von dem Bereich, der der Darstellung der Inhalte, wie einer Fotovorschau entspricht, weg bewegt). Optional können bei diesem Beispiel zusätzliche Fotobearbeitungsoptionen dem Benutzer zur Verfügung stehen, nachdem eine Bestätigungseingabe erfasst wird.
  • In einigen Ausführungsformen sind die Inhaltselemente Bilder und das Inhaltsfeld ist (18128) ein Bildrahmen in einer Anwendung für die elektronischen Dokument-Bearbeitung. Zum Beispiel in Übereinstimmung mit diesen Ausführungsformen zeigen 5G5N eine Bild-Bearbeitungsanwendung 18020, die einen Rahmen 18022 und ein Inhaltsmenü 18026, Darstellungen von Bildern 18028 beinhaltend, umfasst. 5N zeigt ferner Bild 18034 im Rahmen 18022. In einigen Ausführungsformen sind die Inhaltselemente elektronische Nachrichten und das Inhaltsfeld (18130) ist ein Lesebereich in einer Anwendung für elektronische Nachrichten. Zum Beispiel in Übereinstimmung mit diesen Ausführungsformen zeigen 5A5F eine E-Mail-Anwendung 18004, die einen Lesebereich 18006 und ein Inhaltsmenü 18012, Darstellungen von E-Mails beinhaltend, umfasst. 5F zeigt ferner eine E-Mail-18016 im Lesebereich 18006.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 6A bis 6C beschrieben sind lediglich beispielhaft sind und nicht dazu gedacht sind, um anzuzeigen, dass der beschriebenen Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten erkennen, um die hierin beschriebenen Operationen neu zu ordnen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen Prozesse, die hierin mit Bezug auf andere Verfahren, die hier beschrieben sind, beschreiben werden (zum Beispiel, die in Absatz [0043]) sind ebenfalls in einer analogen Weise auf das Verfahren 18100, das oben mit Bezug auf die 6A bis 6C beschrieben wird, anwendbar. Zum Beispiel haben die Kontakte, Gesten, Intensitätsschwellen, Fokus-Selekors, Inhaltsfelder, Inhaltmenüs und Inhaltselemente, die oben mit Bezug auf das Verfahren 18100 beschrieben wurde, gegebenenfalls eine oder mehrere der Eigenschaften der Kontakte, Gesten, Intensitätsschwellen Fokus-Selekors, Inhaltsfelder, Inhaltmenüs und Inhaltselemente hier mit Bezug auf andere hier beschriebenen Methoden beschrieben (z. B. die in Absatz [0043]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, zeigt 7 ein Funktionsblockdiagramm einer elektronischen Vorrichtung 18200, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung werden wahlweise durch Hardware, Software oder eine Kombination aus Hardware und Software implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen durchzuführen. Es wird durch Fachleute auf dem Gebiet verstanden, dass die in 7 beschriebenen Funktionsblöcke gegebenenfalls kombiniert oder in Unterblöcke getrennt werden können, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen. Daher unterstützt die Beschreibung hier gegebenenfalls jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in gezeigt, enthält eine elektronische Vorrichtung 18200 eine Anzeigeeinheit 18202, die konfiguriert ist, um ein Inhaltsfeld anzuzeigen, eine berührungsempfindliche Oberflächeneinheit 18204, die konfiguriert ist, um Kontakte des Benutzers zu empfangen, eine oder mehrere Sensoreinheiten 18205, die konfiguriert sind, um die Intensität der Kontakte mit der berührungsempfindlichen Oberflächeneinheit zu erfassen und eine Verarbeitungseinheit 18206, die mit der Anzeigeeinheit 18202, der berührungsempfindlichen Oberflächeneinheit 18204 und den Sensoreinheiten 18205 verbunden ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 18206 eine Erfassungseinheit 18208, eine Anzeigeaktivierungseinheit 18210 und Einfügeeinheit 18212.
  • Die Verarbeitungseinheit 18206 ist konfiguriert, um (z. B. mit der Erfassungseinheit 18208) einen Kontakt auf der berührungsempfindliche Oberflächeneinheit 18204 zu erfassen, wobei der Kontakt einem Fokus-Selektor auf der Anzeigeeinheit entspricht und während eines kontinuierlichen Erfassens des Kontakts auf berührungsempfindlichen Oberflächeneinheit 18204 (z. B. mit der Erfassungseinheit 18208) eine Druck-Eingabe zu erfassen, die eine Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist, und als Reaktion auf die Erfassung der Druck-Eingabe, eine Anzeige (z. B. mit der Anzeigeaktivierungseinheit 18210) eines Inhaltsmenüs, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet, zu ermöglichen. Die Verarbeitungseinheit 18206 ist auch konfiguriert, um während eines kontinuierlichen Erfassens des Kontakts auf berührungsempfindlichen Oberflächeneinheit 18204 und während der Anzeige des Inhaltsmenüs, (z. B. mit Erfassungseinheit 18208) eine Bewegung des Kontakts zu erfassen, die der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht, und als Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, eine Anzeige (z. B. mit der Anzeigeaktivierungseinheit 18210) einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld zu ermöglichen. Die Verarbeitungseinheit 18206 ist ferner konfiguriert, um (z. B. mit Erfassungseinheit 18208) eine Bestätigungeingabe zu erfassen, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist und in Reaktion auf die Erfassung der Bestätigungseingabe, (z. B. mit der Einfügungseinheit 18212) das erste Inhaltselement in das Inhaltsfeld einzufügen.
  • In einigen Ausführungsformen werden die Druck-Eingabe, die Bewegung des Kontakts und die Bestätigungseingabe mit einem einzelnen kontinuierlichen Kontakt durchgeführt.
  • In einigen Ausführungsformen, beinhaltet ein Erfassen (z. B. mit Erfassungseinheit 18208) der Bestätigungseingabe, das Erfassen des Abhebens des Kontakts von berührungsempfindlichen Oberflächeneinheit 18204.
  • In einigen Ausführungsformen beinhaltet ein Erfassung (z. B. mit Erfassungseinheit 18208) der Bestätigungseingabe, ein Erfassung einer Erhöhung der Intensität des Kontakts über eine Einführungs-Intensitätsschwelle während der Fokus-Selektor über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist..
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 18206 ferner konfiguriert, um während eines kontinuierlichen Erfassens einer Berührung, nach dem Erfassen (z. B. mit Erfassungseinheit 18208) der ersten Druck-Eingabe- und vor der Erfassung (z. B. mit Erfassungseinheit 18208) einer Bewegung des Kontakt, die der Bewegung des Fokus-Selektor auf der Darstellung des ersten Inhaltselements im Inhaltsmenü entspricht, (z. B. mit Erfassungseinheit 18208) Bewegung des Kontakts zu erfassen, die der Bewegung des Fokus-Selektors über eine oder mehrere andere Darstellungen von entsprechenden anderen Inhaltselementen neben dem ersten Inhaltselement entspricht und in Reaktion auf das Erfassen der Bewegung des Kontakts, die der Bewegung der Fokus-Selektor über eine Darstellung eines der anderen Inhaltselementen entspricht, eine Anzeige (z. B. mit Anzeigeaktivierungseinheit 18210) einer Vorschau der entsprechenden anderen Inhaltselemente in dem Inhaltsfeld zu ermöglichen.
  • In einigen Ausführungsformen sind die Inhaltselemente Bilder und das Inhaltsfeld ist ein Bildrahmen in einer Anwendung für elektronische Dokument-Bearbeitung.
  • In einigen Ausführungsformen sind die Inhaltselemente elektronische Nachrichten und das Inhaltsfeld ist ein Lesebereich in einer Anwendung für elektronische Nachrichten.
  • Die Vorgänge in den Informationsverarbeitungsverfahren, die oben beschriebenen werden, werden wahlweise zum Ausführen auf einem oder mehreren Funktionsmodulen in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren (z. B. wie oben mit Bezug auf 1A und 3 beschrieben) oder durch Anwendungs-spezifischen Chips implementiert.
  • Die oben beschriebenen Operationen mit Bezug auf die 6A bis 6C sind, gegebenenfalls durch Komponenten, die in den 1A1B oder 7 dargestellt werden, implementiert. Zum Beispiel Erfassungsoperationen 18104, 18108, 18112 und 18118 und die Einfügungsoperation 18126 werden wahlweise vom Ereignis-Sortierer 170, Ereignis-Erkenner 180 und Ereignis-Handler 190 implementiert. Der Ereignismonitor 171 in dem Ereignis-Sortierer 170 erfasst einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignis-Dispatcher-Modul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Einen entsprechenden Ereignis-Erkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit den jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche einem vordefinierten Ereignis oder Unter-Ereignis, wie Auswahl ein Objekt auf einer Benutzerschnittstelle, entspricht. Wenn ein entsprechendes vorgegebenes Ereignis oder Unter-Ereignis erfasst wird, aktiviert der Ereignis-Erkenner 180 eine Ereignisbehandlungsroutine 190, die mit der Erfassung des Ereignisses oder der Unter-Ereignis verbunden ist. Der Ereignis-Handler 190 nutzt oder fordert wahlweise einen Datenaktualisierer 176 oder Objekt aktualisierer 177, den internen Zustand der Anwendung 192 zu aktualisieren. In einigen Ausführungsformen, greift der Event-Handler 190 auf einen entsprechenden GUI-Aktualisierer 178 zu, um das was durch die Anwendung angezeigt wird, zu aktualisieren.
  • Ebenso wäre es klar für eine Person mit durchschnittlichen Fachkenntnissen wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert werden können. Verschieben und Löschen eines Benutzerschnittstellenobjekt
  • Viele elektronische Vorrichtungen haben graphische Benutzerschnittstellen die einem Benutzer ermöglichen ein Benutzerschnittstellenobjekt zu bewegen, beispielsweise ein Symbol. In einigen Situationen, bewegt ein Benutzer ein Benutzerschnittstellenobjekt durch Auswahl (z. B., durch eine Eingabe mit einem Fokus-Selektor über die Benutzerschnittstellenobjekt), und dann eine Bewegungseingabe. Einige Methoden zum Bewegen eines Benutzerschnittstellenobjekts lassen den Benutzer sowohl die Fokus-Selektor als auch das Benutzerschnittstellenobjekt zu den Zielort bewegen, und dann da aufhören, bevor der Benutzer den Fokus-Selektor auf einen anderen Benutzerschnittstellenobjekt bewegen kann. In den nachstehend beschriebenen Ausführungsformen wird ein verbessertes Verfahren zum Bewegen eines Benutzerschnittstellenobjekt erreicht. Wenn ein Benutzerschnittstellenobjekt mit dem Fokus-Selektor ausgewählt wurde, und der Fokus Selektor wird mit einem beweglichen Kontakt bewegt, bewegt sich das Benutzerschnittstellenobjekt zusammen mit der Fokus-Selektor. An irgendeiner Stelle während der Bewegung, wenn die Intensität des Kontakts gewisse Intensitätskriterien nicht erfüllt (beispielsweise geht die Kontaktintensität unter eine Intensitätsschwelle), wird das Benutzerschnittstellenobjekt an der Stelle ablegen (gedroppt). Wenn die Intensität des Kontakts die Intensitätskriterien erfüllt, bewegen sich der Fokus-Selektor und das Benutzerschnittstellenobjekt weiter zusammen. Somit kann der Benutzer ein Benutzerschnittstellenobjekt an einer gewünschten Stelle ziehen und ablegen und den Fokus-Selektor ohne zu stoppen in Bewegung zu halten (z. B. zu einem anderen Benutzerschnittstellenobjekt).
  • Die 8A bis 8J zeigen beispielhafte Benutzerschnittstellen zum Bewegen und Ablegen eines Benutzerschnittstellenobjekts in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden benutzt, um die nachfolgenden beschriebenen Verfahren zu veranschaulichen, die Prozesse in den 9A9C inbegriffen. Die 8A8J beinhalten Intensitätsdiagramme, die die aktuelle Intensität des Kontakts auf der berührungsempfindlichen Oberfläche gegenüber einer Vielzahl von Intensitätsschwellen, die eine leichte Druck-Intensitätsschwelle (z. B. ”ITL”) und eine Aufrechterhaltung-Objekt-Auswahl Intensitätsschwelle zeigen (z. B. ”ITi”) umfassen. In einigen Ausführungsformen werden Operationen ähnlich denjenigen unter Bezugnahme auf ”LIT” beschrieben, mit Bezug auf eine unterschiedlichen Intensitätsschwelle (beispielsweise ”IT D”) durchgeführt. In einigen Ausführungsformen (z. B. ”ITL”) ist die leichte Druck-Intensitätsschwelle verschiedene von der Aufrechterhaltung-Objekt-Auswahl Intensitätsschwelle (z. B. ”ITi”), wie in den 8A8J gezeigt. In einigen Ausführungsformen (z. B. ”ITL”) ist die leichte Druck-Intensitätsschwelle jedoch die gleiche wie die Aufrechterhaltung-Objekt-Auswahl Intensitätsschwelle (z. B. ”ITi”).
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einer separaten Anzeige (z. B. Anzeige 450) und einer separaten berührungsempfindlichen Oberfläche (z. B. berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung eine tragbaren Multifunktionsvorrichtung 100, wobei die Anzeige ein berührungsempfindliches Anzeigesystem 112 und die berührungsempfindliche Oberfläche einen taktilen Ausgabeerzeuger 167 auf der Anzeige (1A) umfassen. Zur Vereinfachung der Erläuterung, die beschriebenen Ausführungsformen mit Bezug auf die 8A bis 8J und 9A bis 9C werden unter Bezugnahme auf die Anzeige 450 und eine separate berührungsempfindliche Oberfläche 451 beschrieben, aber analoge Operationen werden gegebenenfalls auf einer Vorrichtung mit einem berührungsempfindliche Anzeigesystem 112 durchgeführt in Reaktion auf die Erfassung der in den 8A8J beschriebenen Kontakte auf dem berührungsempfindlichen Anzeigesystem 112, während der Anzeige der in den 8A8J beschribenen Benutzerschnittstellen auf der berührungsempfindlichen Anzeigesystem 112; in solchen Ausführungsformen ist der Fokus-Selektor, gegebenenfalls: ein jeweiligen Kontakt, eie repräsentativer Punkt, der einem Kontakt entspricht (z. B. ein Schwerpunkt eines jeweiligen Kontakts oder ein mit einem entsprechenden Kontakt zugeordneten Punkt) oder ein Schwerpunkt von zwei oder mehr Kontakten, die auf dem berührungsempfindlichen Anzeigesystem 112 erfasst werden, an der Stelle von dem Zeiger 18310.
  • 8A veranschaulicht Medien-(z. B. Video, Audio)Spieler-Benutzerschnittstelle 18304 auf der Anzeige 450 (z. B. Anzeige 340, Berührungsbildschirm 112) einer Vorrichtung (z. B. Vorrichtung 300, 100). Die Media-Spieler-Benutzerschnittstelle 18304 ist wahlweise eine Benutzerschnittstelle für eine Media-Spieler-Anwendung (z. B. eine Standalone-Anwendung, Web-basierte Anwendung). Die Benutzerschnittstelle 18304 beinhaltet einen Schieberegler 18306 mit einem Daumen 18308. Der Schieberegler 18306 ist gegebenenfalls eine Wiedergabestatusanzeige oder eine Lautstärkeregelung.
  • Der Zeiger 18310 wird auch auf der Anzeige 450 angezeigt. Der Zeiger 18310 ist ein Beispiel für einen Fokus-Selektor.
  • Ein Benutzer ist gegebenenfalls befähigt den Zeiger 18310 über die Anzeige 450, durch eine entsprechende Eingabe auf der berührungsempfindlichen Oberfläche 451 oder einer anderen Eingabevorrichtung (z. B. einer Maus), zu bewegen.
  • Der Zeiger 18310 wird optional verwendet, um Bewegung des Daumens 18308 entlang des Schiebereglers 18306 zu steuern. In einigen Ausführungsformen wird der Zeiger 18310 der Steuerung der Bewegung des Daumens 18308 zugeordnet, wenn der Zeiger 18310 über Daumen 18308 positioniert ist und ein Kontakt (z. B. kontaktieren 18.312) auf berührungsempfindliche Oberfläche 451 der Vorrichtung erfasst wird und der Kontakt 18312 eine Intensität über das leichten Druck-Intensitätsschwelle hat. In Reaktion auf die Erfassung des Kontakts 18312 auf berührungsempfindlichen Oberfläche 451, während der Zeiger 18310 über Daumen 18308 liegt, wird der Daumen 18308 ausgewählt und ist bereit, um bewegt zu werden, wie in 8B gezeigt. Der Daumen 18308 wird entlang des Schiebereglers 18306 durch den Bewegungskontakt 18312 auf berührungsempfindliche Oberfläche 451, beispielsweise mit der Bewegung 18314 bewegt, während der Daumen 18308 ausgewählt ist, wie in den 8B8C dargestellt.
  • Die Bewegung des Daumens 18308 ist entlang eines definiert vorgegebenen Pfads durch den Schieberegler 18306 begrenzt. Die von Schieberegler 18306 definierte vorgegebene Pfad entlang läuft entlang der Längsachse des Schiebereglers 18306. Somit wird Daumen 18308 zusammen mit dem Schieberegler 18306 in Übereinstimmung mit der Bewegungskomponente 18314, die parallel zu der Längsachse des Schiebereglers 18306 ist, bewegt. Die Bewegungskomponente 18314, die senkrecht zu der Längsachse des Schiebereglers 18306 ist, bewegt den Zeiger 18310, jedoch wird die Bewegung des Daumens 18308 nicht beeinträchtigt. Zum Beispiel, wenn der Kontakt 18312 diagonal bewegt wird, würde sich der Zeiger 18310 diagonal in Übereinstimmung mit der diagonalen Bewegung des Kontakts 18312, beinhaltend sich entfernend vom Daumen 18308 bewegen, aber der Daumen 18308 würde sich weiterhin entlang der Längsachse des Schiebereglers 18306 in Übereinstimmung mit der Bewegungskomponente bewegen des Kontakts 18312, die parallel zu der Längsachse des Schiebereglers 18306 ist. Während die mit Bezug auf die 8A8J beschriebenen Beispiele mit Bezug auf ein Benutzerschnittstellenobjekt beschrieben werden (z. B. Daumen 18308), die von einem vordefinierten Pfad beschränkt ist (z. B. Schieberegler 18306), in einigen Ausführungsformen analoge Operationen werden mit Bezug zu einem Objekt durchgeführt (zum Beispiel eine Form in einem Zeichenprogramm, ein Symbol auf einem Schreibtisch oder dergleichen), die nicht durch einen vorgegebenen Pfad begrenzt sind.
  • In den 8A8B, erfasst die Vorrichtung die Bewegung 18311 des Kontakts 18312 über der berührungsempfindlichen Oberfläche 451 und, in Antwort auf das Erfassen der Bewegung, bewegt 18307 sich der Zeiger 18310 zu einer Stelle über dem Daumen 18308 auf dem Anzeige 450.
  • In 8B8C, während der Zeiger 18310 sich über dem Daumen 18308 befindet, erfasst die Vorrichtung eine Erhöhung der Intensität des Kontakts 18312 von einer Intensität unterhalb der leichten Druck-Intensitätsschwelle (z. B. ”IT L”) in 8B zu einer Intensität oberhalb der Druck-Intensitätsschwelle (z. B. ”IT L”) in 8C. In Reaktion auf das Erfassen der Erhöhung der Intensität des in den 8B8C gezeigten Kontakts 18312, selektiert die Vorrichtung (oder ”zieht”) den Daumen 18308. In 8C8D, während der Daumen 18308 ausgewählt ist, erfasst die Vorrichtung eine Bewegung 18314 Des Kontakts 18312 nach rechts auf berührungsempfindlichen Oberfläche 451, und in Reaktion auf das Erfassen der Bewegung, bewegt 18316 sie den Zeiger 18310 und Daumen 18308 nach rechts entlang des vordefinierten Pfads, der dem Schieberegler 18306 entspricht.
  • In den 8D bis 8E, erfasst die Vorrichtung weiterhin, dass die Intensität des Kontakts 18312 über der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle gehalten (z. B. ”IT1]') wird und somit in Reaktion auf das Erfassen einer Bewegung 18318 des Kontakts 18312 weiter rechts auf der berührungsempfindliche Oberfläche 451, bewegt 18320 die Vorrichtung den Zeiger 18310 und den Daumen 18308 weiterhin nach rechts entlang des vorgegebenen Pfads, der dem Schieberegler 18306 entspricht. In 8F, erfasst die Vorrichtung ein Abheben des Kontakts 18312 von der berührungsempfindlichen Oberfläche 451 und bewegt somit den Zeiger 18310 oder den Daumen 18308 nicht, da der Kontakt 18312 nicht mehr auf der berührungsempfindlichen Oberfläche erfasst wird.
  • Ebenso in den 8B und 8G, während der Zeiger 18310 sich über dem Daumen 18308 befindet, erfasst die Vorrichtung eine Erhöhung der Intensität des Kontaktes 18312 von einer Intensität unterhalb der leichten Druck-Intensitätsschwelle (z. B. ”IT L”) in 8B zu einer Intensität oberhalb der leichten Druck-Intensitätsschwelle (z. B. ”IT L”) in 8G. In Reaktion auf das Erfassen der Erhöhung der Intensität des in den 8B und 8G gezeigten Kontakts 18312, selektiert die Vorrichtung (oder ”zieht”) den Daumen 18308. In den 8G8H, während Daumen 18308 ausgewählt ist, erfasst die Vorrichtung eine Bewegung 18322 des Kontakts 18312 nach rechts auf berührungsempfindlichen Oberfläche 451, und bewegt 18324 in Reaktion auf das Erfassen der Bewegung den Zeiger 18310 und den Daumen 18308 nach rechts entlang des vordefinierten Pfads, der dem Schieberegler 18306 entspricht. Beachten Sie, dass die Bewegung der Zeigerbewegung 18310 und Daumenbewegung 18308 in den 8G8H analog zu der Bewegung des Zeigers 18310 und Daumens 18308 in den 8C bis 8D ist.
  • Allerdings, in den 8H8I, erfasst die Vorrichtung eine Abnahme der Intensität des Kontakts 18312 von einer Intensität oberhalb der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle (z. B. ”IT1”) in 8H zu einer Intensität unterhalb der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle (z. B. ”IT1”) oder eine zugehörige Hysterese Intensitätsschwelle, in 8I. In Reaktion auf das Erfassen der Abnahme der Intensität des in den 8H8I gezeigten Kontakts 18312, wählt die Vorrichtung die Auswahl (oder ”Tropfen”) des Daumens 18308 ab.
  • Nachfolgend wird in den 818J in Antwort auf ein Erfassen einer Bewegung 18326 des Kontakts 18312 weiter nach rechts auf der berührungsempfindlichen Oberfläche 451, bewegt 18328 die Vorrichtung weiterhin den Zeiger 18310 nach rechts auf der Anzeige 450, aber, weil die Vorrichtung eine Abnahme der Intensität des Kontakts 18310 unterhalb der Aufrechterhaltung-Objekt-Auswahl-Intensitätsschwelle (z. B. ”IT1”) in den 8H8I erfasst hat, bewegt die Vorrichtung den Daumen 18308 nicht entlang des vorgegebenen Pfads, der dem Schieberegler 18306 entspricht, (z. B. weil der Daumen 18308 ”abglegt” war). Somit ist in den 8G bis 8J der Benutzer in der Lage, ein ausgewähltes Benutzerschnittstellenobjekt ohne Anheben des Kontakts 18312 von der berührungsempfindlichen Oberfläche 451 abzuwählen, das die Effizienz der Interaktion des Benutzers mit der Vorrichtung verbessert, indem die Anzahl der Anhebe-Operationen, die der Benutzer durchführen muss reduziert wird.
  • Nachdem die Vorrichtung den (z. B. fiel) Daumen 18308 abgewählt hat, wie in den 8I8J gezeigt, wird dem Benutzer ermöglicht werden, ein anderes Benutzerschnittstellenobjekt durch ein Bewegen des Zeigers 18308 über die verschiedenen Benutzerschnittstellenobjekte und die Erhöhung der Intensität des Kontakts 18312 über die leichte Druck-Intensitätsschwelle (wahlweise ohne Abhebe-Kontakt 18312 von der berührungsempfindlichen Oberfläche 451), während der Zeiger 18308 über die verschiedenen Benutzerschnittstellenobjekt ist, zu wählen.
  • Die 9A bis 9C sind Flussdiagramme, die ein Verfahren des Bewegens 18400 und Ablegen eines Benutzerschnittstellenobjekts in Übereinstimmung mit einigen Ausführungsformen veranschaulichen. Verfahren 18400 wird durch eine elektronischen Vorrichtung (z. B. Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche durchgeführt. In einigen Ausführungsformen ist die Anzeige eine Berührungsbildschirm-Anzeige und die berührungsempfindliche Oberfläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 18400 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie unten beschrieben, stellt die Methode 18400 eine intuitive Möglichkeit sich zum Bewegen und Ablegen eines Benutzerschnittstellenobjekt bereit. Das Verfahren reduziert die kognitive Belastung für einen Benutzer beim Bewegen und Ablegen eines Benutzerschnittstellenobjekts, um dadurch eine effizientere Mensch-Maschine-Schnittstelle zu scahffen. Für batteriebetriebene elektronische Vorrichtungen, die es einem Benutzer eines Benutzerschnittstellenobjekt schneller und effizienter zu Bewegen und Ablegen, spart Strom und erhöht die Zeit zwischen den Batterieladungen.
  • Die Vorrichtung erfasst (18402) einen Kontakt (z. B. ein Fingerkontakt) mit der berührungsempfindlichen Oberfläche, wo der Kontakt, der mit dem Fokus-Selektor verbunden ist (z. B. Zeiger 18308 oder ein Kontakt auf einem Berührungsbildschirm), der die Bewegung eines entsprechenden Benutzerschnittstelleobjekts, das derzeit ausgewählt ist, steuert. Das Benutzerschnittstellenobjekt ist, wahlweise ein Daumen oder Handgriff an einem Schieberegler (z. B. Daumen 18308) oder ein frei bewegliches Benutzerschnittstellenobjekts. Zum Beispiel in 8B erfasst die Vorrichtung, auf der berührungsempfindliche Oberfläche 451, den Kontakt 18312, der mit Zeiger 18310 verbunden ist, der die Bewegung des ausgewählten Daumens 18308 steuert.
  • Während eines kontinuierlichen Erfassens (18404) des Kontakt auf der berührungsempfindlichen Oberfläche, erfasst die Vorrichtung (18406) ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche entsprechend der Bewegung des Fokus-Selektors in Richtung einer jeweiligen Stelle (z. B. der jeweiligen Standort ist ein Ort, an dem der Benutzer versucht, das Objekt ”abzulegen”). Wie in den 8C8D gezeigt, erfasst die Vorrichtung beispielsweise die Bewegung 18314 des Kontakts 18312 über die berührungsempfindliche Oberfläche 451. Ebenso in den 8G8H, erfasst die Vorrichtung die Bewegung 18322 des Kontakts 18312 über Die berührungsempfindliche Oberfläche 451. Die Bewegung 18314 (oder Bewegung 18322) entspricht der Bewegung des Zeigers 18310 in Richtung einer jeweiligen Stelle (z. B. eine Zielposition zum Ablegen des Daumens 18308) auf der Anzeige 450.
  • In Reaktion (18.408) auf das Erkennen des ersten Satzes der Kontakts über die berührungsempfindliche Oberfläche, bewegt die Vorrichtung (18410) den Fokus-Selektor auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und bewegt das jeweilige Benutzerschnittstelle Objekt in Übereinstimmung mit der Bewegung des Fokus-Selektors. Die Vorrichtung bestimmt auch (18416) eine Intensität von dem Kontakt auf der berührungsempfindlichen Oberfläche während der Fokus Selektor an der jeweiligen Stelle auf dem Anzeige ist. Zum Beispiel in Antwort auf ein Erfassen einer Bewegung 18314 des Kontakts 18312, bewegt die Vorrichtung den Zeiger 18310 mit der Bewegung 18316 in Übereinstimmung mit der Bewegung 18314 des Kontakts 18312, und bewegt den Daumen 18308 in Übereinstimmung mit der Bewegung des Zeigers, wie in 8D gezeigt. Die Vorrichtung bestimmt auch die Intensität des Kontakts 18312 ist, während der Zeiger 18310 an der Zielposition ist. In 8H, in Reaktion auf das Erkennen der Bewegung 18322 des Kontakts 18312, bewegt die Vorrichtung den Zeiger 18310 mit der Bewegung 18324 in Übereinstimmung mit der Bewegung 18322 des Kontakts 18312 und bewegt den Daumen 18308 in Übereinstimmung mit der Bewegung des Zeigers. Die Vorrichtung bestimmt auch die Intensität des Kontakt 18312 ist, während der Zeiger 18310 an der Zielposition ist.
  • In einigen Ausführungsformen ist die Bewegung des jeweiligen Benutzerschnittstellenobjekts (18412), auf einen vorgegebenen Pfad in der Benutzerschnittstelle begrenzt und ein Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors beinhaltet das Bewegen des entsprechenden Benutzerschnittstellenobjekts längs des vorgegebenen Pfads in Übereinstimmung mit einer Bewegungskomponente des Fokus-Selektors, die einer zulässigen Bewegungsrichtung entlang des vorgegebenen Pfads entspricht (beispielsweise ein Bild/Griff in einem Wäscher oder Schieberegler). Zum Beispiel wird die Bewegung des Daumens 18308 durch den vorgegeben Pfad des Schiebereglers 18306 beschränkt, und der Daumen 18308 wird in Übereinstimmung mit der Komponente der Bewegung des Zeigers 18310 bewegt, die parallel zu der vom Schieberegler 18306 ist (z. B. der horizontalen Komponente des definierten Pfads, welche die Bewegung des Zeigers 18310, die parallel zu der Längsachse des Schiebereglers 18306 ist, wie in den 8B8C dargestellt).
  • In einigen Ausführungsformen weist das jeweilige Benutzerschnittstellenobjekt (18414) ein zweidimensionales Bewegungsbereich, und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors, beinhaltet das Bewegen des entsprechenden Benutzerschnittstellenobjekt zu einer Stelle bei oder neben dem Fokus-Selektor auf der Anzeige (z. B. die entsprechenden Benutzerschnittstellenobjekt ist ein Dokumentsymbol, die sich seitlich auf der Anzeige in einer zweidimensionalen Ebene bewegt werden kann und nicht auf einem vorgegebenen Pfad, beispielsweise einen wäscher oder einem Schieberegler begrenzt ist).
  • Das Vorrichtung erfasst (18418) eine zweite Bewegung der Kontakt über die berührungsempfindliche Oberfläche, die der Bewegung des Fokus-Selektor vom jeweiligen Standort entspricht. Zum Beispiel in den 8D bis 8E, erfasst die Vorrichtung die Bewegung 18318 des Kontakt 18312, die einer Bewegung des Zeigers 18310,, weg von der Zielposition entspricht,. In den 818J erfasst die Vorrichtung die Bewegung 18326 des Kontakt 18312, die einer Bewegung des Zeigers 18310, weg von der Zielposition, entspricht.
  • In Reaktion (18420) auf die Erfassung der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, in Übereinstimmung mit einer Bestimmung, dass der Kontakt jeweiligen Intensitätskriterien erfüllt, bewegt die Vorrichtung (18422) den Fokus-Selektor und das Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung der Kontakts über die berührungsempfindliche Oberfläche (z. B. erfassen eines erfolglosen ablegen eines Benutzerschnittstelle Objekts). Zum Beispiel in den 8D bis 8E, in Reaktion auf die Erfassung einer Bewegung 18318 des Kontakt 18312, die die Intensitätskriterien erfüllt (zum Beispiel weil die Intensität des Kontakt 18312 oberhalb ITI ist), bewegt 18320 die Vorrichtung den Zeiger 18310 mit der Bewegung 18318 und den Daumen 18308 in Übereinstimmung mit der Bewegung des Zeigers 18310, als Daumen 18308 noch ausgewählt ist. In einigen Ausführungsformen beinhalteen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle (z. B. ITi oder IT-L) und der Kontakt erfüllt die entsprechenden Intensitätskriterien, wenn die Intensität des Kontakts über der entsprechenden Intensitätsschwelle ist (18424). Z. B. erfüllt Kontakt 18312 die Intensitätskriterien in 8D, weil die Intensität des Kontakts über der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle ist (z. B. ”IT1').
  • In Reaktion (18420) auf die Erfassung der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, in Übereinstimmung mit einer Bestimmung, dass der Kontakt nicht die jeweiligen Intensitätskriterien erfüllt, bewegt die Vorrichtung (18426) den Fokus-Selektor in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen (z. B. Erkennen einer erfolgreichen ablegen eines Benutzerschnittstellenobjekt). Zum Beispiel in den 818J in Reaktion auf Erfassen einer Bewegung 18318 des Kontakt 18312, die nicht die Intensitätskriterien erfüllt (zum Beispiel, weil die Intensität des Kontakts 18312 unter ITI ist), bewegt die Vorrichtung den Zeiger-18310 mit der Bewegung 18328 gemäß mit der Bewegung 18318 aber bewegt nicht den Daumen 18308, da der Daumen 18308 nicht ausgewählt ist. In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien eine Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle (z. B. ”IT1”), so dass, wenn der Kontakt eine Intensität über der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle hat (z. B. TI1'), bleibt das Objekt ausgewählt. Umgekehrt, wenn der Kontakt eine Intensität unterhalb der Aufrechterhaltung-Objekt-Auswahlintensitätsschwelle hat (z. B. ”IT1”), wird das Objekt abgelegt und hört auf, ausgewählt zu sein.
  • In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien eine entsprechende Intensitätsschwelle, und der Kontakt erfüllt (18428) die jeweiligen Intensität Kriterien nicht, wenn die Intensität des Kontakts unter der jeweiligen Intensitätsschwelle ist (z. B. der Kontakt nicht bestimmt, die jeweiligen Intensitätskriterien nicht zu erfüllen, wenn der Kontakt unter IT1 für ein Menge an Zeit). Zum Beispiel muss der Kontakt 18312 die Intensitätskriterien nicht erfüllen, wenn die Intensität des Kontakts unter einer Intensitätsschwelle (z. B. aufrechtzuerhalten-Objekt-Auswahlintensitätsschwellen ITI). In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle, und der Kontakt erfüllt (18430) die jeweiligen Intensitätskriterien nicht, wenn die Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwelle für mehr als eine vorgegebene Zeitdauer (z. B. der Kontakt bestimmt nicht, die jeweiligen Intensitätskriterien nicht zu erfüllen, wenn der Kontakt unter der jeweiligen Intensitätsschwelle für mindestens 0,05, 0,1, 0,2, 0,5 Sekunden, oder einem anderen angemessenen Frist-Schwelle). Zum Beispiel erfüllt der Kontakt 18312 die Intensitätskriterien nicht, wenn die Intensität des Kontakts unterhalb der Aufrechterhaltung-Objekt-Auswahlintensitätsschwellenwert (z. B. IT1') für zumindest die vorgegebene Zeitdauer ist.
  • In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle (18432). In einigen Ausführungsformen ist die jeweilige Intensitätsschwelle (18.434) eine vordefinierte Intensitätsschwelle (z. B. die Benutzerschnittstelle Objekt wird ”abgelegt”, wenn/falls die Intensität des Kontakts unter einer voreingestellten Intensitätsschwelle ist). In einigen Ausführungsformen basiert der jeweilige Intensitätsschwellenwert (18436), auf einem Prozentsatz einer maximalen Intensität des Kontakts, der während der Geste detektiert wird. Zum Beispiel wird die Benutzerschnittstellenobjekt (z. B. Daumen 18308) ”abgelegt”, wenn/falls die Intensität des Kontaktes (z. B. kontaktieren 18312) um 90% der maximalen Intensität der Kontakt während der Geste sinkt. In einigen Ausführungsformen entspricht die jeweilige Intensitätsschwelle (18438) einer Intensitätsmessung, die größer als ein Nominalintensitätsmessung (z. B. Kontaktdetektionsintensitätsschwelle ITO), die anzeigt, dass der Kontakt (z. B. Kontakt 18312) in Kontakt mit der berührungsempfindlichen Oberfläche 451 ist).
  • In einigen Ausführungsformen, wenn die einen oder mehrere Sensoren, die verwendet werden, um die Kontaktintensität zu erfassen, (z. B. ”Intensitätssensoren”) sind in der Lage 4 oder mehr Messungen von quantisierten Intensitätswerte zu messen, wobei N der niedrigste quantisierte Wert der Intensität ist (z. B. der Wert der Intensität, die auf die Anwesenheit von einem Kontakt auf dem berührungsempfindlichen Oberfläche entspricht), wobei die entsprechende Intensitätsschwelle mindestens eine Ebene oberhalb von N ist. Zum Beispiel wenn es 4 quantisierte Werte der Intensität und 1 die niedrigste Ebene ist, dann ist die entsprechende Intensitätsschwelle 2 (oder eine andere Ebene größer als 2). Als ein anderes Beispiel, wenn es 256 quantisierten Intensitätswerte und 1 der niedrigste Pegel, dann ist der entsprechende Intensitätsschwellenwert ist 2 (oder eine andere Ebene größer als 2, beispielsweise 5, 10 oder 15). Zum Beispiel in 8A kann die Vorrichtung erkennen und zwischen mindestens eine erste Intensität zwischen Ito und IT1 einer zweiten Intensität zwischen IT1 und ITL, ein Drittel der Intensität zwischen ITL und ITD und einem vierten Intensität über ITD differenzieren.
  • In einigen Ausführungsformen, während Sie das entsprechende Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche bewegen, erfasst die Vorrichtung (18440) ein Abheben des Kontakts von der berührungsempfindlichen Oberfläche. In Reaktion auf das Erfassen des Abhebens, hört die Vorrichtung (18442) auf, das entsprechende Benutzerschnittstellenobjekt in der Anzeige in Übereinstimmung mit der zweiten Bewegung des Kontakts zu bewegen (beispielsweise, wenn der Kontakt nicht mehr erfasst werden kann, „legt” die Vorrichtung das jeweilige Benutzerschnittstellenobjekt „ab”, das zu einem Aufhören der Bewegung des jeweiligen Benutzerschnittstellenobjekts in der Anzeige Aufhören führt, entweder sofort oder schrittweise). Zum Beispiel in 8F, während die Vorrichtung den Daumen 18308 in Übereinstimmung mit der Bewegung 18318 des Kontakts 18312 bewegt (wie in den 8C8E gezeigt) wird der Kontakt 18312 abgehoben von der berührungsempfindliche Oberfläche 451, und in Reaktion auf das Abheben bewegt die Vorrichtung den Daumen 18308 nicht mehr.
  • Wie oben beschrieben, die Schritte 18406 bis 18438 sind gegebenenfalls durchgeführt, während der Kontakt kontinuierlich auf der berührungsempfindlichen Oberfläche erfasst wird. Dass der kontinuierlich erfasste Kontakt wahlweise abgehoben wird, und das Abheben wird in Schritt 18440 festgestellt. In Reaktion auf die Erfassung dieses Abhebens, hört die Vorrichtung auf, das entsprechende Benutzerschnittstellenobjekt in der Anzeige in Übereinstimmung mit der zweiten Bewegung des Kontakts zu bewegen. Somit kann in einigen Ausführungsformen das Objekt entweder durch Abheben einer Kontakt, der mit dem Fokus-Selektor verbunden ist, oder durch eine Reduzierung der Intensität des Kontakts, der mit dem Fokus-Selektor verbunden ist, so dass der Kontakt die Kontakt-Intensitätskriterien nicht erfüllt.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 9A9C beschrieben worden ist, lediglich beispielhaft ist und nicht dazu gedacht ist, um anzuzeigen, dass die beschriebenen Reihenfolge die einzige Reihenfolge ist, in der die Operationen durchgeführt werden können. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen Prozesse, die hierin mit Bezug auf andere hier beschriebene Verfahren beschrieben werden (zum Beispiel, die in Absatz [0043]) ebenfalls in einer analogen Weise zu Verfahren 18400, das oben mit Bezug auf die 9A bis 9C beschrieben wird, anzuwenden sind. Zum Beispiel können die Kontakte, Benutzerschnittstellenobjekten, Intensitätsschwellen, und Fokus-Selektors, die oben mit Bezug auf das Verfahren 18400 beschrieben werden, haben gegebenenfalls eine oder mehrere der Eigenschaften der Kontakte und Benutzerschnittstellenobjekten, Intensitätsschwellen, und Fokus-Selektors, mit Bezug auf die auf die anderen hier beschriebenen Verfahren (z. B. die in Absatz [0043] aufgelistet werden). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, zeigt 10 ein Funktionsblockdiagramm einer elektronischen Vorrichtung 18500, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert ist. Die Funktionsblöcke der Vorrichtung werden wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen durchzuführen. Es wird von Fachleuten auf dem Gebiet verstanden, dass die in 10 beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder in Unterblöcke getrennt werden können, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen. Daher unterstützt die Beschreibung hier gegebenenfalls jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 10 gezeigt, umfasst eine elektronische Vorrichtung 18500 eine Anzeigeeinheit 18502; eine berührungsempfindliche Oberflächeneinheit 18504, die konfiguriert ist, um Kontakte zu empfangen; ein oder mehrere Sensoreinheiten 18505 die konfiguriert sind, um die Intensität der Kontakte mit der berührungsempfindlichen Oberflächeneinheit 18504 zu erfassen; und eine Verarbeitungseinheit 18506, die mit der Anzeigeeinheit 18502, der berührungsempfindliche Oberflächeneinheit 18504 und den Sensoreinheiten 18505 gekoppelt ist. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 18506 eine Erfassungseinheit 18508, eine Bewegungseinheit 18510, eine Bestimmungseinheit 18512 und ein Aufhören Einheit 18514.
  • Die Verarbeitungseinheit 18506 ist konfiguriert zum: erkennen eines Kontakts mit der berührungsempfindlichen Oberflächeneinheit 18504, wobei der Kontakt, der mit einem Fokus Selektor verbunden ist, der die Bewegung eines jeweiligen Benutzerschnittstelle Objekts, das derzeit ausgewählt ist (z. B. Steuerelementen zugeordnet, mit der Erfassungseinheit 18508) steuert; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberflächeneinheit 18504: erkennen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504, die der Bewegung des Fokus-Selektor, in Richtung einer jeweiligen Stelle entspricht (z. B. mit der Erfassungseinheit 18508); als Reaktion auf das Erfassen des ersten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504: Bewegen den Fokus-Selektor auf der Anzeigeeinheit 18502 in Übereinstimmung mit der ersten Bewegung des Kontakts und bewegen den entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des der Fokus Selektors (z. B. mit der Bewegungseinheit 18510), und erfassen er Intensität des Kontaktes auf der berührungsempfindlichen Oberflächeneinheit 18504, während der Fokus-Selektor an der betreffenden Stelle auf der Anzeigeeinheit 18502 ist (z. B. mit der Bestimmungseinheit 18512); erkennen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504, die der Bewegung des Fokus-Selektors vom jeweiligen Standort aus entspricht (z. B. mit der Erfassungseinheit 18508); und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504: in Übereinstimmung mit einer Bestimmung, dass die Kontakt die jeweiligen Intensitätskriterien erfüllt, bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit dem zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504 (z. B. mit der Bewegungseinheit 18510); und in Übereinstimmung mit einer Bestimmung, dass der Kontakt nicht die jeweiligen Intensitätskriterien erfüllt, bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504, ohne den Benutzerschnittstellenobjekt zu bewegen (z. B. mit dem bewegten Einheit 18510).
  • In einigen Ausführungsformen wird die Bewegung des entsprechenden Benutzerschnittstellenobjekt durch einen vorgegebenen Pfad in der Benutzerschnittstelle begrenzt, und Bewegen der entsprechenden Benutzerschnittstellenobjekt in Übereinstimmung mit der Bewegung des Fokus-Selektor beinhaltet das Bewegen des entsprechenden Benutzerschnittstellenobjekts entlang des vordefinierten Pfads in Übereinstimmung mit einer Bewegungskomponente des Fokus-Selektor, die einer zulässigen Bewegungsrichtung entlang der vorgegebenen Pfads entspricht.
  • In einigen Ausführungsformen umfasst das jeweilige Benutzerschnittstellenobjekt ein zweidimensionales Bewegungsbereich; und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektor beinhaltet das Bewegen des entsprechenden Benutzerschnittstellenobjekts zu einer Stelle an oder nahe an den Fokus-Selektor auf der Anzeigeeinheit 18502.
  • In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle, und der Kontakt erfüllt die entsprechenden Intensität Kriterien, wenn die Intensität des Kontakts über der entsprechenden Intensitätsschwelle ist.
  • In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle, und der Kontakt erfüllt die jeweiligen Intensitäts Kriterien nicht, wenn die Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwelle ist.
  • In einigen Ausführungsformen umfassen die jeweiligen Intensitätskriterien jeweils eine Intensitätsschwelle, und der Kontakt erfüllt die jeweiligen Intensitäts Kriterien nicht, wenn die Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwelle für mehr als eine vorgegebene Zeitspanne ist.
  • In einigen Ausführungsformen ist die jeweilige Intensitätsschwelle eine vorgegebene Intensitätsschwelle.
  • In einigen Ausführungsformen basiert der entsprechende Intensitätsschwelle auf einen Prozentsatz einer maximalen Intensität des Kontakts, der während der Geste erfasst wird.
  • In einigen Ausführungsformen entspricht die entsprechende Intensitätsschwelle einer Messung der Intensität, die größer als ein Nominalintensitätsmessung ist, die angibt, dass der Kontakt in Kontakt mit der berührungsempfindlichen Oberflächeneinheit 18504 ist.
  • In einigen Ausführungsformen ist Verarbeitungseinheit 18506 konfiguriert um, während sie das entsprechenden Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit 18504 bewegt, ein Abheben der Kontakt aus dem berührungsempfindlichen Oberflächeneinheit 18504 zu erfassen (z. B. mit der Erfassungseinheit 18508); und in Reaktion auf die Erfassung des Abhebens, aufhören das entsprechenden Benutzerschnittstellenobjekt auf der Anzeigeeinheit 18502 in Übereinstimmung mit der zweiten Bewegung des Kontakts zu bewegen (beispielsweise mit der Aufhören Einheit 18514).
  • Die Vorgänge in der Informationsverarbeitungsverfahren, die oben beschrieben sind, gegebenenfalls durch ein Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren (z. B. wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips implementiert.
  • Die oben beschriebenen Vorgänge mit Bezug auf die 9A9C sind gegebenenfalls durch die in den 1A 1B oder 10 dargestellten Komponenten implementiert. Zum Beispiel die Erfassungsoperationen 18402, 18406 und 18418, Bewegungs-Operationen 18410, 18422 und 18426, und Bestimmungs-Operationen 18416 sind wahlweise durch Ereignis-Sortierer 170, Ereignis-Erkenner 180 und Ereignis-Handler 190 implementiert. Der Ereignismonitor 171 in dem Ereignis-Sortierer 170 erfasst einen Kontakt auf berührungsempfindlichen Anzeige 112 und das Ereignis-Dispatcher-Modul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Eine entsprechende Ereigniserkennungseinrichtung 180 der Anwendungs 136-1 vergleicht die Ereignisinformationen mit den jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche (oder ob eine Drehung der Vorrichtung) einem vordefinierten Ereignis oder Unter-Ereignis entspricht, wie die Auswahl eines Objekts auf einer Benutzerschnittstelle oder Rotation der Vorrichtung von einer Ausrichtung zur einer anderen. Wenn ein jeweilige vorgegebene Ereignis oder Unter-Ereignis erkannt wird, aktiviert Ereigniserkenner 180 eine Ereignisbehandlungsroutine 190, die mit der Erfassung des Ereignisses oder der Unter-Ereignis verbunden ist. Event-Handler 190 nutzt oder fordert wahlweise Daten Updater 176 oder Objekt Updater 177, den interner Zustand der Anwendung 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu, um was durch die Anwendung angezeigt wird zu aktualisieren. Ebenso ist es klar, für eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B gezeigten Komponenten implementiert Warden können. Durchführen einer Operation in Übereinstimmung mit einem gewählten Betriebsmodus
  • Viele elektronische Vorrichtungen verfügen über Benutzerschnittstellen, in denen mehrere Operationen wahlweise mit einer gleichen Art von Geste durchgeführt werden. Wenn diese Geste Überlastung (overloading) innerhalb der gleichen Anwendung geschieht, werden die verschiedenen Operationen in der Regel einem unterschiedlichen Betriebsmodi zugewiesen. Bei einigen Verfahren kann der Benutzer zwischen den Betriebsmodi wechseln durch die Auswahl eines anderen Modus aus einem Menü von Optionen oder durch Tätigen eines zweiten Kontakts zusätzlich zu der Geste zum Aktivieren des Betriebs. Die nachfolgend beschriebenen Ausführungsformen verbessern diese Methoden. Eine Operation wird durch eine Sequenz von Eingaben, die durch einen kontinuierlichen Kontakt mit der berührungsempfindlichen Oberfläche gemacht werden, aktiviert. Die Sequenz von Eingaben umfasst die Erhöhung der Intensität des Kontaktes und die Bewegen des Kontakts nach der Intensitätserhöhung.
  • Wenn die Intensität des Kontakts über einem bestimmten Schwellenwert erhöht wird, basiert der Vorgang, der aktiviert wird, auf einem anderen Betriebsmodus, als wenn die Intensität nicht über den Schwellenwert erhöht wird. Somit kann der Benutzer Betriebsmodi problemlos wechseln, ohne zusätzliche Eingaben, wie beispielsweise Durchlaufen eines Menüs oder tätigen einen zusätzlichen Kontakt, zu tätigen.
  • Die 11A11W veranschaulichen beispielhafte Benutzerschnittstellen zum Ausführen einer Operation gemäß einem ausgewählten Betriebsmodus in Übereinstimmung mit manchen Ausführungsformen. Die Benutzerschnittstelle in diesen Figuren werden die nachfolgend beschriebenen Verfahren, einschließlich der Verfahren in den 12A12D veranschaulichen. 11A11W beinhalten Intensitätsdiagramme, die die Intensität des Kontakts auf der berührungsempfindlichen Oberfläche gegenüber einer Vielzahl von Intensitätsschwellen, die eine Modus-Auswahl-Intensitätsschwelle (z. B. ”IT D”), eine leichte Druck Intensitätsschwelle (z. B. ”IT L”) und eine operationsaufhebe Schwelle (z. B. 'IT1) beinhalten, zeigen.
  • In einigen Ausführungsformen ist die Vorrichtung eine elektronische Vorrichtung mit einer separaten Anzeige (z. B. Anzeige 450) und einer separaten berührungsempfindlichen Oberfläche (z. B. berührungsempfindliche Oberfläche 451). In einigen Ausführungsformen ist die Vorrichtung eine tragbare Multifunktionsvorrichtung 100, die Anzeige ist ein berührungsempfindliches Anzeigesystem 112, und die berührungsempfindliche Oberfläche enthält taktile Ausgabeerzeuger 167 auf der Anzeige (1A). Zur Vereinfachung der Erläuterung, werden die beschriebenen Ausführungsformen mit Bezug auf die 11A11W und 12A12D mit Bezug auf die Anzeige 450 und einen separaten berührungsempfindlichen Oberfläche 451 beschrieben, aber analoge Operationen werden gegebenenfalls auf einer Vorrichtung durchgeführt mit einem berührungsempfindliche Anzeige-System 112 in Reaktion auf das Erfassung der Kontakte, die in der in den 11A 11W beschrieben sind, auf dem berührungsempfindlichen Anzeigesystem 112, während der Anzeige der Benutzerschnittstellen, wie in 11A11W gezeigt, auf dem berührungsempfindlichen Anzeigesystem 112; in solchen Ausführungsformen ist der Fokus Selektor, gegebenenfalls: ein jeweiliger Kontakt, ein repräsentativer Punkt, der einem Kontakt entspricht (z. B. ein Schwerpunkt einer jeweiligen Kontakt oder ein mit einem entsprechenden Kontakt zugeordnet Punkt) oder ein Schwerpunkt von zwei oder mehr Kontakten, die auf der berührungsempfindlichen Anzeige-System 112 erfasst werden, an der Stelle von Zeiger 18605 oder Zeiger-18622.
  • 11A zeigt eine Benutzerschnittstelle 18604, die auf der Anzeige 450 (z. B. Anzeige 340, Berührungsbildschirm 112) von einer Vorrichtung angezeigt wird (z. B. Vorrichtung 300, Vorrichtung 100). In einigen Ausführungsformen ist Benutzerschnittstelle 18604 eine Benutzerschnittstelle für eine Anwendung, wie beispielsweise ein Web-Browser, ein Textverarbeitungsprogramm oder einem elektronischen Dokumentenanwendung. Dokument 18606 wird in der Benutzerschnittstelle 18604 angezeigt. Dokument 18606 ist zum Beispiel eine Webseite, ein Textverarbeitungsdokument, ein Textdokument, eine Tabellenkalkulation, eine Präsentation oder eine Zeichnung. Ein Dokument 18606 umfasst Inhalte wie Text 18608. Text 18608 weist gegebenenfalls mehr Text, als auf einmal angezeigt werden. Beispielsweise zeigt 11A Abschnitt 18608-a Text 18608, der in Dokument 18606 angezeigt wird. Ein Textzeiger 18605 wird auf der Anzeige 450 angezeigt, wobei Textzeiger 18605 ein Beispiel eines Fokus-Selektors ist.
  • Das Programm enthält zwei oder mehr Betriebsmodi. Eingaben an die Anwendung (z. B. Kontakte oder Gesten erkannt am berührungsempfindlichen Oberfläche 451 der Vorrichtung) sind, gegebenenfalls in Übereinstimmung mit einem Betriebsmodus der Anwendung erfasst, der zum Zeitpunkt der Erfassung aktiv ist.
  • Kontakt 18610 wird auf berührungsempfindliche Oberfläche 451 am der Stelle 18610-A erfasst. Kontakt 18610 wird als mit einer Intensität zwischen Schwellen IT o und IT L erfasst. Während der Kontakt 18610 stationär auf der berührungsempfindliche Oberfläche 451 erfasst wird, wird die Intensität des Kontakts 18610 auf eine Intensität zwischen einer leichten Druck Intensitätsschwelle (z. B. ”IT L”) und ein Modus-Änderungsintensitätsschwelle (beispielsweise ”IT D”) erhöht, und die Intensitätserhöhung wird, wie in 11B gezeigt, erfasst. Dann bewegt sich 18612 Kontakt 18610, während die Intensität oberhalb einer Operationsaufhebe-Intensitätsschwelle (z. B. ”IT1”) und unter der Betriebsmodusenwechsel-Intensitätsschwelle (z. B. ”IT D”) ist, vom der Stelle 18610-A an die Stelle 18610-B (11C).
  • In Reaktion auf die Erfassung der Bewegung des Kontakts 18610, entsprechend des ersten Betriebsmodus, wird Dokument 18606 gescrollt, wie in 11C gezeigt, der Teil 18608-b des Textes wird in dem Dokument 18608 18606 angezeigt.
  • Während Kontakt 18610 weiterhin auf berührungsempfindliche Oberfläche 451 festgestellt werden das Gerät eine Abnahme der Intensität des Kontakts 18610 unter operationsaufhebeIntensitätsSchwelle der (z. B. ”ITi”), wie in und gezeigt, in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakt 18610, stoppt das Gerät Scrollen des Dokuments ansprechend auf die Bewegung des Kontakt 18610. So, wenn der Kontakt 18610 weiterhin auf Position 18610-c ( ) bewegen 18614, wird das Dokument nicht gescrollt, wie in angezeigt.
  • veranschaulicht IF Benutzeroberfläche 18604, Dokument 18606, und Textteil 18608-A und Textcursor 18605, angezeigt auf der Anzeige 450, wie in 11A. Kontakt 18610 basiert auf berührungsempfindliche Oberfläche 451 am Standort 18610-A in 1IF erkannt. Kontakt 18610 ist auf berührungsempfindliche Oberfläche 451 stationäre und hat eine Intensität zwischen Schwellen Ito und ITL in 1IF. Die Intensität des Kontakt 18610 ist mit einer Intensität oberhalb des Betriebsart-Änderungsintensitätsschwelle erhöht (beispielsweise ”IT D”), und die Intensitätserhöhung erfasst wird, wie in 11G dargestellt. In Übereinstimmung mit dem Anstieg in der Intensität des Kontakt 18610 über den Betriebsartenwechsel-Intensitätsschwelle (beispielsweise ”IT D”), die Eingaben auf berührungsempfindliche Oberfläche 451 in Übereinstimmung mit einer zweiten Betriebsart erfaßt, die verschieden von der ersten ist, Betriebsart (beispielsweise der ersten Betriebsart entspricht Scrollen Dokument und dem zweiten Betriebsmodus entspricht, um die Textauswahl).
  • Somit wird in dem Beispiel in den , der Anstieg in der Intensität des Kontakt 18610 über den Betriebsartenwechsel-Intensitätsschwelle (beispielsweise ”IT D”) verändert den Betriebsmodus auf den zweiten Betriebsmodus.
  • Kontaktieren 18610, wobei die Intensität über der Betriebsartenwechsel-Intensitätsschwellen (z. B. ”IT D”) > bewegt 18.616 vom Standort 18610-a (11G), um Standort 18610-b ( ). In Reaktion auf die Erfassung der Bewegung der Kontakt 18610, entsprechend dem zweiten Betriebsmodus, Textteil 18617-a Text 18608 ausgewählt wird, wie in 11G gezeigt ist. Ausgewählten Text 18617-a ist, gegebenenfalls optisch hervorgehoben (z. B. mit Hervorhebung, mit einem Gehäuse, etc.), um die Aktivierung anzeigt.
  • Während Kontakt 18610 weiterhin auf berührungsempfindliche Oberfläche 451 festgestellt werden das Gerät eine Abnahme der Intensität des Kontakts 18610 unter operationsaufhebeIntensitätsSchwelle der (z. B. ”ITi”), wie in und gezeigt, in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakt 18610, setzt das Gerät, um Text in dem Dokument in Reaktion auf eine Bewegung des Kontakt 18610 auszuwählen. Somit wird, wenn Kontakt 18610 bewegt sich weiter zum Standort 18618 18610-C (11J), die Textauswahl weiterhin in Übereinstimmung mit der Bewegung des Kontakt 18610 trotz der Detektion der Abnahme der Intensität des Kontakts 18610 in 1II. Zum Beispiel Textauswahl 18617 expandiert Abschnitt 18617-b in Übereinstimmung mit der Bewegung des Kontakt 18610 Text, wie, wie in dargestellt J. In manchen Ausführungsformen eines Fokuswähler (z. B. ein Text-Cursor oder Zeiger 18605) wird auf der Anzeige 450 über Dokument 18606 und Textauswahl in Übereinstimmung mit der zweiten Betriebsart (zum Beispiel, um den Nachweis der Bewegung angezeigt wird, in Reaktion Kontakt 18610) beginnt an der Stelle des Fokuswählers.
  • So wird in einigen Ausführungsformen, für die gleiche Art von Geste, unterscheidet die Betriebsart unter denen der Kontakt oder Geste erkannt wird, je nachdem, ob die Intensität des Kontakt Überschreiten eines Modus-Detektionsintensitätsschwellenwert (z. B. ”IT D”) – wenn die Intensität nicht über dem Modus-Detektionsintensitätsschwelle erhöht (beispielsweise ”IT D”), eine Operation in Reaktion auf die Erfassung der Geste in Übereinstimmung mit einem ersten Betriebsmodus durchgeführt wird. Wenn die Intensität wird über dem Modus-Detektionsintensitätsschwelle erhöht (beispielsweise ”IT D”) J <an> Operation in Reaktion auf die Erfassung der Geste in Übereinstimmung mit einem zweiten Betriebsmodus durchgeführt wird. In einigen Ausführungsformen, in der zweiten Betriebsart, trotz einer Verringerung der Intensität des Eingangskontakts unter einem operationsaufhebeSchwelle wird der Vorgang (beispielsweise ”[Pi] [Upsilon]'), solange die Eingangskontakt weiterhin detektiert werden, während im ersten Betriebsmodus wird der Betrieb der Intensität abnimmt gestoppt unterhalb der Betriebs-Annullierung Schwellenwert (z. B. ”[Pi][Upsilon]').
  • 1 zeigt IK Benutzeroberfläche 18618 auf dem Display 450 der Vorrichtung dargestellt. In einigen Ausführungsformen ist Benutzeroberfläche 18618 eine Benutzerschnittstelle für eine Anwendung, wie beispielsweise ein Zeichenprogramm oder einem Präsentationsprogramm. Ein oder mehrere Objekte 18620 in 18618 Benutzeroberfläche angezeigt. Objekte 18620 sind beispielsweise in Form einer Zeichnung oder Objekte (z. B. Grafiken, Textblöcke, etc.) in einem Präsentationsdokument. Objekte 18620-1, 18620-2 und 18620-3 sind in der Benutzeroberfläche 18618 angezeigt. Ein Fokus-Wahlschalter, wie Cursor 18622, wird auch auf dem Display 450 in der Benutzeroberfläche 18618 angezeigt wird, an der Stelle ist, dass von Objekten 18620 in 1IK. In einigen Ausführungsformen ist die Cursor 18622 einen Zeiger. Eingänge werden auf berührungsempfindliche Oberfläche 451 in Übereinstimmung mit einem ersten Betriebsmodus erkannt wird (z. B. der ersten Betriebsart entspricht Ziehen und Ablegen eines Objekts und einem zweiten Betriebsmodus entspricht mehreren Objekten).
  • Kontakt 18624 basiert auf berührungsempfindliche Oberfläche 451 am Standort 18624-A in 1IK erkannt. Kontakt 18624 hat eine Intensität zwischen Schwellen Ito und IT Lin . Bewegung 18626 Kontakt 18624 basiert auf berührungsempfindliche Oberfläche 18626 nachgewiesen. In Reaktion auf die Erfassung der Bewegung des Kontakt 18626 18624, 18622 Cursor bewegt sich entsprechend der Bewegung des Kontakt 18624, wie in 11L gezeigt.
  • Wie Cursor 18622 bewegt sich in Übereinstimmung mit der Bewegung des Kontakt 18624, Cursor bewegt sich über 18.622 Objekt 18620-1 in . Während Cursor 18622 ist über Objekt 18620-1 wird die Intensität des Kontakts 18624 zu einer Intensität zwischen einem leichten Druck Intensitätsschwelle erhöht (z. B. ”IT L”) und einen Modus-Änderung Intensitätsschwelle (z. B. ”IT D”), wie in 11M gezeigt. In Reaktion auf die Detektion der Zunahme der Intensität der Kontakt 18624 in 11M, in Übereinstimmung mit der ersten Betriebsart, Objekt 18620-1 ausgewählt ist und ”abgeholt” durch den Cursor 18622 und Objekt 18620-1 bewegt sich mit Cursor 18622 in Übereinstimmung mit der Bewegung des Kontakt 18624. Zum Beispiel, nachdem die Intensitätserhöhung in 11M gezeigt ist, als Kontakt 18624 bewegt sich weiter, 18628 und 18630 (z. B. vom Standort 18624-b in 11M zu Ort 18624-c in den 1LN110, dann zum Ort 18624-d in 1IP), Cursor 18622 bewegt sich entsprechend der Bewegung des Kontakt 18624 (z. B. vom Standort 18622-b zu Ort 18622-c, dann Position 18622-d).
  • In Übereinstimmung mit der Bewegung des Cursors 18622, 18620-1 Objekt bewegt sich über Anzeige 450, wie in den 1LM–1IN dargestellt.
  • In einigen Ausführungsformen wird eine taktile Ausgabe erzeugt wird, wenn die Intensität des Kontakts 18624 oberhalb der Lichtpresse Schwellenwert (z. B. ”IT L”) Intensität erhöht, was das Objekt 18620-1 ausgewählt wurde und abgeholt.
  • Nach Aufgabe 18620-1 ausgewählt ist und ”abgeholt” in Reaktion auf die Detektion der Zunahme in der Intensität des in 11M gezeigten Kontakt 18624, ist die Intensität des Kontakt 18624, gegebenenfalls vermindert. Zum Beispiel, während Kontakt 18624 ist bei Position 18624-c in den 1LN110, die Intensität des Kontaktes 18624 ist mit einer Intensität zwischen den Schwellen Ito und einer operationsaufhebeIntensitätsSchwellenWert (z. B. ”[Pi][Upsilon]' verringert). In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18624 in wird Objekt 18620-1 gelöscht und hört auf, auf der Anzeige 450 bewegen, selbst während der Kontakt 18624 fort, wie in 1 gezeigt IP Weise. Man beachte, dass in 1 wird die Objekt 18620-1 noch ausgewählt, obwohl die Intensität des Kontakt 18624 unter IT L, weil die Intensität des Kontakt 18624 noch oberhalb ITi.
  • In einigen Ausführungsformen eine taktile Ausgabe wird erzeugt, wenn die Intensität des Kontakts 18624 ist unten operationsaufhebeIntensitätsSchwelle der verringerten (z. B. ”[Pi][Upsilon]'), die anzeigt, dass Objekt 18620-1 wurde abgewählt und tropft.
  • 11Q zeigt Benutzeroberfläche 18618 und Objekte 18620-1, 18620-2 und 18620-3 auf dem Display 450 der Vorrichtung angezeigt wird, wie in 1 IK. Objekte 18620-1, 18620-2 und 18620-3 sind in der Benutzeroberfläche 18618 angezeigt. Cursor 18622 wird auch an der Stelle in der Benutzeroberfläche 18618, die weg von den Objekten 18620 wird angezeigt.
  • Kontakt 18624 basiert auf berührungsempfindliche Oberfläche 451 am Standort 18624-A erkannt. Kontakt 18624 hat eine Intensität zwischen Schwellen Ito und IT L. Bewegung 18632 Kontakt 18624 basiert auf berührungsempfindliche Oberfläche 451 erkannt. In Reaktion auf die Erfassung der Bewegung der Kontakt 18624, 18622 Cursor bewegt sich in Übereinstimmung mit der Bewegung des Kontakt 18632 18624 in den 11Q–11R.
  • Wie Cursor 18622 bewegt sich in Übereinstimmung mit der Bewegung des Kontakt 18624, Cursor bewegt sich über 18.622 Objekt 18620-1 in . Während Cursor 18622 ist über Objekt 18620-1 wird die Intensität des Kontakts 18624 zu einer Intensität über einem Betriebsartenwechsel-Intensitätsschwelle erhöht (z. B. ”IT D”), 1 wie in Abbildung gezeigt. In Reaktion auf die Detektion der Zunahme der Intensität der Kontakt 18624 in 1 ist, entsprechend der zweiten Betriebsart, Objekt 18620-1 ausgewählt ist. Die Zunahme in der Intensität des Kontakt 18624 verändert den Betriebsmodus in den zweiten Modus. Im Gegensatz zu der ersten Betriebsart, Objekt 18620-1 wird nicht durch Cursor 18622 aufgenommen wird; wenn Cursor 18622 weiterhin in Übereinstimmung mit der Bewegung des Kontakt 18624, Objekt 18.620-1 bewegen bleibt am heutigen Standort in 1 ist.
  • In einigen Ausführungsformen eine taktile Ausgabe wird erzeugt, wenn die Intensität des Kontakts 18624 oberhalb Lichtpresseintensitätsschwelle erhöht (z. B. ”IT L”) auf dem Weg zum oberhalb des Betriebsartenwechsel-Intensitätsschwelle erhöht (z. B. IT D”), die anzeigt, dass Objekt 18620-1 wurde ausgewählt.
  • Nach Objekt 18620-1 ausgewählt ist, Kontakt 18624 bewegt sich weiter in 18634 auf berührungsempfindliche Oberfläche 451, um Standort 18624-c ( ). In Übereinstimmung mit der Bewegung des Kontakt 18624, Cursor bewegt sich über 18.622 Objekt 18620-2. In Übereinstimmung mit Cursor 18622 bewegenden Objekts über 18620-2 und in Übereinstimmung mit der zweiten Betriebsart wird die Objekt 18620-2 ausgewählt und die Auswahl des Objekts 18620-1 aufrechterhalten wird, so daß Objekte, 18620-1 und 18620-2 ausgewählt sind wie in 1 gezeigt.
  • In einigen Ausführungsformen kann eine taktile Ausgabe erzeugt wird, wenn der Cursor über dem Objekt 18622 18620-2 während die Intensität des Kontakt 18624 ist in der zweiten Betriebsart anzeigt, dass die Aufgabe 18620-2 bewegt wird ausgewählt wurde, während der Objektauswahl 18620-1.
  • Nach Objekte 18620-1 und 18620-2 ausgewählt sind, die Intensität des Kontaktes 18624 ist, wahlweise verringert. Zum Beispiel, während Kontakt 18624 ist bei Position 18624-c, die Intensität des Kontaktes 18624 ist mit einer Intensität zwischen den Schwellen IUm ein Bedien-Stornierungsintensitätsschwellenwert (z. B. ”ITi”) verringert. In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18624 in 11U, der Auswahl von Objekten 18620-1 und 18620-2 aufrechterhalten wird, wie in 11U dargestellt.
  • In einigen Ausführungsformen wird keine taktile Ausgabe erzeugt wird, wenn die Intensität des Kontakts 18624 ist unten operationsaufhebeIntensitätsSchwelle der (z. B. ”ITi”) und die Auswahl der Objekte 18620-1 und 18620-2 verringert wird beibehalten.
  • In einigen Ausführungsformen wird das taktile Ausgabe nicht erzeugt wird, ob der Cursor über 18622 oder nahe Objekt 18620-1 oder über oder in der Nähe zum Objekt 18620-2.
  • Kontakt 18624 bewegt 18636 vom Standort 18624-c zu Ort 18624-d auf berührungsempfindliche Oberfläche 451. In Übereinstimmung mit der Bewegung des Kontakt 18624, 18622 Cursor bewegt, so daß ein Auswahlbereich umfasst Abschnitte von Objekten 18620-1, 18620-2 und 18620-3, wie in 1IV gezeigt. In Übereinstimmung mit Cursor 18622 bewegenden Objekts über 18620-3 und in Übereinstimmung mit der zweiten Betriebsart wird die Objekt 18620-3 ausgewählt und die Auswahl von Objekten 18620-1 und 18620-2 aufrechterhalten wird, so daß Objekte, 18620-1, 18620-2 und 18620-3 werden ausgewählt.
  • Bei Objekten 18620-1, 18620-2, 18620-3 und gewählt sind, die Intensität des Kontaktes 18624 ist unter dem Schwellenwert IT o verringert, wie in 11W gezeigt. In einigen Ausführungsformen die Verminderung der Intensität des Kontakts 18624 unterhalb der Schwelle IT ocorresponds auf das Erkennen eines Abheben von Kontakt 18624 von berührungsempfindlichen Oberfläche 451. In einigen Ausführungsformen in Antwort auf die Erfassung der Verringerung der Intensität der Kontakt 18624 Objekte 18620-1, 18620-2, 18620-3 und deselektiert werden, wie in 11W gezeigt. In einigen Ausführungsformen in Antwort auf die Erfassung der Verringerung der Intensität der Kontakt 18624, Auswahl von Objekten 18620-1, 18620-2, 18620-3 und aufrechterhalten wird.
  • Während die oben beschriebenen Beispiele veranschaulichen die erste Operation und die zweite Operation, wie verschiedene Operationen, in einigen Ausführungsformen die erste Operation und die zweite Operation die gleiche Art von Operation. Zum Beispiel können einige Ausführungsformen, die erste Operation und die zweite Operation sind beide Texthervorhebung Operationen, aber wenn sich die Vorrichtung in der ersten Betriebsart (zum Beispiel, weil der Kontakt der Durchführung der Geste nicht erreichen oder überschreiten IT d) die Vorrichtung würde stoppen Hervorhebung in den 111–11J, wenn die Intensität des Kontakts wurde unterhalb operationsaufhebeIntensitätsSchwelle der reduzierten (z. B. ”ITi”); Im Gegensatz dazu, wenn die Vorrichtung in der zweiten Betriebsart (zum Beispiel, weil der Kontakt der Durchführung der Geste überschritten IT D, wie in 11G gezeigt) die Vorrichtung weiter hervorheben, wie in den 1II11J, selbst wenn die Intensität von der Kontakt unter operationsaufhebeIntensitätsSchwelle der reduzierten (z. B. ”[Pi][Upsilon]'). Ausführungsformen, wo die ersten und zweiten Operationen sind beide Dokumentenlauf Operationen Objektauswahloperationen oder Operationen Objekt bewegt würde in analoger Weise zu dem oben beschriebenen Beispiel Hervorhebung durchgeführt werden.
  • Die 12A12D sind Ablaufdiagramme, die ein Verfahren der 18700 eine Operation gemäß einem ausgewählten Betriebsmodus in Übereinstimmung mit manchen Ausführungsformen. Verfahren 18700 ist an einem elektronischen Gerät durchgeführt (z. B. Vorrichtung 300, 3 oder tragbaren Multifunktionsvorrichtung 100, 1A) mit einer Anzeige und einer berührungsempfindlichen Oberfläche. In einigen Ausführungsformen ist das Display ein Touchscreen-Display und die berührungsempfindliche Fläche auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von dem berührungsempfindlichen Oberfläche. Einige Operationen in Verfahren 18700 sind wahlweise kombiniert und/oder die Reihenfolge der einigen Operationen ist wahlweise geändert.
  • Wie nachfolgend beschrieben, stellt das Verfahren 18700 einen intuitiven Weg, um einen Betrieb in Übereinstimmung mit einer ausgewählten Betriebsart durchführen. Das Verfahren reduziert die kognitive Belastung für einen Benutzer, wenn eine Operation in Übereinstimmung mit einer ausgewählten Betriebsart, wodurch ein effizienter Mensch-Maschine-Schnittstelle geschaffen wird. Für batteriebetriebene elektronische Geräte, die es einem Benutzer, eine Operation in Übereinstimmung mit einer ausgewählten Betriebsart schneller und effizienter durchführen spart Energie und erhöht die Zeit zwischen Batterie lädt.
  • Das Gerät wird (18702) auf der Anzeige, einer Benutzerschnittstelle für das elektronische Gerät. Zum Beispiel in 11A Benutzeroberfläche 18604 angezeigt wird, und in 1IK Benutzeroberfläche 18618 angezeigt wird. Benutzeroberfläche 18604 beinhaltet Dokument 18606, und die Benutzeroberfläche 18618 enthält Objekte 18620.
  • Das Gerät erkennt (18704) eine Folge von Eingängen auf der berührungsempfindlichen Oberfläche, wobei Erfassen der Folge von Eingängen enthält (18706), Erfassen von Veränderungen in den Eigenschaften (z. B. Position, Geschwindigkeit, Intensität, Größe, Drehung) eines jeweiligen Kontakt, der kontinuierlich auf der berührungsempfindlichen Oberfläche während der Folge von Eingängen erfaßt wird. In einigen Ausführungsformen sind die Folge von Eingaben von einem einzelnen Fingerkontakt hergestellt. Beispielsweise zeigen die 1LA–1IE zeigen eine Abfolge von Eingaben, die einen Kontakt 18610. Die Folge von Eingängen umfasst Kontakt 18610, die auf berührungsempfindliche Oberfläche 451 kontinuierlich festgestellt wird, ändert sich in Intensität und Wechselposition. Ähnliche Sequenzen von Eingängen sind in den 1lF–11J, die einen Kontakt 18610 dargestellt, in den 1IK1IP mit Kontakt 18624, und in den 1LQ11W, die einen Kontakt 18624.
  • Die Reihenfolge der Eingänge umfaßt (18708) einen ersten Eingang und einen zweiten Eingang, wobei der erste Eingang enthält (18710) Erfassen einer Erhöhung der Intensität des jeweiligen Kontakt (z. B. eine Taste Eingabe), und der zweite Eingang enthält (18714) Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche (z. B. eine Drag-Eingang). Zum Beispiel die Folge von Eingaben, die einen Kontakt 18610, in den 1lA1IE umfasst eine Erhöhung der Intensität der Kontakt 18610 und die Bewegung der Kontakt 18610 (in den 1lA1IB dargestellt) (in 1 gezeigt lB–11C). Die jeweiligen Sequenzen von Eingaben, die einen Kontakt 18610 ( ), die einen Kontakt 18624 ( ), und die einen Kontakt 18624 ( ) sind auch Erhöhungen der Kontaktintensität und Kontaktbewegung. In einigen Ausführungsformen ist der erste Eingang (18712) eine stationäre Presse Eingang. Zum Beispiel in den 1lA–1IB, die Intensität des Kontaktes erhöht, während 18610 Kontakt 18610 ist stationär.
  • In Reaktion (18716) auf das Erfassen des ersten Eingangs, in Übereinstimmung mit einer Bestimmung, dass der erste Eingang beinhaltet nicht die Erhöhung der Intensität der jeweiligen Kontakt über einen Modusauswahlintensitätsschwelle (beispielsweise ”IT D”), der Vorrichtung arbeitet (18718) in einem ersten Betriebsmodus während dem zweiten Eingang (z. B., die in der ersten (z. B. primäre) Betriebsmodus, bis eine Eingabe, wie beispielsweise einem tiefen Presse, die einen Übergang zu der zweiten angibt (z. B. alternate) Betriebsart erfaßt wird), und in Übereinstimmung mit einer Bestimmung, dass der erste Eingang das Erhöhen der Intensität des jeweiligen Kontakt oberhalb der Betriebsart-Auswahlintensitätsschwelle (beispielsweise ”IT D”), arbeitet die Vorrichtung (18720) in eine zweite Betriebsart, die sich von der ersten Betriebsart, während der zweite Eingang (z. B. in die zweite Betriebsart während der Kontakt kontinuierlich erfaßt wird). Zum Beispiel in den 1LA–1IE, die Intensität des Kontaktes 18610 erhöht wird, jedoch nicht über einen Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”). <m> entsprechend der Intensität des Kontakts 18610 unter dem Modus-Auswahlintensitätsschwelle verbleibenden (z. B. ”IT D”), die Bewegung des Kontakt 18610 wird in Übereinstimmung mit einem ersten Betriebsmodus erkannt wird (z. B. entsprechend dokumentieren scrollen). In den 1IF111 wird die Intensität des Kontaktes 18610 über dem Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”) erhöht. In Übereinstimmung mit der Intensität des Kontakts 18610 Erhöhung über dem Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”), die Bewegung des Kontakt 18610 wird in Übereinstimmung mit einem zweiten Betriebsmodus erkannt wird (z. B. entsprechend Textauswahl).
  • Als ein weiteres Beispiel, in den 1lJ1IP, die Intensität des Kontaktes 18624 erhöht wird, aber nicht über dem Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”) – I <n> entsprechend der Intensität des Kontakts 18624 unter dem Modus-Auswahlintensitätsschwelle bleibt, wird die Bewegung des Kontakt 18624 18620 über Objekte in Übereinstimmung mit einem ersten Betriebsmodus erkannt wird (z. B. entsprechend Ziehen und Ablegen eines Objekts). In 111Q–1W, wird die Intensität des Kontakt 18624 über dem Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”) erhöht. In Übereinstimmung mit der Intensität des Kontakts 18624 Erhöhung über dem Betriebsart-Auswahlintensitätsschwelle (beispielsweise ”IT D”), die Bewegung des Kontakt 18624 18620 über Objekte in Übereinstimmung mit einem zweiten Betriebsmodus erkannt wird (z. B. entsprechend Multiple Objektauswahl).
  • In einigen Ausführungsformen ist (18722) der zweiten Betriebsart eine kontaktintensitätsunabhängige Betriebsart (beispielsweise eine Betriebsart, wo der Betrieb, die sonst auf der Grundlage einer Intensität von dem Kontakt auf dem berührungs ermittelt werden würde empfindlichen Oberfläche statt, basierend auf dem Vorhandensein/Nichtvorhandensein eines Kontakts auf der berührungsempfindlichen Oberfläche) bestimmt.
  • Zum Beispiel in den 1IU–1IV-Objekte 18620 weiterhin in Reaktion ausgewählt werden, um den Cursor trotz der Intensität des Kontakt 18624 unten, was zum Beispiel abnehm 18622 Bewegen über sie eine Operation-Annullierung Intensitätsschwelle in der ersten Betriebsart Betrieb (z. B. ”[Pi][Upsilon]'). Auswahl, gegebenenfalls abgebrochen (oder zumindest wird kein neues Objekt ausgewählt, wenn Cursor 18622 über das neue Objekt bewegt wird), wenn der Kontakt 18624 wird berührungsempfindliche Oberfläche 451 angehoben (beispielsweise wie in 1 gezeigt, 1W). Als ein anderes Beispiel in den 111II–J, Textteile 18608 weiter in Reaktion auf die Bewegung des Kontakt 18610 ungeachtet der Intensität des Kontakt 18610 abnehm unterhalb der Bedien-Stornierungsintensitätsschwelle in die erste Betriebsart ausgewählt werden (z. B. ”[Pi][Upsilon]'). In jedem dieser Beispiele, die Änderung der Intensität des Kontakts, ausgenommen heben Sie den Kontakt aus berührungsempfindlichen Oberfläche 451, hat keinen Einfluss auf den Betrieb.
  • In Reaktion auf die Erfassung des zweiten Eingangs, führt die Vorrichtung (18724) eine Operation in Übereinstimmung mit dem zweiten Eingang zumindest teilweise auf, ob die Vorrichtung in der ersten Betriebsart oder der zweiten Betriebsart arbeitet bezogen. Zum Beispiel in den 1lb–11C Dokument 18606 gescrollt wird, in Übereinstimmung mit einem ersten Betriebsmodus, in Reaktion auf die Erfassung der Bewegung der Kontakt 18610, und in den 1LG11J, Textteile 18608 ausgewählt sind, in Übereinstimmung mit einem zweiten Betriebsmodus, in Reaktion auf die Bewegung des Kontakt 18610. Als ein anderes Beispiel in den 1LM-1-IP, Ziel 18620-1 gezogen und, in Übereinstimmung mit einem ersten Betriebsmodus, in Reaktion auf die Bewegung des Kontakt 18624. In 11S–11V Objekte 18620-1 durch 18620-3 ausgewählt werden, in Übereinstimmung mit einem zweiten Betriebsmodus, in Reaktion auf die Bewegung des Kontakt 18624.
  • In einigen Ausführungsformen, während (18726) in der ersten Betriebsart, beginnt die Vorrichtung (18728), um eine erste Operation, die dem zweiten Eingang durchzuführen, erkennt das Gerät (18730) eine Abnahme in der Intensität des Kontakts unter a jeweiligen Intensitätsschwelle (z. B. LIT, ITI oder eine Hysterese-Intensitätsschwelle IT Lthat zugeordnet wird darunter L), und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwelle (z. B. L IT, ITl sor eine Hysterese Intensitätsschwelle IT Lthat unter Lire), während in der ersten Betriebsart, hört die Vorrichtung (18732), um die erste Operation auszuführen assoziiert (z. B., bestimmt die Vorrichtung, ob sie weiterhin Bewegen eines Objekts oder das Objekt fallen, basierend auf ob die Intensität der Berührung auf der berührungsempfindlichen Oberfläche unter die Operationen aufheben Intensitätsschwellenwert ITi für den ersten Betriebsmodus).
  • Beispielsweise ist in den 1lb11C Dokument 18606 wird in Reaktion auf die Erfassung der Bewegung der Kontakt 18610, 18610, wo ein Kontakt eine Intensität zwischen Schwellen ITi gescrollt IT D. Während Dokument 18606 gewechselt wird, die Intensität des Kontakt 18610 unter einen jeweiligen Schwellenwert (z. B. ”ITi”). In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18610 in 1ID, während die Vorrichtung in der ersten Betriebsart ist, hört Dokument 18610 gescrollt werden, wie in 1IE gezeigt ist, jedoch in einigen Ausführungsformen, wenn der Vorrichtung war in der zweiten Betriebsart gewesen wäre, hätte das Gerät weiter, um das Dokument zu scrollen sind.
  • In einem weiteren Beispiel in den 1IL–1IN, Objekt 18620-1 ausgewählt ist, abgeholt und in Reaktion auf die Erfassung einer Bewegung einschließlich der Bewegung der Cursor über dem Objekt 18622 18620-1 gezogen.
  • Während Objekt 18620-1 gezogen wird, wird die Intensität des Kontaktes 18624 unter einen jeweiligen Schwellenwert (z. B. Schwellen ITI). In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18624 in 110, während die Vorrichtung in der ersten Betriebsart ist, wird die Objekt 18620-1 in Benutzeroberfläche 18618 fallen, wie in den Figuren gezeigt, 10-1 Januar IP jedoch in Einige Ausführungsformen, wenn das Gerät war in der zweiten Betriebsart gewesen wäre, wäre die Vorrichtung weiterhin Aufgabe 18620-1 ziehen können.
  • In einigen Ausführungsformen der Vorrichtung, während (18734) in der zweiten Betriebsart startet die Vorrichtung (18736), um eine zweite Operation, die dem zweiten Eingang durchzuführen, erkennt das Gerät (18738) eine Abnahme in der Intensität des Kontakt nach der jeweiligen Intensitätsschwelle (z. B. LIT, ITl sor einer Hysterese Intensitätsschwelle IT L verbunden ist), und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwelle (z. B. LIT, IT1 sor eine Hysterese Intensitätsschwelle IT L verbunden ist), während in der zweiten Betriebsart arbeitet das Gerät (18740), um die zweite Operation durchzuführen (beispielsweise das Gerät weiterhin ein Objekt bezogen, auch wenn bewegen Intensität der Berührung auf der berührungs empfindlichen Oberfläche unter die Operationen aufheben Intensitätsschwellenwert ITi für den ersten Betriebsmodus).
  • Beispielsweise ist in den 1LG11J, ein Textabschnitt 18608 in Antwort auf die Detektion der Geste, einschließlich Bewegung des Kontakt 18610 ausgewählt ist, und wobei zusätzliche Text 18608 weiterhin ausgewählt werden, die Intensität des Kontaktes 18610 unter einen jeweiligen Schwellenwert (z. B. ”[Pi][Upsilon]'). In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18610 in 111, während die Vorrichtung in dem zweiten Betriebsmodus ist, setzt zusätzliche Text 18608 in Antwort auf die Bewegung 18618 in den Figuren gewählt werden Kontakt 18610 111–11J ist jedoch in einigen Ausführungsformen, wenn das Gerät war in der ersten Betriebsart gewesen wäre das Gerät gestoppt Auswahl des Textes in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts 18610 unter ITi in 111 haben.
  • In einem weiteren Beispiel in den 1LQ–1IV, Objekt 18620-1 in Reaktion auf die Erfassung der Bewegung der Cursor über dem Objekt 18622 18620-1 ausgewählt ist, und während der Cursor 18622 setzt sich in Reaktion auf die Bewegung des Kontakt 18624 die Intensität des Kontakt 18624 unter einen jeweiligen Schwellenwert (z. B. ”[Pi][Upsilon]'). In Reaktion auf die Erfassung der Verringerung der Intensität des Kontakts 18624 in 11U, während die Vorrichtung in der zweiten Betriebsart ist, das Gerät weiterhin zusätzliche Objekte (z. B. Objekte 18620-2 und 18620-3), wenn der Cursor 18622 auszuwählen über sie bewegt wird, aber in einigen Ausführungsformen, wenn das Gerät war in der ersten Betriebsart die Vorrichtung gestoppt würde die Auswahl der Objekte in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts 18624 unter ITi in 11U gewesen.
  • In einigen Ausführungsformen in der ersten Betriebsart, wobei der zweite Eingang entspricht (18742) einer ersten Operation (z. B. wenn ein Objekt gelöscht), und in der zweiten Betriebsart den zweiten Eingang entspricht einem zweiten Betriebs verschiedene aus der ersten Operation (beispielsweise weiterhin das Objekt zu bewegen). Somit kann in einigen Ausführungsformen weist der zweite Eingang eine andere Bedeutung in der ersten Betriebsart als in der zweiten Betriebsart funktioniert. Zum Beispiel in den 1IK–1IP Bewegung eines Kontakts im ersten Betriebsmodus entspricht, Ziehen-und-Ablegen eines Objekts (z. B. Bewegung des Kontakt 18624), aber in einigen Ausführungsformen in der zweiten Betriebsart Betrieb (z. B. wo der Kontakt 18624 übersteigt IT D) würde das Gerät weiterhin Objekt 18620-1 auch nach der Intensität des Kontaktes 18.624 sank unter operationsaufhebeIntensitätsSchwelle Unterwegs (z. B. ”ITi”), bis Abheben von Kontakt 18624 erfaßt wird.
  • In einigen Ausführungsformen umfasst die erste Operation (18744) Scrollen eines elektronischen Dokuments und der zweite Vorgang beinhaltet das Auswählen Gehalt in dem elektronischen Dokument. Zum Beispiel in den 1lA–11J, Bewegung einen Kontakt im ersten Betriebsmodus entspricht dem Dokument Blättern (z. B. Bewegung des Kontakt 18610 in 1lA–1IE), und eine Bewegung des Kontakts in der zweiten Betriebsart entspricht Inhalt (z. B. Text) Auswahl (z. B. Bewegung des Kontakt 18610 in 1lF–11J).
  • In einigen Ausführungsformen umfasst die erste Operation (18746) Bewegen eines Benutzerschnittstellenobjekt in einer Benutzerschnittstelle, und die zweite Operation beinhaltet das Auswählen einer Mehrzahl von Benutzerschnittstellenobjekten in der Benutzeroberfläche. Während zum Beispiel in der ersten Betriebsart, wählt die Vorrichtung einen aktuell ausgewählten Benutzerschnittstellenobjekt bei Erfassung einer Abnahme der Intensität eines Kontakts unter einem Objekt Abwahl Intensitätsschwellenwert (z. B. ”ITi”). Umgekehrt, während in der zweiten Betriebsart die Vorrichtung hält die Auswahl des momentan ausgewählten Benutzerschnittstellenobjekt selbst nach Erfassen einer Abnahme der Intensität des Kontakts unter dem Objekt-Abwahl Intensitätsschwellenwert (z. B. ”ITi”), bis Abheben des Kontakt ein weiterer Tiefpressbewegung, oder andere vorbestimmte Signal festgestellt, dass die zweite Betriebsart verlässt. In den 1LK11W, die Bewegung einer Kontaktperson der ersten Betriebsart entspricht, bewegt (beispielsweise Ziehen und Fallenlassen) ein Gegenstand (z. B. Bewegung des Kontakt 18624 in 1lK–11Q) und Bewegung der Kontakt in der zweiten Betriebsart entspricht mehreren Objekten (z. B. Bewegung des Kontakt 18624 in den 11Q–11V).
  • In einigen Ausführungsformen in Antwort auf das Erfassen des ersten Eingangs, beginnt das Gerät (18748), um eine entsprechende Operation durchzuführen (z. B. ”Pick up and move” eine Benutzerschnittstelle Objekt), und als Reaktion auf das Erfassen des zweiten Eingang arbeitet das Gerät, um die jeweilige Operation durchzuführen (z. B. ”so lange in Bewegung”, die zuvor hob Benutzeroberfläche Objekt). Zum Beispiel in den 1IK–1IP, Objekt 18620-1 wird ”abgeholt” in Reaktion auf eine Erhöhung der Intensität des Kontaktes 18.624 über dem Schwellenwert IT L während Cursor 18622 ist über Objekt 18620-1 und Objekt 18620-1 ist nach oben bewegt in Reaktion auf die Bewegung des Kontakt 18628 18624 Nach Aufgabe 18620-1 gerichtet.
  • In einigen Ausführungsformen erfasst die Vorrichtung (18750) eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb eines ersten Intensitätsschwellenwert (beispielsweise eine Objektauswahl-Intensitätsschwelle wie IT L), während ein Fokuswähler entsprechend der Kontakt ist oder in der Nähe einer entsprechenden Benutzerschnittstellenobjekt. In Reaktion auf das Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des ersten Intensitätsschwellenwert (z. B. IT Lor IT D) erzeugt, die Vorrichtung (18752) eine taktile Ausgabe auf der berührungsempfindlichen Oberfläche, die auf die Auswahl der entsprechenden Benutzerschnittstelle entspricht, Objekt. Nach (18754) Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des ersten Intensitätsschwellenwert (z. B. IT Lor IT D), erkennt die Einrichtung (18756) zu einer Abnahme der Intensität der jeweiligen Kontakt unterhalb eines zweiten Intensitätsschwellenwert (zum Beispiel ein Objekt-drop Intensitätsschwelle, wie ITI), während der Fokus-Selektor an oder nahe der entsprechenden Benutzerschnittstellenobjekt. In Reaktion auf das Erfassen der Abnahme der Intensität des jeweiligen Kontakt unterhalb des zweiten Intensitätsschwellenwert (z. B. IT L, ITi oder eine Hystereseschwelle IT Lthat zugeordnet wird darunter L), gemäß dem Bestimmung, dass die Vorrichtung in der ersten Betriebsart ist das Gerät abgewählt (18758) der jeweiligen Benutzerschnittstellenobjekt und erzeugt (18760) eine taktile Ausgabe entsprechend Abwahl der entsprechenden Benutzerschnittstellenobjekt; und in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in der zweiten Betriebsart ist, hält die Vorrichtung (18762) Auswahl der entsprechenden Benutzerschnittstellenobjekt und verzichtet auf die Erzeugung des taktilen Ausgabe entsprechend Abwahl der entsprechenden Benutzerschnittstellenobjekt.
  • Beispielsweise ist in den 1IK1IP, eine taktile Ausgabe wird wahlweise in Reaktion auf den Anstieg in der Intensität des Kontakt 18624 über einen ersten Intensitätsschwellenwert erzeugt wird (beispielsweise ”IT L”), während der Cursor über dem Objekt 18622 ist 18620-1 in 11M (welches die Auswahl und Abholung von Objekt 18620-1) und eine taktile Ausgabe wird wahlweise in Reaktion auf die Abnahme der Intensität des Kontakts 18624 unterhalb eines zweiten Intensitätsschwellenwert erzeugt (beispielsweise ”[Pi][Upsilon]'), während der Cursor 18622 ist über Objekt 18620-1 in (Angabe Abwahl und Ablegen von Objekt 18620-1). In den 1LQ11W, eine taktile Ausgabe wird gegebenenfalls in Reaktion auf die Erhöhung der Intensität der Kontakt 18624 über dem Schwellenwert IT Lwhile Cursor erzeugt 18622 über Objekt 18620-1 in 1 (zeigt die Auswahl des Objekts 18620-1), und eine taktile Ausgabe nicht in Reaktion auf die Abnahme der Intensität des Kontakts 18624 unter dem zweiten Intensitätsschwellenwert erzeugt (beispielsweise ”[Pi][Upsilon]'), aber oberhalb der Schwelle verbleibenden IT o (beispielsweise, weil die Vorrichtung nicht herunterfallen oder de-Objekt auswählen 18620-1) in .
  • So wird in einigen Ausführungsformen, während die Vorrichtung in der ersten Betriebsart ist, erzeugt das Gerät taktile Ausgänge, so dass der Benutzer spürt einen Klick, wenn zunehmende Objekt-Aufnahmeintensitätsschwellen Vergangenheit und auch beim letzten Objekt-drop abnehm Intensitätsschwelle (z. B. weil Objekte werden abgeholt und abgesetzt). Im Gegensatz dazu, während das Gerät in der zweiten Betriebsart ist, erstellt das Gerät taktilen Ausgänge, so dass der Benutzer bei der Erhöhung einer Objekt Pickup Intensitätsschwelle Vergangenheit fühlt sich ein Klick, aber nicht das Gefühl, ein Klicken, wenn sinkend Drop Intensitätsschwelle Vergangenheit (weil Objekte nicht gelöscht). Somit kann in einigen Ausführungsformen die erste Betriebsart bietet ähnliche taktile Ausgänge zu denen, die von einer physikalischen Aktuator zu erwarten wäre, während der zweite Betriebsmodus ein taktiles Ausgänge, die enger entsprechen den Operationen, die in der Benutzerschnittstelle durchgeführt wird, sogar wenn zusätzliche taktile Ausgänge, die durch eine physikalische Aktor erzeugt worden wäre nicht durchgeführt werden (z. B. hat das Gerät die Möglichkeit zur Ausgabe von mehreren ”down auf” taktile Ausgänge ohne Ausgabe einer entsprechenden Anzahl von ”bis auf” taktile Ausgänge).
  • Es versteht sich, dass die Reihenfolge, in der die Operationen in 12A bis 12D beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich ist zu beachten, dass die Einzelheiten der anderen hierin mit Bezug auf andere hier beschriebene Verfahren beschriebenen Verfahren (zum Beispiel, die in Absatz [0043]) sind ebenfalls in einer analogen Weise zu Verfahren 18700 oben mit Bezug auf 12A bis 12D beschrieben werden, anwendbar. Zum Beispiel können die Kontakte, Benutzerschnittstellenobjekten, taktile Ausgänge Intensitätsschwellen, und konzentrieren sich die oben mit Bezug auf das Verfahren 18700 gegebenenfalls einen oder mehrere der Eigenschaften der Kontakte und Benutzerschnittstellenobjekten, taktile Ausgänge Intensitätsschwellen und Fokuswähler hier mit Bezug auf anderen hier beschriebenen Methoden beschrieben Selektoren (z. B. die in Absatz [0043]). Der Kürze halber werden diese Details hier nicht wiederholt.
  • In Übereinstimmung mit einigen Ausführungsformen, 13 zeigt ein Funktionsblockdiagramm eines elektronischen Geräts 18800 in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen konfiguriert. Die Funktionsblöcke der Vorrichtung wahlweise durch Hardware, Software oder einer Kombination aus Hardware und Software implementiert werden, um die Durchführung der Prinzipien der verschiedenen beschriebenen Ausführungsformen. Es wird durch Fachleute auf dem Gebiet, das in beschriebenen funktionellen Blöcke, gegebenenfalls kombiniert oder getrennt in Unterblöcke, die Prinzipien der verschiedenen beschriebenen Ausführungsformen umzusetzen verstanden. Daher wird die Beschreibung hier gegebenenfalls unterstützt jede mögliche Kombination oder Trennung oder weitere Definition der hierin beschriebenen funktionalen Blöcke.
  • Wie in 13 gezeigt, umfasst eine elektronische Vorrichtung eine Anzeigeeinheit 18800 18802 konfiguriert ist, eine Benutzerschnittstelle für das elektronische Gerät anzeigen, eine berührungsempfindliche Oberfläche Einheit 18804 Eingaben konfiguriert, einen oder mehrere Sensoren 18806 konfiguriert, um die Intensität der Kontakte mit der berührungsempfindlichen Oberfläche Einheit 18804 erhalten erfassen, und eine Verarbeitungseinheit gekoppelt 18808 auf der Anzeigeeinheit 18802, die berührungsempfindliche Oberfläche Einheit 18804, 18806 und den Sensoren. In einigen Ausführungsformen umfasst die Verarbeitungseinheit 18808 eine Erfassungseinheit 18810, eine Bedieneinheit 18812, eine Durchführungseinheit 18814, eine Ausgangseinheit 18816, ein Aufhören Einheit 18818, eine fortEinheit 18820, eine Erzeugungseinheit 18822, eine Abwahl Einheit 18824 und eine Erhaltungseinheit 18826.
  • Die Verarbeitungseinheit 18808 konfiguriert ist zum: Erfassen eines Folge von Eingängen auf der berührungsempfindlichen Oberfläche Einheit 18804 (beispielsweise mit der Erfassungseinheit 18810), wobei: Erfassen der Folge von Eingängen umfasst Detektieren von Änderungen in den Eigenschaften eines jeweiligen Kontakt daß ständig auf der berührungsempfindlichen Oberfläche Einheit 18804 während der Folge von Eingängen erfaßt, enthält die Sequenz von Eingängen einen ersten Eingang und einen zweiten Eingang, wobei der erste Eingang das Detektieren einer Zunahme in der Intensität des betreffenden Kontakt und der zweite Eingang umfasst Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche Einheit 18804; in Reaktion auf das Erfassen des ersten Eingangs: in Übereinstimmung mit einer Bestimmung, dass der erste Eingang beinhaltet nicht die Erhöhung der Intensität der jeweiligen Kontakt über einen Modusauswahlintensitätsschwelle (beispielsweise ”IT D”), arbeiten in einem ersten Betriebsmodus, während der zweite Eingang (z. B. mit der Bedieneinheit 18812), und in Übereinstimmung mit einer Bestimmung, dass der erste Eingang das Erhöhen der Intensität des jeweiligen Kontakt über dem Modus-Auswahlintensitätsschwelle (beispielsweise ”IT D”), in Betrieb eine zweite Betriebsart, die sich von der ersten Betriebsart, während der zweite Eingang (z. B. mit der Bedieneinheit 18812); und in Reaktion auf die Erfassung des zweiten Eingangs, eine Operation in Übereinstimmung mit dem zweiten Eingang wenigstens teil, ob die Vorrichtung in der ersten Betriebsart oder der zweiten Betriebsart arbeitet (beispielsweise mit der Durchführungseinheit 18814), basierend.
  • In einigen Ausführungsformen der erste Eingang ist eine stationäre Presse Eingang.
  • In einigen Ausführungsformen die zweite Betriebsart ist ein Kontakt-Intensitäts-unabhängigen Betriebsmodus.
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 18808 konfiguriert ist, während im ersten Betriebsmodus: beginnen, eine erste Operation, die dem zweiten Eingang durchzuführen (beispielsweise mit der Ausgangseinheit 18816), erkennen (z. B. bei der Erfassungseinheit 18810) eine Abnahme in der Intensität des Kontakts unter einer entsprechenden Intensitätsschwellenwert (z. B. ”ITi”) und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwellenwert (z. B. ”ITi”), während in die erste Betriebsart einzustellen, um die erste Operation auszuführen (z. B. mit dem Aufhören Einheit 18818).
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 18808 konfiguriert ist, während in der zweiten Betriebsart: beginnen, eine zweite Operation, die der zweiten Eingangszuführen (beispielsweise mit der Ausgangseinheit 18816), erkennen (z. B. bei der Erfassungseinheit 18810) eine Abnahme in der Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwellenwert (z. B. ”ITi”) und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unterhalb der jeweiligen Intensitätsschwellenwert (z. B. ”ITi”), während in der zweite Betriebsmodus weiterhin die zweite Operation durchzuführen (beispielsweise mit dem Fortsetzungseinheit 18820).
  • In einigen Ausführungsformen in der ersten Betriebsart, wobei der zweite Eingang entspricht einem ersten Arbeitsgang und in der zweiten Betriebsart den zweiten Eingang entspricht einer zweiten Operation unterschiedlich von der ersten Operation.
  • In manchen Ausführungsformen ist die erste Operation umfasst Scrollen eines elektronischen Dokuments, und die zweite Operation das Auswählen Gehalt in dem elektronischen Dokument.
  • In manchen Ausführungsformen ist die erste Operation das Bewegen eines Benutzerschnittstellenobjekt in einer Benutzerschnittstelle, und die zweite Operation das Auswählen einer Mehrzahl von Benutzerschnittstellenobjekten in der Benutzeroberfläche.
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 18808 konfiguriert ist: als Reaktion auf das Erfassen des ersten Eingangs starten, um eine jeweilige Operation durchzuführen (beispielsweise mit der Ausgangseinheit 18816), und in Reaktion auf die Erfassung des zweiten Eingangs weiterhin die zugehörige Operation (z. B. mit dem Fortsetzungseinheit 18820).
  • In einigen Ausführungsformen kann die Verarbeitungseinheit 18808 konfiguriert ist: zu erfassen eine Erhöhung der Intensität der jeweiligen Kontakt oberhalb eines ersten Intensitätsschwellenwert (z. B. IT Lor IT D), während eine Fokuswähler entsprechend der Kontakt an oder nahe eine entsprechende Benutzerschnittstellenobjekt (z. B. mit der Erfassungseinheit 18810); in Reaktion auf das Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des ersten Intensitätsschwellenwert (z. B. IT Lor IT D) erzeugen, eine taktile Ausgabe auf der berührungsempfindlichen Oberfläche Einheit 18804, die die Auswahl der entsprechenden Benutzerschnittstellenobjekt entspricht (z. B., mit der Erzeugungseinheit 18822); und nach dem Erfassen der Zunahme der Intensität der jeweiligen Kontakt oberhalb des ersten Intensitätsschwellenwert (z. B. IT Lor IT D): erfassen einer Abnahme der Intensität der jeweiligen Kontakt unterhalb eines zweiten Intensitätsschwellenwert (z. B. IT L, ITi oder eine Hystereseschwelle zugeordnet Lthat unter IT L) während der Fokus-Selektor an oder nahe der entsprechenden Benutzerschnittstellenobjekt (z. B. mit der Erfassungseinheit 18810), und in Reaktion auf das Erfassen der Abnahme der Intensität des jeweiligen Kontakt unterhalb des zweiten Intensitäts Schwelle (z. B. IT L, ITi oder eine Hystereseschwelle IT Lthat zugeordnet wird darunter L) in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in der ersten Betriebsart ist, deaktivieren die entsprechenden Benutzerschnittstellenobjekt (z. B. mit der Abwahl Einheit 18824) und Erzeugen eines taktilen Ausgabe entsprechend Abwahl der entsprechenden Benutzerschnittstellenobjekt (z. B. mit der Erzeugungseinheit 18822), und in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in der zweiten Betriebsart die Auswahl der jeweiligen Oberfläche zu erhalten Gegenstand (z. B. mit der Aufrechterhaltung Einheit 18826) und verzichten Erzeugung der taktilen Ausgabe entsprechend Abwahl der jeweiligen Benutzerschnittstellenobjekt (z. B. mit der Erzeugungseinheit 18822).
  • Die Vorgänge in der Informationsverarbeitungs oben beschrieben sind, gegebenenfalls durch Ausführen eines oder mehrerer Funktionsmodule in der Informationsverarbeitungsvorrichtung, wie Allzweckprozessoren implementiert Verfahren (z. B. wie oben mit Bezug auf die 1A und 3 beschrieben) oder anwendungsspezifische Chips. Oben beschrieben
  • Die Vorgänge mit Bezug auf die 12A12D sind, gegebenenfalls durch in den 1AIB oder 13 dargestellten Komponenten implementiert. Zum Beispiel Erfassungsbetrieb 18704, Betriebsvorgänge 18718 und 18720, und die Operation durchführen 18724 sind wahlweise nach Ereignis Sortierer 170, Event-Erkenner 180 und Event-Handler 190 implementiert. Ereignismonitor 171 in Ereignissortierer 170 erkennt einen Kontakt auf berührungsempfindliche Anzeige 112 und Event-Dispatcher-Modul 174 liefert die Ereignisinformationen in Anwendung 136-1. Eine entsprechende Veranstaltung Erkenner 180 Einsatz 136-1 vergleicht das Ereignis Informationen zu den jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einer ersten Stelle auf der berührungsempfindlichen Oberfläche entspricht einer vordefinierten Ereignis oder Unter Ereignis, wie die Auswahl eines Objekts auf einer Benutzerschnittstelle.
  • Wenn eine jeweilige vorgegebene Ereignis oder Unter Ereignis erkannt wird, Ereigniserkennungseinrichtung 180 aktiviert eine Ereignisbehandlungsroutine 190 mit der Erfassung des Ereignisses oder der Unter Ereignis zugeordnet ist. Event-Handler 190 wahl nutzt oder fordert Daten Updater 176 oder Objekt Updater 177, die Anwendung interner Zustand 192 zu aktualisieren. In einigen Ausführungsformen, Event-Handler 190 greift auf eine entsprechende GUI Aktualisierungs 178 zu bearbeiten, was durch die Anwendung angezeigt. Ebenso wäre es klar sein, eine Person mit gewöhnlichen Kenntnissen in der Technik wie andere Prozesse auf der Grundlage der in den 1A1B dargestellten Komponenten durchgeführt werden.
  • Es versteht sich, dass die Reihenfolge, in der die Operationen sind oben beschrieben worden ist, lediglich beispielhaft und ist nicht dazu gedacht, um anzuzeigen, daß der beschriebenen Reihenfolge ist die einzige Reihenfolge, in der die Operationen durchgeführt werden konnte. Ein Fachmann auf dem Gebiet würde verschiedene Möglichkeiten, um die hierin beschriebenen Operationen neu ordnen zu erkennen. Zusätzlich sollte beachtet werden, dass die verschiedenen Prozesse separat beschrieben (beispielsweise diejenigen, die in Absatz [0043] aufgeführt) können miteinander in verschiedenen Anordnungen kombiniert werden können. Zum Beispiel können die Kontakte, Benutzerschnittstellenobjekten, taktile Empfindungen Intensitätsschwellen und/oder Fokuswähler oben beschrieben mit Bezug auf irgendeinem der verschiedenen Verfahren getrennt beschrieben (beispielsweise die in Absatz [0043]), gegebenenfalls einen oder mehrere der Eigenschaften der Kontakte, Gesten und Benutzerschnittstellenobjekten, taktile Empfindungen Intensitätsschwellen und Fokuswähler hier mit Bezug auf eine oder mehrere der anderen hierin beschriebenen Verfahren beschrieben (beispielsweise die in Absatz [0043]).
  • Der Kürze halber alle die verschiedenen möglichen Kombinationen werden hier nicht speziell aufgezählt, aber es sollte verstanden werden, dass die oben beschriebenen Ansprüche können in beliebiger Weise, die nicht durch sich gegenseitig ausschließende Funktionen ausgeschlossen Anspruch kombiniert werden.
  • Die vorstehende Beschreibung zum Zwecke der Erklärung unter Bezugnahme auf spezifische Ausführungsformen beschrieben worden. Allerdings sind die veranschaulichenden Diskussion, die oben nicht beabsichtigt, erschöpfend zu sein oder die verschiedenen beschriebenen Ausführungsformen auf die offenbarten präzisen Formen beschränken. Viele Modifikationen und Variationen sind angesichts der obigen Lehren möglich. Die Ausführungsformen wurden ausgewählt und beschrieben, um am besten die Prinzipien der verschiedenen beschriebenen Ausführungsformen und deren praktische Anwendung, um es dadurch anderen Fachleuten die beste Nutzung der verschiedenen beschriebenen Ausführungsformen mit verschiedenen Modifikationen, wie sie für die bestimmte beabsichtigte Verwendung geeignet zu ermöglichen beschrieben.

Claims (84)

  1. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige, wobei die Vorrichtung einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, beinhaltet: Erfassen eines Kontakts mit der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, welcher Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf ein Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: Bewegen des Fokus-Selektors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors; und Bestimmen einer Intensität des Kontakts auf der berührungsempfindlichen Oberfläche, während der Fokus-Selektor an der entsprechenden Stelle auf der Anzeige ist; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von der entsprechenden Stelle entspricht; und als Reaktion auf ein Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  2. Verfahren nach Anspruch 1, wobei: Bewegung des jeweiligen Benutzerschnittstellenobjekts auf einen vordefinierten Pfad in der Benutzerschnittstelle begrenzt ist; und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors, beinhaltet Bewegen des entsprechenden Benutzerschnittstellenobjekts entlang des vordefinierten Pfads in Übereinstimmung mit einer Bewegungskomponente des Fokus-Selektors, die einer zulässigen Bewegungsrichtung entlang des vordefinierten Pfads entspricht.
  3. Verfahren nach Anspruch 1, wobei: das jeweilige Benutzerschnittstellenobjekt einen zweidimensionalen Bewegungsbereich hat; und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit Bewegung des Fokus-Selektors, beinhaltet Bewegen des entsprechenden Benutzerschnittstellenobjekts zu einer Stelle an oder neben dem Fokus-Selektor auf der Anzeige.
  4. Verfahren nach einem der Ansprüche 1–3, wobei: entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle beinhalten; und der Kontakt die entsprechenden Intensitätskriterien erfüllt, wenn die Intensität des Kontakts über der entsprechenden Intensitätsschwelle ist.
  5. Verfahren nach einem der Ansprüche 1–4, wobei: entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle beinhalten; und der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, wenn die Intensität des Kontakts unter der entsprechenden Intensitätsschwelle ist.
  6. Verfahren nach einem der Ansprüche 1–4, wobei: entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle beinhalten; und der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, wenn die Intensität des Kontakts unterhalb der entsprechenden Intensitätsschwelle länger als eine vorgegebene Zeitspanne ist.
  7. Verfahren nach einem der Ansprüche 4–6, wobei die entsprechende Intensitätsschwelle eine vordefinierte Intensitätsschwelle ist.
  8. Verfahren nach einem der Ansprüche 4–6, wobei die entsprechende Intensitätsschwelle auf einem Prozentsatz einer maximalen Intensität des Kontakts, der während der Geste erfasst wird, basiert.
  9. Verfahren nach einem der Ansprüche 4–6, wobei die entsprechende Intensitätsschwelle einer Intensitätsmessung entspricht, die größer als eine nominale Intensitätsmessung ist, die angibt, dass der Kontakt in Kontakt mit der berührungsempfindlichen Oberfläche ist.
  10. Verfahren nach einem der Ansprüche 1–9, umfassend: während der Bewegung des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, Erfassen eines Abhebens des Kontakts von der berührungsempfindlichen Oberfläche; und in Reaktion auf das Erfassen des Abhebens, Aufhören, das entsprechende Benutzerschnittstellenobjekt in der Anzeige in Übereinstimmung mit der zweiten Bewegung des Kontakts zu bewegen.
  11. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme Anweisungen umfassen zum: Erfassen eines Kontakts mit der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, der Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: Bewegen des Fokus-Selektors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors; und Bestimmen einer Intensität des Kontakts auf der berührungsempfindlichen Oberfläche während der Fokus-Selektor an der entsprechenden Stelle auf der Anzeige ist; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von der jeweiligen Stelle entspricht; und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  12. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder mehrere Programme Anweisungen umfassen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung veranlassen zum: Erfassen eines Kontakts mit der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, welcher Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert; und während eines kontinuierlich Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche in Übereinstimmung mit Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: Bewegen des Fokus-Selekors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selekors; und Bestimmen einer Intensität des Kontakts auf der berührungsempfindlichen Oberfläche während der Fokus Selektor an der entsprechenden Stelle auf der Anzeige ist; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von der jeweiligen Stelle entspricht; und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche: in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selekors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  13. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, um ein oder mehrere Programme, die im Speicher gespeichert sind, auszuführen, die grafische Benutzerschnittstelle umfassend: ein oder mehrere Benutzerschnittstellenobjekte; wobei: während eines kontinuierlichen Erfassens eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, welcher Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert: in Reaktion auf das Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle: der Fokus-Selektor wird auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts bewegt und das entsprechende Benutzerschnittstellenobjekt wird in Übereinstimmung mit der Bewegung des Fokus-Selektors bewegt; und eine Intensität des Kontakts wird auf der berührungsempfindlichen Oberfläche bestimmt, während der Fokus-Selektor an der entsprechenden Stelle auf der Anzeige ist; in Reaktion auf das Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von der jeweiligen Stelle entspricht: in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, werden der Fokus-Selektor und das Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche bewegt; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, wird der Fokus-Selektor in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche bewegt, ohne das Benutzerschnittstellenobjekt zu bewegen.
  14. Eine elektronische Vorrichtung, umfassend eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Erfassen eines Kontakts mit der berührungsempfindlichen Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, der die Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Mittel zum Erfassen einer ersten Bewegung des ersten Kontakts über die berührungsempfindliche Oberfläche entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; Mittel, die auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche reagieren, umfassend: Mittel zum Bewegen des Fokus-Selektors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors; und Mittel zum Bestimmen einer Intensität des Kontakts auf der berührungsempfindlichen Oberfläche, während der Fokus-Selektor an der entsprechenden Stelle auf der Anzeige ist; Mittel zum Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von der jeweiligen Stelle entspricht; und Mittel, die auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche reagieren, umfassend: Mittel zum, in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindlichen Oberfläche; und Mittel zum, in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  15. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Erfassen eines Kontakts mit der berührungsempfindliche Oberfläche, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, der die Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist, steuert; und während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Mittel zum Erfassen der Bewegung des ersten Kontakts über der berührungsempfindlichen Oberfläche entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; Mittel, die auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberfläche reagieren, umfassend: Mittel zum Bewegen des Fokus-Selektors auf der Anzeige in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors; und Mittel zum Bestimmen einer Intensität des Kontaktes auf der berührungsempfindlichen Oberfläche, während der Fokus-Selektor an der entsprechenden Stelle in der Anzeige ist; Mittel zum Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, welche Bewegung des Fokus-Selektors weg von jeweiligen Stelle entspricht; und Mittel, die auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche reagieren, umfassend: Mittel zum, in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindlichen Oberfläche; und Mittel zum, in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberfläche, ohne das Benutzerschnittstellenobjekt zu bewegen.
  16. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder mehrere Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme Anweisungen zum Ausführen jedes der Verfahren der Ansprüche 1–10 umfassen.
  17. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, das eine oder mehrere Programme umfassen Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung veranlassen jedes der Verfahren der Ansprüche 1–10 durchzuführen.
  18. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, die ein oder mehrere Programme, die im Speicher gespeichert sind, ausführen, wobei die graphische Benutzerschnittstelle, welche Benutzerschnittstellen, die in Übereinstimmung mit jedem der Verfahren der Ansprüche 1-10 anzeigt werden, umfasst.
  19. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Ausführen jedes der Verfahren der Ansprüche 1–10.
  20. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Ausführen jedes der Verfahren der Ansprüche 1-10.
  21. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit; eine berührungsempfindliche Oberflächeneinheit, die konfiguriert ist, um Kontakte zu empfangen; ein oder mehrere Sensoreinheiten, die konfiguriert sind, um die Intensität von Kontakten mit der berührungsempfindlichen Oberflächeneinheit zu erfassen; und eine Verarbeitungseinheit, die mit einer Anzeigeeinheit, der berührungsempfindlichen Oberflächeneinheit und den Sensoreinheiten verbunden ist, wobei die Verarbeitungseinheit konfiguriert ist um: Erfassen eines Kontakts mit der berührungsempfindlichen Oberflächeneinheit, wobei der Kontakt mit einem Fokus-Selektor verbunden ist, der Bewegung eines entsprechenden Benutzerschnittstellenobjekts, das derzeit ausgewählt ist; steuert und während eines kontinuierlich Erfassens des Kontakts auf der berührungsempfindlichen Oberflächeneinheit: Erfassen einer ersten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit entsprechend Bewegung des Fokus-Selektors in Richtung einer entsprechenden Stelle; als Reaktion auf das Erfassen der ersten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit: Bewegen des Fokus-Selektors auf der Anzeigeeinheit in Übereinstimmung mit der ersten Bewegung des Kontakts und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit der Bewegung des Fokus-Selektors; und Bestimmen einer Intensität des Kontakts auf der berührungsempfindlichen Oberflächeneinheit während der Fokus-Selektor an der jeweiligen Stelle auf der Anzeigeeinheit ist; Erfassen einer zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit, welche Bewegung des Fokus-Selektors weg von der jeweiligen Stelle entspricht; und als Reaktion auf das Erfassen der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit: in Übereinstimmung mit einer Bestimmung, dass der Kontakt entsprechende Intensitätskriterien erfüllt, Bewegen des Fokus-Selektors und des Benutzerschnittstellenobjekts in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit; und in Übereinstimmung mit einer Bestimmung, dass der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, Bewegen des Fokus-Selektors in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit, ohne das Benutzerschnittstellenobjekt zu bewegen.
  22. Elektronische Vorrichtung nach Anspruch 21, wobei: Bewegung eines entsprechenden Benutzerschnittstellenobjekts ist auf einen vordefinierten Pfad in der Benutzerschnittstelle begrenzt; und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit Bewegung des Fokus-Selektors, beinhaltet ein Bewegen des entsprechenden Benutzerschnittstellenobjekts entlang des vordefinierten Pfads in Übereinstimmung mit einer Bewegungskomponente des Fokus-Selektors, die einer zulässigen Bewegungsrichtung entlang des vordefinierten Pfads entspricht.
  23. Elektronische Vorrichtung nach Anspruch 21, wobei: das entsprechende Benutzerschnittstellenobjekt einen zweidimensionalen Bewegungsbereich hat; und Bewegen des entsprechenden Benutzerschnittstellenobjekts in Übereinstimmung mit Bewegung des Fokus-Selektors beinhaltet ein Bewegen des entsprechenden Benutzerschnittstellenobjekts zu einer Stelle an oder neben dem Fokus-Selektor auf der Anzeigeeinheit.
  24. Elektronische Vorrichtung nach einem der Ansprüche 21–23, wobei: die entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle umfassen; und der Kontakt die entsprechenden Intensitätskriterien erfüllt, wenn die Intensität des Kontakts über der entsprechenden Intensitätsschwelle ist.
  25. Elektronische Vorrichtung nach einem der Ansprüche 21–24, wobei: die entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle umfassen; und der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, wenn die Intensität des Kontakts unter der entsprechenden Intensitätsschwelle ist.
  26. Elektronische Vorrichtung nach einem der Ansprüche 21–24, wobei: die entsprechende Intensitätskriterien eine entsprechende Intensitätsschwelle umfassen; und der Kontakt die entsprechenden Intensitätskriterien nicht erfüllt, wenn die Intensität des Kontakts unterhalb der entsprechende Intensitätsschwelle länger als eine vorgegebene Zeitspanne ist.
  27. Elektronische Vorrichtung nach einem der Ansprüche 24–26, wobei die entsprechende Intensitätsschwelle eine vordefinierte Intensitätsschwelle ist.
  28. Elektronische Vorrichtung nach einem der Ansprüche 24–26, wobei die entsprechende Intensitätsschwelle auf einem Prozentsatz einer maximalen Intensität des Kontakts, der während der Geste erfasst wird, basiert.
  29. Elektronische Vorrichtung nach einem der Ansprüche 24–26, wobei die entsprechende Intensitätsschwelle einer Intensitätsmessung entspricht, die größer als eine nominale Intensitätsmessung ist, die angibt, dass der Kontakt in Kontakt mit der berührungsempfindlichen Oberflächeneinheit ist.
  30. Die elektronische Vorrichtung nach einem der Ansprüche 21–29, wobei die Verarbeitungseinheit konfiguriert ist zum: während das entsprechenden Benutzerschnittstellenobjekt in Übereinstimmung mit der zweiten Bewegung des Kontakts über die berührungsempfindliche Oberflächeneinheit bewegt wird, Erfassen eines Abhebens des Kontakts von der berührungsempfindlichen Oberflächeneinheit; und in Reaktion auf das Erfassen des Abhebens, Aufhören das entsprechende Benutzerschnittstellenobjekt auf der Anzeigeeinheit in Übereinstimmung mit der zweiten Bewegung des Kontakts zu bewegen.
  31. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige, wobei die Vorrichtung einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, beinhaltet: Anzeigen eines Inhaltsfelds auf der Anzeige; Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht; während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer Druck-Eingabe, die eine Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfelds ist; in Reaktion auf das Erfassen der Druck-Eingabe, ein Anzeigen eines Inhaltsmenüs, das Darstellungen einer Vielzahl von Optionen, die Inhaltselementen entsprechen, beinhaltet; während der Anzeige des Inhaltsmenüs, ein Erfassen einer Bewegung des Kontakts, welche Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht; und in Reaktion auf den Fokus-Selektor, der sich über der Darstellung des ersten Inhaltselements im Inhaltsmenü befindet, Anzeigen einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Erfassen einer Bestätigungseingabe während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und in Reaktion auf das Erfassen der Bestätigungseingabe, Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  32. Verfahren nach Anspruch 31, wobei die Druck-Eingabe, die Bewegung des Kontakts und die Bestätigungseingabe mit einem einzelnen kontinuierlichen Kontakt durchgeführt werden.
  33. Verfahren nach einem der Ansprüche 31–32, wobei das Erfassen der Bestätigungseingabe, ein Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberfläche beinhaltet.
  34. Verfahren nach einem der Ansprüche 31–33, wobei das Erfassen der Bestätigungseingabe, ein Erfassen einer Erhöhung der Intensität des Kontakts über eine Einführungsintensitätsschwelle beinhaltet, während der Fokus-Selektor über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist.
  35. Verfahren nach einem der Ansprüche 31–34, wobei, während eines kontinuierlichen Erfassens des Kontakts, nach dem Erfassen der ersten Druck-Eingabe und vor dem Erfassen einer Bewegung des Kontakts, die einer Bewegung des Fokus-Selektors über die Darstellung des ersten Inhaltselements im Inhaltsmenü entspricht, umfasst: Erfassen einer Bewegung des Kontakts, die einer Bewegung des Fokus-Selektors über eine oder mehrere andere Darstellungen von entsprechenden anderen Inhaltselementen neben dem ersten Inhaltselement entspricht; und in Reaktion auf ein Erfassen einer Bewegung des Kontakts, die einer Bewegung des Fokus-Selektors über eine Darstellungen von einem der anderen Inhaltselementen entspricht, Anzeigen einer Vorschau des entsprechenden anderen Inhaltselements in dem Inhaltsfeld
  36. Verfahren nach einem der Ansprüche 31–35, wobei: die Inhaltselemente Bilder sind; und das Inhaltsfeld ein Bildrahmen in einer Anwendung für elektronische Dokumentbearbeitung ist.
  37. Verfahren nach einem der Ansprüche 31–35, wobei: die Inhaltselemente elektronische Nachrichten sind; und das Inhaltsfeld ein Lesebereich in einer Anwendung für elektronische Nachrichten ist.
  38. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme, Anweisungen beinhalten zum: Anzeigen eines Inhaltsfelds auf der Anzeige; Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht; während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer Druck-Eingabe, die einer Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle umfasst, während der Fokus-Selektor über dem Inhaltfeld ist; in Reaktion auf das Erfassen der Druck-Eingabe, Anzeigen eines Inhaltsmenüs, das Darstellungen einer Vielzahl von Optionen, die Inhaltselementen entsprechen, beinhaltet; während der Anzeige des Inhaltsmenüs, Erfassen einer Bewegung des Kontakts, welche Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht; und in Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, Zeigen einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Erfassen einer Bestätigungseingabe während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über die Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und in Reaktion auf das Erfassen der Bestätigungseingabe, Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  39. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder mehrere Programme, die Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit dem Kontakt mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung verursachen zum: Zeigen ein Inhaltsfeld auf der Anzeige; Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf dem Anzeige entspricht; während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberfläche: Erfassen einer Druck-Eingabe, die eine Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist; als Reaktion auf das Erfassen der Druck-Eingabe, Anzeigen eines Inhaltsmenüs, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet; während der Anzeige des Inhaltsmenüs, Erfassen der Bewegung des Kontakts, der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselement im Inhaltsmenü entspricht; und als Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, Zeigen einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Erkennen einer Bestätigungseingabe, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und als Reaktion auf das Erfassen der Bestätigungseingabe, Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  40. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, die ein oder mehrere Programme, die in dem Speicher gespeichert sind, ausführen, wobei die graphische Benutzerschnittstelle umfasst: ein Inhaltsfeld auf der Anzeige; wobei: während eines kontinuierlichen Erfassens eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht: in Reaktion auf das Erfassen einer Druck-Eingabe, die eine Erhöhung der Intensität des Kontakts über einer entsprechenden Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist, wird ein Inhaltsmenü, das Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet, angezeigt; während der Anzeige des Inhaltsmenüs, wird die Bewegung des Kontakts, welcher Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht, erfasst; und als Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, wird eine Vorschau des ersten Inhaltselements in dem Inhaltsfeld angezeigt; und als Reaktion auf das Erfassen einer Bestätigungseingabe während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, wird das erste Inhaltselement in das Inhaltsfeld eingefügt.
  41. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Anzeigen eines Inhaltsfelds auf der Anzeige; Mittel zum Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht; Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindliche Oberfläche kontinuierlich erfasst wird, Erfassen einer Druck-Eingabe, die eine Zunahme in der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist; Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindliche Oberfläche kontinuierlich erfasst wird, Anzeigen, in Reaktion auf das Erfassen der Druck-Eingabe, eines Inhaltsmenüs, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet; Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindlichen Oberfläche kontinuierlich erfasst wird, und während der Anzeige des Inhaltsmenüs, Erfassen der Bewegung des Kontakts, die der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht; und Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindlichen Oberfläche kontinuierlich erfasst wird und reagierend auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, Anzeigen einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Mittel zum Erfassen einer Bestätigungseingabe, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und Mittel, die auf das Erfassen der Bestätigungseingabe reagieren, zum Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  42. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Anzeigen eines Inhaltsfelds auf der Anzeige; Mittel zum Erfassen eines Kontakts auf der berührungsempfindlichen Oberfläche, wobei der Kontakt einem Fokus-Selektor auf der Anzeige entspricht; Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindlichen Oberfläche kontinuierlich erfasst wird, Erfassen eine Druck-Eingabe, die eine Zunahme in der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist; Mittel, betriebsbereit zum, während der Kontakt über die berührungsempfindliche Oberfläche kontinuierlich erfasst wird, Anzeigen, in Reaktion auf das Erfassen der Druck-Eingabe, eines Inhaltsmenüs, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet; Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindlichen Oberfläche kontinuierlich erfasst wird, und während das Inhaltsmenüs angezeigt wird, Erfassen der Bewegung des Kontakts, die der Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht; und Mittel, betriebsbereit zum, während der Kontakt auf der berührungsempfindlichen Oberfläche kontinuierlich erfasst wird und reagierend auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist, Anzeigen eine Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Mittel zum Erfassen einer Bestätigungseingabe während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und Mittel, die auf das Erfassen der Bestätigungseingabe reagieren, zum Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  43. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehreren Programme, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder mehrere Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme, Anweisungen zum Ausführen jedes der Verfahren der Ansprüche 31–37 beinhalten.
  44. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder mehrere Programme Anweisungen, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung veranlassen jedes der Verfahren der Ansprüche 31–37 auszuführen.
  45. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind auszuführen, wobei die graphische Benutzerschnittstelle, die Benutzerschnittstellen, die in Übereinstimmung mit jedem der Verfahren der Ansprüche 31–37, angezeigt werden, umfasst.
  46. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Ausführen jedes der Verfahren der Ansprüche 31–37.
  47. Informationsverarbeitungsvorrichtung zur Verwendung in einem elektronischen Gerät mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Ausführen jedes der Verfahren der Ansprüche 31–37.
  48. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist, um ein Inhaltsfeld anzuzeigen; eine berührungsempfindliche Oberflächeneinheit, die konfiguriert ist, um Benutzereingaben zu empfangen; ein oder mehrere Sensoreinheiten, die konfiguriert sind, um die Intensität von Kontakten mit der berührungsempfindlichen Oberflächeneinheit zu erfassen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindliche Oberflächeneinheit und den Sensoreinheiten gekoppelt ist, wobei die Verarbeitungseinheit konfiguriert ist zum: Erfassen eines Kontakts auf der berührungsempfindlichen Oberflächeneinheit, wobei der Kontakt einem Fokus-Selektor auf der Anzeigeeinheit entspricht; während eines kontinuierlichen Erfassens des Kontakts auf der berührungsempfindlichen Oberflächeneinheit: Erfassen einer Druck-Eingabe, die eine Erhöhung der Intensität des Kontakts über eine entsprechende Intensitätsschwelle beinhaltet, während der Fokus-Selektor über dem Inhaltsfeld ist; in Reaktion auf das Erfassen der Druck-Eingabe, Ermöglichen einer Anzeige eines Inhaltsmenüs, das die Darstellungen einer Vielzahl von Optionen, die den Inhaltselementen entsprechen, beinhaltet; während der Anzeige des Inhaltsmenüs, Erfassen der Bewegung des Kontakts, welche Bewegung des Fokus-Selektors über eine Darstellung eines ersten Inhaltselements im Inhaltsmenü entspricht; und in Reaktion auf den Fokus-Selektor, der über der Darstellung des ersten Inhaltselement im Inhaltsmenü ist, Aktivieren einer Anzeige einer Vorschau des ersten Inhaltselements in dem Inhaltsfeld; Erkennen einer Bestätigungseingabe, während der Fokus-Selektor, der mit dem Kontakt verbunden ist, über der Darstellung des ersten Inhaltselements im Inhaltsmenü ist; und in Reaktion auf das Erfassen der Bestätigungseingabe, Einfügen des ersten Inhaltselements in das Inhaltsfeld.
  49. Elektronische Vorrichtung nach Anspruch 48, wobei die Druck-Eingabe, die Bewegung des Kontakts und die Bestätigungseingabe mit einem einzelnen kontinuierlichen Kontakt durchgeführt werden.
  50. Elektronische Vorrichtung nach einem der Ansprüche 48–49, wobei das Erfassen der Bestätigungseingabe, ein Erfassen des Abhebens des Kontakts von der berührungsempfindlichen Oberflächeneinheit beinhaltet.
  51. Elektronische Vorrichtung nach einem der Ansprüche 48–50, wobei das Erkennen der Bestätigungseingabe, ein Erfassen einer Erhöhung der Intensität des Kontakts über eine Einführungs-Intensitätsschwelle beinhaltet, während der Fokus-Selektor über der Darstellung des ersten Inhaltselements in dem Inhaltsmenü ist.
  52. Elektronische Vorrichtung nach einem der Ansprüche 48–51, wobei die Verarbeitungseinheit ferner konfiguriert ist, während eines kontinuierlichen Erfassens des Kontakts, nach dem Erkennen der ersten Druck-Eingabe und vor dem Erfassen einer Bewegung des Kontakts, welche Bewegung des Fokus-Selektors über der Darstellung des ersten Inhaltselement im Inhaltsmenü entspricht zum: Erfassen der Bewegung des Kontakts, welche Bewegung des Fokus-Selektor über eine oder mehrere andere Darstellungen der entsprechenden anderen Inhaltselementen neben dem ersten Inhaltselement entspricht; und in Reaktion auf das Erfassen der Bewegung des Kontakts, welche Bewegung des Fokus-Selektors über eine Darstellung eines der anderen Inhaltselemente entspricht, Aktivieren einer Anzeige einer Vorschau des entsprechenden anderen Inhaltselements in dem Inhaltsfeld.
  53. Elektronische Vorrichtung nach einem der Ansprüche 48–52, wobei: die Inhaltselemente Bilder sind; und das Inhaltsfeld ein Bildrahmen in einer Anwendung für elektronische Dokumentbearbeitung ist.
  54. Elektronische Vorrichtung nach einem der Ansprüche 48–52, wobei: die Inhaltselemente elektronische Nachrichten sind; und das Inhaltsfeld ein Lesebereich in einer Anwendung für elektronische Nachrichten ist.
  55. Verfahren, umfassend: bei einer elektronischen Vorrichtung mit einer berührungsempfindlichen Oberfläche und einer Anzeige, wobei die Vorrichtung einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, beinhaltet: eine Anzeige, auf der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei: Erfassen der Sequenz von Eingängen, beinhaltet ein Erfassen von Änderungen der Eigenschaften eines jeweiligen Kontakts, der kontinuierlich auf der berührungsempfindlichen Oberfläche, während der Sequenz von Eingaben erfasst wird; die Sequenz von Eingaben beinhaltet eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet das Erfassen einer Erhöhung in der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitend; und in Übereinstimmung mit einer Bestimmung, dass der erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus, der sich vom ersten Betriebsmodus unterscheidet, während der zweite Eingabe, arbeitend; und in Reaktion auf das Erfassen der zweiten Eingabe, Durchführen einer Operation in Übereinstimmung mit der zweiten Eingabe, die zumindest zum Teil darauf basiert, ob die Vorrichtung in dem ersten Betriebsmodus oder dem zweiten Betriebsmodus arbeitet.
  56. Verfahren nach Anspruch 55, wobei die erste Eingabe eine stationäre Druck-Eingabe ist.
  57. Verfahren nach einem der Ansprüche 55–56, wobei der zweite Betriebsmodus ein kontakt-intensitäts-unabhängiger Betriebsmodus ist.
  58. Verfahren nach einem der Ansprüche 55–57, umfassend, während im ersten Betriebsmodus arbeitend: Beginnen eine erste Operation entsprechend der zweiten Eingabe durchzuführen; Erfassen einer Abnahme der Intensität des Kontakts unter eine entsprechende Intensitätsschwelle; und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unter die entsprechende Intensitätsschwelle, während im ersten Betriebsmodus arbeitend, Aufhören mit einer Durchführung der ersten Operation.
  59. Verfahren nach Anspruch 58, umfassend, während in dem zweiten Betriebsmodus: Beginnen eine zweite Operation, die der zweiten Eingabe entspricht, durchzuführen; Erfassen einer Abnahme der Intensität des Kontakts unter die entsprechende Intensitätsschwelle; und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unter die entsprechende Intensitätsschwelle, während in dem zweiten Betriebsmodus arbeitend, weiterhin die zweite Operation durchzuführen.
  60. Verfahren nach einem der Ansprüche 55–59, wobei: in dem ersten Betriebsmodus, die zweite Eingabe einer ersten Operation entspricht; und in dem zweiten Betriebsmodus, die zweite Eingabe einer zweiten Operation, die unterschiedlich von der ersten Operation ist, entspricht.
  61. Verfahren nach Anspruch 60, wobei: die erste Operation ein Scrollen eines elektronischen Dokuments beinhaltet; und die zweite Operation das Selektieren von Inhalten in dem elektronischen Dokument beinhaltet.
  62. Verfahren nach Anspruch 60, wobei: die erste Operation das Bewegen eines Benutzerschnittstellenobjekts in einer Benutzerschnittstelle beinhaltet; und die zweite Operation das Selektieren einer Mehrzahl von Benutzerschnittstellenobjekten in der Benutzeroberfläche beinhaltet.
  63. Verfahren nach einem der Ansprüche 55–62, beinhaltet: in Reaktion auf das Erfassen der ersten Eingabe, ein Beginnen einer Durchführung einer jeweiligen Operation; und in Reaktion auf das Erfassen der zweiten Eingabe, weiterhin Durchführen der jeweiligen Operation.
  64. Verfahren nach einem der Ansprüche 55–63, beinhaltet: Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts oberhalb einer ersten Intensitätsschwelle, während ein Fokus-Selektor, der dem Kontakt entspricht, an oder nahe an einem entsprechenden Benutzerschnittstellenobjekt ist; in Reaktion auf das Erfassen der Erhöhung der Intensität des jeweiligen Kontakts oberhalb der ersten Intensitätsschwelle, Erzeugen einer taktilen Ausgabe auf der berührungsempfindlichen Oberfläche, die der Auswahl des entsprechenden Benutzerschnittstellenobjekts entspricht; und nachdem Erfassen der Erhöhung der Intensität des jeweiligen Kontakts oberhalb der ersten Intensitätsschwelle: Erfassen einer Abnahme der Intensität des jeweiligen Kontakts unter eine zweite Intensitätsschwelle, während der Fokus-Selektor an oder nahe an dem entsprechenden Benutzerschnittstellenobjekt ist; und in Reaktion auf das Erfassen der Abnahme der Intensität des jeweiligen Kontakts unter die zweite Intensitätsschwelle: in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in dem ersten Betriebsmodus ist, Abwahl des entsprechenden Benutzerschnittstellenobjekts und ein Erzeugen einer taktilen Ausgabe entsprechend einer Abwahl des entsprechenden Benutzerschnittstellenobjekts; und in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in dem zweiten Betriebsmodus ist, Aufrechterhaltung der Auswahl des entsprechenden Benutzerschnittstellenobjekts und ein Verzicht auf die Erzeugung der taktilen Ausgabe entsprechend einer Abwahl des entsprechenden Benutzerschnittstellenobjekts.
  65. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programmen, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme Anweisungen beinhalten zum: Anzeigen, auf der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberfläche, während der Sequenz der Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet ein Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet ein Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität der jeweiligen Kontakt über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitend; und in Übereinstimmung mit einer Bestimmung, dass der erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle, in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweite Eingabe arbeitend; und in Reaktion auf das Erfassen der zweiten Eingabe, eine Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet.
  66. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder mehrere Programme Anweisungen beinhaltet, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung veranlassen zum: Anzeigen, auf der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberfläche, während der Sequenz der Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine ersten Eingabe und eine zweiten Eingabe; die erste Eingabe beinhaltet ein Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet ein Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitend; und in Übereinstimmung mit einer Bestimmung, dass der erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweite Eingabe, arbeitend; und in Reaktion auf das Erfassen der zweiten Eingabe, Durchführen einer Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet.
  67. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einem Speicher und einem oder mehreren Prozessoren, um ein oder mehrere Programme auszuführen, die in dem Speicher gespeichert sind, wobei die graphische Benutzerschnittstelle umfasst: eine Benutzerschnittstelle für die elektronische Vorrichtung; wobei: eine Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche erfasst wird, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberfläche, während der Sequenz der Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet das Erfassen einer Erhöhung in der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, wobei die elektronische Vorrichtung in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitet; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, wobei die elektronische Vorrichtung in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweite Eingabe, arbeitet; und in Reaktion auf das Erfassen der zweiten Eingabe wird eine Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest teilweise darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet, durchgeführt.
  68. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Anzeigen, auf der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; Mittel zum Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberfläche, während der Sequenz der Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet das Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; Mittel, reagierend auf das Erfassen der ersten Eingabe, umfassend: Mittel zum, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweite Eingabe, arbeitend; und Mittel zum, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe das Erhöhen der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweite Eingabe, arbeitend; und Mittel, reagierend auf das Erfassen der zweiten Eingabe, zum Ausführen einer Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet.
  69. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Anzeigen, auf der Anzeige, einer Benutzerschnittstelle für die elektronische Vorrichtung; Mittel zum Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberfläche, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberfläche, während der Sequenz der Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet das Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberfläche; Mittel, reagierend auf das Erfassen der ersten Eingabe, beinhaltend: Mittel zum, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität der jeweiligen Kontakt über einen Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitend; und Mittel zum, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe das Erhöhen der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweiten Eingabe, arbeitend; und Mittel, reagierend auf das Erfassen der zweiten Eingabe, zum Durchführen einer Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder in dem zweiten Betriebsmodus arbeitet.
  70. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder mehrere Programme im Speicher gespeichert sind und konfiguriert sind, um durch den einen oder mehrere Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme Anweisungen zum Ausführen jedes der Verfahren der Ansprüche 55–64 beinhalten.
  71. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, wobei das eine oder mehrere Programme Anweisungen beinhalten, die, wenn sie durch eine elektronische Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, ausgeführt werden, die Vorrichtung veranlassen jedes der Verfahren der Ansprüche 55–64 auszuführen.
  72. Eine graphische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, eine berührungsempfindliche Oberfläche, einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, einen Speicher und einen oder mehrere Prozessoren, um ein oder mehrere Programme, die in dem Speicher gespeichert sind, auszuführen, wobei die graphische Benutzerschnittstelle Benutzerschnittstellen, die in Übereinstimmung mit jedem der Verfahren der Ansprüche 55–64 angezeigt werden, umfasst.
  73. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen; und Mittel zum Ausführen jedes der Verfahren der Ansprüche 55–64.
  74. Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche und einem oder mehreren Sensoren, um die Intensität von Kontakten mit der berührungsempfindlichen Oberfläche zu erfassen, umfassend: Mittel zum Ausführen jedes der Verfahren der Ansprüche 55–64.
  75. Elektronische Vorrichtung, umfassend: eine Anzeigeeinheit, die konfiguriert ist, um eine Benutzerschnittstelle für die elektronische Vorrichtung anzuzeigen; eine berührungsempfindliche Oberflächeneinheit, die konfiguriert ist, um Eingaben zu empfangen; einen oder mehrere Sensoren, die konfiguriert sind, um die Intensität von Kontakten mit der berührungsempfindlichen Oberflächeneinheit zu erfassen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit, der berührungsempfindliche Oberflächeneinheit und den Sensoren verbunden ist, wobei die Verarbeitungseinheit konfiguriert ist zum: Erfassen einer Sequenz von Eingaben auf der berührungsempfindlichen Oberflächeneinheit, wobei: Erfassen der Sequenz von Eingaben beinhaltet Erfassen von Änderungen in den Eigenschaften eines jeweiligen Kontakts, der auf der berührungsempfindlichen Oberflächeneinheit, während der Sequenz von Eingaben, kontinuierlich erfasst wird; die Sequenz von Eingaben umfasst eine erste Eingabe und eine zweite Eingabe; die erste Eingabe beinhaltet das Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts; und die zweite Eingabe beinhaltet das Erfassen der Bewegung des jeweiligen Kontakts auf der berührungsempfindlichen Oberflächeneinheit; in Reaktion auf das Erfassen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nicht die Erhöhung der Intensität des jeweiligen Kontakts über eine Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem ersten Betriebsmodus, während der zweiten Eingabe, arbeitend; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe die Erhöhung der Intensität des jeweiligen Kontakts über die Modus-Auswahl-Intensitätsschwelle beinhaltet, in einem zweiten Betriebsmodus, der sich von dem ersten Betriebsmodus unterscheidet, während der zweite Eingabe, arbeitend; und in Reaktion auf das Erfassen der zweiten Eingabe, Durchführen einer Operation in Übereinstimmung mit der zweiten Eingabe basierend zumindest zum Teil darauf, ob die Vorrichtung in dem ersten Betriebsmodus oder dem zweiten Betriebsmodus arbeitet.
  76. Elektronische Vorrichtung nach Anspruch 75, wobei die erste Eingabe eine stationäre Druck-Eingabe ist.
  77. Elektronische Vorrichtung nach einem der Ansprüche 75–76, wobei der zweite Betriebsmodus ein kontakt-intensitäts-unabhängiger Betriebsmodus ist.
  78. Elektronische Vorrichtung nach einem der Ansprüche 75–77, wobei die Verarbeitungseinheit konfiguriert ist, während in dem ersten Betriebsmodus, um: Beginnen, eine erste Operation, entsprechend der zweiten Eingabe durchzuführen; Erfassen eine Abnahme der Intensität des Kontakts unter eine entsprechende Intensitätsschwelle; und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unter die jeweilige Intensitätsschwelle, während im ersten Betriebsmodus, Aufhören die erste Operation auszuführen.
  79. Elektronische Vorrichtung nach Anspruch 78, wobei die Verarbeitungseinheit konfiguriert ist, während in dem zweiten Betriebsmodus, um: Beginnen einer zweite Operation, entsprechend der zweiten Eingabe durchzuführen; Erfassen einer Abnahme der Intensität des Kontakts unter die jeweilige Intensitätsschwelle; und in Reaktion auf das Erfassen der Abnahme der Intensität des Kontakts unter die jeweilige Intensitätsschwelle, während in dem zweiten Betriebsmodus, weiterhin Durchführen der zweiten Operation.
  80. Elektronische Vorrichtung nach einem der Ansprüche 75–79, wobei: in dem ersten Betriebsmodus, die zweite Eingabe einer ersten Operation entspricht; und in dem zweiten Betriebsmodus die zweiten Eingabe einer zweiten Operation entspricht, die unterschiedlich von der ersten Operation ist.
  81. Elektronische Vorrichtung nach Anspruch 80, wobei: die erste Operation Scrollen eines elektronischen Dokuments beinhaltet; und die zweite Operation das Auswählen von Inhalten in dem elektronischen Dokument beinhaltet.
  82. Elektronische Vorrichtung nach Anspruch 80, wobei: die erste Operation das Bewegen eines Benutzerschnittstellenobjekts in einer Benutzerschnittstelle beinhaltet; und die zweite Operation das Auswählen einer Mehrzahl von Benutzerschnittstellenobjekten in der Benutzeroberfläche beinhaltet.
  83. Elektronische Vorrichtung nach einem der Ansprüche 75–82, wobei die Verarbeitungseinheit konfiguriert ist zum: in Reaktion auf das Erfassen der ersten Eingabe, Beginnen eine entsprechende Operation durchzuführen; und in Reaktion auf das Erfassen der zweiten Eingabe, weiterhin Durchführen der entsprechenden Operation.
  84. Elektronische Vorrichtung nach einem der Ansprüche 75–83, wobei die Verarbeitungseinheit konfiguriert ist zum: Erfassen einer Erhöhung der Intensität des jeweiligen Kontakts oberhalb einer ersten Intensitätsschwelle, während ein Fokus-Selektor, der dem Kontakt entspricht, an oder nahe an einem entsprechenden Benutzerschnittstellenobjekt ist; in Reaktion auf das Erfassen der Erhöhung der Intensität des jeweiligen Kontakts oberhalb der ersten Intensitätsschwelle, erzeugen einer taktile Ausgabe auf der berührungsempfindlichen Oberflächeneinheit, die der Auswahl des entsprechenden Benutzerschnittstellenobjekts entspricht; und nach Erfassen der Erhöhung der Intensität des jeweiligen Kontakts oberhalb der ersten Intensitätsschwelle: Erfassen eine Abnahme der Intensität des jeweiligen Kontakts unter eine zweite Intensitätsschwelle, während der Fokus-Selektor an oder nahe an dem entsprechenden Benutzerschnittstellenobjekt ist; und in Reaktion auf das Erfassen der Abnahme der Intensität des jeweiligen Kontakts unter die zweite Intensitätsschwelle: in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in dem ersten Betriebsmodus ist, Deaktivieren des entsprechenden Benutzerschnittstellenobjekts und Erzeugen einer taktilen Ausgabe entsprechend der Abwahl des entsprechenden Benutzerschnittstellenobjekts; und in Übereinstimmung mit der Bestimmung, dass die Vorrichtung in dem zweiten Betriebsmodus ist, Erhalten der Auswahl des entsprechenden Benutzerschnittstellenobjekts und Verzichten auf eine Erzeugung der taktilen Ausgabe entsprechend der Abwahl des entsprechenden Benutzerschnittstellenobjekts.
DE112013002381.4T 2012-05-09 2013-05-08 Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts Pending DE112013002381T5 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US201261688227P true 2012-05-09 2012-05-09
US61/688,227 2012-05-09
US201261747278P true 2012-12-29 2012-12-29
US61/747,278 2012-12-29
US201361778414P true 2013-03-13 2013-03-13
US61/778,414 2013-03-13
PCT/US2013/040108 WO2013169882A2 (en) 2012-05-09 2013-05-08 Device, method, and graphical user interface for moving and dropping a user interface object

Publications (1)

Publication Number Publication Date
DE112013002381T5 true DE112013002381T5 (de) 2015-02-26

Family

ID=48468823

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112013002381.4T Pending DE112013002381T5 (de) 2012-05-09 2013-05-08 Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts

Country Status (8)

Country Link
US (2) US10042542B2 (de)
EP (2) EP3264252B1 (de)
JP (2) JP2015519656A (de)
CN (3) CN108052264B (de)
AU (4) AU2013259642A1 (de)
DE (1) DE112013002381T5 (de)
HK (2) HK1207174A1 (de)
WO (1) WO2013169882A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110430472A (zh) * 2019-08-12 2019-11-08 浙江岩华文化传媒有限公司 页面控制方法、装置和设备

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US10304347B2 (en) 2012-05-09 2019-05-28 Apple Inc. Exercised-based watch face and complications
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
CN108052264B (zh) 2012-05-09 2021-04-27 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
AU2013259614B2 (en) 2012-05-09 2016-08-25 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9804759B2 (en) 2012-05-09 2017-10-31 Apple Inc. Context-specific user interfaces
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN108897420A (zh) 2012-05-09 2018-11-27 苹果公司 用于响应于手势在显示状态之间过渡的设备、方法和图形用户界面
KR101806350B1 (ko) 2012-05-09 2017-12-07 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169846A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US9547425B2 (en) 2012-05-09 2017-01-17 Apple Inc. Context-specific user interfaces
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10613743B2 (en) 2012-05-09 2020-04-07 Apple Inc. User interface for receiving user input
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
EP2939096B1 (de) 2012-12-29 2019-08-28 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur entscheidung über das scrollen oder auswählen von bildschirminhalten
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR101755029B1 (ko) 2012-12-29 2017-07-06 애플 인크. 다중 접촉 제스처에 대한 촉각적 출력의 발생을 보류하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
CN104903834B (zh) 2012-12-29 2019-07-05 苹果公司 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面
CN105264479B (zh) 2012-12-29 2018-12-25 苹果公司 用于对用户界面分级结构进行导航的设备、方法和图形用户界面
USD916721S1 (en) * 2014-06-27 2021-04-20 Cynthia Fascenelli Kirkeby Display screen or portion thereof with animated graphical user interface
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
CN106030624A (zh) * 2013-12-06 2016-10-12 邓白氏公司 用于经由移动和地理位置通信收集关于企业的数据的方法和系统
JP5924555B2 (ja) * 2014-01-06 2016-05-25 コニカミノルタ株式会社 オブジェクトの停止位置制御方法、操作表示装置およびプログラム
AU2015100490C4 (en) 2014-05-30 2017-04-13 Apple Inc. Continuity
WO2015200890A2 (en) 2014-06-27 2015-12-30 Apple Inc. Reduced size user interface
DE202015005394U1 (de) * 2014-08-02 2015-12-08 Apple Inc. Kontextspezifische Benutzerschnittstellen
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
WO2016036481A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
WO2016036541A2 (en) 2014-09-02 2016-03-10 Apple Inc. Phone user interface
JP6538825B2 (ja) 2014-09-02 2019-07-03 アップル インコーポレイテッドApple Inc. 可変触覚出力のための意味論的フレームワーク
US9883007B2 (en) * 2015-01-20 2018-01-30 Microsoft Technology Licensing, Llc Downloading an application to an apparatus
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
WO2016144385A1 (en) 2015-03-08 2016-09-15 Apple Inc. Sharing user-configurable graphical constructs
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9639184B2 (en) * 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) * 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10126847B2 (en) * 2015-06-07 2018-11-13 Apple Inc. Devices and methods for processing touch inputs
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
USD767614S1 (en) * 2015-08-23 2016-09-27 Jeremy Christopher Southgate Communications terminal display with graphical user interface
CN105224187A (zh) * 2015-09-23 2016-01-06 北京金山安全软件有限公司 一种菜单执行的控制方法及终端设备
CN105898480A (zh) * 2015-11-24 2016-08-24 乐视网信息技术(北京)股份有限公司 用于多媒体预览的方法、装置及移动终端设备
US10635299B2 (en) * 2016-06-10 2020-04-28 Apple Inc. Device, method, and graphical user interface for manipulating windows in split screen mode
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK179657B1 (da) 2016-06-12 2019-03-13 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
KR20180017852A (ko) * 2016-08-11 2018-02-21 주식회사 하이딥 터치 입력 장치의 압력 터치 방법
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
KR20180032970A (ko) 2016-09-23 2018-04-02 삼성전자주식회사 전자 장치 및 그 제어 방법
KR20180046037A (ko) 2016-10-27 2018-05-08 삼성전자주식회사 터치의 압력 입력에 응답하여 정보를 제공하는 전자 장치 및 방법
DK179412B1 (en) 2017-05-12 2018-06-06 Apple Inc Context-Specific User Interfaces
DK201870346A1 (en) 2018-01-24 2019-09-12 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
WO2019147699A2 (en) * 2018-01-24 2019-08-01 Apple, Inc. Devices, methods, and graphical user interfaces for system-wide behavior for 3d models
CN108803986A (zh) * 2018-05-07 2018-11-13 瑞声科技(新加坡)有限公司 一种移动终端虚拟按键的调整方法及装置
US10955956B2 (en) 2018-05-07 2021-03-23 Apple Inc. Devices, methods, and graphical user interfaces for interaction with an intensity-sensitive input region
JP2020077181A (ja) * 2018-11-07 2020-05-21 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム
US20200356063A1 (en) 2019-05-06 2020-11-12 Apple Inc. Clock faces for an electronic device
DK201970599A1 (en) 2019-09-09 2021-05-17 Apple Inc Techniques for managing display usage
US11061372B1 (en) 2020-05-11 2021-07-13 Apple Inc. User interfaces related to time

Family Cites Families (1324)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58182746A (en) 1982-04-20 1983-10-25 Fujitsu Ltd Touch type input device
JPH0550030B2 (de) 1983-09-30 1993-07-27 Ryozo Setoguchi
US4903201A (en) 1983-11-03 1990-02-20 World Energy Exchange Corporation Automated futures trading exchange
US5270922A (en) 1984-06-29 1993-12-14 Merrill Lynch & Company, Inc. System for distributing, processing and displaying financial information
US4674044A (en) 1985-01-30 1987-06-16 Merrill Lynch, Pierce, Fenner & Smith, Inc. Automated securities trading system
US4750135A (en) 1986-05-01 1988-06-07 Reuters Limited Method for dynamically creating a receiver definable local trading instrument displayable record from a remotely transmitted trading instrument common data stream
US5038284A (en) 1988-02-17 1991-08-06 Kramer Robert M Method and apparatus relating to conducting trading transactions with portable trading stations
EP0394379B1 (de) 1988-05-27 1998-01-07 Kodak Limited Dokumentenmappen-abbild zur anzeige in einem datenverarbeitungssystem
EP0388162A3 (de) 1989-03-14 1993-03-03 Chicago Board Of Trade Apparat für finanzielle Transaktionen
AU5281590A (en) 1989-03-14 1990-10-09 Chicago Board Of Trade Simulated pit trading system
CA2029871A1 (en) 1989-03-28 1990-09-29 Glen W. Belden Method and apparatus for market trading
US5077665A (en) 1989-05-25 1991-12-31 Reuters Limited Distributed matching system
US5136501A (en) 1989-05-26 1992-08-04 Reuters Limited Anonymous matching system
US5101353A (en) 1989-05-31 1992-03-31 Lattice Investments, Inc. Automated system for providing liquidity to securities markets
US5297031A (en) 1990-03-06 1994-03-22 Chicago Board Of Trade Method and apparatus for order management by market brokers
GB9027249D0 (en) 1990-12-17 1991-02-06 Reuters Ltd Offer matching system
US5297032A (en) 1991-02-01 1994-03-22 Merrill Lynch, Pierce, Fenner & Smith Incorporated Securities trading workstation
US5184120A (en) 1991-04-04 1993-02-02 Motorola, Inc. Menu selection using adaptive force sensing resistor
US8674932B2 (en) 1996-07-05 2014-03-18 Anascape, Ltd. Image controller
US5717725A (en) 1992-03-12 1998-02-10 Ntp Incorporated System for wireless transmission and receiving of information through a computer bus interface and method of operation
US5544262A (en) 1992-04-07 1996-08-06 Apple Computer, Inc. Method and apparatus for processing graphically input equations
EP0574213B1 (de) 1992-06-08 1999-03-24 Synaptics, Inc. Objekt-Positionsdetektor
JPH0651738A (ja) 1992-07-27 1994-02-25 Canon Inc コンピュータシステムの情報表示装置
US8482535B2 (en) 1999-11-08 2013-07-09 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2994888B2 (ja) 1992-11-25 1999-12-27 シャープ株式会社 入力処理装置および入力処理方法
US5428730A (en) 1992-12-15 1995-06-27 International Business Machines Corporation Multimedia system having software mechanism providing standardized interfaces and controls for the operation of multimedia devices
US5455965A (en) 1993-02-26 1995-10-03 Motorola, Inc. Method for determining and utilizing simulcast transmit times
US5555354A (en) 1993-03-23 1996-09-10 Silicon Graphics Inc. Method and apparatus for navigation within three-dimensional information landscape
JPH0798769A (ja) 1993-06-18 1995-04-11 Hitachi Ltd 情報処理装置及びその画面編集方法
US5463722A (en) 1993-07-23 1995-10-31 Apple Computer, Inc. Automatic alignment of objects in two-dimensional and three-dimensional display space using an alignment field gradient
BE1007462A3 (nl) 1993-08-26 1995-07-04 Philips Electronics Nv Dataverwerkings inrichting met aanraakscherm en krachtopnemer.
JPH07151512A (ja) 1993-10-05 1995-06-16 Mitsutoyo Corp 三次元測定機の操作装置
JPH07104915A (ja) 1993-10-06 1995-04-21 Toshiba Corp グラフィックユーザインタフェース装置
AU6019194A (en) 1993-10-29 1995-05-22 Taligent, Inc. Graphic editor framework system
EP0661620B1 (de) 1993-12-30 2001-03-21 Xerox Corporation Gerät und Verfahren zur Ausführung von vielen verkettenden Befehlsgesten in einen System mit Gestenbenutzerschnittstelle
CA2119921C (en) 1994-03-23 2009-09-29 Sydney H. Belzberg Computerized stock exchange trading system
WO1995027945A1 (en) 1994-04-06 1995-10-19 Morgan Stanley Group Inc. Data processing system and method for financial debt instruments
US5526478A (en) 1994-06-30 1996-06-11 Silicon Graphics, Inc. Three dimensional model with three dimensional pointers and multimedia functions linked to the pointers
GB9416673D0 (en) 1994-08-17 1994-10-12 Reuters Ltd Data exchange filtering system
US5559301A (en) 1994-09-15 1996-09-24 Korg, Inc. Touchscreen interface having pop-up variable adjustment displays for controllers and audio processing systems
US5797002A (en) 1994-09-20 1998-08-18 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
US5774877A (en) 1994-09-20 1998-06-30 Papyrus Technology Corp. Two-way wireless system for financial industry transactions
WO1996009579A1 (en) * 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US5689651A (en) 1994-10-13 1997-11-18 Lozman; Fane System for processing and displaying financial information
AU4158496A (en) 1994-11-14 1996-06-06 Catapult Entertainment, Inc. Method and apparatus for synchronizing the execution of multiple video game systems in a networked environment
US5805144A (en) 1994-12-14 1998-09-08 Dell Usa, L.P. Mouse pointing device having integrated touchpad
JPH08227341A (ja) 1995-02-22 1996-09-03 Mitsubishi Electric Corp ユーザインターフェース
US5657246A (en) 1995-03-07 1997-08-12 Vtel Corporation Method and apparatus for a video conference user interface
IL117424A (en) 1995-04-27 1999-09-22 Optimark Tech Inc Crossing network utilizing satisfaction density profile
US6072488A (en) 1995-05-05 2000-06-06 Apple Computer, Inc. Systems and methods for replacing open windows in a graphical user interface
US5793360A (en) 1995-05-05 1998-08-11 Wacom Co., Ltd. Digitizer eraser system and method
US5717438A (en) 1995-08-25 1998-02-10 International Business Machines Corporation Multimedia document using time box diagrams
EP0847561B1 (de) 1995-08-28 2003-10-22 Ebs Dealing Resources, Inc. Anonymes börsenhandelssystem mit verbesserten eingabemöglichkeiten für quoten
US5844560A (en) 1995-09-29 1998-12-01 Intel Corporation Graphical user interface control element
JP3417741B2 (ja) 1995-10-06 2003-06-16 富士通株式会社 取引制御システム
US5910882A (en) 1995-11-14 1999-06-08 Garmin Corporation Portable electronic device for use in combination portable and fixed mount applications
US5793377A (en) 1995-11-22 1998-08-11 Autodesk, Inc. Method and apparatus for polar coordinate snap in a computer implemented drawing tool
US5801692A (en) 1995-11-30 1998-09-01 Microsoft Corporation Audio-visual user interface controls
US7091948B2 (en) 1997-04-25 2006-08-15 Immersion Corporation Design of force sensations for haptic feedback computer interfaces
US6750877B2 (en) 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US5719796A (en) 1995-12-04 1998-02-17 Advanced Micro Devices, Inc. System for monitoring and analyzing manufacturing processes using statistical simulation with single step feedback
US5845266A (en) 1995-12-12 1998-12-01 Optimark Technologies, Inc. Crossing network utilizing satisfaction density profile with price discovery features
US5825352A (en) 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5695400A (en) 1996-01-30 1997-12-09 Boxer Jam Productions Method of managing multi-player game playing over a network
US5946647A (en) 1996-02-01 1999-08-31 Apple Computer, Inc. System and method for performing an action on a structure in computer-generated data
US5820463A (en) 1996-02-06 1998-10-13 Bell Atlantic Network Services, Inc. Method and apparatus for multi-player gaming over a network
JPH09269883A (ja) 1996-03-29 1997-10-14 Seiko Epson Corp 情報処理装置および情報処理方法
US5880733A (en) 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US5924083A (en) 1996-05-29 1999-07-13 Geneva Branch Of Reuters Transaction Services Limited Distributed matching system for displaying a book of credit filtered bids and offers
US5819293A (en) 1996-06-06 1998-10-06 Microsoft Corporation Automatic Spreadsheet forms
JP4484255B2 (ja) 1996-06-11 2010-06-16 株式会社日立製作所 タッチパネルを備えた情報処理装置および情報処理方法
US6014643A (en) 1996-06-28 2000-01-11 Minton; Vernon F. Interactive securities trading system
US6208329B1 (en) 1996-08-13 2001-03-27 Lsi Logic Corporation Supplemental mouse button emulation system, method and apparatus for a coordinate based data input device
US6247000B1 (en) 1996-08-21 2001-06-12 Crossmar, Inc. Method and system for confirmation and settlement for financial transactions matching
JP2000517445A (ja) 1996-08-28 2000-12-26 ヴィーア・インコーポレイテッド タッチ画面装置及び方法
US6195647B1 (en) 1996-09-26 2001-02-27 The Nasdaq Stock Market, Inc. On-line transaction processing system for security trading
US5963923A (en) 1996-11-12 1999-10-05 Garber; Howard B. System and method for trading having a principal market maker
US5825308A (en) 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
EP0859307A1 (de) 1997-02-18 1998-08-19 International Business Machines Corporation Steuerungseinrichtung für graphische Benutzerschnittstelle
US6031989A (en) 1997-02-27 2000-02-29 Microsoft Corporation Method of formatting and displaying nested documents
US6954899B1 (en) 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US6073036A (en) 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
WO1998049639A1 (en) 1997-04-30 1998-11-05 Roderick Malcolm Gordon Lawrie Network computer trading system
US6806893B1 (en) 1997-08-04 2004-10-19 Parasoft Corporation System and method for displaying simulated three dimensional buttons in a graphical user interface
US6266684B1 (en) 1997-08-06 2001-07-24 Adobe Systems Incorporated Creating and saving multi-frame web pages
US6411998B1 (en) 1997-09-08 2002-06-25 International Business Machines Corporation World wide web internet delay monitor
US6002397A (en) 1997-09-30 1999-12-14 International Business Machines Corporation Window hatches in graphical user interface
US6347997B1 (en) 1997-10-01 2002-02-19 Brad A. Armstrong Analog controls housed with electronic displays
US6456778B2 (en) 1997-10-01 2002-09-24 Brad A. Armstrong Analog controls housed with electronic displays for video recorders and cameras
US6532000B2 (en) 1997-10-01 2003-03-11 Brad A. Armstrong Analog controls housed with electronic displays for global positioning systems
US6421653B1 (en) 1997-10-14 2002-07-16 Blackbird Holdings, Inc. Systems, methods and computer program products for electronic trading of financial instruments
US6131087A (en) 1997-11-05 2000-10-10 The Planning Solutions Group, Inc. Method for automatically identifying, matching, and near-matching buyers and sellers in electronic market transactions
US6448977B1 (en) 1997-11-14 2002-09-10 Immersion Corporation Textures and other spatial sensations for a relative haptic interface device
CN1619561A (zh) 1997-12-08 2005-05-25 新日铁系统集成株式会社 商品交易装置
US6035287A (en) 1997-12-17 2000-03-07 Omega Consulting, Inc. Method and apparatus for bundled asset trading
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
JPH11203044A (ja) 1998-01-16 1999-07-30 Sony Corp 情報処理システム
KR100595915B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6219034B1 (en) 1998-02-23 2001-04-17 Kristofer E. Elbing Tactile computer interface
FI107859B (fi) 1998-03-23 2001-10-15 Nokia Networks Oy Subscription services in a mobile communication system
US6211880B1 (en) 1998-04-13 2001-04-03 Albert Joseph Impink, Jr. Display apparatus
US6180894B1 (en) 1998-05-07 2001-01-30 Aiptek International Inc. Dual mode digitizer tablet system
US6208340B1 (en) 1998-05-26 2001-03-27 International Business Machines Corporation Graphical user interface including a drop-down widget that permits a plurality of choices to be selected in response to a single selection of the drop-down widget
JPH11355617A (ja) 1998-06-05 1999-12-24 Fuji Photo Film Co Ltd 画像表示器付きカメラ
US6088019A (en) 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6822635B2 (en) 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6563487B2 (en) 1998-06-23 2003-05-13 Immersion Corporation Haptic feedback for directional control pads
US6229542B1 (en) 1998-07-10 2001-05-08 Intel Corporation Method and apparatus for managing windows in three dimensions in a two dimensional windowing system
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
AU5777599A (en) 1998-08-21 2000-03-14 Marketxt, Inc. Anti-manipulation method and system for a real-time computerized stock trading system
US6326956B1 (en) 1998-08-24 2001-12-04 Intertactile Technologies Corporation Circuit control devices utilizing electronic display screen light
US6208271B1 (en) 1998-09-04 2001-03-27 Brad A. Armstrong Remote controller with analog button(s)
US6111575A (en) 1998-09-24 2000-08-29 International Business Machines Corporation Graphical undo/redo manager and method
DE19849460B4 (de) 1998-10-28 2009-11-05 Völckers, Oliver Numerische digitale Telefontastatur für ein Telefongerät mit einem Display und Verfahren zur schnellen Textauswahl aus einer Liste mittels der numerischen Telefontastatur
US6377940B2 (en) 1998-11-05 2002-04-23 International Securities Exchange, Llc Method and apparatus for setting a price for a security on an automated exchange based on a comparison of prices on other exchanges
US6405180B2 (en) 1998-11-05 2002-06-11 International Securities Exchange, Llc Automated exchange for matching bids between a party and a counterparty based on a relationship between the counterparty and the exchange
JP2000148348A (ja) 1998-11-13 2000-05-26 Internatl Business Mach Corp <Ibm> 起動中のアプリケーション・プログラムを容易に識別し、かつ終了させることができる方法およびシステム
KR100814546B1 (ko) 1998-11-24 2008-03-17 닉썬, 인크. 통신 데이터를 수집하여 분석하는 장치 및 방법
US6252594B1 (en) 1998-12-11 2001-06-26 International Business Machines Corporation Method and system for aiding a user in scrolling through a document using animation, voice cues and a dockable scroll bar
US6489975B1 (en) 1998-12-14 2002-12-03 International Business Machines Corporation System and method for improved navigation between open windows in an application program using window tabs
US6396962B1 (en) 1999-01-29 2002-05-28 Sony Corporation System and method for providing zooming video
US6512761B1 (en) 1999-02-02 2003-01-28 3Com Corporation System for adjusting billing for real-time media transmissions based on delay
US6272474B1 (en) 1999-02-08 2001-08-07 Crisostomo B. Garcia Method for monitoring and trading stocks via the internet displaying bid/ask trade bars
EP1028583A1 (de) 1999-02-12 2000-08-16 Hewlett-Packard Company Digitale Kamera mit Tonaufzeichnung
US6551357B1 (en) 1999-02-12 2003-04-22 International Business Machines Corporation Method, system, and program for storing and retrieving markings for display to an electronic media file
WO2000050974A2 (en) 1999-02-26 2000-08-31 Reveo, Inc. Globally time-synchronized systems, devices and methods
US20020026321A1 (en) 1999-02-26 2002-02-28 Sadeg M. Faris Internet-based system and method for fairly and securely enabling timed-constrained competition using globally time-sychronized client subsystems and information servers having microsecond client-event resolution
AU3247600A (en) 1999-03-01 2000-09-21 Wit Capital Corporation A system and method for conducting securities transactions over a computer network
US6408282B1 (en) 1999-03-01 2002-06-18 Wit Capital Corp. System and method for conducting securities transactions over a computer network
US7212999B2 (en) 1999-04-09 2007-05-01 Trading Technologies International, Inc. User interface for an electronic trading system
US6278982B1 (en) 1999-04-21 2001-08-21 Lava Trading Inc. Securities trading system for consolidation of trading on multiple ECNS and electronic exchanges
AU4369100A (en) 1999-04-22 2000-11-10 Trading Technologies, Inc. Electronic securities trading system
JP2001034775A (ja) 1999-05-17 2001-02-09 Fuji Photo Film Co Ltd 履歴画像表示方法
US6227743B1 (en) 1999-07-01 2001-05-08 Karl A. Robb Pen cap stylus for use with touch screens
US6904405B2 (en) 1999-07-17 2005-06-07 Edwin A. Suominen Message recognition using shared language model
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
US6489978B1 (en) 1999-08-06 2002-12-03 International Business Machines Corporation Extending the opening time of state menu items for conformations of multiple changes
US6459424B1 (en) 1999-08-10 2002-10-01 Hewlett-Packard Company Touch-sensitive input screen having regional sensitivity and resolution properties
AU1250001A (en) 1999-08-30 2001-03-26 Epit Inc. User interface for semi-fungible trading
US7685048B1 (en) 1999-09-01 2010-03-23 Bloomberg L.P. Electronic trading system for forwards spread trades
JP2001078137A (ja) 1999-09-01 2001-03-23 Olympus Optical Co Ltd 電子カメラ
US6459442B1 (en) 1999-09-10 2002-10-01 Xerox Corporation System for applying application behaviors to freeform data
US8239303B2 (en) 1999-09-23 2012-08-07 The Nasdaq Omx Group, Inc. Match-off of order flow in electronic market system
US8311926B1 (en) 1999-09-23 2012-11-13 The Nasdaq Omx Group, Inc. Montage for automated market system
US7181424B1 (en) 1999-09-23 2007-02-20 The Nasdaq Stock Market, Inc. Montage for automated market system
US6377636B1 (en) 1999-11-02 2002-04-23 Iospan Wirless, Inc. Method and wireless communications system using coordinated transmission and training for interference mitigation
US20020023039A1 (en) 1999-12-03 2002-02-21 Fritsch Daniel Scott Computerized system and method for conducting an online virtual auction
US20020055899A1 (en) 1999-12-06 2002-05-09 Williams Joseph C. Display system and method for displaying and organizing financial information
US7434177B1 (en) 1999-12-20 2008-10-07 Apple Inc. User interface for providing consolidation and access
US7362331B2 (en) 2000-01-05 2008-04-22 Apple Inc. Time-based, non-constant translation of user interface objects between states
US6664991B1 (en) 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
US6661438B1 (en) 2000-01-18 2003-12-09 Seiko Epson Corporation Display apparatus and portable information processing apparatus
JP2001202192A (ja) * 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
US6512530B1 (en) 2000-01-19 2003-01-28 Xerox Corporation Systems and methods for mimicking an image forming or capture device control panel control element
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP3845738B2 (ja) 2000-02-09 2006-11-15 カシオ計算機株式会社 オブジェクト移動装置及び記録媒体
AU3827401A (en) 2000-02-14 2001-08-27 Geophoenix Inc Methods and apparatus for viewing information in virtual space
GB2366630A (en) 2000-02-17 2002-03-13 Gold On Line Trading Ltd Internet Trading System
US6772132B1 (en) 2000-03-02 2004-08-03 Trading Technologies International, Inc. Click based trading with intuitive grid display of market depth
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
JP2001306207A (ja) 2000-04-27 2001-11-02 Just Syst Corp ドラッグアンドドロップ処理を支援するプログラムを記録した記録媒体
US20020035534A1 (en) 2000-05-04 2002-03-21 Buist Walter D. Method and apparatus for auctioning securities
US7246092B1 (en) 2000-05-12 2007-07-17 The Nasdaq Stock Market, Inc. Montage for an electronic market
US6831666B1 (en) 2000-06-14 2004-12-14 Canon Kabushiki Kaisha Application selection window in a windows operation system
JP2002041023A (ja) 2000-07-06 2002-02-08 Internatl Business Mach Corp <Ibm> コンピュータシステム、表示制御装置、ディスプレイ装置、表示制御方法、記憶媒体及びプログラム伝送装置
KR20020007860A (ko) 2000-07-19 2002-01-29 백승헌 인터넷상의 시간보정 방법 및 이를 이용한 상거래시점관리 방법
US6583798B1 (en) 2000-07-21 2003-06-24 Microsoft Corporation On-object user interface
JP4501243B2 (ja) 2000-07-24 2010-07-14 ソニー株式会社 テレビジョン受像機およびプログラム実行方法
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP3949912B2 (ja) 2000-08-08 2007-07-25 株式会社エヌ・ティ・ティ・ドコモ 携帯型電子機器、電子機器、振動発生器、振動による報知方法および報知制御方法
US6906697B2 (en) 2000-08-11 2005-06-14 Immersion Corporation Haptic sensations for tactile feedback interface devices
US8924277B2 (en) 2000-08-17 2014-12-30 Nyse Group, Inc. Method and system for automatic execution of a securities transaction
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6590568B1 (en) * 2000-11-20 2003-07-08 Nokia Corporation Touch screen drag and drop input technique
US6943778B1 (en) 2000-11-20 2005-09-13 Nokia Corporation Touch screen input technique
DE10059906A1 (de) 2000-12-01 2002-06-06 Bs Biometric Systems Gmbh Druckempfindliche Fläche eines Bildschirms oder Displays
US20020077117A1 (en) 2000-12-15 2002-06-20 Jocelyn Cloutier Synchronous transmission of data with network remote control
GB2370739A (en) 2000-12-27 2002-07-03 Nokia Corp Flashlight cursor for set-top boxes
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US20050183017A1 (en) 2001-01-31 2005-08-18 Microsoft Corporation Seekbar in taskbar player visualization mode
US20020107748A1 (en) 2001-02-05 2002-08-08 International Business Machines Corporation Method and system for decentralized order matching among individual marketplaces
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20020120837A1 (en) 2001-02-28 2002-08-29 Maxemchuk Nicholas Frank Distributed internet multicast system for the stock market
JP2002268867A (ja) 2001-03-13 2002-09-20 Sony Corp 表示装置及び表示方法、プログラム記録媒体並びにプログラム
US20020178102A1 (en) 2001-03-15 2002-11-28 Larry Scheinberg Margin release system for an electronic-based market
JP2002286489A (ja) 2001-03-28 2002-10-03 Clarion Co Ltd カーナビゲーション装置及び方法並びにカーナビゲーション用ソフトウェア
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
TW502180B (en) 2001-03-30 2002-09-11 Ulead Systems Inc Previewing method of editing multimedia effect
US20020149630A1 (en) 2001-04-16 2002-10-17 Parascript Llc Providing hand-written and hand-drawn electronic mail service
US7134093B2 (en) 2001-04-18 2006-11-07 International Business Machines Corporation Graphical user interface for direct control of display of data
US20020161693A1 (en) 2001-04-30 2002-10-31 Greenwald Jamie A. Automated over-the-counter derivatives trading system
US8125492B1 (en) 2001-05-18 2012-02-28 Autodesk, Inc. Parameter wiring
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US20040056849A1 (en) 2002-07-25 2004-03-25 Andrew Lohbihler Method and apparatus for powering, detecting and locating multiple touch input devices on a touch screen
US20020186257A1 (en) 2001-06-08 2002-12-12 Cadiz Jonathan J. System and process for providing dynamic communication access and information awareness in an interactive peripheral display
US7190379B2 (en) 2001-06-29 2007-03-13 Contex A/S Method for resizing and moving an object on a computer screen
JP2003084744A (ja) 2001-09-10 2003-03-19 Sharp Corp エミュレーション装置、エミュレーション方法及びその方法を実行するプログラム並びにそのプログラムを記録した記録媒体
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US6965645B2 (en) 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
US20030206169A1 (en) 2001-09-26 2003-11-06 Michael Springer System, method and computer program product for automatically snapping lines to drawing elements
US8001189B2 (en) 2001-10-16 2011-08-16 Microsoft Corporation Routing of network messages
EP1965291A3 (de) 2001-11-01 2010-06-02 Immersion Corporation Verfahren und Vorrichtung für die haptische Rückkopplung mit Kippschalter
JP2003157131A (ja) 2001-11-22 2003-05-30 Nippon Telegr & Teleph Corp <Ntt> 入力方法、表示方法、メディア情報合成表示方法、入力装置、メディア情報合成表示装置、入力プログラム、メディア情報合成表示プログラム、これらのプログラムを記録した記録媒体
JP2003162355A (ja) 2001-11-26 2003-06-06 Sony Corp タスクの表示切り替え方法及び携帯機器及び携帯通信機器
JP2003186597A (ja) 2001-12-13 2003-07-04 Samsung Yokohama Research Institute Co Ltd 携帯端末装置
US20030112269A1 (en) 2001-12-17 2003-06-19 International Business Machines Corporation Configurable graphical element for monitoring dynamic properties of a resource coupled to a computing environment
US7346855B2 (en) 2001-12-21 2008-03-18 Microsoft Corporation Method and system for switching between multiple computer applications
CN1356493A (zh) 2001-12-30 2002-07-03 王森 承压蒸汽锅炉的上锅筒
US7043701B2 (en) 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
US20030184574A1 (en) 2002-02-12 2003-10-02 Phillips James V. Touch screen interface with haptic feedback device
US6888537B2 (en) 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
WO2003077100A1 (en) 2002-03-08 2003-09-18 Revelations In Design, Lp Electric device control apparatus
US7114091B2 (en) 2002-03-18 2006-09-26 National Instruments Corporation Synchronization of distributed systems
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
US20030189647A1 (en) 2002-04-05 2003-10-09 Kang Beng Hong Alex Method of taking pictures
US7178049B2 (en) 2002-04-24 2007-02-13 Medius, Inc. Method for multi-tasking multiple Java virtual machines in a secure environment
US20070128899A1 (en) 2003-01-12 2007-06-07 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US20030222915A1 (en) 2002-05-30 2003-12-04 International Business Machines Corporation Data processor controlled display system with drag and drop movement of displayed items from source to destination screen positions and interactive modification of dragged items during the movement
US7801796B2 (en) 2002-06-05 2010-09-21 The Nasdaq Omx Group, Inc. Message prioritization process and method
US7259752B1 (en) 2002-06-28 2007-08-21 Microsoft Corporation Method and system for editing electronic ink
JP2004054861A (ja) 2002-07-16 2004-02-19 Sanee Denki Kk タッチ式マウス
US20040015662A1 (en) 2002-07-22 2004-01-22 Aron Cummings Memory card, memory card controller, and software therefor
JP2004062648A (ja) 2002-07-30 2004-02-26 Kyocera Corp 表示制御装置及びこれに用いられる表示制御プログラム
US7549127B2 (en) 2002-08-01 2009-06-16 Realnetworks, Inc. Method and apparatus for resizing video content displayed within a graphical user interface
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP4500485B2 (ja) 2002-08-28 2010-07-14 株式会社日立製作所 タッチパネルを備えた表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
US20040138849A1 (en) 2002-09-30 2004-07-15 Albrecht Schmidt Load sensing surface as pointing device
EP1406150A1 (de) 2002-10-01 2004-04-07 Sony Ericsson Mobile Communications AB Verfahren und Vorrichtung zur taktilen Rückkopplung und tragbares Gerät mit derselben
US7752115B2 (en) 2002-10-02 2010-07-06 Trading Technologies International, Inc. Method and apparatus for a fair exchange
JP4173718B2 (ja) 2002-10-31 2008-10-29 富士通株式会社 ウィンドウ切替装置及びウィンドウ切替プログラム
JP2004152217A (ja) 2002-11-01 2004-05-27 Canon Electronics Inc タッチパネル付き表示装置
US20050114785A1 (en) 2003-01-07 2005-05-26 Microsoft Corporation Active content wizard execution with improved conspicuity
US7224362B2 (en) 2003-01-30 2007-05-29 Agilent Technologies, Inc. Systems and methods for providing visualization and network diagrams
US7685538B2 (en) 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
US7493573B2 (en) 2003-02-07 2009-02-17 Sun Microsystems, Inc. Scrolling vertical column mechanism for cellular telephone
US7185291B2 (en) 2003-03-04 2007-02-27 Institute For Information Industry Computer with a touch screen
US7369102B2 (en) 2003-03-04 2008-05-06 Microsoft Corporation System and method for navigating a graphical user interface on a smaller display
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7380218B2 (en) 2003-03-27 2008-05-27 International Business Machines Corporation Method and apparatus for managing windows
US20040219968A1 (en) 2003-05-01 2004-11-04 Fiden Daniel P. Gaming machine with interactive pop-up windows
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US7051282B2 (en) 2003-06-13 2006-05-23 Microsoft Corporation Multi-layer graphical user interface
US7159189B2 (en) 2003-06-13 2007-01-02 Alphabase Systems, Inc. Method and system for controlling cascaded windows on a GUI desktop on a computer
EP1491990B1 (de) 2003-06-20 2010-02-17 Apple Inc. Graphisches Benutzerschnittstellensystem und Methode zur Anzeige von Objekten auf einer graphischen Benutzerschnittstelle
US20040267823A1 (en) 2003-06-24 2004-12-30 Microsoft Corporation Reconcilable and undoable file system
JP2005031786A (ja) 2003-07-08 2005-02-03 Fujitsu Ten Ltd 文字入力装置
WO2005008444A2 (en) 2003-07-14 2005-01-27 Matt Pallakoff System and method for a portbale multimedia client
US7036088B2 (en) 2003-07-24 2006-04-25 Sap Ag Multi-modal method for application swapping
US7721228B2 (en) 2003-08-05 2010-05-18 Yahoo! Inc. Method and system of controlling a context menu
KR100580174B1 (ko) 2003-08-21 2006-05-16 삼성전자주식회사 회전 가능한 디스플레이 장치 및 화면 조정 방법
JP4003742B2 (ja) 2003-08-21 2007-11-07 カシオ計算機株式会社 電子カメラ
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005092386A (ja) 2003-09-16 2005-04-07 Sony Corp 画像選択装置および画像選択方法
US7702733B2 (en) 2003-09-18 2010-04-20 Vulcan Portals Inc. Low power email functionality for an electronic device
KR100597588B1 (ko) 2003-10-02 2006-07-06 한국전자통신연구원 우선순위기반 능동 시험패킷을 이용한 노드간 경로특성측정방법
US7554689B2 (en) 2003-10-15 2009-06-30 Canon Kabushiki Kaisha Document layout method
US20050091604A1 (en) 2003-10-22 2005-04-28 Scott Davis Systems and methods that track a user-identified point of focus
JP2005135106A (ja) 2003-10-29 2005-05-26 Sony Corp 表示画像制御装置及び方法
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US20050110777A1 (en) 2003-11-25 2005-05-26 Geaghan Bernard O. Light-emitting stylus and user input device using same
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
JP2005157842A (ja) 2003-11-27 2005-06-16 Fujitsu Ltd ブラウザプログラム、ブラウジング方法、及びブラウジング装置
CN101295225B (zh) 2003-12-01 2010-09-29 捷讯研究有限公司 在具有小显示器的无线通信设备上提供新事件通知的方法和设备
DE60315845T2 (de) 2003-12-01 2008-05-21 Sony Ericsson Mobile Communications Ab Kamera zur Aufnahme einer Bildsequenz
US7454713B2 (en) 2003-12-01 2008-11-18 Sony Ericsson Mobile Communications Ab Apparatus, methods and computer program products providing menu expansion and organization functions
US20050125742A1 (en) 2003-12-09 2005-06-09 International Business Machines Corporation Non-overlapping graphical user interface workspace
US7085590B2 (en) 2003-12-31 2006-08-01 Sony Ericsson Mobile Communications Ab Mobile terminal with ergonomic imaging functions
EP1557744B1 (de) 2004-01-20 2008-04-16 Sony Deutschland GmbH Haptische tastengesteuerte Dateneingabe
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
JP4790990B2 (ja) 2004-01-27 2011-10-12 京セラ株式会社 携帯端末
US7441204B2 (en) 2004-02-06 2008-10-21 Microsoft Corporation Method and system for automatically displaying content of a window on a display that has changed orientation
US20110096174A1 (en) 2006-02-28 2011-04-28 King Martin T Accessing resources based on capturing information from a rendered document
US20050184973A1 (en) 2004-02-25 2005-08-25 Xplore Technologies Corporation Apparatus providing multi-mode digital input
KR100611182B1 (ko) 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
US7180531B2 (en) 2004-02-27 2007-02-20 Microsoft Corporation Method and apparatus for enabling application program compatibility with display devices having improved pixel density
US20050190280A1 (en) 2004-02-27 2005-09-01 Haas William R. Method and apparatus for a digital camera scrolling slideshow
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7788595B2 (en) 2004-03-08 2010-08-31 Sap Ag Method and system for switching among management system applications
WO2005086854A2 (en) 2004-03-09 2005-09-22 Freedom Scientific, Inc. Low vision enhancement for graphic user interface
GB2412831A (en) 2004-03-30 2005-10-05 Univ Newcastle Highlighting important information by blurring less important information
US20050223338A1 (en) 2004-04-05 2005-10-06 Nokia Corporation Animated user-interface in electronic devices
JP4589308B2 (ja) 2004-04-05 2010-12-01 パナソニック株式会社 表示画面管理装置
US20050229112A1 (en) 2004-04-13 2005-10-13 Clay Timothy M Method and system for conveying an image position
JP2005309933A (ja) 2004-04-23 2005-11-04 Canon Inc 拡張制御装置および画像処理システムおよびアプリケーションアイコン表示方法およびプログラムおよび記憶媒体
US7694236B2 (en) 2004-04-23 2010-04-06 Microsoft Corporation Stack icons representing multiple objects
US7787026B1 (en) 2004-04-28 2010-08-31 Media Tek Singapore Pte Ltd. Continuous burst mode digital camera
US7777730B2 (en) 2004-05-05 2010-08-17 Koninklijke Philips Electronics N.V. Browsing media items
US7663607B2 (en) 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP4063246B2 (ja) 2004-05-11 2008-03-19 日本電気株式会社 ページ情報表示装置
CN101297294A (zh) 2004-05-21 2008-10-29 派拉斯科技术公司 图形重新检验用户设置界面
JP4869568B2 (ja) 2004-06-14 2012-02-08 ソニー株式会社 入力装置および電子機器
US8453065B2 (en) 2004-06-25 2013-05-28 Apple Inc. Preview and installation of user interface elements in a display environment
US8281241B2 (en) 2004-06-28 2012-10-02 Nokia Corporation Electronic device and method for providing extended user interface
US8046712B2 (en) 2004-06-29 2011-10-25 Acd Systems International Inc. Management of multiple window panels with a graphical user interface
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20060001657A1 (en) 2004-07-02 2006-01-05 Logitech Europe S.A. Scrolling device
US20060020904A1 (en) 2004-07-09 2006-01-26 Antti Aaltonen Stripe user interface
US20060012577A1 (en) 2004-07-16 2006-01-19 Nokia Corporation Active keypad lock for devices equipped with touch screen
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US20060033724A1 (en) 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
EP1776630A2 (de) 2004-08-02 2007-04-25 Koninklijke Philips Electronics N.V. Druckgesteuerte navigation bei einem berührungsbildschirm
DE602005023897D1 (de) 2004-08-02 2010-11-11 Koninkl Philips Electronics Nv Berührungsschirm mit druckabhängiger visueller rückmeldung
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
GB2417176A (en) 2004-08-12 2006-02-15 Ibm Mouse cursor display
US20060041846A1 (en) 2004-08-19 2006-02-23 International Business Machines Corporation Method of window management for a windowing system
FR2874432A1 (fr) 2004-08-20 2006-02-24 Gervais Danone Sa Procede d'analyse de produits industriels alimentaires, cosmetiques et/ou d'hygiene, interface de mesure pour la mise en oeuvre du procede et systeme electronique de mise en oeuvre de l'interface
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
BRPI0419047A (pt) 2004-09-15 2007-12-11 Nokia Corp dispositivo para monitorar conteúdo, aplicativo de software adaptado para rolar conteúdo em uma tela em uma janela de aplicativo, e, método para uso em um aplicativo de software adaptado para rolar conteúdo em uma tela em uma janela de aplicativo
JP2006091446A (ja) 2004-09-24 2006-04-06 Fuji Photo Film Co Ltd カメラ
US20060067654A1 (en) 2004-09-24 2006-03-30 Magix Ag Graphical user interface adaptable to multiple display devices
US8264465B2 (en) 2004-10-08 2012-09-11 Immersion Corporation Haptic feedback for button and scrolling action simulation in touch input devices
CN100407118C (zh) 2004-10-12 2008-07-30 日本电信电话株式会社 三维指示方法和三维指示装置
JP4486131B2 (ja) 2004-10-19 2010-06-23 モーザー ベイアー インディア リミテッド マスタ基板及び高密度凹凸構造を製造する方法
US8677274B2 (en) 2004-11-10 2014-03-18 Apple Inc. Highlighting items for search results
WO2006054207A1 (en) 2004-11-16 2006-05-26 Koninklijke Philips Electronics N.V. Touchless manipulation of images for regional enhancement
US20060107226A1 (en) 2004-11-16 2006-05-18 Microsoft Corporation Sidebar autohide to desktop
FR2878344B1 (fr) 2004-11-22 2012-12-21 Sionnest Laurent Guyot Dispositif de commandes et d'entree de donnees
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US20060136834A1 (en) 2004-12-15 2006-06-22 Jiangen Cao Scrollable toolbar with tool tip on small screens
US7458038B2 (en) 2004-12-20 2008-11-25 Microsoft Corporation Selection indication fields
US7619616B2 (en) 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
CN101099192A (zh) 2005-01-05 2008-01-02 松下电器产业株式会社 屏幕显示设备
US8341541B2 (en) 2005-01-18 2012-12-25 Microsoft Corporation System and method for visually browsing of open windows
US7552397B2 (en) 2005-01-18 2009-06-23 Microsoft Corporation Multiple window behavior system
US8464176B2 (en) 2005-01-19 2013-06-11 Microsoft Corporation Dynamic stacking and expansion of visual items
US7574434B2 (en) 2005-02-25 2009-08-11 Sony Corporation Method and system for navigating and selecting media from large data sets
KR101651975B1 (ko) 2005-03-04 2016-08-29 애플 인크. 다기능 휴대용 장치
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US20060213754A1 (en) 2005-03-17 2006-09-28 Microsoft Corporation Method and system for computer application program task switching via a single hardware button
US7454702B2 (en) 2005-03-21 2008-11-18 Microsoft Corporation Tool for selecting ink and other objects in an electronic document
US7661069B2 (en) 2005-03-31 2010-02-09 Microsoft Corporation System and method for visually expressing user interface elements
US7478339B2 (en) 2005-04-01 2009-01-13 Microsoft Corporation Method and apparatus for application window grouping and management
US7471284B2 (en) 2005-04-15 2008-12-30 Microsoft Corporation Tactile scroll bar with illuminated document position indicator
US8023568B2 (en) 2005-04-15 2011-09-20 Avid Technology, Inc. Capture, editing and encoding of motion pictures encoded with repeating fields or frames
US7355595B2 (en) 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US9569093B2 (en) 2005-05-18 2017-02-14 Power2B, Inc. Displays and information input devices
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US9785329B2 (en)