DE202014004544U1 - Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten - Google Patents

Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten Download PDF

Info

Publication number
DE202014004544U1
DE202014004544U1 DE202014004544.5U DE202014004544U DE202014004544U1 DE 202014004544 U1 DE202014004544 U1 DE 202014004544U1 DE 202014004544 U DE202014004544 U DE 202014004544U DE 202014004544 U1 DE202014004544 U1 DE 202014004544U1
Authority
DE
Germany
Prior art keywords
input
touch
interface
sensitive surface
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202014004544.5U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202014004544U1 publication Critical patent/DE202014004544U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, die Vorrichtung veranlassen, auszuführen: Anzeigen einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet; Erkennen auf der berührungsempfindlichen Oberfläche einer ersten Eingabe, die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet; und in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nächste-Seite-Anzeigekriterien erfüllt, wobei die nächste-Seite-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn der erste Kontakt sich um mehr als eine vorbestimmte Menge in eine erste vorbestimmte Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen der Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit der Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellen-Anzeigekriterien erfüllt, wobei die Suchschnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als die vorbestimmte Menge in eine zweite vorbestimmte Richtung bewegt, die rechtwinklig ist zu der ersten Richtung, Anzeigen einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.

Description

  • Verwandte Anmeldungen
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Patenanmeldung Nr. 61/832,924, eingereicht am 9. Juni 2013, die hierin durch Verweisen ihrer Gesamtheit aufgenommen wird.
  • Technisches Gebiet
  • Dieses bezieht sich im Allgemeinen auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, einschließlich aber nicht beschränkt auf elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen, die Navigations- und Suchfunktionalitäten bereitstellen.
  • Hintergrund
  • Die Verwendung von berührungsempfindlichen Oberflächen als Eingabevorrichtungen für Computer und andere elektronische Rechenvorrichtungen hat in den letzten Jahren signifikant zugenommen. Beispielhafte berührungsempfindliche Oberflächen beinhalten Touchpads und Touchscreen-Anzeigen. Solche Oberflächen werden häufig genutzt, um Benutzerschnittstellen zu verändern und um in ihnen zu navigieren.
  • Benutzer können Berührungseingaben verwenden, um in Benutzerschnittstellen zu navigieren und Suchen auszuführen. Solche Verfahren zum Ausführen dieser Handlungen sind allerdings mühevoll und ineffizient. Zusätzlich benötigen diese Verfahren mehr Zeit als notwendig, wodurch sie Energie verschwenden. Diese letztere Überlegung ist besonders wichtig bei batteriebetriebenen Vorrichtungen.
  • Zusammenfassung
  • Dementsprechend besteht ein Bedarf für elektronische Vorrichtungen mit schnelleren, effizienteren Verfahren und Schnittstellen zum Bereitstellen von Navigations- und Suchfunktionalitäten. Die Ausführungsformen, die hierin beschrieben werden, stellen eine bessere Integration dieser Funktionalitäten bereit, zum Beispiel durch Verfügbarmachen einer Sucheingabeschnittstelle auf unterschiedlichen Seiten einer Mehrseiten-Anwendungs-Startschnittstelle, während sie es einem Benutzer ebenso ermöglichen, einfach zwischen unterschiedlichen Seiten der Mehrseiten-Anwendungsstartschnittstelle zu navigieren. Solche Verfahren und Schnittstellen ergänzen oder ersetzen optional konventionelle Verfahren zum Bereitstellen von Navigations- und Suchfunktionalitäten. Solche Verfahren und Schnittstellen reduzieren die kognitive Belastung eines Benutzers und erzeugen eine effizientere Mensch-Maschinen-Schnittstelle. Für batteriebetriebene Vorrichtungen sparen solche Verfahren und Schnittstellen Leistung und erhöhen die Zeit zwischen Ladevorgängen.
  • Die oben genannten Mängel und anderen Probleme, die mit Benutzerschnittstellen für elektronische Vorrichtungen mit berührungsempfindlichen Oberflächen verknüpft sind, werden durch die offenbarten Vorrichtungen reduziert oder beseitigt. In einigen Ausführungsformen ist die Vorrichtung ein Desktop-Computer. In einigen Ausführungsformen ist die Vorrichtung tragbar (z. B. ein Notebook-Computer, ein Tablet-Computer oder eine handgehaltene Vorrichtung). In einigen Ausführungsformen hat die Vorrichtung ein Touchpad. In eigen Ausführungsformen hat die Vorrichtung eine berührungsempfindliche Anzeige (ebenso bekannt als ein „Touchscreen” oder eine „Touchscreen-Anzeige”). In einigen Ausführungsformen hat die Vorrichtung eine grafische Benutzerschnittstelle (graphical user interface, GUI), einen oder mehrere Prozessoren, Speicher und eines oder mehrere Module, Programme oder Sätze von Instruktionen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen. In einigen Ausführungsformen interagiert der Benutzer mit der GUI hauptsächlich durch Fingerkontakte und Gesten auf der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen beinhalten die Funktionen optional Bildbearbeiten, Zeichnen, Präsentieren, Textverarbeiten, Webseitenerstellen, Genehmigen von Disks, Erstellen von Tabellenkalkulationen, Spielen von Spielen, Telefonieren, Videokonferenzen, Emailen, Instant Messaging, Trainingsunterstützung, digitale Fotografie, digitales Video, Surfen im Internet, Abspielen digitaler Musik und/oder Abspielen digitalen Videos. Ausführbare Befehle zum Ausführen dieser Funktionen sind optional in einem nichtflüchtigen computerlesbaren Speichermedium oder einem anderen Computerprogrammprodukt beinhaltet, das eingerichtet ist zur Ausführung durch einen oder mehrere Prozessoren.
  • In Übereinstimmung mit einigen Ausführungsformen wird ein Verfahren bei einer elektronischen Vorrichtung ausgeführt, die eine Anzeige und eine berührungsempfindliche Oberfläche beinhaltet. Das Verfahren beinhaltet: Anzeigen einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet; und Erkennen auf der berührungsempfindlichen Oberfläche einer ersten Eingabe, die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet. Das Verfahren beinhaltet weiterhin in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Nächste-Seite-Anzeige-Kriterien erfüllt, wobei die Nächste-Seite-Anzeige-Kriterien ein Kriterium beinhalten, das erfüllt ist, wenn der erste Kontakt sich um mehr als eine vorbestimmte Menge in eine erste vorbestimmte Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen der Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit der Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellen-Anzeigekriterien erfüllt, wobei die Suchschnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge in eine zweite vorbestimmte Richtung bewegt, die rechtwinklig zu der ersten Richtung ist, Anzeigen einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeigeeinheit, die eingerichtet ist, um eine erste Seite einer Mehrseiten-Anwendungs-Startschnittstelle anzuzeigen, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet; eine berührungsempfindliche Oberflächeneinheit, die eingerichtet ist, um Benutzergesten zu empfangen; und eine Verarbeitungseinheit, die mit der Anzeigeeinheit und der berührungsempfindlichen Oberflächeneinheit gekoppelt ist. Die Verarbeitungseinheit ist eingerichtet, um auf der berührungsempfindlichen Oberflächeneinheit eine erste Eingabe zu erkennen, die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberflächeneinheit beinhaltet. Die Verarbeitungseinheit ist weiterhin eingerichtet, um in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberflächeneinheit: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Nächste-Seiten-Anzeigekriterien erfüllt, wobei die Nächste-Seite-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn der erste Kontakt sich um mehr als eine vorbestimmte Menge in einer ersten vorbestimmten Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen einer Anzeige der ersten Seite der Mehr-Seiten-Anwendungs-Schnittstelle mit einer Anzeige einer zweiten Seite der Mehr-Seiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellen-Anzeige-Kriterien erfüllt, wobei die Suchschnittstelle-Anzeige-Kriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge in einer zweiten vorbestimmten Richtung bewegt, die rechtwinklig ist zu der ersten Richtung, Ermöglichen einer Anzeige einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.
  • In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeige, eine berührungsempfindliche Oberfläche, einen oder mehrere Prozessoren, Speicher und eines oder mehrere Programme; das eine oder die mehreren Programme sind in dem Speicher gespeichert und eingerichtet, um von dem einen oder den mehreren Prozessoren ausgeführt zu werden und das eine oder die mehreren Programme beinhalten Befehle zum Ausführen von Handlungen von jedem der Verfahren, die hierin beschrieben werden. In Übereinstimmung mit einigen Ausführungsformen sind auf einem nichtflüchtigen computerlesbaren Speichermedium Befehle gespeichert, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, die Vorrichtung veranlassen, die Handlungen von jedem der Verfahren, auf die hier Bezug genommen wird, und die hierin beschrieben werden, auszuführen. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine grafische Benutzerschnittstelle auf einer elektronischen Vorrichtung mit einer Anzeige, einer berührungsempfindlichen Oberfläche, einem Speicher, und einem oder mehreren Prozessoren, um das eine oder die mehreren Programme, die in dem Speicher gespeichert sind, auszuführen, eines oder mehrere der Elemente, die in jedem der zuvor beschriebenen Verfahren angezeigt werden, welche in Antwort auf Eingaben aktualisiert werden, wie in jedem der hierin beschriebenen Verfahren beschrieben. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine elektronische Vorrichtung eine Anzeige, eine berührungsempfindliche Oberfläche und Mittel zum Ausführen der Handlungen von jedem Verfahren, das hierin beschrieben wird. In Übereinstimmung mit einigen Ausführungsformen beinhaltet eine Informationsverarbeitungsvorrichtung zur Verwendung in einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche Mittel zum Ausführen der Handlungen von jedem der hierin beschriebenen Verfahren.
  • Demzufolge werden elektronischen Vorrichtungen mit Anzeigen schnellere, effizientere Verfahren und Schnittstellen bereitgestellt zum Bereitstellen von Navigations- und Suchfunktionalitäten, die dadurch die Effektivität, Effizienz und Benutzerzufriedenheit mit solchen Vorrichtungen erhöhen. Solche Verfahren und Schnittstellen können konventionelle Verfahren zum Bereitstellen von Navigations- und Suchfunktionalitäten ergänzen oder ersetzen.
  • Kurze Beschreibung der Zeichnungen
  • Für ein besseres Verständnis der verschiedenen hierin beschriebenen Ausführungsformen, sollte Bezug genommen werden auf die nachfolgende Beschreibung der Ausführungsformen zusammen mit den folgenden Zeichnungen, in denen gleiche Bezugszeichen sich auf entsprechende Teile überall in den Figuren beziehen.
  • 1A ist ein Blockdiagramm, das eine tragbare Multifunktionsvorrichtung mit einer berührungsempfindlichen Anzeige veranschaulicht in Übereinstimmung mit einigen Ausführungsformen.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zum Bearbeiten von Ereignissen in Übereinstimmung mit einigen Ausführungsformen veranschaulicht.
  • 2 veranschaulicht eine tragbare Multifunktionsvorrichtung, die einen Touchscreen aufweist in Übereinstimmung mit einigen Ausführungsformen.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen.
  • 4A veranschaulicht eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • 4B veranschaulicht eine beispielhafte Benutzerschnittstelle für eine Multifunktionsvorrichtung mit einer berührungsempfindlichen Oberfläche, die von der Anzeige getrennt ist in Übereinstimmung mit einigen Ausführungsformen.
  • 5A5R veranschaulichen beispielhafte Benutzerschnittstellen zum Bereitstellen von Zugriff auf unterschiedliche Funktionalitäten, einschließlich Navigations- und Suchfunktionalitäten, in Überstimmung mit einigen Ausführungsformen.
  • 6A6D sind Flussdiagramme, die ein Verfahren zum Bereitstellen von Zugriff auf unterschiedliche Funktionalitäten veranschaulichen, einschließlich Navigations- und Suchfunktionalitäten, in Übereinstimmung mit einigen Ausführungsformen.
  • 7 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung in Übereinstimmung mit einigen Ausführungsformen.
  • Beschreibung der Ausführungsformen
  • Viele elektronische Vorrichtungen erlauben es Benutzern, in Schnittstellen zu navigieren und Navigations- und Suchfunktionalitäten auszuführen. Die elektronischen Vorrichtungen, die nachfolgend beschrieben werden, verbessern diese Verfahren durch Bereitstellen von schnelleren, effizienteren und besser integrierten Verfahren und Schnittstellen für Benutzer, um in einer Mehrseiten-Anwendungs-Startschnittstelle zu navigieren und um nach Inhalt zu suchen. Zum Beispiel machen die Vorrichtungen eine Sucheingabeschnittstelle direkt zugreifbar von einer Vielzahl von unterschiedlichen Seiten einer Mehrseiten-Anwendungs-Startschnittstelle aus, während sie es einem Benutzer ebenso ermöglichen, leicht zwischen unterschiedlichen Seiten der Mehrseiten-Anwendungs-Startschnittstelle zu navigieren. Die Vorrichtungen ermöglichen es einem Benutzer ebenso, einfache Berührungseingaben zu verwenden, um direkt zu zusätzlichen Funktionalitäten der Mehrseiten-Anwendungs-Startschnittstelle zu navigieren, wie z. B. eine Benachrichtigungsschnittstelle, eine Multitasking-Schnittstelle und/oder eine Einstellungsschnittstelle.
  • Nachfolgend stellen 1A1B, 2 und 3 eine Beschreibung von beispielhaften Vorrichtungen bereit. 4A4B und 5A5R veranschaulichen beispielhafte Benutzerschnittstellen. 6A6D sind Flussdiagramme, die ein Verfahren zum Bereitstellen von Zugriff auf unterschiedliche Funktionalitäten veranschaulichen, einschließlich Navigations- und Suchfunktionalitäten. 7 ist ein funktionales Blockdiagramm einer elektronischen Vorrichtung. Die Benutzerschnittstellen in 5A5R werden verwendet, um die Verfahren in 6A6D zu veranschaulichen.
  • Es wird nun im Detail verwiesen auf Ausführungsformen, Beispiele, welche in den begleitenden Zeichnungen gezeigt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details dargelegt, um ein gründliches Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Jedoch ist es dem Fachmann klar, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Details angewendet werden können. In anderen Fällen sind wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Detail beschrieben worden, um nicht unnötig die Aspekte der Ausführungsformen unklar zu machen.
  • Es ist ebenso klar, dass, obwohl die Ausdrücke erster, zweiter, usw. in einigen Fällen hierin verwendet sind zum Beschreiben verschiedener Elemente, diese Elemente nicht durch diese Ausdrücke beschränkt werden sollten. Diese Ausdrücke werden nur verwendet zum Unterscheiden eines Elements von einem anderen. Zum Beispiel könnte ein erster Kontakt ein zweiter Kontakt genannt werden, und in ähnlicher Weise könnte ein zweiter Kontakt ein erster Kontakt genannt werden, ohne von dem Geltungsbereich der verschiedenen beschriebenen Ausführungsformen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beides Kontakte, aber sie sind nicht der gleiche Kontakt.
  • Die Terminologie, welche in der Beschreibung der verschiedenen beschriebenen Ausführungsformen hierin verwendet wird, dient nur dem Zwecke des Beschreibens spezieller Ausführungsformen und soll nicht beschränkend sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den angehängten Ansprüchen verwendet, sollen die Singularformen „ein”, „eine” und „der”, „die”, „das” die Pluralformen auch umfassen, es sei denn der Zusammenhang zeigt klar das Gegenteil an. Es ist auch klar, dass der Ausdruck „und/oder” wie hierin verwendet sich auf irgendwelche und alle möglichen Kombinationen von ein oder mehreren der assoziierten aufgelisteten Gegenstände bezieht und diese umfasst. Es ist weiter klar, dass die Ausdrücke „umfassen”, „umfassend”, „aufweisen” und/oder „aufweisend”, wenn in dieser Beschreibung verwendet, das Vorliegen der genannten Merkmale, Ganzzahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht das Vorliegen oder Hinzufügen ein oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Wie hierin verwendet, wird der Ausdruck „wenn” optional ausgelegt als „wenn” oder „nach” oder „in Antwort auf Bestimmen” oder „in Antwort auf Detektieren” abhängig vom Zusammenhang. In ähnlicher Weise wird der Ausdruck „wenn bestimmt wird” oder „wenn [eine genannte Bedingung oder ein Ereignis] detektiert wird” optional ausgelegt als „nach Bestimmen” oder „in Antwort auf Bestimmen” oder „nach Detektieren [der genannten Bedingung oder des Ereignisses]” oder „in Antwort auf Detektieren [die genannte Bedingung oder das Ereignis]” abhängig vom Zusammenhang zu bedeuten.
  • Ausführungsformen der elektronischen Vorrichtungen, Benutzerschnittstellen für solche Vorrichtungen, und assoziierte Prozesse zum Verwenden solcher Vorrichtungen werden beschrieben. In einigen Ausführungsformen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie beispielsweise ein Mobiltelefon, welches auch andere Funktionen beinhaltet, wie beispielsweise PDA- und/oder Musikplayer-Funktionen. Beispielhafte Ausführungsformen von tragbaren Multifunktionsvorrichtungen umfassen ohne Beschränkung das iPhone@-, iPod Touch@-, und iPad@-Vorrichtungen von Apple Inc. aus Cupertino, Kalifornien. Andere tragbare elektronische Vorrichtungen, wie beispielsweise Laptops oder Tablet-Computer mit berührungsempfindlichen Oberflächen (z. B. Berührungsbildschirmanzeigen und/oder Touchpads) werden optional verwendet. Es ist auch klar, dass in einigen Ausführungsformen die Vorrichtung nicht eine tragbare Kommunikationsvorrichtung ist, sondern ein Desktop-Computer mit einer berührungsempfindlichen Oberfläche ist (z. B. eine Berührungsbildschirmanzeige und/oder ein Touchpad).
  • In der folgenden Diskussion wird eine elektronische Vorrichtung, welche eine Anzeige und eine berührungsempfindliche Oberfläche umfasst, beschrieben. Es ist jedoch klar, dass die elektronische Vorrichtung optional eine oder mehrere andere physische Benutzerschnittstellenvorrichtungen umfasst, wie beispielsweise eine physische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt typischerweise eine Vielzahl von Anwendungen, wie beispielsweise eine oder mehrere der folgenden: Eine Zeichnungsanwendung, eine Präsentationsanwendung, eine Textverarbeitungsanwendung, eine Webseitenerzeugungsanwendung, eine Disk-Authoring-Anwendung, eine Tabellenanwendung, eine Spieleanwendung, eine Telefonanwendung, eine Videokonferenzanwendung, eine Email-Anwendung, eine Instant-Messaging-Anwendung, eine Trainingsunterstützungsanwendung, eine Fotomanagementanwendung, eine Digitalkameraanwendung, eine Digitalvideokameraanwendung, eine Webbrowsing-Anwendung, eine Digitalmusikplayeranwendung, und/oder Digitalvideoplayeranwendung.
  • Die verschiedenen Anwendungen, welche auf der Vorrichtung ausgeführt werden, verwenden optional zumindest eine gemeinsame physische Benutzerschnittstellenvorrichtung, wie beispielsweise die berührungsempfindliche Oberfläche. Eine oder mehrere Funktionen der berührungsempfindlichen Oberfläche sowie korrespondierende Information, welche auf der Vorrichtung angezeigt wird, werden optional angepasst und/oder variiert von einer Anwendung zu der nächsten und/oder innerhalb einer jeweiligen Anwendung. Auf diese Weise unterstützt eine gemeinsame physische Architektur (wie beispielsweise berührungsempfindliche Oberfläche) der Vorrichtung optional die Vielzahl von Anwendungen mit Benutzerschnittstellen, welche für den Benutzer intuitiv und transparent sind.
  • Nun wird verwiesen auf Ausführungsformen der tragbaren Vorrichtungen mit berührungsempfindlichen Anzeigen. 1A ist ein Blockdiagramm, welches eine tragbare Multifunktionsvorrichtung 100 mit berührungsempfindlichen Anzeigen 112 gemäß einigen Ausführungsformen zeigt. Die berührungsempfindliche Anzeige 112 wird manchmal ein „Berührungsbildschirm” der Einfachheit halber genannt, und ist manchmal bekannt als oder genannt ein berührungsempfindliches Anzeigesystem. Die Vorrichtung 100 umfasst einen Speicher 102 (welcher optional ein oder mehrere computerlesbare Speichermedien umfasst), Speichersteuereinheit 122, eine oder mehrere Verarbeitungseinheiten (CPUs) 120, Peripheriegeräteschnittstelle 118, HF-Schaltung 108, Audioschaltung 110, Lautsprecher 111, Mikrophon 113, Eingabe/Ausgabe(I/O)-Subsystem 106, andere Eingabe- oder Steuerungsvorrichtungen 116, und einen externen Anschluss 124. Die Vorrichtung 100 umfasst optional einen oder mehrere optische Sensoren 164. Die Vorrichtung 100 umfasst optional einen oder mehrere Intensitätssensoren 165 zum Detektieren der Intensität von Kontakten auf der Vorrichtung 100 (z. B. einer berührungsempfindlichen Oberfläche, wie beispielsweise das berührungsempfindliche Anzeigesystem 112 der Vorrichtung 100). Die Vorrichtung 100 umfasst optional einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 100 (z. B. Erzeugen taktiler Ausgaben auf einer berührungsempfindlichen Oberfläche, wie beispielsweise berührungsempfindliches Anzeigesystem 112 der Vorrichtung 100 oder Touchpad 355 der Vorrichtung 300). Diese Komponenten kommunizieren optional über einen oder mehrere Kommunikationsbusse oder Signalleitungen 103.
  • Wie in der Beschreibung und in den Ansprüchen verwendet, bezieht sich der Ausdruck „Intensität” eines Kontakts auf einer berührungsempfindlichen Oberfläche auf die Kraft oder den Druck (Kraft pro Flächeneinheit) eines Kontakts (z. B. eines Fingerkontakts) auf der berührungsempfindlichen Oberfläche, oder auf einen Ersatz (Vertreter (Proxy)) für die Kraft oder den Druck eines Kontakts auf die berührungsempfindliche Oberfläche. Die Intensität eines Kontakts hat einen Wertebereich, welcher zumindest vier verschiedene Werte umfasst, und typischer hunderte von verschiedenen Werten umfasst (z. B. zumindest 256). Die Intensität eines Kontakts wird optional bestimmt (oder gemessen) unter Verwendung verschiedener Herangehensweisen und verschiedener Sensoren oder Kombinationen von Sensoren. Zum Beispiel werden ein oder mehrere Kraftsensoren unterhalb oder neben der berührungsempfindlichen Oberfläche optional verwendet zum Messen der Kraft an verschiedenen Punkten auf der berührungsempfindlichen Oberfläche. In einigen Implementierungen werden Kraftmessungen aus mehreren Kraftsensoren kombiniert (z. B. ein gewichteter Durchschnitt) zum Bestimmen einer geschätzten Kraft eines Kontakts. In ähnlicher Weise wird eine drucksensitive Spitze eines Stifts optional verwendet zum Bestimmen eines Drucks des Stifts auf die berührungsempfindliche Oberfläche. Alternativ werden die Größe des Kontaktbereichs, welcher auf der berührungsempfindlichen Oberfläche detektiert wird und/oder Änderungen dieser, die Kapazität der berührungsempfindlichen Oberfläche in der Nähe des Kontakts und/oder Änderungen dieser, und/oder der Widerstand der berührungsempfindlichen Oberfläche nahe des Kontakts und/oder Änderungen von diesem, optional verwendet als ein Ersatz für die Kraft oder den Druck des Kontakts auf die berührungsempfindliche Oberfläche. In einigen Implementierungen werden die Ersatzmessungen für die Kontaktkraft oder den Druck direkt verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle wird in Einheiten entsprechend den Ersatzmessungen beschrieben). In einigen Implementierungen werden die Ersatzmessungen für Kontaktkraft oder -druck konvertiert in eine geschätzte Kraft oder Druck, und die geschätzte Kraft oder Druck wird verwendet zum Bestimmen, ob eine Intensitätsschwelle überschritten worden ist (z. B. die Intensitätsschwelle ist eine Druckschwelle, welche in Einheiten von Druck gemessen wird).
  • Wie in der Beschreibung und den Ansprüchen verwendet, bezieht sich der Ausdruck „taktile Ausgabe” auf physische Verschiebung einer Vorrichtung relativ zu einer vorherigen Position der Vorrichtung, physische Verschiebung einer Komponente (z. B. einer berührungsempfindlichen Oberfläche) einer Vorrichtung relativ zu einer anderen Komponente (z. B. Gehäuse) der Vorrichtung, oder Verschiebung der Komponente relativ zu einem Massezentrum der Vorrichtung, welches durch einen Benutzer detektiert werden wird mit dem Berührungsempfinden des Benutzers. Zum Beispiel in Situationen, wo die Vorrichtung oder die Komponente der Vorrichtung in Kontakt mit einer Oberfläche eines Benutzers ist, welche berührungsempfindlich ist (z. B. ein Finger, eine Handfläche oder ein anderer Teil der Hand eines Benutzers), wird die taktile Ausgabe, welche durch die physische Verschiebung erzeugt wird, durch den Benutzer interpretiert werden als eine taktile Empfindung, welche einer wahrgenommenen Änderung der physischen Charakteristika der Vorrichtung oder der Komponente der Vorrichtung entspricht. Zum Beispiel wird die Bewegung einer berührungsempfindlichen Oberfläche (z. B. einer berührungsempfindlichen Anzeige oder Trackpad) optional interpretiert durch den Benutzer als ein „Down Click” oder „Up Click” einer physischen Aktuatortaste. In einigen Fällen wird ein Benutzer eine taktile Empfindung fühlen, wie beispielsweise einen „Down Click” oder „UP Click”, selbst wenn es keine Bewegung einer physischen Aktuatortaste, welche mit der berührungsempfindlichen Oberfläche assoziiert ist, gibt, welche physisch durch die Bewegungen des Benutzers gedrückt (z. B. verschoben) wird. Als ein anderes Beispiel wird die Bewegung der berührungsempfindlichen Oberfläche optional interpretiert oder erfasst durch den Benutzer als „Rauigkeit” der berührungsempfindlichen Oberfläche, selbst wenn es keine Änderung der Weichheit (smoothness) der berührungsempfindlichen Oberfläche gibt. Während solche Interpretationen der Berührung durch einen Benutzer von den individualisierten Empfindungswahrnehmungen des Benutzers abhängen werden, gibt es viele Empfindungswahrnehmungen von Berührung, welche einer großen Vielzahl von Benutzern gemein sind. Somit, wenn eine taktile Ausgabe beschrieben wird als korrespondierend mit einer speziellen Empfindungswahrnehmung eines Benutzers (z. B. einem „Up Click”, einem „Down Click”, „Rauigkeit”), wenn nicht anders genannt, korrespondiert die erzeugte taktile Ausgabe mit physischer Verschiebung der Vorrichtung oder einer Komponente davon, welche die beschriebene Empfindungswahrnehmung für einen typischen (oder einen durchschnittlichen) Benutzer erzeugen wird.
  • Es ist klar, dass die Vorrichtung 200 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung ist, und dass die Vorrichtung 100 optional mehr oder weniger Komponenten als gezeigt aufweist, optional zwei oder mehrere Komponenten kombiniert, oder optional eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweist. Die verschiedenen Komponenten, welche in 1A gezeigt sind, werden in Hardware, Software oder einer Kombination von sowohl Hardware als auch Software implementiert, einschließlich einem oder mehreren signalverarbeitungs- und/oder anwendungsspezifischen integrierten Schaltkreisen.
  • Der Speicher 102 umfasst optional Hochgeschwindigkeitsspeicher mit wahlfreiem Zugriff und optional umfasst er auch nicht-flüchtigen Speicher, wie beispielsweise eine oder mehrere magnetische Festplattenspeichervorrichtungen, Flash-Speichervorrichtungen oder andere, nichtflüchtige Solid-State-Speichervorrichtungen. Zugriff auf den Speicher 102 durch andere Komponenten der Vorrichtung 100, wie beispielsweise CPU 120 und Peripheriegeräteschnittstelle 118, wird optional durch die Speichersteuereinheit 122 gesteuert.
  • Die Peripheriegeräteschnittstelle 118 kann verwendet werden zum Koppeln der Eingabe- und Ausgabe-Peripheriegeräte der Vorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 führen verschiedene Softwareprogramme und/oder Sätze von Instruktionen, welche in dem Speicher 102 gespeichert sind, aus, um verschiedene Funktionen für die Vorrichtung 100 durchzuführen und Daten zu verarbeiten.
  • In einigen Ausführungsformen werden die Peripheriegeräteschnittstelle 118, die CPU 120 und die Speichersteuereinheit 122 optional implementiert als ein einzelner Chip, wie beispielsweise Chip 104. In einigen anderen Ausführungsformen sind sie optional implementiert auf getrennten Chips.
  • Die HF(Hochfrequenz)-Schaltung 108 empfängt und sendet HF-Signale, auch genannt elektromagnetische Signale. Die HF-Schaltung 108 konvertiert elektrische Signale zu/aus elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über elektromagnetische Signale. Die HF-Schaltung 108 umfasst optional wohlbekannte Schaltungen zum Ausführen dieser Funktionen, einschließlich aber nicht beschränkt auf ein Antennensystem, einen HF-Transceiver, einen oder mehrere Verstärker, einen Tuner, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, einen CODEC-Chipsatz, eine Subscriber Identity Module(SIM)-Karte, Speicher usw. Die HF-Schaltung 108 kommuniziert optional mit Netzwerken, wie beispielsweise dem Internet, auch bezeichnet als World Wide Web (WWW), einem Intranet und/oder einem drahtlosen Netzwerk, wie beispielsweise einem zellularen Telefonnetzwerk, einem drahtlosen lokalen Bereichsnetzwerk (LAN) und/oder einem Metropolitan Area Network (MAN), und anderen Vorrichtungen durch drahtlose Kommunikation. Die drahtlose Kommunikation verwendet optional irgendeines einer Vielzahl von Kommunikationsstandards, Protokollen und Technologien, einschließlich aber nicht beschränkt auf Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), high-speed uplink packet access (HSUPA), Evolution, Data-Only (EV-DO), HSPA, HSPA+, Dual-Cell HSPA (DC-HSPDA), long term evolution (LTE), near field communication (NFC), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b, IEEE 802.11g und/oder IEEE 802.11n), voice over Internet Protocol (VoiP), Wi-MAX, ein Protokoll für Email (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Instant Messaging (z. B. extensible messaging und presence protocol (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extension (SIMPLE), Instant Messaging und Presence Service (IMPS)), und/oder Short Message Service (SMS), oder irgendein anderes geeignetes Kommunikationsprotokoll, einschließlich Kommunikationsprotokollen, welche noch nicht entwickelt sind bezüglich des Einreichungsdatums dieses Dokuments.
  • Die Audioschaltung 110, der Lautsprecher 111 und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Die Audioschaltung 110 empfängt Audiodaten von der Peripheriegeräteschnittstelle 118, konvertiert die Audiodaten zu einem elektrischen Signal und überträgt das elektrische Signal an den Lautsprecher 111. Der Lautsprecher 111 konvertiert das elektrische Signal zu für den Menschen hörbaren Schallwellen. Die Audioschaltung 110 empfängt auch elektrische Signale, welche durch das Mikrophon 113 aus den Schallwellen konvertiert werden. Die Audioschaltung 110 konvertiert das elektrische Signal zu Audiodaten und überträgt die Audiodaten an die Peripheriegeräteschnittstelle 118 zur Verarbeitung. Die Audiodaten werden optional abgerufen aus und/oder übertragen an den Speicher 102 und/oder die HF-Schaltung 108 durch die Peripheriegeräteschnittstelle 118. In einigen Ausführungsformen umfasst die Audioschaltung 110 auch einen Kopfhöreranschluss (z. B. 212, 2). Der Kopfhöreranschluss stellt eine Schnittstelle zwischen der Audioschaltung 110 und den entfernbaren Audioeingabe/-ausgabe-Peripheriegeräten bereit, wie beispielsweise die Nur-Ausgabe-Kopfhörer oder ein Kopfhörer mit sowohl Ausgabe (z. B. ein Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O-Subsystem 106 koppelt Eingabe-/Ausgabe-Peripheriegeräte auf der Vorrichtung 100, wie beispielsweise Berührungsbildschirm 112 und andere Eingabesteuerungsvorrichtungen 116, mit der Peripheriegeräteschnittstelle 118. Das I/O-Subsystem 106 umfasst optional eine Anzeigesteuereinheit 156, eine optische Sensorsteuereinheit 158, eine Intensitätssteuereinheit 159, haptische Rückmeldungssteuereinheit 161 und eine oder mehrere Eingabesteuereinheiten 160 für andere Eingabe- oder Steuerungsvorrichtungen. Die eine oder die mehreren Eingabesteuereinheiten 160 empfangen/senden elektrische Signale von/an andere Eingabe- oder Steuerungsvorrichtungen 116. Die anderen Eingabesteuerungsvorrichtungen 116 umfassen optional physische Tasten (z. B. Drucktasten, Wipptasten, usw.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder, usw. In einigen alternativen Ausführungsformen werden die Eingabesteuereinheit(en) 116 optional gekoppelt mit irgendeinem (oder keinem) der folgenden: einer Tastatur, Infrarotanschluss, USB-Anschluss, und einer Zeigervorrichtung, wie beispielsweise einer Maus. Die ein oder mehreren Tasten (z. B. 208, 2) umfassen optional eine Nach-oben/Nach-unten-Taste für Lautstärkesteuerung des Lautsprechers 111 und/oder des Mikrophons 113. Die ein oder die mehreren Tasten umfassen optional eine Drucktaste (z. B. 206, 2).
  • Die berührungsempfindliche Anzeige 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigesteuereinheit 156 empfängt und/oder sendet elektrische Signale von/an den Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgabe an den Benutzer an. Die visuelle Ausgabe umfasst optional Grafiken, Text, Symbole, Video und irgendeine Kombination davon (kollektiv „Grafiken” genannt). In einigen Ausführungsformen korrespondiert ein Teil der oder die ganze visuellen Ausgabe mit Benutzerschnittstellenobjekten.
  • Der Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, Sensor oder Satz von Sensoren, welche Eingabe von dem Benutzer basierend auf haptischem und/oder taktilem Kontakt annimmt. Der Berührungsbildschirm 112 und die Anzeigesteuereinheit 156 (zusammen mit irgendwelchen assoziierten Modulen und/oder Sätzen von Instruktionen in dem Speicher 102) detektieren Kontakt (und irgendeine Bewegung oder Unterbrechung des Kontakts) auf dem Berührungsbildschirm 112 und konvertieren den detektierten Kontakt in Interaktion mit den Benutzerschnittstellenobjekten (z. B. einem oder mehreren Softkeys, Symbolen, Webseiten oder Bildern), welche auf dem Berührungsbildschirm 112 angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Punkt von Kontakt zwischen dem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 verwendet optional LCD(liquid crystal display)-Technologie, LPD(light emitting polymer display)-Technologie, oder LED(light emitting diode)-Technologie, obwohl andere Anzeigetechnologien in anderen Ausführungsformen verwendet werden. Der Berührungsbildschirm 112 und die Anzeigesteuereinheit 156 detektieren optional Kontakt und irgendeine Bewegung oder Unterbrechung davon unter Verwendung irgendeiner von einer Vielzahl von Berührungserfassungstechnologien, welche jetzt bekannt sind oder später entwickelt werden, einschließlich aber nicht beschränkt auf kapazitive, resistive, Infrarot- und oberflächenakustische Wellentechnologien, ebenso wie andere Näherungssensor-Arrays oder andere Elemente zum Bestimmen eines oder mehrerer Punkte von Kontakt mit dem Berührungsbildschirm 112. In einer beispielhaften Ausführungsform wird projected mutual capacitance sensing tchnology verwendet, wie beispielsweise jene, welche in dem iPhone®, iPod Touch®, und iPad® von Apple Inc. aus Cupertino California vorgefunden werden.
  • Der Berührungsbildschirm 112 hat optional eine Videoauflösung über 100 dpi. In einigen Ausführungsformen hat der Berührungsbildschirm eine Videoauflösung von ungefähr 160 dpi. Der Benutzer kontaktiert optional den Berührungsbildschirm 112 unter Verwendung irgendeines geeigneten Objekts oder Körpergliedes, wie beispielsweise einem Stift, einem Finger usw. In einigen Ausführungsformen ist die Benutzerschnittstelle gestaltet, um primär mit Finger-basierten Kontakten und Gesten zu arbeiten, welche weniger genau sein können als Stift-basierte Eingabe aufgrund des größeren Bereichs von Kontakt eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsformen übersetzt die Vorrichtung die grobe Finger-basierte Eingabe in eine präzise Zeiger-/Cursorposition oder -befehl zum Ausführen der Aktionen, welche durch den Benutzer gewünscht sind.
  • In einigen Ausführungsformen, zusätzlich zu dem Berührungsbildschirm, umfasst die Vorrichtung 100 optional ein Touchpad (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen. In einigen Ausführungsformen ist das Touchpad ein berührungsempfindlicher Bereich der Vorrichtung, welcher, anders als der Berührungsbildschirm, nicht visuelle Ausgabe anzeigt. Das Touchpad ist optional eine berührungsempfindliche Oberfläche, welche von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, welche durch den Berührungsbildschirm gebildet wird.
  • Die Vorrichtung 100 umfasst auch ein Leistungssystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung. Das Leistungssystem 162 umfasst optional ein Leistungsverwaltungssystem, eine oder mehrere Leistungsquellen (z. B. Batterie, Wechselstrom (AC)), ein Wiederaufladesystem, eine Leistungsausfalldetektionsschaltung, einen Leistungskonverter oder -inverter, einen Leistungsstatusindikator (z. B. eine Licht-emittierende Diode (LED)) und irgendwelche anderen Komponenten, welche mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen assoziiert sind.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere optische Sensoren 164. 1A zeigt einen optischen Sensor, welcher mit der optischen Sensorsteuereinheit 158 in dem I/O-Subsystem 106 gekoppelt ist. Der optische Sensor 164 umfasst optional eine Ladungs-gekoppelte Vorrichtung (CCD) oder komplementäre Metalloxid-Halbleiter(CMOS)-Fototransistoren. Der optische Sensor 164 empfängt Licht aus der Umgebung, projiziert durch eine oder mehrere Linsen, und konvertiert das Licht in Daten, welche ein Bild repräsentieren. In Verbindung mit dem Bildmodul 143 (auch genannt ein Kameramodul), erfasst der optische Sensor 164 optional Standbilder oder Video. In einigen Ausführungsformen ist der optische Sensor angeordnet auf der Rückseite der Vorrichtung 100, gegenüberliegend der Berührungsbildschirmanzeige 112 auf der Vorderseite der Vorrichtung, so dass die Berührungsbildschirmanzeige betriebsbereit ist zur Verwendung als ein Bildsucher für Stand- und/oder Videobilderfassung. In einigen Ausführungsformen ist ein anderer optischer Sensor angeordnet auf der Vorderseite der Vorrichtung, so dass das Bild des Benutzers optional erhalten wird durch Videokonferenz, während der Benutzer die anderen Videokonferenzmitglieder auf der Berührungsbildschirmanzeige betrachtet.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Kontaktintensitätssensoren 165. 1A zeigt einen Kontaktintensitätssensor, welcher mit der Intensitätssensorsteuereinheit 159 in dem I/O-Subsystem 106 gekoppelt ist. Der Kontaktintensitätssensor 165 umfasst optional einen oder mehrere piezoresistive Dehnungsmessstreifen, kapazitive Kraftsensoren, elektrische Kraftsensoren, piezoelektrische Kraftsensoren, optische Kraftsensoren, kapazitive berührungsempfindliche Oberflächen, oder andere Intensitätssensoren (z. B. Sensoren, welche zum Messen der Kraft (oder des Drucks) eines Kontakts auf einer berührungsempfindlichen Oberfläche verwendet werden). Der Kontaktintensitätssensor 165 empfängt Kontaktintensitätsinformation (z. B. Druckinformation oder eine Ersatz (proxy) für Druckinformation) aus der Umgebung. In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. das berührungsempfindliche Anzeigesystem 112). In einigen Ausführungsformen ist zumindest ein Kontaktintensitätssensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend der Berührungsbildschirmanzeige 112, welche auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Näherungssensoren 166. 1A zeigt den Näherungssensor 166, welcher mit der Peripheriegeräteschnittstelle 118 gekoppelt ist. Alternativ wird der Näherungssensor 166 mit der Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen schaltet der Näherungssensor den Berührungsbildschirm 112 ab und deaktiviert diesen, wenn die Multifunktionsvorrichtung sich in der Nähe des Ohrs des Benutzers befindet (z. B. wenn der Benutzer einen Telefonanruf tätigt).
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere taktile Ausgabegeneratoren 167. 1A zeigt einen taktilen Ausgabegenerator, welcher mit der haptischen Rückmeldesteuereinheit 161 in dem I/O-Subsystem 106 gekoppelt ist. Der taktile Ausgabegenerator 167 umfasst optional eine oder mehrere elektroakustische Vorrichtungen, wie beispielsweise Lautsprecher oder andere Audiokomponenten und/oder elektromechanische Vorrichtungen, welche Energie in lineare Bewegung konvertieren, wie beispielsweise ein Motor, eine Magnetspule, ein elektroaktives Polymer, piezoelektrischer Aktuator, elektrostatischer Aktuator, oder eine andere taktile Ausgabe-erzeugende Komponente (z. B. eine Komponente, welche elektrische Signale in taktile Ausgaben auf der Vorrichtung konvertiert). Der Kontaktintensitätssensor 165 empfängt taktile Rückmeldeerzeugungsinstruktionen von dem haptischen Rückmeldungsmodul 133 und erzeugt taktile Ausgaben auf der Vorrichtung 100, welche fähig sind, durch einen Benutzer der Vorrichtung 100 erfasst zu werden. In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegenerator zusammen angeordnet mit oder in der Nähe von einer berührungsempfindlichen Oberfläche (z. B. berührungsempfindliches Anzeigesystem 112) und erzeugt optional eine taktile Ausgabe durch vertikales Bewegen der berührungsempfindlichen Oberfläche (z. B. hinein/heraus aus einer Oberfläche der Vorrichtung 100) oder seitliches Bewegen dieser (z. B. nach hinten und nach vorne in der gleichen Ebene wie eine Oberfläche der Vorrichtung 100). In einigen Ausführungsformen ist zumindest ein taktiler Ausgabegeneratorsensor auf der Rückseite der Vorrichtung 100 angeordnet, gegenüberliegend der Berührungsbildschirmanzeige 112, welche auf der Vorderseite der Vorrichtung 100 angeordnet ist.
  • Die Vorrichtung 100 umfasst auch optional einen oder mehrere Beschleunigungsmesser 168. 1A zeigt den Beschleunigungsmesser 168, welcher mit der Peripheriegeräteschnittstelle 118 gekoppelt ist. Alternativ ist der Beschleunigungsmesser 168 optional mit einer Eingabesteuereinheit 160 in dem I/O-Subsystem 106 gekoppelt. In einigen Ausführungsformen wird die Information auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht, basierend auf einer Analyse von Daten angezeigt, welche von dem einen oder den mehreren Beschleunigungsmessern empfangen werden. Die Vorrichtung 100 umfasst optional zusätzlich zu dem Beschleunigungsmesser/den Beschleunigungsmessern 168, ein Magnetometer (nicht gezeigt) und einen GPS(oder GLONASS oder anderes globales Navigationssystem)-Empfänger (nicht gezeigt) zum Erhalten von Information bezüglich des Orts und der Orientierung (z. B. Portrait oder Landschaft) der Vorrichtung 100.
  • In einigen Ausführungsformen umfassen die Softwarekomponenten, welche in dem Speicher 102 gespeichert sind, ein Betriebssystem 126, ein Kommunikationsmodul (oder Satz von Instruktionen) 128, Kontakt/Bewegungsmodul (oder Satz von Instruktionen) 130, Grafikmodul (oder Satz von Instruktionen) 132, Texteingabemodul (oder Satz von Instruktionen) 134, ein Global Positioning System(GPS)-Modul (oder Satz von Instruktionen) 135, und Anwendungen (oder Satz von Instruktionen) 136. Des Weiteren speichert in einigen Ausführungsformen der Speicher 102 den Vorrichtungs-/globalen internen Zustand 157, wie in 1A und 3 gezeigt. Der Vorrichtungs-/globaler interner Zustand 157 umfasst ein oder mehrere von: aktiver Anwendungszustand, welcher anzeigt, welche Anwendungen, wenn überhaupt welche, derzeitig aktiv sind; dem Anzeigezustand, welcher anzeigt, welche Anwendungen, Ansichten oder andere Information verschiedene Bereiche der Berührungsbildschirmanzeige 112 belegen; Sensorzustand, einschließlich Information, welche von den verschiedenen Sensoren der Vorrichtung und Eingabesteuerungsvorrichtungen 116 erhalten werden; und Standortinformation bezüglich des Orts und/oder der Höhe der Vorrichtung.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, oder ein eingebettetes Betriebssystem wie beispielsweise VxWorks) umfasst verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speicherungsvorrichtungssteuerung, Leistungsverwaltung, usw.) und ermöglicht Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 ermöglicht Kommunikation mit anderen Vorrichtungen über ein oder mehrere externe Ports 124 und umfasst auch verschiedene Softwarekomponenten zum Bearbeiten von Daten, welche durch die HF-Schaltung 108 und/oder den externen Port 124 empfangen wurden. Der externe Port 124 (z. B. Universal Serial Bus (USB), FIREWIRE, usw.) ist angepasst zum direkten Koppeln mit anderen Vorrichtungen oder indirektem Koppeln über ein Netzwerk (z. B. das Internet, drahtloses LAN, usw.). In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 30-Pin)-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 30-Pin-Steckverbinder, welcher auf iPod(Markenzeichen von Apple Inc.)-Vorrichtungen verwendet wird. In einigen Ausführungsformen ist der externe Port ein Multi-Pin(z. B. 8-Pin)-Steckverbinder, welcher der gleiche ist wie oder ähnlich ist zu und/oder kompatibel ist mit dem 8-Pin-Steckverbinder (z. B. Lightning-Steckverbinder), welcher auf iPhone- und iPod-(Markenzeichen von Apple Inc.)-Vorrichtungen verwendet wird.
  • Das Kontakt/Bewegungsmodul 130 detektiert optional Kontakt mit dem Berührungsbildschirm 112 (in Verbindung mit der Anzeigesteuereinheit 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. einem Touchpad oder einem physischen Klickrad). Das Kontakt/Bewegungsmodul 130 umfasst verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, bezogen auf Detektion von Kontakt, wie beispielsweise Bestimmen, ob Kontakt aufgetreten ist (z. B. Detektieren eines Finger-nach-unten-Ereignisses), Bestimmen einer Intensität des Kontakts (z. B. die Kraft oder der Druck des Kontakts oder ein Ersatz für die Kraft oder den Druck des Kontakts), Bestimmen, ob es Bewegung des Kontakts gibt und Nachverfolgen der Bewegung über die berührungsempfindliche Oberfläche hinweg (z. B. Detektieren eines oder mehrerer Finger-ziehen-Ereignisse), und Bestimmen, ob der Kontakt aufgehört hat (z. B. Detektieren eines Finger-nach-oben-Ereignisses oder eines Abbruchs des Kontakts). Das Kontakt-/Bewegungsmodul 130 empfängt Kontaktdaten von der berührungsempfindlichen Oberfläche. Das Bestimmen von Bewegung des Kontaktpunktes, das dargestellt wird durch eine Serie von Kontaktdaten, umfasst optional Bestimmen von Geschwindigkeit (Größenordnung), Geschwindigkeit (Größenordnung und Richtung) und/oder einer Beschleunigung (einer Veränderung der Größenordnung und/oder der Richtung) des Kontaktpunktes. Diese Operationen werden optional auf Einzelkontakte (z. B. Einfingerkontakte) oder auf mehrere gleichzeitige Kontakte (z. B. ”Multitouch”-/mehrfache Fingerkontakte) angewendet. In einigen Ausführungsformen erkennt das Kontakt-/Bewegungsmodul 130 und der Anzeigecontroller 156 einen Kontakt auf einem Touchpad.
  • In einigen Ausführungsformen verwendet das Kontakt/Bewegungsmodul 130 einen Satz von ein oder mehreren Intensitätsschwellen, um zu bestimmen, ob eine Operation durch einen Benutzer ausgeführt worden ist (z. B. um zu bestimmen, ob ein Benutzer auf ein Symbol „geklickt” hat). In einigen Ausführungsformen werden zumindest eine Untermenge von den Intensitätsschwellen bestimmt gemäß Softwareparametern (z. B. die Intensitätsschwellen werden nicht bestimmt durch die Aktivierungsschwellen spezieller physischer Aktuatoren und können angepasst werden, ohne Ändern der physischen Hardware der Vorrichtung 100). Zum Beispiel kann eine Maus-„Klick”-Schwelle eines Trackpads oder einer Berührungsbildschirmanzeige auf irgendeinen von einem großen Bereich von vordefinierten Schwellenwerten gesetzt werden, ohne das Trackpad oder die Berührungsbildschirmanzeigehardware zu ändern. Zusätzlich werden in einigen Implementierungen einem Benutzer der Vorrichtung Softwareeinstellungen zum Anpassen ein oder mehrerer des Satzes von Intensitätsschwellen bereitgestellt (z. B. durch Anpassen von individuellen Intensitätsschwellen und/oder durch Anpassen einer Vielzahl von Intensitätsschwellen) gleichzeitig mit einem System-Level-Klick-„Intensitäts”-Parameter).
  • Das Kontakt-/Bewegungsmodul 130 detektiert optional eine Gesteneingabe durch einen Benutzer. Unterschiedliche Gesten auf der berührungsempfindlichen Oberfläche haben unterschiedliche Kontaktmuster (z. B. unterschiedliche Bewegungen, Timings und/oder Intensitäten der detektierten Kontakte). Somit wird eine Geste durch Detektieren eines bestimmten Kontaktmusters optional detektiert. Zum Beispiel umfasst das Detektieren einer Fingertapgeste ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines Finger-Herauf-(Abheben)-Ereignisses an derselben Position (oder im Wesentlichen derselben Position) wie das Finger-Herunter-Ereignis (z. B. an der Position eines Symbols). Als ein anderes Beispiel umfasst das Detektieren einer Finger-Wisch-Geste auf der berührungsempfindlichen Oberfläche ein Detektieren eines Finger-Herunter-Ereignisses, gefolgt von einem Detektieren eines oder mehrerer Finger-Ziehen-Ereignisse und anschließend gefolgt von einem Detektieren eines Finger-Herauf(Abheben)-Ereignisses.
  • Das Grafikmodul 132 umfasst verschiedene bekannte Softwarekomponenten zum Rendern und Darstellen von Grafiken auf dem Berührungsbildschirm 112 oder einer anderen Anzeige umfassend Komponenten zum Ändern der visuellen Wirkung (z. B. Helligkeit, Durchsichtigkeit, Sättigung, Kontrast oder andere visuelle Eigenschaft) von Grafiken, die angezeigt werden. Wie hier verwendet bezeichnet der Ausdruck ”Grafiken” jedes Objekt, das einem Benutzer angezeigt werden kann, einschließlich ohne Beschränkung, Text, Webseiten, Symbole (wie Benutzerschnittstellenobjekte einschließlich Soft Keys), digitale Bilder, Videos, Animationen und Ähnliches.
  • In einigen Ausführungsformen speichert das Grafikmodul 132 Daten, die Grafiken, die zu verwenden sind, repräsentieren. Jeder Grafik ist optional ein entsprechender Code zugeordnet. Das Grafikmodul 132 empfängt von Anwendungen usw. einen oder mehrere Codes, die anzuzeigende Grafiken spezifizieren zusammen mit, falls notwendig, Koordinatendaten und anderen Grafikeigenschaftsdaten und erzeugt dann Bildschirm-Bilddaten zum Ausgeben an den Anzeigecontroller 156.
  • Das haptische Rückmeldungsmodul 133 umfasst verschiedene Softwarekomponenten zum Erzeugen von Instruktionen, welche durch den/die taktilen Ausgabegenerator(en) 167 verwendet werden, um taktile Ausgaben an einem oder mehreren Orten auf der Vorrichtung 100 zu erzeugen in Antwort auf Benutzerinteraktionen mit der Vorrichtung 100.
  • Das Texteingabemodul 134, welches optional eine Komponente des Grafikmoduls 132 ist, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, Email 140, IM 141, Browser 147, und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS-Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Verwendung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, an die Kamera 143 als Bild-/Videometadaten und an Anwendungen, die positionsbasierte Dienste bereitstellen wie Wetter-Widgets, lokale Gelbe-Seiten-Widgets und Karten-/Navigations-Widgets).
  • Die Anwendungen 136 umfassen optional die folgenden Module (oder Mengen von Instruktionen) oder eine Untermenge oder Obermenge davon:
    • • Kontaktmodul 137 (manchmal bezeichnet als Adressbuch oder Kontaktliste);
    • • Telefonmodul 138;
    • • Videokonferenzmodul 139;
    • • Emailclientmodul 140;
    • • Instant Messaging-(IM)-Modul 141;
    • • Trainingsunterstützungsmodul 142;
    • • Kameramodul 143 für Stand- und/oder Videobilder;
    • • Bildmanagementmodul 144;
    • • Browsermodul 147;
    • • Kalendermodul 148;
    • • Widget-Module 149, welche optional eines oder mehrere der Folgenden enthalten: Wetter-Widget 149-1, Aktien-Widget 149-2, Taschenrechner-Widget 149-3, Wecker-Widget 149-4, Wörterbuch-Widget 149-5 und andere Widgets, die vom Benutzer erhalten werden, sowie benutzererzeugte Widgets 149-6;
    • • Widget-Erzeugungsmodul 150 zum Erstellen benutzererstellter Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikplayermodul 152, welches optional aus einem Videoplayermodul und einem Musikplayermodul gebildet ist;
    • • Notizmodul 153;
    • • Kartenmodul 154; und/oder
    • • Online-Videomodul 155.
  • Beispiele anderer Anwendungen 136, die optional im Speicher 102 gespeichert sind, umfassen andere Textverarbeitungsanwendungen, andere Bildbearbeitungsanwendungen, Zeichnungsanwendungen, Präsentationsanwendungen, JAVA-fähige Anwendungen, Verschlüsselung, digitales Rechtemanagement, Spracherkennung und Spracherzeugung.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134, wird das Kontaktmodul 137 optional verwendet zum Verwalten eines Adressbuches oder einer Kontaktliste (z. B. gespeichert in dem anwendungsinternen Zustand 192 des Kontaktmoduls 137 im Speicher 102 oder im Speicher 270) umfassend: Hinzufügen eines oder mehrerer Name(n) zu dem Adressbuch; Löschen eines oder mehrerer Name(n) aus dem Adressbuch; Verknüpfen einer oder mehrerer Telefonnummer(n), Emailadresse(n), physikalische Adresse(n) oder anderer Informationen mit einem Namen; Verknüpfen eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder Emailadressen zum Einleiten und/oder Ermöglichen von Kommunikationen durch das Telefon 138, Videokonferenz 139, Email 140, oder IM 141 usw.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 wird das Telefon 138 optional zum Eingeben einer Sequenz von Zeichen verwendet, die einer Telefonnummer entspricht, zum Zugreifen auf eine oder mehrere Telefonnummern in dem Adressbuch 137, zum Ändern einer Telefonnummer, die eingegeben wurde, zum Wählen einer entsprechenden Telefonnummer, zum Führen einer Konversation und Trennen oder Auflegen, wenn die Konversation abgeschlossen ist. Wie oben erwähnt, verwendet die drahtlose Kommunikation einen beliebigen einer Vielzahl von Kommunikationsstandards, Protokollen oder Technologien.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Audioschaltkreis 110, dem Lautsprecher 111, dem Mikrofon 113, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem optischen Sensor 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, der Kontaktliste 137 und dem Telefonmodul 138 umfasst das Videokonferenzmodul 139 ausführbare Instruktionen zum Initiieren, Führen und Beenden einer Videokonferenz zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Emailclientmodul 140 ausführbare Instruktionen zum Erzeugen, Senden, Empfangen und Verwalten von Email in Reaktion auf Benutzeranweisungen. In Verbindung mit dem Bildmanagementmodul 144 macht es das Emailclientmodul 140 sehr einfach, Emails mit Standbildern oder Videobildern, die mit dem Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 132 und dem Texteingabemodul 134 umfasst das Instant-Messaging-Modul 141 ausführbare Instruktionen zum Eingeben einer Sequenz von Zeichen, die einer Instant Message entsprechen, zum Verändern zuvor eingegebener Zeichen, zum Senden einer entsprechenden Instant Message (z. B. unter Verwendung eines Short Message Service(SMS)- oder Multimedia Message Service-(MMS)-Protokolls für telefoniebasierte Instant Messages oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Instant Messages) zum Empfangen von Instant Messages und zum Betrachten empfangener Instant Messages. In einigen Ausführungsformen umfassen übertragene und/oder empfangene Instant Messages Grafiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie in einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden. Wie hier verwendet bezieht sich ”Instant Messaging” sowohl auf telefoniebasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS versendet wurden) als auch internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS) versendet wurden.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135, dem Kartenmodul 154 und dem Musikplayermodul 146 umfasst das Trainingsunterstützungsmodul 142 ausführbare Instruktionen zum Erzeugen von Trainingsplänen (z. B. mit Zeit-, Entfernungs- und/oder Kalorienverbrennungszielen); Kommunizieren mit Trainingssensoren (Sportvorrichtungen); Empfangen von Trainingssensordaten; Kalibrieren von Sensoren, die verwendet werden zum Überwachen eines Trainings; Auswählen und Abspielen von Musik für ein Training; und Anzeigen, Speichern und Senden von Trainingsdaten.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem/den optischen Sensoren 164, dem optischen Sensorcontroller 158, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Bildmanagementmodul 144 umfasst das Kameramodul 143 ausführbare Instruktionen zum Aufnehmen von Standbildern oder Video (umfassend einen Videostream) und Speichern dieser in den Speicher 102, Verändern von Eigenschaften eines Standbildes oder eines Videos, oder Löschen eines Standbildes oder eines Videos aus dem Speicher 102.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Kameramodul 143 umfasst das Bildmanagementmodul 144 ausführbare Instruktionen zum Anordnen, Verändern (z. B. Bearbeiten) oder anderweitiges Manipulieren, Benennen, Löschen, Präsentieren (z. B. in einer digitalen Diashow oder einem Album) und Speichern von Stand- und/oder Videobildern.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Browsermodul 147 ausführbare Instruktionen zum Browsen des Internets in Übereinstimmung mit Benutzeranweisungen, einschließlich Suchen, Verweisen auf, Empfangen und Anzeigen von Webseiten oder Teilen davon, sowie von Anhängen und anderen Dateien, die mit Webseiten verknüpft sind.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Kalendermodul 148 ausführbare Instruktionen zum Erzeugen, Anzeigen, Verändern und Speichern von Kalendern und Daten, die mit Kalendern verknüpft sind (z. B. Kalendereinträge, To-Do-Listen usw.) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 sind die Widget-Module 149 Mini-Anwendungen, die optional durch einen Benutzer heruntergeladen und verwendet werden (z. B. das Wetter-Widget 149-1, das Aktien-Widget 149-2, das Taschenrechner-Widget 149-3, das Wecker-Widget 149-4 und das Wörterbuch-Widget 149-5) oder die durch den Benutzer erzeugt werden können (z. B. das benutzererzeugte Widget 149-6). In einigen Ausführungsformen umfasst ein Widget eine HTML-(Hypertext Markup Language)-Datei, eine CSS(Cascading Style Sheets)-Datei und eine JavaScript-Datei. In einigen Ausführungsformen umfasst ein Widget eine XML-(Extensible Markup Language)-Datei und eine JavaScript-Datei (z. B. Yahoo!@ Widgets).
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134 und dem Browsermodul 147 wird das Widget-Erzeugungsmodul 150 optional durch einen Benutzer verwendet, um Widgets zu erzeugen (z. B. durch Umwandeln eines benutzerspezifischen Anteils einer Webseite in ein Widget).
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Suchmodul 151 ausführbare Instruktionen zum Suchen nach Text, Musik, Klängen, Bildern, Video und/oder anderen Dateien im Speicher 102, die einem oder mehreren Suchkriterien entsprechen (z. B. einem oder mehreren benutzerspezifizierten Suchbegriffen) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem Berührungsbildschirm 112 umfasst die Anzeigesystemsteuereinheit 156, das Kontaktmodul 130, das Grafikmodul 132, die Audioschaltung 110, der Lautsprecher 111, die HF-Schaltung 108 und das Browsermodul 147, das Video- und Musikplayermodul 152 ausführbare Instruktionen, welche dem Benutzer erlauben, aufgezeichnete Musik und andere Sounddateien herunterzuladen und wiederzugeben, welche in ein oder mehreren Dateiformaten gespeichert sind, wie beispielsweise MP3- oder AAC-Dateien, und ausführbare Instruktionen zum Anzeigen, Darstellen oder anderweitig Abspielen von Videos (z. B. auf einem Berührungsbildschirm 112 oder auf einer externen verbundenen Anzeige über den externen Port 124). In einigen Ausführungsformen umfasst die Vorrichtung 100 optional die Funktionalität eines MP3-Players, wie beispielsweise einem iPod (Markenzeichen von Apple Inc.).
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigecontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132 und dem Texteingabemodul 134 umfasst das Notizmodul 153 ausführbare Instruktionen zum Erzeugen und Verwalten von Notizen, To-Do-Listen und Ähnlichem in Übereinstimmung mit Nutzeranweisungen.
  • In Verbindung mit dem HF-Schaltkreis 108, dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Texteingabemodul 134, dem GPS-Modul 135 und dem Browsermodul 147 wird das Kartenmodul 154 optional verwendet zum Empfangen, Anzeigen, Modifizieren und Speichern von Karten und Daten, die mit Karten assoziiert sind (z. B. Fahrtrichtungen; Daten bezüglich Einkaufsgeschäften und anderen Punkten von Interesse an oder nahe einer bestimmten Örtlichkeit; und anderen örtlichkeitsbasierten Daten) in Übereinstimmung mit Benutzeranweisungen.
  • In Verbindung mit dem Berührungsbildschirm 112, dem Anzeigesystemcontroller 156, dem Kontaktmodul 130, dem Grafikmodul 132, dem Audioschaltkreis 110, dem Lautsprecher 111, dem HF-Schaltkreis 108, dem Texteingabemodul 134, dem Emailclientmodul 140 und dem Browsermodul 147 umfasst das Online-Videomodul 155 Instruktionen, die dem Benutzer das Zugreifen, Browsen, Empfangen (z. B. durch Streaming und/oder Download), Abspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen verbundenen Anzeige über den externen Port 124), das Senden einer Email mit einem Link auf ein bestimmtes Online-Video und anderweitiges Verwalten von Online-Videos in einem oder mehreren Dateiformaten, wie H.264, erlauben. In einigen Ausführungsformen wird statt des Emailclientmoduls 140 das Instant-Messaging-Modul 141 verwendet zum Senden eines Links auf ein bestimmtes Online-Video.
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Menge von ausführbaren Instruktionen zum Ausführen einer oder mehrerer Funktionen, wie sie oben beschrieben sind, und der Verfahren, wie sie in dieser Anmeldung beschrieben sind (z. B. die computerimplementierten Verfahren und andere Informationsverarbeitungsverfahren, wie sie hier beschrieben sind). Diese Module (d. h. Sätze von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein und somit werden verschiedene Untermengen dieser Module optional kombiniert und anderweitig zusammengefügt in verschiedenen Ausführungsformen. In einigen Ausführungsformen speichert der Speicher 102 optional eine Untermenge der Module und Datenstrukturen, wie sie oben beschrieben sind. Ferner speichert der Speicher 102 optional zusätzliche Module und Datenstrukturen, die oben nicht beschrieben sind.
  • In einigen Ausführungsformen ist die Vorrichtung 100 eine Vorrichtung, bei der die Bedienung einer vorbestimmten Menge von Funktionen auf der Vorrichtung ausschließlich durch ein Berührungsbildschirm und/oder ein Touchpad ausgeführt wird. Durch Verwenden eines Berührungsbildschirms und/oder eines Touchpads als primäre Eingabesteuervorrichtung für den Betrieb der Vorrichtung 100 wird die Anzahl physikalischer Eingabesteuervorrichtungen (wie Push Buttons, Dials und Ähnliches) auf der Vorrichtung 100 reduziert.
  • Der vordefinierte Satz von Funktionen, die ausschließlich durch einen Berührungsbildschirm und/oder ein Touchpad ausgeführt werden, umfassen optional eine Navigation zwischen Benutzerschnittstellen. In einigen Ausführungsformen navigiert das Touchpad, wenn es durch einen Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Home- oder Wurzelmenü ausgehend von einer beliebigen Benutzerschnittstelle, die optional auf der Vorrichtung 100 angezeigt wird. In solchen Ausführungsformen wird eine ”Menütaste” unter Verwendung eines Touchpads implementiert. In einigen anderen Ausführungsformen ist die Menütaste ein physikalischer Push Button oder eine andere physikalische Eingabesteuervorrichtung anstelle des Touchpads.
  • 1B ist ein Blockdiagramm, das beispielhafte Komponenten zur Ereignisbehandlung in Übereinstimmung mit einigen Ausführungsformen darstellt. In einigen Ausführungsformen umfasst der Speicher 102 (in 1A) oder 370 (3) einen Ereignissortierer 170 (z. B. in dem Betriebssystem 126) und eine entsprechende Anwendung 136-1 (z. B. irgendeine der zuvor erwähnten Anwendungen 137-13, 155, 380 bis 390).
  • Der Ereignissortierer 170 empfängt Ereignisinformation und bestimmt die Anwendung 136-1 und die Anwendungsansicht 191 der Anwendung 136-1, zu der die Ereignisinformation geliefert werden soll. Der Ereignissortierer 170 umfasst einen Ereignismonitor 171 und ein Ereigniszuteilermodul 174. In einigen Ausführungsformen umfasst die Anwendung 136-1 einen anwendungsinternen Status 192, der die aktuell auf der berührungsempfindlichen Anzeige 112 angezeigte Anwendungsansichten) anzeigt, wenn die Anwendung aktiv ist oder ausgeführt wird. In einigen Ausführungsformen wird ein Vorrichtungs-/globaler interner Status 157 von dem Ereignissortierer 170 verwendet zum Bestimmen, welche Applikationen) gegenwärtig aktiv ist bzw. sind und der anwendungsinterne Status 192 wird durch den Ereignissortierer 170 verwendet, um die Anwendungsansichten 191 zu bestimmen, an die die Ereignisinformation zu liefern ist.
  • In einigen Ausführungsformen umfasst der anwendungsinterne Status 192 zusätzliche Informationen sowie eines oder mehrere von: Wiederaufnahmeinformation, die verwendet wird, wenn die Anwendung 136-1 mit ihrer Ausführung fortfährt; Benutzerschnittstellenzustandsinformation, die Information anzeigt, die angezeigt wird oder die bereit ist, angezeigt zu werden durch die Anwendung 136-1, eine Zustandsqueue, um es dem Benutzer zu ermöglichen, zurückzugehen zu einem früheren Zustand oder einer früheren Ansicht der Anwendung 136-1 und eine Wiederholen/Rückgängigmachen-Queue vorhergehender Aktionen, die der Benutzer ausgeführt hat.
  • Der Ereignismonitor 171 empfängt Ereignisinformation von der Peripherieschnittstelle 118. Die Ereignisinformation umfasst Informationen über ein Subereignis (z. B. ein Berühren eines Benutzers auf der berührungsempfindlichen Anzeige 112 als Teil einer Multi-Touch-Geste). Die Peripherieschnittstelle 118 sendet Informationen, die sie von dem I/O-Subsystem 106 oder einem Sensor, wie dem Näherungssensor 166, dem/den Beschleunigungsmessern) 168 und/oder dem Mikrofon 113 (durch den Audioschaltkreis 110) empfängt. Informationen, die die Peripherieschnittstelle 118 von dem I/O-Subsystem 106 empfängt, umfasst Informationen von der berührungsempfindlichen Anzeige 112 oder einer berührungsempfindlichen Oberfläche.
  • In einigen Ausführungsformen sendet der Ereignismonitor 171 Anfragen an die Peripherieschnittstelle 118 in vorbestimmten Intervallen. In Reaktion darauf sendet die Peripherieschnittstelle 118 Ereignisinformationen. In anderen Ausführungsformen sendet die Peripherieschnittstelle 118 Ereignisinformationen nur, wenn es ein signifikantes Ereignis gibt (z. B. ein Empfangen einer Eingabe oberhalb eines vorbestimmten Rauschschwellwertes und/oder für mehr als eine vorbestimmte Zeitdauer).
  • In einigen Ausführungsformen umfasst der Ereignissortierer 170 auch ein Trefferansichts-Bestimmungsmodul 172 und/oder ein aktives Ereigniserkenner-Bestimmungsmodul 173.
  • Das Trefferansichts-Bestimmungsmodul 172 stellt Softwareprozeduren zum Bestimmen bereit, wo ein Subereignis stattgefunden hat innerhalb einer oder mehrerer Ansichten, wenn die berührungsempfindliche Anzeige 112 mehr als eine Ansicht anzeigt. Ansichten bestehen aus Steuerelementen und anderer Elementen, die ein Benutzer auf der Anzeige sehen kann.
  • Ein anderer Aspekt der Benutzerschnittstelle, die mit einer Anwendung verknüpft ist, ist eine Menge von Ansichten, hier manchmal als Anwendungsansichten oder Benutzerschnittstellenfenster bezeichnet, in denen Information angezeigt ist und berührungsbasierte Gesten auftreten. Die Anwendungsansichten (einer entsprechenden Anwendung), in denen eine Berührung erkannt wird, entsprechen optional programmatischen Ebenen innerhalb einer programmatischen oder Ansichtshierarchie der Anwendung. Zum Beispiel wird die Ansicht der niedrigsten Ebene, in der eine Berührung erkannt wird, optional als Trefferansicht bezeichnet und die Menge der Ereignisse, die erkannt wird als korrekte Eingaben, wird optional zumindest teilweise basierend auf der Trefferansicht der initialen Berührung, die eine berührungsbasierte Geste beginnt, bestimmt werden.
  • Das Trefferansichts-Bestimmungsmodul 172 empfängt Informationen bezüglich Subereignissen einer berührungsbasierten Geste. Wenn eine Anwendung mehrfache Ansichten aufweist, die in einer Hierarchie organisiert sind, identifiziert das Trefferansichts-Bestimmungsmodul 172 eine Trefferansicht als die niedrigste Ansicht in der Hierarchie, die das Subereignis behandeln sollte. In den meisten Fällen ist die Trefferansicht die Ansicht der niedrigsten Ebene, in der ein initiierendes Subereignis auftritt (d. h. das erste Subereignis in der Sequenz von Subereignissen, die ein Ereignis oder ein potenzielles Ereignis ausbilden). Sobald die Trefferansicht identifiziert ist durch das Trefferansichts-Bestimmungsmodul, empfängt die Trefferansicht typischerweise alle Subereignisse, die mit derselben Berührungs-/oder Eingabequelle verbunden sind, für die sie als Trefferansicht identifiziert wurde.
  • Das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt, welche Ansicht oder Ansichten innerhalb einer Ansichtshierarchie eine bestimmte Sequenz von Subereignissen empfangen sollte. In einigen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass nur die Trefferansicht eine bestimmte Sequenz von Subereignissen empfangen sollte. In anderen Ausführungsformen bestimmt das aktive Ereigniserkenner-Bestimmungsmodul 173, dass alle Ansichten, die die physikalische Position eines Subereignisses beinhalten, aktiv involvierte Ansichten sind und bestimmt daher, dass alle aktiv involvierten Ansichten eine bestimmte Sequenz von Subereignissen empfangen sollten. In anderen Ausführungsformen würden Ansichten, die höher in der Hierarchie angeordnet sind, weiterhin als aktiv involvierte Ansichten verbleiben, selbst wenn Berührungssubereignisse vollständig auf den Bereich begrenzt wären, der mit einer bestimmten Ansicht verknüpft ist.
  • Das Ereigniszuteilermodul 174 teilt die Ereignisinformation einem Ereigniserkenner zu (z. B. dem Ereigniserkenner 180). In Ausführungsformen, die das aktive Ereigniserkenner-Bestimmungsmodul 173 umfassen, liefert das Ereigniszuteilermodul 174 die Ereignisinformation an einen Ereigniserkenner, der durch das aktive Ereigniserkenner-Bestimmungsmodul 173 bestimmt wird. In manchen Ausführungsformen speichert das Ereigniszuteilermodul 174 die Ereignisinformation in einer Ereignisqueue, die von einem entsprechenden Ereignisempfängermodul 182 abgefragt wird.
  • In einigen Ausführungsformen umfasst das Betriebssystem 126 einen Ereignissortierer 170. Alternativ umfasst die Anwendung 136-1 einen Ereignissortierer 170. In wieder anderen Ausführungsformen ist der Ereignissortierer 170 ein eigenständiges Modul oder ein Teil eines anderen Moduls, das im Speicher 102 gespeichert ist, wie das Kontakt/Bewegungsmodul 130.
  • In einigen Ausführungsformen umfasst die Anwendung 136-1 eine Vielzahl von Ereignishandlern 190 und eine oder mehr Anwendungsansichten 191, von denen jede Instruktionen zum Behandeln von Berührungsereignissen umfasst, die innerhalb einer entsprechenden Ansicht der Anwendungsbenutzerschnittstelle auftreten. Jede Anwendungsansicht 191 der Anwendung 136-1 umfasst einen oder mehrere Ereigniserkenner 180. Typischerweise umfasst eine entsprechende Anwendungsansicht 191 eine Vielzahl von Ereigniserkennern 180. In anderen Ausführungsformen sind einer oder mehrere der Ereigniserkenner 180 Teil eines separaten Moduls, wie eines Benutzerschnittstellen-Kits (nicht gezeigt) oder eines Objekts einer höheren Ebene, von der die Anwendung 136-1 Methoden und andere Eigenschaften erbt. In einigen Ausführungsformen umfasst ein entsprechender Ereignishandler 190 eines oder mehrere der Folgenden: einen Datenaktualisierer 176, einen Objektaktualisierer 177, einen GUI-Aktualisierer 178 und/oder Ereignisdaten 179, die von einem Ereignissortierer 170 empfangen wurden. Der Ereignishandler 190 verwendet optional den Datenaktualisierer 176, den Objektaktualisierer 177 oder den GUI-Aktualisierer 178 oder ruft diese auf zum Aktualisieren des anwendungsinternen Status 192. Alternativ umfassen eine oder mehrere der Anwendungsansichten 191 einen oder mehrere entsprechende Ereignishandler 190. Auch sind in einigen Ausführungsformen einer oder mehrere des Datenaktualisierers 176, des Objektaktualisierers 177 und des GUI-Aktualisierers 178 in einer entsprechenden Anwendungsansicht 191 enthalten.
  • Ein entsprechender Ereigniserkenner 180 empfängt Ereignisinformationen (z. B. Ereignisdaten 179) von dem Ereignissortierer 170 und identifiziert ein Ereignis aus der Ereignisinformation. Der Ereigniserkenner 180 beinhaltet Ereignisempfänger 182 und Ereignisvergleicher 184. In einigen Ausführungsformen beinhaltet der Ereigniserkenner 180 auch mindestens eine Untermenge von: Metadaten 183 und Ereignislieferinstruktionen 188 (welche optional Subereignislieferinstruktionen beinhalten).
  • Der Ereignisempfänger 182 empfängt Ereignisinformation von dem Ereignissortierer 170. Die Ereignisinformation beinhaltet Informationen über ein Subereignis, z. B. eine Berührung oder eine Berührungsbewegung. Abhängig von dem Subereignis beinhaltet die Ereignisinformation auch zusätzliche Information wie den Ort des Subereignisses. Wenn das Subereignis eine Bewegung einer Berührung betrifft, umfasst die Ereignisinformation optional auch Geschwindigkeit und Richtung des Subereignisses. In einigen Ausführungsformen beinhalten Ereignisse eine Rotation der Vorrichtung von einer Orientierung in eine andere (z. B. von einer aufrechten Orientierung in eine waagerechte Orientierung oder umgekehrt) und die Ereignisinformation beinhaltet entsprechende Information über die aktuelle Orientierung (auch bezeichnet als Vorrichtungslage) der Vorrichtung.
  • Der Ereignisvergleicher 184 vergleicht die Ereignisinformation mit vorbestimmten Ereignis- oder Subereignisdefinitionen und, basierend auf dem Vergleich, bestimmt ein Ereignis oder ein Subereignis oder bestimmt oder aktualisiert den Zustand eines Ereignisses oder eines Subereignisses. In einigen Ausführungsformen beinhaltet der Ereignisvergleicher 184 Ereignisdefinitionen 186. Die Ereignisdefinitionen 186 enthalten Definitionen von Ereignissen (z. B. vorbestimmte Sequenzen von Subereignissen), z. B. Ereignis 1 (187-1), Ereignis 2 (187-2) und andere. In einigen Ausführungsformen umfassen Subereignisse in einem Ereignis 187 z. B. einen Berührungsbeginn, ein Berührungsende, eine Berührungsbewegung, einen Berührungsabbruch und mehrfache Berührung. In einem Beispiel ist die Definition für ein Ereignis 1 (187-1) ein Doppeltap auf einem angezeigten Objekt. Zum Beispiel umfasst der Doppeltap eine erste Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein erstes Abheben (Berührungsende) für eine vorbestimmte Phase, eine zweite Berührung (Berührungsbeginn) auf dem angezeigten Objekt für eine bestimmte Phase und ein zweites Abheben (Berührungsende) für eine vorbestimmte Phase. In einem anderen Beispiel ist die Definition für das Ereignis 2 (187-2) ein Ziehen eines angezeigten Objekts. Zum Beispiel umfasst das Ziehen ein Berühren (oder einen Kontakt) auf dem angezeigten Objekt für eine vorbestimmte Phase, ein Bewegen der Berührung über die berührungsempfindliche Anzeige 112 und ein Abheben des Berührens (Berührungsende). In einigen Ausführungsformen umfasst das Ereignis auch Informationen für einen oder mehrere zugehörige Ereignishandler 190.
  • In einigen Ausführungsformen umfasst die Ereignisdefinition 187 eine Definition eines Ereignisses für ein entsprechendes Benutzerschnittstellenobjekt. In einigen Ausführungsformen führt der Ereignisvergleicher 184 einen Treffertest aus zum Bestimmen, welches Benutzerschnittstelleobjekt mit einem Subereignis verknüpft ist. In einer Anwendungsansicht z. B., in der drei Benutzerschnittstellenobjekte angezeigt werden auf der berührungsempfindlichen Anzeige 112, wenn eine Berührung auf der berührungsempfindlichen Anzeige 112 festgestellt wird, führt der Ereignisvergleicher 184 einen Treffertest aus, um zu bestimmen, welches der drei Benutzerschnittstellenobjekte mit der Berührung (Subereignis) verknüpft ist. Wenn jedes angezeigte Objekt mit einem entsprechenden Ereignishandler 190 verknüpft ist, verwendet der Ereignisvergleicher das Ergebnis des Treffertests, um zu bestimmen, welcher Ereignishandler 190 aktiviert werden sollte. Zum Beispiel wählt der Ereignisvergleicher 184 einen Ereignishandler aus, der mit dem Subereignis assoziiert ist und mit dem Objekt, das den Treffertest auslöst.
  • In einigen Ausführungsformen beinhaltet die Definition für ein entsprechendes Ereignis 187 auch verzögerte Aktionen, die das Liefern der Ereignisinformation verzögern, bis bestimmt wurde, ob die Sequenz von Subereignissen dem Ereignistyp des Ereigniserkenners entspricht oder nicht.
  • Wenn ein entsprechender Ereigniserkenner 180 bestimmt, dass die Serie von Subereignissen keinem der Ereignisse in den Ereignissen in den Ereignisdefinitionen 186 entspricht, geht der entsprechende Ereigniserkenner 180 in einen Zustand Ereignis nicht möglich, Ereignis gescheitert oder Ereignis beendet, nachdem er nachfolgende Subereignisse der berührungsbasierten Geste ignoriert. In dieser Situation fahren andere Ereigniserkenner, sofern es solche gibt, die aktiv für die Trefferansicht verbleiben, mit dem Verfolgen und Verarbeiten von Subereignissen einer andauernden berührungsbasierten Geste fort.
  • In einigen Ausführungsformen beinhaltet ein entsprechender Ereigniserkenner 180 Metadaten 183 mit konfigurierbaren Eigenschaften, Flags und/oder Listen, die anzeigen, wie das Ereignisliefersystem Subereignislieferungen ausführen sollte an aktiv involvierte Ereigniserkenner. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, wie Ereigniserkenner miteinander interagieren oder aktiviert werden miteinander zu interagieren. In einigen Ausführungsformen beinhalten die Metadaten 183 konfigurierbare Eigenschaften, Flags und/oder Listen, die anzeigen, ob Subereignisse an variierende Ebenen in der Ansicht oder der programmatischen Hierarchie geliefert werden.
  • In einigen Ausführungsformen aktiviert ein entsprechender Ereigniserkenner 180 den Ereignishandler 190, der mit einem Ereignis assoziiert ist, wenn eines oder mehrere bestimmte Subereignisse eines Ereignisses erkannt werden. In einigen Ausführungsformen liefert ein entsprechender Ereigniserkenner 180 Ereignisinformationen, die mit dem Ereignis assoziiert sind, an den Ereignishandler 190. Das Aktivieren eines Ereignishandlers 190 ist verschieden vom Senden (und vom verzögerten Senden) von Subereignissen an eine entsprechende Trefferansicht. In einigen Ausführungsformen wirft der Ereigniserkenner 180 ein Flag aus, das mit dem erkannten Ereignis assoziiert ist, und der Ereignishandler 190, der mit dem Flag assoziiert ist, erfasst das Flag und führt einen vordefinierten Prozess aus.
  • In einigen Ausführungsformen umfassen die Ereignislieferinstruktionen 188 Subereignislieferinstruktionen, die Ereignisinformationen liefern über ein Subereignis ohne ein Aktivieren eines Ereignishandlers. Stattdessen liefern die Subereignislieferinstruktionen Ereignisinformationen an Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder an aktiv involvierte Ansichten. Ereignishandler, die mit der Serie von Subereignissen assoziiert sind oder mit aktiv involvierten Ansichten, empfangen die Ereignisinformationen und führen einen vorbestimmten Prozess aus.
  • In einigen Ausführungsformen erzeugt und aktualisiert der Datenaktualisierer 176 Daten, die in der Anwendung 136-1 verwendet werden. Zum Beispiel aktualisiert der Datenaktualisierer 176 die Telefonnummer, die in dem Kontaktmodul 137 verwendet wird, oder speichert eine Videodatei, die in dem Videoplayermodul 145 verwendet wird. In einigen Ausführungsformen erzeugt und aktualisiert der Objektaktualisierer 177 Objekte, die in der Anwendung 136-1 verwendet werden. Zum Beispiel erzeugt der Objektaktualisierer 176 ein neues Benutzerschnittstellenobjekt oder aktualisiert die Position eines Benutzerschnittstellenobjekts. Der GUI-Aktualisierer 178 aktualisiert die GUI. Zum Beispiel bereitet der GUI-Aktualisierer 178 Anzeigeinformationen vor und sendet sie an das Grafikmodul 132 zum Anzeigen auf einer berührungsempfindlichen Anzeige.
  • In einigen Ausführungsformen beinhaltet der/die Ereignishandler 190 oder haben der/die Ereignishandler 190 Zugriff auf den Datenaktualisierer 176, den Objektaktualisierer 177 und den GUI-Aktualisierer 178. In einigen Ausführungsformen sind der Datenaktualisierer 176, der Objektaktualisierer 177 und der GUI-Aktualisierer 178 in einem einzigen Modul einer entsprechenden Anwendung 136-1 oder einer Anwendungsansicht 191 enthalten. In anderen Ausführungsformen sind sie in zwei oder mehr Softwaremodulen enthalten.
  • Es ist festzuhalten, dass die vorstehende Diskussion bezüglich Ereignisbehandlung von Benutzerberührungen auf der berührungsempfindlichen Anzeige auch auf andere Formen von Benutzereingaben zum Betreiben der Multifunktionsvorrichtungen 100 mit Eingabevorrichtungen anzuwenden sind, von denen nicht alle auf Berührungsbildschirms initiiert werden. Zum Beispiel werden Mausbewegungen und das Maustastendrücke, welche mit einzelnen oder mehrfachen Tastaturdrücken oder -Halten koordiniert werden; Kontaktbewegungen wie beispielsweise Tippen, Ziehen, Scrollen usw. auf Touchpads; Stiftstyluseingaben; Bewegen der Vorrichtung; mündliche Anweisungen; detektierte Augenbewegungen; biometrische Eingaben; und/oder jede Kombination davon als Eingaben verwendet entsprechend Subereignissen, die ein Ereignis definieren, das erkannt werden soll.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist in Übereinstimmung mit einigen Ausführungsformen. Der Berührungsbildschirm stellt optional eine oder mehrere Grafiken innerhalb einer Benutzerschnittstelle (UI) 200 dar. In dieser Ausführungsform, wie auch in anderen, die unten beschrieben sind, wird einem Benutzer ermöglicht eine oder mehrere der Grafiken auswählen durch Durchführen einer Geste auf den Grafiken, z. B. mit einem oder mehreren Fingern 202 (nicht maßstabsgetreu gezeichnet in der Figur) oder einem oder mehreren Stylus 203 (nicht maßstabsgetreu gezeichnet in der Figur). In einigen Ausführungsformen tritt das Wählen einer oder mehrerer Grafiken auf, wenn der Benutzer den Kontakt mit einer oder mehreren Grafiken unterbricht. In einigen Ausführungsformen umfasst die Geste optional ein oder mehrere Tipp-Bewegungen (taps), eine oder mehrere Wischbewegungen (von links nach rechts, von rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, von links nach rechts, aufwärts und/oder abwärts), der mit der Vorrichtung 100 in Kontakt steht. In einigen Implementierungen oder Umständen wählt unbeabsichtigter Kontakt mit einer Grafik die Grafik nicht aus. Zum Beispiel wählt eine Wischgeste, die über ein Anwendungssymbol wischt, optional die entsprechende Anwendung nicht aus, wenn die Geste zum Auswählen ein Tippen ist.
  • Die Vorrichtung 100 umfasst optional auch einen oder mehrere physikalische Knöpfe, wie einen ”Home” oder Menü-Button 204. Wie zuvor beschrieben wird der Menü-Button 204 optional verwendet zum Navigieren jeder Anwendung 136 in einem Satz von Anwendungen, die optional auf der Vorrichtung 100 ausgeführt werden. Alternativ ist in einigen Ausführungsformen der Menü-Button als Soft Key in einer GUI, die auf dem Berührungsbildschirm 112 angezeigt wird, implementiert.
  • In einer Ausführungsform umfasst die Vorrichtung 100 einen Berührungsbildschirm 112, einen Menü-Button 204, einen Push-Button 206 zum Ein- oder Ausschalten der Vorrichtung und zum Sperren der Vorrichtung, Lautstärkeregel-Knopf/Knöpfe 208, einen Subscriber-Identity-Module-(SIM)-Kartenschacht 210, eine Kopfhörerbuchse 212 und einen Docking-/Lade-externen Port 124. Der Push-Button 206 wird optional verwendet zum Ein- und Ausschalten der Vorrichtung durch Hinunterdrücken des Buttons und Festhalten des Buttons in dem gedrückten Zustand für eine vorbestimmte Zeitdauer; zum Sperren der Vorrichtung durch Hinunterdrücken des Buttons und Loslassen des Buttons vor Ablauf der vorbestimmten Zeitdauer und/oder zum Entsperren der Vorrichtung oder zum Initiieren eines Entsperrvorgangs. In einer alternativen Ausführungsform akzeptiert die Vorrichtung 100 auch verbale Emngaben zur Aktivierung oder Deaktivierung einiger Funktionen durch das Mikrofon 113. Die Vorrichtung 100 umfasst optional auch ein oder mehrere Kontaktintensitätssensoren 165 zum Detektieren von Intensität der Kontakte auf dem Berührungsbildschirm 112 und/oder einen oder mehrere taktile Ausgabegeneratoren 167 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 100.
  • 3 ist ein Blockdiagramm einer beispielhaften Multifunktionsvorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche in Übereinstimmung mit einigen Ausführungsformen. Die Vorrichtung 300 muss nicht tragbar sein. In einigen Ausführungsformen ist die Vorrichtung 300 ein Laptop Computer, ein Desktop Computer, ein Tablet Computer, eine Multimediaspielervorrichtung, eine Navigationsvorrichtung, eine Lernvorrichtung (wie ein Lernspielzeug eines Kindes), ein Spielesystem oder eine Steuervorrichtung (z. B. ein Haus- oder industrieller Controller). Die Vorrichtung 300 umfasst typischerweise eine oder mehrere Verarbeitungseinheiten (CPUs) 310, eine oder mehrere Netzwerk- oder andere Kommunikationsschnittstellen 360, Speicher 370 und einen oder mehrere Kommunikationsbusse 320 zum Verbinden dieser Komponenten. Die Kommunikationsbusse 320 umfassen optional einen Schaltkreis (manchmal als Chipset bezeichnet), der Kommunikationen zwischen Systemkomponenten verbindet und steuert. Die Vorrichtung 300 umfasst eine Eingabe-/Ausgabe-(I/O)-Schnittstelle 330 umfassend die Anzeige 340, die typischerweise eine Berührungsbildschirm-Anzeige ist (z. B. Berührungsbildschirmanzeige 112). Die I/O-Schnittstelle 330 umfasst optional auch eine Tastatur und/oder eine Maus (oder eine andere Zeigevorrichtung) 350 und ein Touchpad 355, einen taktilen Ausgabegenerator 357 zum Erzeugen von taktilen Ausgaben auf der Vorrichtung 300 (z. B. ähnlich dem/den taktilen Ausgabegenerator(en) 167 wie oben beschrieben mit Verweis auf 1A), Sensoren 359 (z. B. optische, Beschleunigungs-, Näherungs-, berührungsempfindliche, und/oder Kontaktintensitätssensoren ähnlich dem/den Kontaktintensitätssensor(en) 165 wie oben beschrieben mit Verweis auf 1A). Der Speicher 370 umfasst Hochgeschwindigkeits-Random-Access-Speicher wie DRAM, SRAM, DDR RAM oder andere Random-Access-Solid-State-Speichervorrichtungen; und umfasst optional nichtflüchtigen Speicher, wie eine oder mehrere magnetische Diskspeichervorrichtungen, optische Diskspeichervorrichtungen, Flash-Speichervorrichtungen, oder andere nichtflüchtige Solid-State-Speichervorrichtungen. Der Speicher 370 umfasst optional eine oder mehrere Speichervorrichtungen, die entfernt von der/den CPU(s) 310 angeordnet sind. In einigen Ausführungsformen speichert der Speicher 370 Programme, Module und Datenstrukturen analog zu den Programmen, Modulen und Daten-strukturen, die in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 gespeichert sind (1) oder eine Teilmenge davon. Ferner speichert der Speicher 370 optional zusätzliche Programme, Module und Datenstrukturen, die nicht in dem Speicher 102 der tragbaren Multifunktionsvorrichtung 100 vorliegen. Zum Bespiel speichert der Speicher 370 der Vorrichtung 300 optional ein Zeichenmodul 380, ein Präsentationsmodul 382, ein Textverarbeitungsmodul 384, ein Webseiten-Erstellungsmodul 386, ein Disk-Authoring-Modul 388 und/oder Tabellenkalkulationsmodul 390, während der Speicher 102 der tragbaren Multifunktionsvorrichtung 100 (1A) diese Module optional nicht speichert.
  • Jedes der oben identifizierten Elemente in 3 wird optional in einer oder in mehreren der zuvor beschriebenen Speichervorrichtungen gespeichert. Jedes der oben identifizierten Module entspricht einer Menge von Instruktionen zum Ausführen einer Funktion wie oben beschrieben. Die oben identifizierten Module oder Programme (d. h. Mengen von Instruktionen) müssen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert sein, und somit werden verschiedene Untermengen dieser Module optional kombiniert oder anderweitig in verschiedenen Ausführungsformen zusammengefügt. In einigen Ausführungsformen speichert der Speicher 370 optional eine Teilmenge der Module und Datenstrukturen speichern, die oben identifiziert sind. Ferner kann der Speicher 370 zusätzliche Module und Datenstrukturen speichern, die oben nicht beschrieben sind.
  • Die Aufmerksamkeit wird nun gerichtet auf Ausführungsformen der Benutzerschnittstellen (”UI”), die optional auf einer tragbaren Multifunktionsvorrichtung 100 implementiert ist.
  • 4A zeigt eine beispielhafte Benutzerschnittstelle für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung 100 in Übereinstimmung mit einigen Ausführungsformen. Ähnliche Benutzerschnittstellen sind auf der Vorrichtung 300 optional implementiert. In einigen Ausführungsformen beinhaltet die Benutzerschnittstelle 400 (oder 475) die folgenden Elemente oder eine Teilmenge oder eine Obermenge davon:
    • • Signalstärkenindikator(en) 402 für drahtlose Kommunikation(en), wie Mobilfunk- und Wi-Fi-Signale;
    • • Zeit 404;
    • • Bluetooth-Indikator 405;
    • • Batteriestatusindikator 406;
    • • Tray 408 mit Symbolen für häufig verwendete Anwendungen, wie:
    • – Symbol 416 für das Telefonmodul 138, bezeichnet „Telefon”, welches optional einen Hinweis 414 der Zahl von verpassten Anrufen oder Voicemail-Nachrichten umfasst;
    • – Symbol 418 für das Email-Client-Modul 140, bezeichnet „Mail”, welches optional einen Hinweis 410 der Anzahl von ungelesenen Emails umfasst;
    • – Symbol 420 für das Browsermodul 147, bezeichnet „Browser”; und
    • – Symbol 422 für das Video- und Musikplayermodul 152, auch bezeichnet als iPod(Markenzeichen von Apple Inc.)-Modul 152, bezeichnet „iPod”
    • • Symbole anderer Anwendungen, wie beispielsweise:
    • – Symbol 424 für IM-Modul 141, bezeichnet „Text”;
    • – Symbol 426 für das Kalendermodul 148, bezeichnet „Kalender”;
    • – Symbol 428 für das Bildverwaltungsmodul 144, bezeichnet „Fotos”;
    • – Symbol 430 für das Kameramodul 143, bezeichnet „Kamera”;
    • – Symbol 432 für das Online-Videomodul 155, bezeichnet „Online Video”;
    • – Symbol 434 für das Aktien-Widget 149-2, bezeichnet „Aktien”;
    • – Symbol 436 für das Kartenmodul 154, bezeichnet „Karte”;
    • – Symbol 438 für das Wetter-Widget 149-1, bezeichnet „Wetter”;
    • – Symbol 440 für das Wecker-Widget 149-4, bezeichnet „Uhr”;
    • – Symbol 442 für das Trainingsunterstützungsmodul 142, bezeichnet „Trainingsunterstützung”;
    • – Symbol 444 für das Notizenmodul 153, bezeichnet „Notizen”; und
    • – Symbol 446 für eine Einstellungsanwendung oder -modul, welches Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellt.
  • Es ist klar, dass die Symbolbezeichnungen, welche in 4A gezeigt sind, lediglich beispielhaft sind. Zum Beispiel ist das Symbol 422 für das Video- und Musikplayermodul 152 bezeichnet „Musik” oder „Musikplayer”. Andere Bezeichnungen werden optional verwendet für verschiedene Anwendungssymbole. In einigen Ausführungsformen umfasst eine Bezeichnung für ein jeweiliges Anwendungssymbol einen Namen einer Anwendung, welche dem jeweiligen Anwendungssymbol entspricht. In einigen Ausführungsformen ist eine Bezeichnung für ein spezielles Anwendungssymbol verschieden von einem Namen einer Anwendung, welches dem speziellen Anwendungssymbol entspricht.
  • 4B zeigt eine beispielhafte Benutzerschnittstelle auf einer Vorrichtung (z. B. Vorrichtung 300, 3) mit einer berührungsempfindlichen Oberfläche 451 (z. B. ein Tablet oder Touchpad 355, 3), welches getrennt ist von der Anzeige 450 (z. B. Berührungsbildschirmanzeige 112). Die Vorrichtung 300 umfasst auch optional ein oder mehrere Kontaktintensitätssensoren (z. B. ein oder mehrere der Sensoren 357) zum Detektieren von Intensität von Kontakten auf der berührungsempfindlichen Oberfläche 451, und/oder ein oder mehrere taktile Ausgabegeneratoren 359 zum Erzeugen von taktilen Ausgaben für einen Benutzer der Vorrichtung 300.
  • Wenngleich einige der Beispiele, die folgen werden, unter Verweis auf Eingaben auf einer Berührungsbildschirm Anzeige 112 gegeben sein werden (wobei die berührungsempfindliche Oberfläche und die Anzeige kombiniert sind), erkennt die Vorrichtung in einigen Ausführungsformen Eingaben auf einer berührungsempfindlichen Oberfläche, die separat ist von der Anzeige, wie in 4B gezeigt. In einigen Ausführungsformen hat die berührungsempfindliche Oberfläche (z. B. 451 in 4B) eine primäre Achse (z. B. 452 in 4B), die einer primären Achse entspricht (z. B. 453 in 4B) auf der Anzeige (z. B. 450). In Übereinstimmung mit diesen Ausführungsformen erkennt die Vorrichtung Kontakte (z. B. 460 und 462 in 4B) mit der berührungsempfindlichen Oberfläche 451 an Positionen, die entsprechenden Positionen auf der Anzeige entsprechen (z. B. entspricht in 4B 460 der 468 und 462 entspricht der 470). Auf diese Weise werden Benutzereingaben (z. B. Kontakte 460 und 462 und Bewegungen davon), die durch die Vorrichtung auf der berührungsempfindlichen Oberfläche erkannt werden (z. B. 451 in 4B), von der Vorrichtung verwendet, um die Benutzerschnittstelle auf der Anzeige (z. B. 450 in 4B) der Multifunktionsvorrichtung zu manipulieren, wenn die berührungsempfindliche Oberfläche separat von der Anzeige ist. Es ist anzumerken, dass ähnliche Verfahren für andere Benutzerschnittstellen, die hier beschrieben sind, optional verwendet werden.
  • Während die folgenden Beispiele primär unter Verweis auf Fingereingaben gegeben sind (z. B. Fingerkontakte, Fingertapgesten, Fingerwischgesten), ist zusätzlich festzuhalten, dass in einigen Ausführungsformen eine oder mehrere der Fingereingaben durch eine Eingabe von einer anderen Eingabevorrichtung ersetzt werden (z. B. durch eine mausbasierte Eingabe oder eine Stylus-Eingabe). Zum Beispiel wird optional eine Wischgeste durch einen Mausklick ersetzt (z. B. anstelle eines Kontakts), gefolgt durch eine Bewegung des Cursors entlang des Pfades des Wischens (z. B. anstelle der Bewegung des Kontakts). Als ein weiteres Beispiel wird eine Tippgeste optional durch einen Mausklick ersetzt, während der Cursor sich über der Position der Tippgeste befindet (z. B. anstelle des Erkennens des Kontakts, gefolgt durch das Beenden des Erkennens des Kontakts). Ähnlich ist anzumerken, dass, wenn mehrere Benutzereingaben simultan erkannt werden, mehrere Computermäuse optional simultan verwendet werden, oder eine Maus und Fingerkontakte optional simultan verwendet werden.
  • Benutzerschnittstellen und verwandte Verfahren
  • Die Aufmerksamkeit wird nun gerichtet auf die Ausführungsformen der Benutzerschnittstellen („user interfaces”, UI) und verwandte Verfahren, die auf einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche implementiert werden können, wie zum Beispiel Vorrichtung 300 oder die tragbare Multifunktionsvorrichtung 100.
  • 5A5R veranschaulichen beispielhaft die Benutzerschnittstellen zum Bereitstellen von Zugriff auf unterschiedliche Funktionalitäten, einschließlich Navigations- und Suchfunktionalitäten in Übereinstimmung mit einigen Ausführungsformen. Die Benutzerschnittstellen in diesen Figuren werden verwendet, um die Verfahren, die nachfolgend beschrieben werden, zu veranschaulichen, einschließlich der Verfahren in 6A6D.
  • 5A veranschaulicht Benutzerschnittstelle 503, die auf Touchscreen 112 der tragbaren Multifunktionsvorrichtung 100 (manchmal hierin ebenso als „Vorrichtung 100” bezeichnet) angezeigt wird. Benutzerschnittstelle 503 beinhaltet eine Vielzahl von Benutzerschnittstellenobjekten (manchmal hierin als „Affordanzen” oder „auswählbare Benutzerschnittstellenobjekte” bezeichnet), einschließlich der Anwendungssymbole 501 und dem Tray 408, welches optional eines oder mehrere Benutzerschnittstellenobjekte beinhaltet. 5A veranschaulicht weiterhin: Eingabe 502, die einen Kontakt und eine Bewegung des Kontakts nach rechts beinhaltet, die weg von einer Kante des Touchscreens 112 beginnt, worauf die Vorrichtung in Antwort von einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle zu einer zweiten Seite navigiert (z. B. wie in 5B5D gezeigt); Eingabe 504, die einen Kontakt und eine Bewegung des Kontakts nach unten beinhaltet, worauf die Vorrichtung in Antwort eine Suchschnittstelle anzeigt, die ein Sucheingabefeld beinhaltet (z. B. wie in den 5E5G gezeigt); Eingabe 506, die einen Kontakt an der oberen Kante des Touchscreens 112 und eine Bewegung nach unten beinhaltet, worauf die Vorrichtung in Antwort optional eine Benachrichtigungszentrumsschnittstelle anzeigt (wie z. B. in 5J5L gezeigt); Eingabe 508, die einen Kontakt an der rechten Kante des Touchscreens 112 und eine Bewegung nach rechts beinhaltet, worauf die Vorrichtung in Antwort optional eine Multitasking-Schnittstelle anzeigt (wie z. B. in 5M5O gezeigt); und Eingabe 510, die einen Kontakt am unteren Ende des Touchscreens 112 und eine Bewegung nach oben beinhaltet, worauf die Vorrichtung in Antwort optional eine Einstellungsschnittstelle anzeigt (z. B. wie in 5P5R gezeigt).
  • 5B5D veranschaulichen ein Beispiel des Navigierens von einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle zu einer zweiten Seite. 5B zeigt Benutzerschnittstelle 503 (z. B. Seite 1) und das Erkennen der Eingabe 502. Eingabe 502 beinhaltet einen Kontakt und eine Bewegung des Kontakts nach rechts. 5C veranschaulicht Eingabe 502 bei Position 502-B und den entsprechenden Übergang zwischen der Benutzerschnittstelle 503 (z. B. Seite 1) und der Benutzerschnittstelle 505 (z. B. Seite 2). 5D zeigt Benutzerschnittstelle 505 (z. B. Seite 2) mit einer unterschiedlichen Vielzahl von Anwendungssymbolen 501 (z. B. Anwendungssymbole 501-17 bis 501-29) (z. B. wechselt die Vorrichtung zu einer nächsten Seite einer Mehrseiten-Anwendungs-Startschnittstelle in Antwort auf das Erkennen einer horizontalen Wischgeste, die an einem Ort startet, der entfernt ist von einer Kante des Touchscreens 112).
  • 5E5G veranschaulichen ein Beispiel des Anzeigens einer Suchschnittstelle, die ein Sucheingabefeld beinhaltet. 5E zeigt Benutzerschnittstelle 503 und die Erkennung der Eingabe 504. Eingabe 504 beinhaltet einen Kontakt und eine Bewegung nach unten. 5F veranschaulicht Eingabe 505 bei Position 504-B und den entsprechenden Übergang zwischen Benutzerschnittstelle 503 und Suchschnittstelle 507, die das Suchfeld 514 beinhaltet. 5G zeigt Suchschnittstelle 507, die das Suchfeld 514 und die Tastatur 516 beinhaltet (z. B. zeigt die Vorrichtung eine Suchschnittstelle in Antwort auf das Erkennen einer Wischgeste nach unten an, die an einem Ort startet, der entfernt ist von einer oberen Kante des Touchscreens 112 und die erkannt wurde, während eine erste Seite der Mehrseiten-Anwendungs-Startschnittstelle auf der Anzeige angezeigt wurde).
  • 5H5I veranschaulichen ein anderes Beispiel des Anzeigens einer Suchschnittstelle, die ein Sucheingabefeld beinhaltet. 5H zeigt Benutzerschnittstelle 505 und die Erkennung der Eingabe 518. Eingabe 518 beinhaltet einen Kontakt (entfernt von dem oberen Ende des Touchscreens 112) und eine Bewegung nach unten. 5I zeigt Benutzerschnittstelle 509, die das Suchfeld 514 und die Tastatur 516 beinhaltet (z. B. zeigt die Vorrichtung eine Suchschnittstelle an, in Antwort auf das Erkennen einer Wischgeste nach unten, die an einem Ort startet, der entfernt ist von einer oberen Kante des Touchscreens 112 und die erkannt wurde während eine zweite Seite der Mehrseiten-Anwendungs-Startschnittstelle auf der Anzeige angezeigt wurde). Demzufolge ist in einigen Ausführungsformen die Suchschnittstelle zum Suchen von Dokumenten, Anwendungen und anderem Inhalt, der in Vorrichtung 100 gespeichert ist, direkt zugreifbar von jeder der Vielzahl von unterschiedlichen Seiten der Mehrseiten-Anwendungs-Startschnittstelle in Antwort auf das Erkennen einer Wischgeste nach unten, die an einem Ort beginnt, der entfernt ist von einer oberen Kante des Touchscreens 112.
  • 5J5L veranschaulichen ein Beispiel eines Anzeigens einer Benachrichtigungszentrumsschnittstelle. 5J zeigt Schnittstelle 503 und das Erkennen der Eingabe 506. Eingabe 506 beinhaltet einen Kontakt, der an der oberen Kante des Touchscreens 112 erkannt worden ist und eine Bewegung des Kontakts nach unten. 5K veranschaulicht Eingabe 506 bei Position 506-b und den entsprechenden Übergang zwischen Benutzerschnittstelle 503 und Benachrichtigungsschnittstelle 511, die den Ereignisse-Inhalt 520 und die Erledigt-Affordanz 522 beinhaltet. 5L zeigt Benachrichtigungsschnittstelle 511, die den Ereignisse-Inhalt 520, Emailinhalt 524, Wettervorhersageinhalt 526 und die Erledigt-Affordanz 522 beinhaltet (z. B. zeigt die Vorrichtung ein Benachrichtigungszentrum an, in Antwort auf das Erkennen einer Wischgeste nach unten, die an einer oberen Kante des Touchscreens 112 beginnt).
  • 5M5O veranschaulichen ein Beispiel des Anzeigens einer Multitasking-Schnittstelle. 5M zeigt Benutzerschnittstelle 503 und das Erkennen der Eingabe 508. Eingabe 508 beinhaltet einen Kontakt, der an der rechten Kante des Touchscreens 112 erkannt worden ist und eine Bewegung des Kontakts nach links. 5N veranschaulicht Eingabe 508 bei Position 506-b und Multitasking-Schnittstelle 513, die eine Darstellung einer Webbrowser-Anwendung 528 und das Browser-Anwendungssymbol 420 beinhaltet, von denen jede, wenn sie aktiviert wird, die Vorrichtung veranlasst, die Browser-Anwendung anzuzeigen (z. B. in einem Vollbildschirmbetriebsmodus). 5O veranschaulicht Eingabe 508 bei Position 506-c und Multitasking-Schnittstelle 515, die ein Fortfahren der Anzeige der Darstellung einer Webbrowser-Anwendung 528 und das Browser-Anwendungssymbol 420 beinhaltet und zusätzlich das Anzeigen einer Darstellung einer Emailanwendung 530 sowie Emailanwendungssymbol 418, wovon jede, wenn sie aktiviert wird, die Vorrichtung veranlasst, die Emailanwendung anzuzeigen (z. B. in einem Vollbildschirmbetriebsmodus). Demzufolge zeigt die Vorrichtung in einigen Ausführungsformen eine Multitasking-Schnittstelle an, in Antwort auf das Erkennen einer horizontalen (z. B. nach links oder nach rechts) Wischgeste, die bei einer vertikalen Kante des Touchscreens 112 beginnt. In einigen Ausführungsformen ist die Reihe von Anwendungssymbolen (z. B. Symbole 420 und 418) eingerichtet, um horizontal auf der Anzeige zu gleiten, in Antwort auf horizontale Wischeingaben auf die Reihe von Anwendungssymbolen. In einigen Ausführungsformen ist die Reihe von Anwendungsdarstellungen (z. B. Darstellungen 528 und 530) eingerichtet, um horizontal auf der Anzeige zu gleiten, in Antwort auf horizontale Wischeingaben auf die Reihe von Anwendungssymbolen.
  • In einigen Ausführungsformen hört die Vorrichtung auf, die Multitasking-Schnittstelle anzuzeigen, wenn die Reduzierte-Größenordnungs-Darstellung 531 einer Seite der Mehrseiten-Anwendungs-Startschnittstelle aktiviert wird (z. B. in Antwort auf das Erkennen einer Tippgeste an einem Ort auf Touchscreen 112, der der Reduzierten-Größenordnungs-Darstellung 531 der Seite der Mehrseiten-Anwendungs-Startschnittstelle entspricht) und zeigt die entsprechende Seite der Mehrseiten-Anwendungs-Startschnittstelle wieder an (z. B, 5M).
  • 5P5R veranschaulichen ein Beispiel des Anzeigens einer Einstellungsschnittstelle. 5P zeigt Benutzerschnittstelle 503 und das Erkennen der Eingabe 510. Eingabe 510 beinhaltet einen Kontakt, der an der unteren Kante des Touchscreens 112 erkannt worden ist und eine Bewegung des Kontakts nach oben. 5Q veranschaulicht Eingabe 510 bei Position 510-b und den entsprechenden Übergang zwischen Benutzerschnittstelle 503 und Einstellungsschnittstelle 517 (z. B. eine Steuerzentrumschnittstelle), die die Vorrichtungssymbole 534 und den Helligkeitsschieber 536 beinhaltet. 5R zeigt Einstellungsschnittstelle 517, die die Vorrichtungssymbole 534, den Helligkeitsschieber 536, Musiksteuerungen 538 und Anwendungssymbole 540 beinhaltet (z. B. zeigt die Vorrichtung eine Einstellungsschnittstelle in Antwort auf das Erkennen einer Wischgeste nach oben an, die an einer unteren Kante des Touchscreens 112 beginnt).
  • 6A6D sind Flussdiagramme, die ein Verfahren 600 zum Bereitstellen von Zugriff auf unterschiedliche Funktionalitäten, einschließlich Navigations- und Suchfunktionalitäten veranschaulichen, in Übereinstimmung mit einigen Ausführungsformen. Verfahren 600 wird bei einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt (z. B. Vorrichtung 300, 3, oder tragbare Multifunktionsvorrichtung 100, 1A). In einigen Ausführungsformen ist die Anzeige eine Touchscreen-Anzeige (z. B. Touchscreen 112) und die berührungsempfindliche Oberfläche befindet sich auf der Anzeige. In einigen Ausführungsformen ist die Anzeige getrennt von der berührungsempfindlichen Oberfläche. Einige Handlungen in Verfahren 600 sind optional kombiniert und/oder die Reihenfolge einiger Handlungen ist optional geändert.
  • Wie nachfolgend beschrieben, stellt Verfahren 600 eine intuitive Weise bereit, um direkten Zugriff auf mehrere Funktionalitäten von einer Mehrseiten-Anwendungs-Startschnittstelle bereitzustellen. Das Verfahren reduziert die kognitive Belastung eines Benutzers, wenn er Navigations- und Suchfunktionalitäten verwendet, was dadurch eine effizientere Mensch-Maschinen-Schnittstelle erzeugt. Für batteriebetriebene elektronische Vorrichtungen spart das Ermöglichen eines Benutzers, schneller und effizienter zu navigieren und zu suchen, Leistung und erhöht die Zeit zwischen Ladevorgängen.
  • Eine elektronische Vorrichtung, die eine Anzeige und eine berührungsempfindliche Oberfläche beinhaltet, zeigt (602) eine erste Seite einer Mehrseiten-Anwendungs-Startschnittstelle an, die eine Vielzahl von (getrennt angezeigten) Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet. In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche, die hierin beschrieben wird, Teil einer Touchscreen-Anzeige. In einigen Ausführungsformen ist die berührungsempfindliche Oberfläche, die hierin beschrieben wird, ein Unterbereich einer größeren berührungsempfindlichen Oberfläche und die „Kanten” oben der berührungsempfindlichen Oberfläche, die nachfolgend beschrieben werden, entsprechen den Kanten des Unterbereichs der größeren berührungsempfindlichen Oberfläche. Zum Beispiel beinhaltet eine Vorrichtung eine größere berührungsempfindliche Oberfläche, die mit einer Anzeige der Vorrichtung zusammenfällt und sich ebenso auf die Einfassung der Vorrichtung ausdehnt und die „berührungsempfindliche Oberfläche”, die hierin beschrieben wird, ist ein Unterbereich der größeren berührungsempfindlichen Vorrichtung, der mit der Anzeige zusammenfällt, so dass die Kanten der berührungsempfindlichen Oberfläche ebenso den Kanten der Anzeige (manchmal als Touchscreen-Anzeige bezeichnet) entsprechen. In einigen Ausführungsformen beinhaltet die eine oder die mehreren Seiten der Anwendungsstartschnittstelle ein oder mehrere Lesezeichensymbole, Widgets, Ordnersymbole und/oder andere Steuerungen zum Steuern verschiedener Funktionen der Vorrichtung zusätzlich zu den Anwendungssymbolen, die, wenn sie aktiviert werden, die entsprechenden Anwendungen starten. Zum Beispiel veranschaulicht 5A Vorrichtung 100, die die Benutzerschnittstelle 503 anzeigt (z. B. Seite 1 einer drei-Seiten-Anwendungs-Startschnittstelle) und 5D veranschaulicht Vorrichtung 100, die die Benutzerschnittstelle 505 anzeigt (z. B. Seite 2 der drei-Seiten-Anwendungs-Startschnittstelle).
  • Die Vorrichtung erkennt (604) auf der berührungsempfindlichen Oberfläche eine erste Eingabe (z. B. eine Fingergeste), die das Erkennen eines ersten Kontakts und das Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet. Zum Beispiel veranschaulicht 5A Vorrichtung 100, die die Eingaben 502, 504, 506, 508 und 510 erkennt, wobei jede Eingabe einen Kontakt und eine Bewegung des Kontakts auf Touchscreen 112 beinhaltet.
  • In Antwort auf das Erkennen (606) der ersten Eingabe auf der berührungsempfindlichen Oberfläche ersetzt (608) die Vorrichtung in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nächste-Seiten-Anzeige-Kriterien erfüllt, wobei die nächste-Seite-Anzeige-Kriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge (z. B. 10, 20, 30, 50 oder 100 Pixel) in eine erste vorbestimmte Richtung (z. B. rechts nach links) auf der berührungsempfindlichen Oberfläche bewegt, die Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit einer Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich sind von (oder sich unterscheiden von) der ersten Vielzahl von Anwendungssymbolen. Zum Beispiel veranschaulichen 5B5D die Vorrichtung 100, die eine Eingabe 502 auf dem Touchscreen 112 erkennt und die Benutzerschnittstelle 503 (z. B. Seite 1) mit Benutzerschnittstelle 505 (z. B. Seite 2) ersetzt. 5O veranschaulicht weiterhin Benutzerschnittstelle 505, die eine Vielzahl von Anwendungssymbolen 501 beinhaltet (z. B. Anwendungssymbole 501-17 bis 501-29), die sich unterscheiden von der Vielzahl von Anwendungssymbolen 501 (z. B. Anwendungssymbole 501-1 bis 501-16), die in Benutzerschnittstelle 503 beinhaltet sind (58).
  • In einigen Ausführungsformen zeigt (610) die Vorrichtung in Antwort auf das Erkennen (606) der ersten Eingabe, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer ersten Kante (z. B. einer oberen) auf der berührungsempfindlichen Oberfläche beginnt, eine Benachrichtigungsschnittstelle an, die kürzlich empfangene Benachrichtigungen beinhaltet. In einigen Ausführungsformen beinhalten die Benachrichtigungsschnittstellenkriterien ein Kriterium, das erfüllt ist, wenn die erste Eingabe in der Nähe der ersten Kante der berührungsempfindlichen Oberfläche beginnt, wie z. B. innerhalb einer vorbestimmten Distanz (z. B. 0,1–1,0 mm) oder einer vorbestimmten Anzahl von Pixeln (z. B. 1–20 Pixel) der ersten Kante der berührungsempfindlichen Oberfläche. Zum Beispiel veranschaulicht 5L die Vorrichtung 100, die Eingabe 506 erkennt, die einen Kontakt an der oberen Kante des Touchscreens 112 und eine nachfolgende Bewegung nach unten des Kontakts beinhaltet. 5K5L veranschaulichen Vorrichtung 100, die die Anzeige der Benutzerschnittstelle 503 (z. B. Seite 1) mit der Anzeige der Benachrichtigungsschnittstelle 511 ersetzt. 5L veranschaulicht weiterhin die Benachrichtigungsschnittstelle 511, die einen E-Mail-Inhalt 524 beinhaltet (z. B. Bereitstellen von Benachrichtigungen über kürzlich empfangene E-Mails) und Ereignisse-Inhalt 520 (z. B. Bereitstellen von Benachrichtigungen über bevorstehende Ereignisse).
  • In einigen Ausführungsformen zeigt (612) die Vorrichtung in Antwort auf das Erkennen (606) der ersten Eingabe, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Multitasking-Schnittstellen-Anzeigekriterien erfüllt, wobei die Multitasking-Schnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer zweiten Kante der berührungsempfindlichen Oberfläche beginnt (z. B. wird der erste Kontakt anfänglich erkannt), die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche, eine Multitasking-Schnittstelle an, die Darstellungen einer Vielzahl von offenen Anwendungen beinhaltet. In einigen Ausführungsformen beinhalten die Multitasking-Schnittstellen-Anzeigekriterien ein Kriterium, das erfüllt ist, wenn die erste Eingabe in der Nähe der zweiten Kante der berührungsempfindlichen Oberfläche beginnt, wie z. B. innerhalb einer vorbestimmten Distanz (z. B. 0,1–1,0 mm) oder einer vorbestimmten Anzahl von Pixeln (z. B. 1–20 Pixeln) von der zweiten Kante der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen kann die Multitasking-Schnittstelle verwendet werden, um zwischen offenen Anwendungen zu wechseln und/oder um offene Anwendungen zu schließen. In einigen Ausführungsformen beinhaltet die Multitasking-Schnittstelle eine Darstellung in einem reduzierten Maßstab einer jeweiligen Seite der Mehrseiten-Anwendungs-Startschnittstelle (z. B. an einem Ende einer Reihe von Darstellungen einer Vielzahl offener Anwendungen), wie, wenn sie ausgewählt wird, die Vorrichtung veranlasst die jeweilige Seite der Mehrseiten-Anwendungs-Startschnittstelle anzuzeigen. Zum Beispiel veranschaulicht 5M die Vorrichtung 100, die die Eingabe 508 erkennt, die einen Kontakt an der rechten Kante des Touchscreens 112 und eine nachfolgende Bewegung des Kontakts nach rechts auf Touchscreen 112 erkennt. 5N5O veranschaulichen Vorrichtung 100, die eine Anzeige der Benutzerschnittstelle 503 (z. B. Seite i) mit einer Anzeige der Multitasking-Schnittstelle 513 in 5N ersetzt, und das Anzeigen der Multitasking-Schnittstelle 515 in 5O. 5O veranschaulicht weiterhin die Multitasking-Schnittstelle 513, die eine Vielzahl von offenen Anwendungen beinhaltet (z. B. Browserfenster 528 und E-Mail-Fenster 530).
  • Die Vorrichtung zeigt (614) in Antwort auf das Erkennen (606) der ersten Eingabe auf der berührungsempfindlichen Oberfläche, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge (z. B. 10, 20, 30, 50 oder 100 Pixel) in eine zweite vorbestimmte Richtung (z. B. nach unten) bewegt, die rechtwinklig ist zu der ersten Richtung, eine Suchschnittstelle an, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet. Zum Beispiel veranschaulicht 5E die Vorrichtung 100, die eine Eingabe 504 erkennt, die ein Erkennen eines Kontakts und einer nachfolgenden Bewegung des Kontakts nach unten auf Berührungsbildschirm 112 beinhaltet (z. B. rechtwinklig zu der Bewegung der Eingabe 502, die in 5B gezeigt wird). 5F5G veranschaulichen die Vorrichtung 100, die zumindest teilweise die Anzeige der Benutzerschnittstelle 503 (z. B. Seite 1) mit der Anzeige der Suchschnittstelle 507 ersetzt, die das Suchfeld 514 beinhaltet (z. B. Schieben des Bildschirmhintergrunds und der Anwendungssymbole 501 nach unten, um das Suchfeld 514 aufzudecken). In einigen Ausführungsformen wird das Suchfeld „unter” einer Vorrichtungsstatusleiste hervorgezogen, die eine aktuelle Zeit und einen Batteriestatus und andere Vorrichtungsstatusinformationen beinhaltet. 5H5I veranschaulichen ein ähnliches Beispiel. In 5H5I erkennt Vorrichtung 100 die Eingabe 518 und ersetzt zumindest teilweise die Anzeige der Benutzerschnittstelle 505 (z. B. Seite 2) mit der Anzeige der Suchschnittstelle 509.
  • In einigen Ausführungsformen beinhaltet (616) das Anzeigen der Suchschnittstelle ein Anzeigen einer Tastatur zum Eingeben von Text in das Sucheingabefeld. In einigen Ausführungsformen werden sowohl die Tastatur als auch das Sucheingabefeld in Antwort auf das Erkennen der ersten Eingabe angezeigt. In einigen Ausführungsformen wird die Tastatur in Antwort auf das Erkennen einer Auswahl/einer Aktivierung (z. B. mit einer Tippgeste) des Sucheingabefeldes angezeigt. Zum Beispiel zeigt 5O die Vorrichtung 100, die die Suchschnittstelle 507 anzeigt, die die Tastatur 516 beinhaltet.
  • In einigen Ausführungsformen beinhaltet (618) das Anzeigen der Suchschnittstelle ein Verschieben eines Satzes von Anwendungssymbolen von der ersten Seite weg von einer jeweiligen Kante der Anzeige in die zweite vorbestimmte Richtung und das Anzeigen des Sucheingabefeldes zwischen einer jeweiligen Kante (z. B. einer oberen Kante) der Anzeige und den Anwendungssymbolen. Zum Beispiel veranschaulichen 5E5O die Vorrichtung 100, die übergeht von Benutzerschnittstelle 503 zu Suchschnittstelle 507, was ein Verschieben der Anwendungssymbole 501 nach unten und ein Anzeigen des Suchfeldes 514 über ihnen beinhaltet.
  • In einigen Ausführungsformen beinhaltet (620) das Anzeigen der Suchschnittstelle ein Aufhören, zumindest eine Untermenge der Anwendungssymbole auf der ersten Seite anzuzeigen. In einigen Ausführungsformen verblassen alle Anwendungssymbole, werden bedeckt oder anderweitig von der Anzeige entfernt. In einigen Ausführungsformen sind die Anwendungssymbole durch eine Tastatur oder einen anderen Teil der Suchschnittstelle bedeckt, während andere Anwendungssymbole weiterhin auf der Anzeige angezeigt werden, gleichzeitig mit der Suchschnittstelle. Zum Beispiel zeigen 5E5O die Vorrichtung 100, die von der Benutzerschnittstelle 503 zu der Suchschnittstelle 507 übergeht, was ein Aufhören, die Anwendungssymbole 501-13 bis 501-16 in 5O anzuzeigen, beinhaltet.
  • In einigen Ausführungsformen hält (622) die Vorrichtung in Antwort auf das Erkennen (606) der ersten Eingabe die Anzeige von einem oder mehreren der Anwendungssymbole der ersten Seite der Mehrseiten-Benutzerschnittstelle aufrecht, während sie die Suchschnittstelle anzeigt. Zum Beispiel veranschaulichen 5E5G die Vorrichtung 100, die von der Benutzerschnittstelle 503 zu der Suchschnittstelle 507 übergeht und die Anzeige der Anwendungssymbole 501-1 bis 501-12 in Suchschnittstelle 507 aufrechterhält.
  • In einigen Ausführungsformen beinhaltet (624) die Mehrseiten-Anwendungs-Startschnittstelle einen festen Symbolbereich (z. B. einen Anwendungs-Dock), der eine Vielzahl von Anwendungssymbolen beinhaltet und der feste Symbolbereich (z. B. derselbe feste Symbolbereich mit denselben Symbolen, die darin beinhaltet sind) wird gleichzeitig mit jeder Seite der mehreren Seiten der Anwendungssymbole angezeigt. In einigen Ausführungsformen beinhaltet das Anzeigen der Suchschnittstelle in Antwort auf das Erkennen der ersten Eingabe ein Aufhören, den festen Symbolbereich anzuzeigen (z. B. Schieben des Anwendungs-Docks weg von der Anzeige in die zweite Richtung, während das Sucheingabefeld auf die Anzeige in der zweiten Richtung geschoben wird). Zum Beispiel veranschaulichen 5E5G die Vorrichtung 100, die von der Benutzerschnittstelle 503 zu der Suchschnittstelle 507 übergeht. 5E veranschaulicht die Vorrichtung 100, die die Benutzerschnittstelle 503 anzeigt, die den Tray 408 (z. B. einen Anwendungs-Dock) beinhaltet, und 5O veranschaulicht Vorrichtung 100, die die Benutzerschnittstelle 507 anzeigt und die aufhört, den Tray 408 anzuzeigen. In einigen Ausführungsformen wird Tray 408 bedeckt, wenn die Tastatur erscheint (z. B. gleitet sie nach oben von einem unteren Ende des Touchscreens 112). In einigen Ausführungsformen gleitet Tray 408 nach unten weg von Touchscreen 112, während Suchfeld 514 nach unten auf Touchscreen 112 gleitet (z. B. von unterhalb der Vorrichtungsstatusleiste, die die aktuelle Zeit und den Batteriestatus beinhaltet).
  • In einigen Ausführungsformen, während des Anzeigens des Sucheingabefeldes (626): die Vorrichtung empfängt (628) eine Texteingabe in dem Sucheingabefeld (z. B. Text, der einer Vielzahl von Buchstaben-Tastendruckhandlungen oder einer Ausschneiden- und Einfügen-Handlung entspricht); ruft (630) Suchergebnisse ab, die der Texteingabe entsprechen; und zeigt (632) eines oder mehrere der abgefragten Suchergebnisse auf der Anzeige an. In einigen Ausführungsformen sind die Suchergebnisse Suchergebnisse, die Anwendungen und Inhalt entsprechen, die auf der Vorrichtung gespeichert sind. In einigen Ausführungsformen sind die Suchergebnisse Suchergebnisse, die einem Inhalt entsprechen, der entfernt von der Vorrichtung gespeichert ist (z. B. Webseiten oder Medienstreams, die verfügbar sind zum Streamen auf der Vorrichtung). In einigen Ausführungsformen werden die Suchergebnisse automatisch in Antwort auf das Empfangen der Texteingabe abgerufen. In einigen Ausführungsformen werden die Suchergebnisse in Antwort auf das Erkennen einer Auswahl einer Suchausführungsaffordanz abgerufen, die in der Such-Benutzerschnittstelle angezeigt wird (z. B. ein „Suchen”-Knopf auf einer Tastatur, die verwendet wird, um die Texteingabe in das Suchfeld einzugeben). In einigen Ausführungsformen zeigt die Vorrichtung in Antwort auf das Erkennen einer Auswahl eines jeweiligen Suchergebnisses Inhalt an, der dem jeweiligen Suchergebnis entspricht (z. B. zeigt die Vorrichtung eine Benutzerschnittstelle für eine ausgewählte Anwendung an oder Inhalt, der dem ausgewählten Suchergebnis entspricht).
  • In einigen Ausführungsformen zeigt (634) die Vorrichtung in Antwort auf das Erkennen der ersten Eingabe (606), in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Einstellungsschnittstelleanzeigekriterien erfüllt, wobei die Einstellungsschnittstellenkriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer dritten Kante der berührungsempfindlichen Oberfläche beginnt (z. B. wird der erste Kontakt zuerst erkannt), die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche und der zweiten Kante der berührungsempfindlichen Oberfläche, eine Einstellungsschnittstelle an, die Steuerungen zum Ändern einer Vielzahl von Vorrichtungseinstellungen beinhaltet. In einigen Ausführungsformen beinhalten die Einstellungsschnittstellenanzeigekriterien ein Kriterium, das erfüllt ist, wenn die erste Eingabe in der Nähe der dritten Kante der berührungsempfindlichen Oberfläche beginnt, wie zum Beispiel innerhalb einer vorbestimmten Distanz (z. B. 0,1–1,0 mm) oder einer vorbestimmten Anzahl von Pixeln (z. B. 1–20 Pixel) von der dritten Kante der berührungsempfindlichen Oberfläche. In einigen Ausführungsformen kann die Einstellungsschnittstelle verwendet werden, um häufig verwendete Vorrichtungseinstellungen zu verändern, wie z. B. Bildschirmhelligkeit, Lautstärke, Flugzeugmodus und An/Abschalten von drahtloser Kommunikation. Zum Beispiel veranschaulicht 5P die Vorrichtung 100, die die Eingabe 510 erkennt, die einen Kontakt an der unteren Kante des Touchscreens 112 und eine nachfolgende Bewegung des Kontakts nach oben auf Touchscreen 112 beinhaltet. 5Q5R veranschaulichen die Vorrichtung 100, die zumindest teilweise die Anzeige der Benutzerschnittstelle 503 (z. B. Seite 1) mit der Anzeige der Einstellungsschnittstelle 517 (z. B. eine Steuerungszentrumsschnittstelle) ersetzt. 5R veranschaulicht weiterhin die Einstellungsschnittstelle 517, die eine Vielzahl von Steuerungen zum Ändern von Vorrichtungseinstellungen beinhaltet (z. B. den Helligkeitsschieber 536, Musiksteuerungen 538 und Vorrichtungssymbole 534).
  • In einigen Ausführungsformen beinhalten (636) die Suchschnittstellenanzeigekriterien ein zusätzliches Kriterium, das erfüllt ist, wenn die erste Eingabe weg von einer ersten Kante (z. B. einem oberen Ende) der berührungsempfindlichen Oberfläche beginnt (z. B. wird der zweite Kontakt zuerst erkannt). Zum Beispiel beinhalten die Suchschnittstellenanzeigekriterien mindestens ein erstes Kriterium, das erfüllt ist, wenn sich der Kontakt um mehr als die vorbestimmte Menge in die erste Richtung bewegt, und ein zweites Kriterium, das erfüllt ist, wenn der Kontakt weg von der ersten Kante der berührungsempfindlichen Oberfläche beginnt. In einigen Ausführungsformen wird bestimmt, dass die erste Eingabe „unten weg von” der ersten Kante beginnt, wenn die erste Eingabe (z. B. der Kontakt der ersten Eingabe wird zuerst erkannt an einem Ort, der) mehr als eine vorbestimmte Menge weg von der ersten Kante (z. B. 0,1–1,0 mm) oder mehr als eine vorbestimmte Anzahl von Pixeln weg von der ersten Kante (z. B. 1–20 Pixel) beginnt (ist). In einigen Ausführungsformen zeigt die Vorrichtung in Übereinstimmung mit einer Bestimrung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei der ersten Kante (z. B. einer oberen) der berührungsempfindlichen Oberfläche beginnt (z. B. wird der erste Kontakt zuerst erkannt), eine Benachrichtigungsschnittstelle an, die kürzlich empfangene Benachrichtigungen beinhaltet (z. B. Sofortnachrichten, Emails, soziale-Netzwerk-Nachrichten, Anwendungsstatusaktualisierungen, usw.). In einigen Ausführungsformen beinhalten die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium, das erfüllt ist, wenn die erste Eingabe in der Nähe der ersten Kante der berührungsempfindlichen Oberfläche beginnt, wie zum Beispiel innerhalb einer vorbestimmten Distanz (z. B. 0,1–1,0 mm) oder einer vorbestimmten Anzahl von Pixeln (z. B. 1–20 Pixeln) von der ersten Kante der berührungsempfindlichen Oberfläche. Zum Beispiel zeigt 5L die Vorrichtung 100, die die Eingabe 506 erkennt, die an der oberen Kante des Touchscreens 112 beginnt. Demzufolge veranschaulichen 5K5L Vorrichtung 100, die die Anzeige der Benutzerschnittstelle 503 mit der Benachrichtigungsschnittstelle 511 ersetzt. In einem gegensätzlichen Beispiel zeigt 5E die Vorrichtung 100, die die Eingabe 504 erkennt, die weg von der oberen Kante des Touchscreens 112 beginnt. Demzufolge veranschaulichen 5F5G die Vorrichtung 100, die die Anzeige der Benutzerschnittstelle 503 mit der Suchschnittstelle 507 ersetzt.
  • In einigen Ausführungsformen erkennt (638) die Vorrichtung, während sie eine jeweilige Seite der Mehrseiten-Anwendungs-Startschnittstelle anzeigt, eine zweite Eingabe auf der berührungsempfindlichen Oberfläche (z. B. eine Fingergeste), die ein Erkennen eines zweiten Kontakts beinhaltet (der unterschiedlich ist vom ersten Kontakt) und ein Erkennen von mehr als einer vorbestimmten Menge an Bewegung (z. B. 10, 20, 30, 50 oder 100 Pixel) des zweiten Kontakts in die zweite Richtung (z. B. nach unten).
  • In einigen Ausführungsformen zeigt (642) die Vorrichtung in Antwort auf das Erkennen der zweiten Eingabe auf der berührungsempfindlichen Oberfläche (640), in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe weg von (z. B. nicht in der Nähe von) einer ersten Kante (z. B. einer oberen) der berührungsempfindlichen Oberfläche beginnt (z. B. wird der zweite Kontakte zuerst erkannt), die Suchschnittstelle an. In einigen Ausführungsformen wird bestimmt, dass die erste Eingabe „unten weg von” der ersten Kante beginnt, wenn die erste Eingabe (z. B. der Kontakt der ersten Eingabe wird zuerst an einem Ort erkannt, der) mehr als eine vorbestimmte Distanz weg von der ersten Kante (z. B. 0,1–1,0 mm) oder mehr als eine vorbestimmte Anzahl von Pixeln weg von der ersten Kante (z. B. 1–20 Pixel) beginnt (ist).
  • In einigen Ausführungsformen zeigt (644) die Vorrichtung in Antwort auf das Erkennen der zweiten Eingabe auf der berührungsempfindlichen Oberfläche (640), in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe bei der ersten Kante (z. B. einer oberen) der berührungsempfindlichen Oberfläche beginnt (z. B. wird der erste Kontakt zuerst erkannt), eine Benachrichtigungsschnittstelle an, die kürzlich empfangene Benachrichtigungen beinhaltet (z. B. Sofortnachrichten, Emails, soziale-Netzwerk-Nachrichten, Anwendungsstatusaktualisierungen usw.). In einigen Ausführungsformen beinhalten die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium, das erfüllt ist, wenn die zweite Eingabe in der Nähe der ersten Kante der berührungsempfindlichen Oberfläche beginnt, wie zum Beispiel innerhalb einer vorbestimmten Distanz (z. B. 0,1–1,0 mm) oder einer vorbestimmten Anzahl von Pixeln (z. B. 1–20 Pixel) von der ersten Kante der berührungsempfindlichen Oberfläche. Zum Beispiel ersetzt die Vorrichtung in Antwort auf das Erkennen einer ersten Eingabe (z. B. eine Bewegung des Kontakts 502 in 5B, die die nächste-Seite-Anzeige-Kriterien erfüllt), die erste Seite der Mehrseiten-Anwendungs-Startschnittstelle mit einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, wie in 5B5D gezeigt; und nach dem Erkennen der ersten Eingabe erkennt die Vorrichtung eine zweite Eingabe (z. B. eine Bewegung nach unten des Kontakts 518, der weg von einer Kante des Touchscreens 112 beginnt und die Suchschnittstellenanzeigekriterien erfüllt), zeigt die Vorrichtung die Sucheingabeschnittstelle an, wie in 5H5I gezeigt.
  • Es sollte verstanden werden, dass die besondere Reihenfolge, in der die Handlungen in den 6A6D beschrieben worden ist, nur beispielhaft ist und nicht beabsichtigt ist anzugeben, dass die beschriebene Reihenfolge die einzige Reihenfolge ist, in der die Handlungen ausgeführt werden könnten. Der Fachmann würde verschiedene Wege erkennen, um die Handlungen, die hierin beschrieben worden sind, neu anzuordnen.
  • In Übereinstimmung mit einigen Ausführungsformen zeigt 7 ein funktionales Blockdiagramm einer elektronischen Vorrichtung 700, die in Übereinstimmung mit den Prinzipien der verschiedenen beschriebenen Ausführungsformen eingerichtet ist. Die funktionalen Blöcke der Vorrichtung sind optional durch Hardware, Software oder eine Kombination von Hardware und Software implementiert, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen auszuführen. Es wird vom Fachmann verstanden, dass die funktionalen Blöcke, die in 7 beschrieben werden, optional kombiniert oder in Unterblöcke aufgeteilt werden, um die Prinzipien der verschiedenen beschriebenen Ausführungsformen zu implementieren. Demzufolge unterstützt die Beschreibung optional jede mögliche Kombination oder Aufteilung oder weitere Definition der funktionalen Blöcke, die hierin beschrieben werden.
  • Wie in 7 gezeigt, beinhaltet die elektronische Vorrichtung 700 eine Anzeigeeinheit 701, die eingerichtet ist, um eine erste Seite einer Mehrseiten-Anwendungs-Startschnittstelle anzuzeigen, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet. Die elektronische Vorrichtung 700 beinhaltet ebenso die berührungsempfindliche 703-Oberflächeneinheit, die eingerichtet ist, um Benutzergesten zu empfangen, und die Verarbeitungseinheit 702, die mit der Anzeigeeinheit 701 und der berührungsempfindlichen Oberflächeneinheit 703 gekoppelt ist. In einigen Ausführungsformen beinhaltet die Verarbeitungseinheit 702 die Erkennungseinheit 704, die Ersetzungseinheit 706, die Anzeige-Ermöglichungseinheit 708, die Empfangseinheit 710 und die Abruf-Einheit 712.
  • Verarbeitungseinheit 702 ist eingerichtet, um auf der berührungsempfindlichen Oberflächeneinheit eine erste Eingabe zu erkennen (z. B. mit der Erkennungseinheit 704), die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberflächeneinheit beinhaltet. Verarbeitungseinheit 702 ist weiterhin eingerichtet, um in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberflächeneinheit: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nächste-Seite-Anzeigekriterien erfüllt, wobei die nächste-Seite-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge in einer ersten vorbestimmten Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen (z. B. mit der Ersetzungseinheit 706) einer Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit einer Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge in einer zweiten vorbestimmten Richtung bewegt, die rechtwinklig ist zu der ersten Richtung, Ermöglichen einer Anzeige (z. B. mit der Anzeige-Ermöglichungseinheit 708) einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um in Antwort auf das Erkennen der ersten Eingabe, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer ersten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die Anzeige einer Benachrichtigungsschnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708), die kürzlich empfangene Benachrichtigungen beinhaltet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet um, in Antwort auf das Erkennen der ersten Eingabe, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Multitasking-Schnittstellen-Anzeigekriterien erfüllt, wobei die Multitasking-Schnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer zweiten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberflächeneinheit, die Anzeige einer Multitasking-Schnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708), die Darstellungen einer Vielzahl von offenen Anwendungen beinhaltet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um in Antwort auf das Erkennen der ersten Eingabe, in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Einstellungsschnittstellenanzeigekriterien erfüllt, wobei die Einstellungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer dritten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberflächeneinheit und der zweiten Kante der berührungsempfindlichen Oberflächeneinheit, die Anzeige einer Einstellungsschnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708), die Steuerungen zum Ändern einer Vielzahl von Vorrichtungseinstellungen beinhaltet.
  • In einigen Ausführungsformen beinhalten die Suchschnittstellenanzeigekriterien ein zusätzliches Kriterium, das erfüllt ist, wenn die erste Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberflächeneinheit beginnt. In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei der ersten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die Anzeige einer Benachrichtigungsschnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708), die kürzlich empfangene Benachrichtigungen beinhaltet.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um, während sie die Anzeige einer jeweiligen Seite der Mehrseiten-Anwendungs-Startschnittstelle ermöglicht, auf der berührungsempfindlichen Oberflächeneinheit eine zweite Eingabe zu erkennen (z. B. mit der Erkennungseinheit 704), die ein Erkennen eines zweiten Kontakts und ein Erkennen von mehr als einer vorbestimmten Menge an Bewegung des zweiten Kontakts in der zweiten Richtung beinhaltet. In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um in Antwort auf das Erkennen der zweiten Eingabe auf der berührungsempfindlichen Oberflächeneinheit: in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe die Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die Anzeige der Suchschnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708); und in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe weg von der ersten Kante der berührungsempfindlichen Oberflächeneinheit beginnt, die Anzeige einer Benachrichtigungsschnittstelle zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708), die kürzlich empfangene Benachrichtigungen beinhaltet.
  • In einigen Ausführungsformen beinhaltet das Ermöglichen der Anzeige der Suchschnittstelle (z. B. mit der Anzeige-Ermöglichungseinheit 708) das Ermöglichen einer Anzeige einer Tastatur zum Eingeben von Text in das Sucheingabefeld.
  • In einigen Ausführungsformen beinhaltet das Ermöglichen der Anzeige der Suchschnittstelle (z. B. mit der Anzeige-Ermöglichungseinheit 708): ein Verschieben eines Satzes von Anwendungssymbolen von der ersten Seite weg von einer jeweiligen Kante der Anzeigeneinheit in die zweite vorbestimmte Richtung; und Ermöglichen einer Anzeige des Sucheingabefeldes zwischen einer jeweiligen Kante der Anzeigeneinheit und den Anwendungssymbolen.
  • In einigen Ausführungsformen beinhaltet das Ermöglichen der Anzeige der Suchschnittstelle (z. B. mit der Anzeige-Ermöglichungseinheit 708) ein Aufhören, zumindest einen Untersatz der Anwendungssymbole auf der ersten Seite anzuzeigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet, um in Antwort auf das Erkennen der ersten Eingabe (z. B. mit der Erkennungseinheit 704) die Anzeige von einem oder mehreren der Anwendungssymbole der ersten Seite der Mehrseiten-Benutzerschnittstelle aufrechtzuerhalten (z. B. mit der Anzeige-Ermöglichungseinheit 718), während des Ermöglichens der Anzeige der Suchschnittstelle (z. B. mit der Anzeige-Ermöglichungseinheit 708).
  • In einigen Ausführungsformen beinhaltet die Mehrseiten-Anwendungsstartschnittstelle einen festen Symbolbereich, der eine Vielzahl von Anwendungssymbolen beinhaltet, und der feste Symbolbereich wird gleichzeitig mit jeder Seite der mehreren Seiten von Anwendungssymbolen angezeigt; und das Ermöglichen der Anzeige der Suchschnittstelle (z. B. mit der Anzeige-Ermöglichungseinheit 708) in Antwort auf das Erkennen der ersten Eingabe beinhaltet ein Aufhören, den festen Symbolbereich anzuzeigen.
  • In einigen Ausführungsformen ist die Verarbeitungseinheit 702 weiterhin eingerichtet um, während sie die Anzeige des Sucheingabefeldes ermöglicht: Texteingabe in dem Sucheingabefeld zu empfangen (z. B. mit der Empfangseinheit 710); Suchergebnisse abzurufen (z. B. mit der Abruf-Einheit 712), die der Texteingabe entsprechen; und die Anzeige des einen oder der mehreren der abgerufenen Suchergebnisse auf der Anzeigeneinheit zu ermöglichen (z. B. mit der Anzeige-Ermöglichungseinheit 708).
  • Die Handlungen der Informationsverarbeitungsverfahren, die zuvor beschrieben worden sind, sind optional implementiert durch Ausführung auf einem oder mehreren funktionalen Modulen einer Informationsverarbeitungsvorrichtung, wie zum Beispiel auf Allgemeinzweckprozessoren (z. B. wie zuvor beschrieben mit Bezug zu 1A und 3) oder anwendungsspezifischen Chips.
  • Die Handlungen, die zuvor mit Bezug zu 6A6D beschrieben worden sind, sind optional durch die Komponenten implementiert, die in 1A1B oder 7 dargestellt sind. Zum Beispiel sind die Anzeigehandlungen 602 und 614, die Erkennungshandlung 604 und die Ersetzhandlung 608 optional durch den Ereignissortierer 170, den Ereigniserkenner 180 und den Ereignishandler 190 implementiert. Der Ereignisüberwacher 171 in Ereignissortierer 170 erkennt einen Kontakt auf der berührungsempfindlichen Anzeige 112 und das Ereignissendemodul 174 liefert die Ereignisinformationen an die Anwendung 136-1. Ein jeweiliger Ereigniserkenner 180 der Anwendung 136-1 vergleicht die Ereignisinformationen mit jeweiligen Ereignisdefinitionen 186 und bestimmt, ob ein erster Kontakt an einem ersten Ort auf der berührungsempfindlichen Oberfläche (oder ob eine Rotation der Vorrichtung) einem vorbestimmten Ereignis oder Unterereignis entspricht, wie zum Beispiel einer Auswahl eines Objekts auf einer Benutzerschnittstelle oder einer Rotation der Vorrichtung von einer Ausrichtung zu einer anderen. Wenn ein jeweiliges vorbestimmtes Ereignis oder Unterereignis erkannt wird, aktiviert Ereigniserkenner 180 einen Ereignishandler 1100, der mit dem Erkennen des Ereignisses oder Unterereignisses verknüpft ist. Ereignishandler 190 verwendet optional oder ruft Datenaktualisierer 176 oder Objektaktualisierer 177 auf, um den anwendungsinternen Status 192 zu aktualisieren. In einigen Ausführungsformen greift Ereignishandler 190 auf einen jeweiligen GUI-Aktualisierer 178 zu, um zu aktualisieren, was von der Anwendung angezeigt wird. Ähnlich wäre es dem Fachmann klar, wie andere Verfahren implementiert werden können auf der Grundlage der Komponenten, die in 1A1B dargestellt werden.
  • Die vorangegangene Beschreibung wurde für Erklärungszwecke mit Bezug auf bestimmte Ausführungsformen beschrieben. Jedoch sind die vorangegangenen veranschaulichenden Diskussionen nicht beabsichtigt erschöpfend zu sein oder die Erfindung auf die bestimmten offenbarten Formen zu beschränken. Viele Veränderungen und Variationen sind hinsichtlich der vorangegangenen Lehren möglich. Die Ausführungsformen wurden gewählt und beschrieben, um am besten die Prinzipien der Erfindung und ihre praktischen Anwendungen zu erklären, um es dadurch anderen Fachmännern zu ermöglichen, die Erfindung und verschiedenen beschriebenen Ausführungsformen mit verschiedenen Veränderungen zu verwenden, wie es der angedachten bestimmten Anwendung angemessen ist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 802.11a [0038]
    • IEEE 802.11b [0038]
    • IEEE 802.11g [0038]
    • IEEE 802.11n [0038]

Claims (19)

  1. Nichtflüchtiges computerlesbares Speichermedium, das eines oder mehrere Programme speichert, wobei das eine oder die mehreren Programme Befehle umfassen, welche, wenn sie von einer elektronischen Vorrichtung mit einer Anzeige und einer berührungsempfindlichen Oberfläche ausgeführt werden, die Vorrichtung veranlassen, auszuführen: Anzeigen einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet; Erkennen auf der berührungsempfindlichen Oberfläche einer ersten Eingabe, die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet; und in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nächste-Seite-Anzeigekriterien erfüllt, wobei die nächste-Seite-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn der erste Kontakt sich um mehr als eine vorbestimmte Menge in eine erste vorbestimmte Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen der Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit der Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellen-Anzeigekriterien erfüllt, wobei die Suchschnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als die vorbestimmte Menge in eine zweite vorbestimmte Richtung bewegt, die rechtwinklig ist zu der ersten Richtung, Anzeigen einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.
  2. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  3. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Multitasking-Schnittstellen-Anzeigekriterien erfüllt, wobei die Multitasking-Schnittstellen-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer zweiten Kante der berührungsempfindlichen Oberfläche beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche, Anzeigen einer Multitasking-Schnittstelle, die Darstellungen einer Vielzahl von offenen Anwendungen beinhaltet.
  4. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Einstellungsschnittstellenanzeigekriterien erfüllt, wobei die Einstellungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer dritten Kante der berührungsempfindlichen Oberfläche beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche und der zweiten Kante der berührungsempfindlichen Oberfläche, Anzeigen einer Einstellungsschnittstelle, die Steuerungen zum Ändern einer Vielzahl von Vorrichtungseinstellungen beinhaltet.
  5. Medium nach Anspruch i, wobei: die Suchschnittstellenanzeigekriterien ein zusätzliches Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberfläche beginnt; und wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei der ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  6. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: während des Anzeigens einer jeweiligen Seite der Mehrseiten-Anwendungs-Startschnittstelle, Erkennen einer zweiten Eingabe auf der berührungsempfindlichen Oberfläche, die ein Erkennen eines zweiten Kontakts und ein Erkennen von mehr als einer vorbestimmten Menge an Bewegungen des zweiten Kontakts in der zweiten Richtung beinhaltet; und in Antwort auf das Erkennen der zweiten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe die Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen der Suchschnittstelle; und in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe bei der ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  7. Medium nach Anspruch 1, wobei das Anzeigen der Suchschnittstelle ein Anzeigen einer Tastatur zum Eingeben von Text in das Sucheingabefeld beinhaltet.
  8. Medium nach Anspruch 1, wobei das Anzeigen der Suchschnittstelle beinhaltet: Verschieben eines Satzes von Anwendungssymbolen von der ersten Seite weg von einer jeweiligen Kante der Anzeige in die zweite vorbestimmte Richtung; und Anzeigen des Sucheingabefeldes zwischen einer jeweiligen Kante der Anzeige und den Anwendungssymbolen.
  9. Medium nach Anspruch 1, wobei das Anzeigen der Suchschnittstelle ein Aufhören, zumindest einen Untersatz der Anwendungssymbole auf der ersten Seite anzuzeigen, beinhaltet.
  10. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: in Antwort auf das Erkennen der ersten Eingabe, Aufrechterhalten einer Anzeige von einem oder mehreren der Anwendungssymbole der ersten Seite der Mehrseiten-Benutzerschnittstelle während dem Anzeigen der Suchschnittstelle.
  11. Medium nach Anspruch 1, wobei: die Mehrseiten-Anwendungs-Startschnittstelle einen festen Symbolbereich beinhaltet, der eine Vielzahl von Anwendungssymbolen beinhaltet und der feste Symbolbereich wird gleichzeitig mit jeder Seite der Mehrseiten von Anwendungssymbolen angezeigt; und Anzeigen der Suchschnittstelle in Antwort auf das Erkennen der ersten Eingabe ein Aufhören, den festen Symbolbereich anzuzeigen, beinhaltet.
  12. Medium nach Anspruch 1, wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen, auszuführen: während des Anzeigens des Sucheingabefeldes: Empfangen von Texteingabe in dem Sucheingabefeld; Abrufen von Suchergebnissen, die der Texteingabe entsprechen; und Anzeigen von einem oder mehreren der abgerufenen Suchergebnisse auf der Anzeige.
  13. Elektronische Vorrichtung, umfassend: eine Anzeige; eine berührungsempfindliche Oberfläche; einen oder mehrere Prozessoren; Speicher; und eines oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, um von dem einen oder mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme Befehle beinhalten zum: Anzeigen einer ersten Seite einer Mehrseiten-Anwendungs-Startschnittstelle, die mehrere Seiten von Anwendungssymbolen zum Starten von Anwendungen beinhaltet, wobei die erste Seite eine erste Vielzahl von Anwendungssymbolen beinhaltet; Erkennen einer ersten Eingabe auf der berührungsempfindlichen Oberfläche, die ein Erkennen eines ersten Kontakts und ein Erkennen einer Bewegung des ersten Kontakts auf der berührungsempfindlichen Oberfläche beinhaltet; und in Antwort auf das Erkennen der ersten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe nächste-Seite-Anzeigekriterien erfüllt, wobei die nächste-Seite-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn der erste Kontakt sich um mehr als eine vorbestimmte Menge in eine erste vorbestimmte Richtung auf der berührungsempfindlichen Oberfläche bewegt, Ersetzen der Anzeige der ersten Seite der Mehrseiten-Anwendungs-Startschnittstelle mit einer Anzeige einer zweiten Seite der Mehrseiten-Anwendungs-Startschnittstelle, die eine zweite Vielzahl von Anwendungssymbolen beinhaltet, die unterschiedlich ist von der ersten Vielzahl von Anwendungssymbolen; und in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn sich der erste Kontakt um mehr als eine vorbestimmte Menge in einer zweiten vorbestimmten Richtung bewegt, die rechtwinklig ist zu der ersten Richtung, Anzeigen einer Suchschnittstelle, die ein Sucheingabefeld zum Eingeben von Suchbegriffen beinhaltet.
  14. Vorrichtung nach Anspruch 13, wobei das eine oder die mehren Programme weiterhin Befehle beinhalten zum: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  15. Vorrichtung nach Anspruch 13, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten zum: in Antwort auf das Erkennen der ersten Eingabe: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Multitasking-Schnittstelle-Anzeigekriterien erfüllt, wobei die Multitasking-Schnittstelle-Anzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer zweiten Kante der berührungsempfindlichen Oberfläche beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche, Anzeigen einer Multitasking-Schnittstelle, die Darstellungen einer Vielzahl von offenen Anwendungen beinhaltet.
  16. Vorrichtung nach Anspruch 13, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten zum: in Antwort auf das Erkennen der ersten Eingabe: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Einstellungsschnittstellenanzeigekriterien erfüllt, wobei die Einstellungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei einer dritten Kante der berührungsempfindlichen Oberfläche beginnt, die unterschiedlich ist von der ersten Kante der berührungsempfindlichen Oberfläche und der zweiten Kante der berührungsempfindlichen Oberfläche, Anzeigen einer Suchschnittstelle, die Steuerungen zum Ändern einer Vielzahl von Vorrichtungseinstellungen beinhaltet.
  17. Vorrichtung nach Anspruch 13, wobei: die Suchschnittstellenanzeigekriterien ein zusätzliches Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberfläche beginnt; und wobei das eine oder die mehreren Programme weiterhin Befehle umfassen, welche, wenn sie von der elektronischen Vorrichtung ausgeführt werden, die Vorrichtung veranlassen auszuführen: in Übereinstimmung mit einer Bestimmung, dass die erste Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die erste Eingabe bei der ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  18. Vorrichtung nach Anspruch 13, wobei das eine oder die mehreren Programme weiterhin Befehle beinhalten zum: während dem Anzeigen einer jeweiligen Seite der Mehrseiten-Anwendungs-Startschnittstelle, Erkennen einer zweiten Eingabe auf der berührungsempfindlichen Oberfläche, die ein Erkennen eines zweiten Kontakts und ein Erkennen von mehr als einer vorbestimmten Menge an Bewegung des zweiten Kontakts in der zweiten Richtung beinhaltet; und in Antwort auf das Erkennen der zweiten Eingabe auf der berührungsempfindlichen Oberfläche: in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe die Suchschnittstellenanzeigekriterien erfüllt, wobei die Suchschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe weg von einer ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen der Suchschnittstelle; und in Übereinstimmung mit einer Bestimmung, dass die zweite Eingabe Benachrichtigungsschnittstellenanzeigekriterien erfüllt, wobei die Benachrichtigungsschnittstellenanzeigekriterien ein Kriterium beinhalten, das erfüllt ist, wenn die zweite Eingabe bei der ersten Kante der berührungsempfindlichen Oberfläche beginnt, Anzeigen einer Benachrichtigungsschnittstelle, die kürzlich empfangene Benachrichtigungen beinhaltet.
  19. Vorrichtung nach Anspruch 13, wobei das Anzeigen der Suchschnittstelle ein Anzeigen einer Tastatur zum Eingeben von Text in das Sucheingabefeld beinhaltet.
DE202014004544.5U 2013-06-09 2014-05-30 Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten Expired - Lifetime DE202014004544U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361832924P 2013-06-09 2013-06-09
US61/832,924 2013-06-09
US14/290,919 US10481769B2 (en) 2013-06-09 2014-05-29 Device, method, and graphical user interface for providing navigation and search functionalities
US14/290,919 2014-05-29

Publications (1)

Publication Number Publication Date
DE202014004544U1 true DE202014004544U1 (de) 2014-09-12

Family

ID=51059623

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202014004544.5U Expired - Lifetime DE202014004544U1 (de) 2013-06-09 2014-05-30 Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten

Country Status (11)

Country Link
US (3) US10481769B2 (de)
EP (2) EP3757743A1 (de)
JP (4) JP2016526240A (de)
KR (3) KR101962732B1 (de)
CN (2) CN115220635A (de)
AU (5) AU2014278597C1 (de)
DE (1) DE202014004544U1 (de)
HK (2) HK1219149A1 (de)
NL (1) NL2012926C2 (de)
TW (1) TWI517022B (de)
WO (1) WO2014200733A1 (de)

Families Citing this family (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
KR102301592B1 (ko) 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
USD732062S1 (en) * 2013-02-22 2015-06-16 Samsung Electronics Co., Ltd. Display screen or a portion thereof with graphical user interface
USD732063S1 (en) * 2013-02-22 2015-06-16 Samsung Electronics Co., Ltd. Display screen or a portion thereof with graphical user interface
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101870848B1 (ko) * 2013-12-30 2018-06-25 후아웨이 테크놀러지 컴퍼니 리미티드 사이드 메뉴 디스플레이 방법과 장치 및 단말기
US9510251B2 (en) 2013-12-31 2016-11-29 Microsoft Technology Licensing, Llc Call handoff initiation in hybrid networks
TWI514248B (zh) * 2014-03-18 2015-12-21 Pixart Imaging Inc 防止誤觸發邊緣滑動手勢之方法及手勢觸發方法
US9560185B2 (en) * 2014-03-19 2017-01-31 Microsoft Technology Licensing, Llc Hybrid telecommunications network connection indicator
EP3149728B1 (de) 2014-05-30 2019-01-16 Apple Inc. Eingabeverfahren durch einzelne äusserung mit mehreren befehlen
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9990126B2 (en) 2014-05-30 2018-06-05 Visa International Service Association Method for providing a graphical user interface for an electronic transaction with a handheld touch screen device
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
USD760275S1 (en) * 2014-06-11 2016-06-28 Le Shi Zhi Xin Electronic Technology (Tianjin) Limited Display screen or portion thereof with animated graphical user interface
EP4242814A3 (de) * 2014-06-24 2023-10-18 Apple Inc. Eingabevorrichtung und benutzerschnittstelleninteraktionen
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9430142B2 (en) 2014-07-17 2016-08-30 Facebook, Inc. Touch-based gesture recognition and application navigation
US10007419B2 (en) * 2014-07-17 2018-06-26 Facebook, Inc. Touch-based gesture recognition and application navigation
KR20160021524A (ko) * 2014-08-18 2016-02-26 엘지전자 주식회사 이동 단말기 및 이의 제어방법
USD765115S1 (en) * 2014-09-11 2016-08-30 Shuttersong Incorporated Portion of a display screen with graphical user interface
USD810762S1 (en) * 2014-09-17 2018-02-20 Doro AB Display screen or portion thereof with graphical user interface
USD769306S1 (en) * 2015-01-20 2016-10-18 Microsoft Corporation Display screen with animated graphical user interface
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
CN106033299A (zh) * 2015-03-09 2016-10-19 联想(北京)有限公司 一种信息处理方法及电子设备
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
USD766296S1 (en) * 2015-05-01 2016-09-13 Microsoft Corporation Display screen with animated graphical user interface
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
USD765700S1 (en) 2015-06-07 2016-09-06 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) * 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9990113B2 (en) * 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
USD780801S1 (en) * 2015-09-18 2017-03-07 Sap Se Display screen or portion thereof with animated graphical user interface
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) * 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
USD816103S1 (en) * 2016-01-22 2018-04-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR102459031B1 (ko) 2016-02-15 2022-10-26 삼성전자 주식회사 전자 장치 및 그 어플리케이션 표시 방법
CN105893614A (zh) * 2016-04-27 2016-08-24 北京金山安全软件有限公司 信息推荐的方法、装置及电子设备
CN114896374A (zh) * 2016-04-28 2022-08-12 荣耀终端有限公司 一种人机交互方法及其装置
GB2553744B (en) * 2016-04-29 2018-09-05 Advanced Risc Mach Ltd Graphics processing systems
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670616A1 (en) * 2016-06-12 2018-01-22 Apple Inc Devices and Methods for Accessing Prevalent Device Functions
US10852936B2 (en) 2016-09-23 2020-12-01 Apple Inc. Devices, methods, and graphical user interfaces for a unified annotation layer for annotating content displayed on a device
CN107885559A (zh) * 2016-09-30 2018-04-06 法乐第(北京)网络科技有限公司 显示图标目录的方法及装置
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
WO2018195730A1 (zh) * 2017-04-24 2018-11-01 北京小米移动软件有限公司 屏幕控制方法及装置
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10203866B2 (en) 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US11036387B2 (en) 2017-05-16 2021-06-15 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US11928483B2 (en) 2017-05-16 2024-03-12 Apple Inc. Devices, methods, and graphical user interfaces for seamless transition of user interface behaviors
KR102130932B1 (ko) * 2017-05-16 2020-07-08 애플 인크. 사용자 인터페이스들 사이에 내비게이팅하고 제어 객체들과 상호작용하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US10466889B2 (en) * 2017-05-16 2019-11-05 Apple Inc. Devices, methods, and graphical user interfaces for accessing notifications
USD843405S1 (en) * 2017-06-05 2019-03-19 Apple Inc. Display screen or portion thereof with graphical user interface
CN107329682B (zh) * 2017-06-19 2020-08-28 努比亚技术有限公司 边缘交互方法及移动终端
WO2019005245A1 (en) * 2017-06-27 2019-01-03 Google Llc ACCESSING APPLICATION FEATURES FROM A GRAPHIC KEYBOARD
CN107291479A (zh) * 2017-06-30 2017-10-24 武汉斗鱼网络科技有限公司 一种Android应用程序中礼物面板的优化方法及装置
TWI661349B (zh) * 2017-11-15 2019-06-01 財團法人資訊工業策進會 產生對話式使用者介面的方法及系統
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN111602107B (zh) * 2018-04-19 2022-02-11 华为技术有限公司 一种应用退出时的显示方法及终端
AU2019100488B4 (en) 2018-05-07 2019-08-22 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
US11797150B2 (en) * 2018-05-07 2023-10-24 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
DK180116B1 (en) 2018-05-07 2020-05-13 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR NAVIGATING BETWEEN USER INTERFACES AND DISPLAYING A DOCK
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
EP3791248A2 (de) * 2018-05-07 2021-03-17 Apple Inc. Vorrichtungen, verfahren und grafische benutzerschnittstellen zur navigation zwischen benutzerschnittstellen, anzeige eines docks und anzeige von systembenutzerschnittstellenelementen
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
USD927515S1 (en) * 2018-08-19 2021-08-10 Switchmate Home Llc Display screen or portion thereof with graphical user interface
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11962836B2 (en) 2019-03-24 2024-04-16 Apple Inc. User interfaces for a media browsing application
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
EP3977245A1 (de) 2019-05-31 2022-04-06 Apple Inc. Benutzerschnittstellen für eine anwendung zum durchsuchen und wiedergeben von podcasts
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
CN111049976B (zh) * 2019-11-27 2021-05-28 维沃移动通信有限公司 界面显示方法、电子设备及计算机可读存储介质
US11416127B2 (en) 2020-03-10 2022-08-16 Apple Inc. Devices, methods, and graphical user interfaces for interacting with user interface objects corresponding to applications
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
EP4341795A1 (de) * 2021-05-17 2024-03-27 Apple Inc. Systeme und verfahren zur interaktion mit benutzeroberflächen
US20220365669A1 (en) * 2021-05-17 2022-11-17 Apple Inc. Systems and Methods for Interacting with User Interfaces
CN115495002A (zh) * 2021-06-01 2022-12-20 华为技术有限公司 一种控制方法及电子设备
CN114001748B (zh) * 2021-10-28 2024-03-22 维沃移动通信有限公司 导航路线显示方法、装置、设备及介质
US11842028B2 (en) 2022-05-06 2023-12-12 Apple Inc. Devices, methods, and graphical user interfaces for updating a session region
EP4273678A1 (de) 2022-05-06 2023-11-08 Apple Inc. Vorrichtungen, verfahren und grafische benutzeroberflächen zur aktualisierung einer sitzungsregion
US20230367458A1 (en) * 2022-05-10 2023-11-16 Apple Inc. Search operations in various user interfaces

Family Cites Families (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400996B1 (en) * 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US5956030A (en) * 1993-06-11 1999-09-21 Apple Computer, Inc. Computer system with graphical user interface including windows having an identifier within a control region on the display
JP3519007B2 (ja) 1999-01-29 2004-04-12 シャープ株式会社 地図情報表示機能を有する情報機器及び地図情報表示方法並びに地図情報表示プログラムを記録した記録媒体
US6556222B1 (en) * 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US7015910B2 (en) * 2000-12-21 2006-03-21 Xerox Corporation Methods, systems, and computer program products for the display and operation of virtual three-dimensional books
US7071915B2 (en) * 2001-09-13 2006-07-04 E-Book Systems Pte Ltd. Method for displaying flipping pages via electromechanical information browsing device
US20080098331A1 (en) 2005-09-16 2008-04-24 Gregory Novick Portable Multifunction Device with Soft Keyboards
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8159457B2 (en) 2006-09-27 2012-04-17 Yahoo! Inc. Zero-click activation of an application
EP2177010B1 (de) * 2006-12-13 2015-10-28 Quickplay Media Inc. Mobile medienplattform
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US7903115B2 (en) * 2007-01-07 2011-03-08 Apple Inc. Animations
WO2008144586A1 (en) * 2007-05-18 2008-11-27 Smarttouch, Inc. System and method for enhanced communications via small data rate communication systems
US9933937B2 (en) * 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9772751B2 (en) * 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8214767B2 (en) 2008-01-14 2012-07-03 Hewlett-Packard Development Company, L.P. Method and computer program product for generating shortcuts for launching computer program functionality on a computer
US8205157B2 (en) * 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US9870130B2 (en) 2008-05-13 2018-01-16 Apple Inc. Pushing a user interface to a remote device
US8970647B2 (en) 2008-05-13 2015-03-03 Apple Inc. Pushing a graphical user interface to a remote device with display rules provided by the remote device
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
US8758111B2 (en) * 2008-08-20 2014-06-24 Cfph, Llc Game of chance systems and methods
US8000694B2 (en) * 2008-09-18 2011-08-16 Apple Inc. Communications device having a commute time function and methods of use thereof
US8595371B2 (en) 2008-09-19 2013-11-26 Samsung Electronics Co., Ltd. Sending a remote user interface
JP4752900B2 (ja) * 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
US7870496B1 (en) * 2009-01-29 2011-01-11 Jahanzeb Ahmed Sherwani System using touchscreen user interface of a mobile device to remotely control a host computer
US20100205559A1 (en) 2009-02-11 2010-08-12 Greg Rose Quick-launch desktop application
US8566044B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8589374B2 (en) * 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US9311112B2 (en) * 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566045B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8238876B2 (en) * 2009-03-30 2012-08-07 Microsoft Corporation Notifications
US20100332981A1 (en) * 2009-06-30 2010-12-30 Daniel Lipton Providing Media Settings Discovery in a Media Processing Application
KR101150545B1 (ko) * 2009-09-07 2012-06-11 주식회사 팬택앤큐리텔 이동통신단말기 및 그것의 화면 전환 방법
US8510677B2 (en) * 2010-01-06 2013-08-13 Apple Inc. Device, method, and graphical user interface for navigating through a range of values
US20110163967A1 (en) 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
US20110166777A1 (en) * 2010-01-07 2011-07-07 Anand Kumar Chavakula Navigation Application
US8239785B2 (en) * 2010-01-27 2012-08-07 Microsoft Corporation Edge gestures
US8261213B2 (en) * 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US8799827B2 (en) * 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9310994B2 (en) * 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9274682B2 (en) * 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9454304B2 (en) * 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9513801B2 (en) * 2010-04-07 2016-12-06 Apple Inc. Accessing electronic notifications and settings icons with gestures
US10788976B2 (en) * 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9058186B2 (en) 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US20110271181A1 (en) * 2010-04-28 2011-11-03 Acer Incorporated Screen unlocking method and electronic apparatus thereof
US9189143B2 (en) * 2010-04-30 2015-11-17 American Teleconferencing Services, Ltd. Sharing social networking content in a conference user interface
US20110271209A1 (en) * 2010-04-30 2011-11-03 American Teleconferncing Services Ltd. Systems, Methods, and Computer Programs for Providing a Conference User Interface
US20110271207A1 (en) * 2010-04-30 2011-11-03 American Teleconferencing Services Ltd. Location-Aware Conferencing
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
US8799815B2 (en) * 2010-07-30 2014-08-05 Apple Inc. Device, method, and graphical user interface for activating an item in a folder
CN107479737B (zh) 2010-09-24 2020-07-24 黑莓有限公司 便携式电子设备及其控制方法
CA2750352C (en) * 2010-09-24 2019-03-05 Research In Motion Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
KR101708821B1 (ko) * 2010-09-30 2017-02-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
JP2014503891A (ja) * 2010-12-10 2014-02-13 ヨタ デバイセズ アイピーアール リミテッド ユーザインターフェースを有する携帯機器
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
CN102566872A (zh) * 2010-12-30 2012-07-11 福建星网视易信息系统有限公司 触控显示器中多角度滑动点击响应方法及系统
US20120204131A1 (en) * 2011-02-07 2012-08-09 Samuel Hoang Enhanced application launcher interface for a computing device
US9134899B2 (en) * 2011-03-14 2015-09-15 Microsoft Technology Licensing, Llc Touch gesture indicating a scroll on a touch-sensitive display in a single direction
US8760424B2 (en) * 2011-03-17 2014-06-24 Intellitact Llc Touch enhanced interface
GB201107273D0 (en) * 2011-04-28 2011-06-15 Inq Entpr Ltd Application control in electronic devices
US9606643B2 (en) * 2011-05-02 2017-03-28 Microsoft Technology Licensing, Llc Extended above the lock-screen experience
JP5254399B2 (ja) 2011-05-13 2013-08-07 株式会社エヌ・ティ・ティ・ドコモ 表示装置、ユーザインタフェース方法及びプログラム
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US10417018B2 (en) * 2011-05-27 2019-09-17 Microsoft Technology Licensing, Llc Navigation of immersive and desktop shells
EP4344163A3 (de) * 2011-06-05 2024-04-24 Apple Inc. Systeme und verfahren zur anzeige von aus mehreren anwendungen empfangenen benachrichtigungen
JP2013021548A (ja) 2011-07-12 2013-01-31 Olympus Imaging Corp 撮像装置、画像再生装置及びプログラム
US9348626B2 (en) * 2011-08-05 2016-05-24 Vmware, Inc. Mobile device maintaining adequate security and data partitioning between user mode and business mode
WO2013028569A2 (en) * 2011-08-19 2013-02-28 Apple Inc. Interactive content for digital books
US9268481B2 (en) * 2011-08-29 2016-02-23 Kyocera Corporation User arrangement of objects on home screen of mobile device, method and storage medium thereof
KR101590386B1 (ko) 2011-09-07 2016-02-01 네이버 주식회사 검색 서비스 제공 장치 및 방법
JP5939756B2 (ja) 2011-09-07 2016-06-22 キヤノン株式会社 画像形成装置とその制御方法
US9026950B2 (en) * 2011-09-08 2015-05-05 Google Technology Holdings LLC Gesture-enabled settings
US8751972B2 (en) 2011-09-20 2014-06-10 Google Inc. Collaborative gesture-based input language
JP5792017B2 (ja) 2011-09-28 2015-10-07 京セラ株式会社 装置、方法、及びプログラム
JP2013084237A (ja) 2011-09-28 2013-05-09 Kyocera Corp 装置、方法、及びプログラム
JP6091829B2 (ja) 2011-09-28 2017-03-08 京セラ株式会社 装置、方法、及びプログラム
US9104441B2 (en) 2011-09-30 2015-08-11 Avaya Inc. Context and application aware selectors
KR101339420B1 (ko) * 2011-10-05 2013-12-10 한국과학기술원 베젤 영역을 이용한 전자책 컨텐츠 제어방법 및 장치
CN103092494A (zh) 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 触摸屏终端的应用程序切换方法和装置
KR101888457B1 (ko) 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
CN102520855A (zh) * 2011-12-03 2012-06-27 鸿富锦精密工业(深圳)有限公司 具有触摸屏的电子设备及其页面跳转方法
KR102006470B1 (ko) * 2011-12-28 2019-08-02 삼성전자 주식회사 사용자 디바이스에서 멀티태스킹 운용 방법 및 장치
US9116611B2 (en) * 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
US8411060B1 (en) * 2012-01-13 2013-04-02 Google Inc. Swipe gesture classification
US9652132B2 (en) * 2012-01-27 2017-05-16 Google Inc. Handling touch inputs based on user intention inference
US9323334B2 (en) * 2012-03-07 2016-04-26 Samsung Electronics Co., Ltd. Control system with ridge interface and method of operation thereof
US9430120B2 (en) * 2012-06-08 2016-08-30 Apple Inc. Identification of recently downloaded content
US8954878B2 (en) * 2012-09-04 2015-02-10 Google Inc. Information navigation on electronic devices
US8977961B2 (en) * 2012-10-16 2015-03-10 Cellco Partnership Gesture based context-sensitive functionality
US9582122B2 (en) * 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
SG11201407413WA (en) * 2012-12-07 2014-12-30 Yota Devices Ipr Ltd Display surface contains a cut out region reformatting display data
KR102188097B1 (ko) * 2013-03-04 2020-12-07 삼성전자주식회사 페이지 운용 방법 및 그 전자 장치
WO2014134793A1 (en) * 2013-03-06 2014-09-12 Nokia Corporation Apparatus and associated methods
US9170676B2 (en) * 2013-03-15 2015-10-27 Qualcomm Incorporated Enhancing touch inputs with gestures
US9658740B2 (en) * 2013-03-15 2017-05-23 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US9880727B2 (en) * 2013-05-29 2018-01-30 Microsoft Technology Licensing, Llc Gesture manipulations for configuring system settings
US10120541B2 (en) * 2013-06-09 2018-11-06 Apple Inc. Device, method, and graphical user interface for sharing content from a respective application
US9733716B2 (en) * 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9712577B2 (en) * 2013-06-09 2017-07-18 Apple Inc. Device, method, and graphical user interface for sharing content from a respective application
US9609390B2 (en) * 2013-10-03 2017-03-28 Jamdeo Canada Ltd. System and method for providing contextual functionality for presented content
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
US20160048989A1 (en) * 2014-08-17 2016-02-18 Mark Anthony Gabbidon Method for managing media associated with a user status

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IEEE 802.11a
IEEE 802.11b
IEEE 802.11g
IEEE 802.11n

Also Published As

Publication number Publication date
JP6705842B2 (ja) 2020-06-03
KR20160013191A (ko) 2016-02-03
KR102010219B1 (ko) 2019-08-12
EP3008565B1 (de) 2020-11-04
EP3008565A1 (de) 2016-04-20
KR101962732B1 (ko) 2019-07-31
JP2022058524A (ja) 2022-04-12
US20140365945A1 (en) 2014-12-11
AU2014278597A1 (en) 2015-12-24
AU2020200105B2 (en) 2021-06-17
KR101901936B1 (ko) 2018-09-28
CN105264476A (zh) 2016-01-20
NL2012926A (en) 2014-12-15
JP2020149700A (ja) 2020-09-17
HK1219149A1 (zh) 2017-03-24
TW201510846A (zh) 2015-03-16
TWI517022B (zh) 2016-01-11
NL2012926C2 (en) 2015-07-29
JP7344997B2 (ja) 2023-09-14
AU2017258815A1 (en) 2017-11-23
AU2014278597B2 (en) 2017-08-31
KR20180107302A (ko) 2018-10-01
AU2020200105A1 (en) 2020-01-30
AU2014100581B4 (en) 2014-09-11
AU2021229167B9 (en) 2023-03-09
HK1223173A1 (zh) 2017-07-21
CN115220635A (zh) 2022-10-21
JP2016526240A (ja) 2016-09-01
JP7184844B2 (ja) 2022-12-06
EP3757743A1 (de) 2020-12-30
JP2018088261A (ja) 2018-06-07
AU2014100581A4 (en) 2014-07-17
US20190354256A1 (en) 2019-11-21
AU2017258815B2 (en) 2019-10-10
WO2014200733A1 (en) 2014-12-18
US10481769B2 (en) 2019-11-19
US20240061557A1 (en) 2024-02-22
KR20190033658A (ko) 2019-03-29
AU2021229167B2 (en) 2023-03-02
AU2014278597C1 (en) 2018-01-18
AU2021229167A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
DE202014004544U1 (de) Vorrichtung und graphische Benutzerschnittstelle zum Bereitstellen von Navigations- und Suchfunktionalitäten
US11644966B2 (en) Coordination of static backgrounds and rubberbanding
US10095343B2 (en) Devices, methods, and graphical user interfaces for processing intensity information associated with touch inputs
DE202014004572U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Schalten zwischen Kameraschnittstellen
DE202014004554U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE202014004549U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Teilen von Inhalt aus einer jeweiligen Anwendung
KR102095403B1 (ko) 메시징 애플리케이션 내의 옵션들 표시, 알림 할당, 메시지들 무시, 및 동시 사용자 인터페이스 표시
US10156967B2 (en) Device, method, and graphical user interface for tabbed and private browsing
DE202013012233U1 (de) Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
DE202016002906U1 (de) Vorrichtungen zum Navigieren zwischen Benutzerschnittstellen
DE202016001513U1 (de) Vorrichtung und Benutzerschnittstelle zur Verarbeitung einer Intensität von Berührungskontakten
KR101764646B1 (ko) 컨트롤의 외관을 조정하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE202015005999U1 (de) Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
DE202016006323U1 (de) Vorrichtung zum Navigieren zwischen Benutzerschnittstellen
DE202016001489U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zum Anzeigen und Verwenden von Menüs
DE202014004555U1 (de) Vorrichtung zur Erzeugung von Benutzerschnittstellen aus einer Vorlage
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE202016001845U1 (de) Berührungseingabe-Cursor-Manipulation
DE102016214955A1 (de) Latenzfreier digitaler Assistent
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE202016001483U1 (de) Geräte zur Steuerung einer Medienpräsentation
DE202015006141U1 (de) Elektronische Touch-Kommunikation
DE202015003891U1 (de) Vorgefertigte Antworten in Nachrichten

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20141023

R150 Utility model maintained after payment of first maintenance fee after three years
R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years