DE202008000268U1 - Tragbare Multifunktionsvorrichtung - Google Patents

Tragbare Multifunktionsvorrichtung Download PDF

Info

Publication number
DE202008000268U1
DE202008000268U1 DE202008000268U DE202008000268U DE202008000268U1 DE 202008000268 U1 DE202008000268 U1 DE 202008000268U1 DE 202008000268 U DE202008000268 U DE 202008000268U DE 202008000268 U DE202008000268 U DE 202008000268U DE 202008000268 U1 DE202008000268 U1 DE 202008000268U1
Authority
DE
Germany
Prior art keywords
content
translating
page
instructions
touch screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008000268U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202008000268U1 publication Critical patent/DE202008000268U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1656Details related to functional adaptations of the enclosure, e.g. to provide protection against EMI, shock, water, or to host detachable peripherals like a mouse or removable expansions units like PCMCIA cards, or to provide access to internal components for maintenance or to removable storage supports like CDs or DVDs, or to mechanically mount accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Abstract

Tragbare Multifunktionsvorrichtung, aufweisend:
eine Berührungsbildschirmanzeige;
einen oder mehrere Prozessoren;
Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, das eine oder die mehreren Programme weisen auf:
Anweisungen zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige, wobei der Teil des Seiteninhalts aufweist: einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und anderen Inhalt der Seite;
Anweisungen zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige;
Anweisungen zum Translatieren des Seiteninhalts, in Antwort auf ein Erfassen der N-Fingertranslationsgeste um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei die Anweisungen zum Translatieren des Seiteninhalts Anweisungen zum Translatieren des angezeigten Teils des Rahmeninhalts and des anderen Inhalts der Seite aufweisen;
Anweisungen zum Erfassen einer M-Fingertranslationsgeste auf oder in der...

Description

  • GEBIET DER ERFINDUNG
  • Die offenbarten Ausführungsformen beziehen sich generell auf tragbare elektronische Vorrichtungen und insbesondere auf tragbare Vorrichtungen, die angezeigten Inhalt translatieren in Antwort auf erfasste Fingergesten.
  • HINTERGRUND
  • Mit kompakter werdenden tragbaren elektronischen Vorrichtungen und der Zunahme der Anzahl der Funktionen, die von einer gegebenen Vorrichtung ausgeführt werden, ist es eine signifikante Herausforderung geworden, Benutzerschnittstellen zu entwickeln, die es Benutzern erlauben, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders signifikant für handgehaltene, tragbare Vorrichtungen, die viel kleinere Bildschirme als Desktop oder Laptop Computer haben. Diese Situation ist unglücklich, weil die Benutzerschnittstelle die Schnittstelle ist, durch welche Benutzer nicht nur Inhalt sondern auch Antworten auf Benutzeraktionen oder Verhalten erhalten, darunter Benutzerversuche auf Eigenschaften, Werkzeuge und Funktionen einer Vorrichtung zuzugreifen. Einige tragbare Kommunikationsvorrichtungen (z. B. mobile Telefone, die manchmal Mobiltelefone genannt werden, Zelltelefone, zellulare Telefone und ähnliches) sind dazu übergegangen, mehr Druckknöpfe hinzuzufügen, die Dichte an Druckknöpfen zu erhöhen, die Funktionen von Druckknöpfen zu überladen oder komplexe Menüsysteme zu verwenden, um einem Benutzer Zugriff, Speichern und Manipulieren von Daten zu ermöglichen. Diese gewöhnli chen Benutzerschnittstellen resultieren oft in komplizierten Tastenfolgen und Menühierarchien, die sich ein Benutzer merken muss.
  • Viele gewöhnliche Benutzerschnittstellen, wie jene, die physikalische Druckknöpfe aufweisen, sind ebenfalls inflexibel. Dies ist unglücklich, weil es Benutzerschnittstellen davon abhält, konfiguriert und/oder adaptiert zu werden, von irgendeiner Anwendung, die auf der tragbaren Vorrichtung oder von Benutzern ausgeführt wird. In Verbindung mit der zeitraubenden Voraussetzung, mehrere Tastenfolgen und Menühierarchien im Gedächtnis zu behalten, und der Schwierigkeit, einen gewünschten Druckknopf zu aktivieren, ist diese Inflexibilität für die meisten Benutzer frustrierend.
  • Ein Beispiel der Inflexibilität vieler gewöhnlicher Benutzerschnittstellen ist die Schwierigkeit Berührungsbildschirmschnittstellen auf tragbaren Vorrichtungen zu verwenden um angezeigten Inhalt zu translatieren, insbesondere angezeigten Inhalt, der einen Rahmen beinhaltet, der einen Teil von Inhalt anzeigt, und auch anderen Inhalt außerhalb des Rahmens beinhaltet. Manchmal kann ein Benutzer den Wunsch haben, nur den angezeigten Teil von Inhalt in dem Rahmen zu translatieren, ohne den anderen Inhalt außerhalb des Rahmens zu translatieren. Bei anderen Gelegenheiten kann ein Benutzer den Wunsch haben sowohl Inhalt in dem Rahmen als auch Inhalt außerhalb des Rahmens zu translatieren. Herkömmliche Berührungsbildschirmschnittstellen fehlt ein benutzerfreundliches Verfahren zum Unterscheiden zwischen diesen beiden Handlungen.
  • Demgemäß gibt es einen Bedarf nach tragbaren Multifunktionsvorrichtungen mit transparenteren und intuitiveren Benutzerschnittstellen zum Translatieren angezeigten Inhalts in Übereinstimmung mit einer Intention eines Benutzers, die einfach zu benutzen, eingerichtet und/oder adaptieren sind. Solche Schnittstellen erhöhen die Effektivität, Effizienz und Benutzerzufriedenheit mit tragbaren Multifunktionsvorrichtungen.
  • ZUSAMMENFASSUNG
  • Die obigen Nachteile und andere Probleme, die mit Benutzerschnittstellen für tragbare Vorrichtungen zusammenhängen, werden reduziert oder eliminiert, durch die offenbarte, tragbare Multifunktionsvorrichtung. In einigen Ausführungsbeispielen weist die Vorrichtung einen berührungssensitiven Bildschirm (auch bekannt als "Berührungsbildschirm") mit einer graphischen Benutzerschnittstelle (graphical user interface, GUI), einen oder mehrere Prozessoren, Speicher und ein oder mehrere Module, Programme oder Gruppen von Anweisungen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen, auf. Der Benutzer kann mit der GUI interagieren, primär durch Fingerkontakte und Gesten auf dem berührungsempfindlichen Bildschirm. Die Funktionen können beinhalten Telefonieren, Videokonferenzen, E-Mail, Sofortnachrichten, Blogging, digitale Fotographie, digitales Video, Webbrowsing, digitales Musikabspielen und/oder digitales Videoabspielen. Anweisungen zum Ausführen dieser Funktionen können in einem Computerprogrammprodukt beinhaltet sein, das konfiguriert ist, durch eine oder mehrere Prozessoren ausgeführt zu werden.
  • In einem Aspekt weist ein computerimplementiertes Verfahren zur Verwendung in Verbindung mit einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige, auf. Der Teil des Seiteninhalts beinhaltet einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt und beinhaltet auch anderen Inhalt der Seite. Das Verfahren kann weiter erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige und in Antwort auf ein Erfassen der N-Fingertranslationsgeste translatieren des Seiteninhalts um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige darzustellen, wobei ein Translatieren des Seiteninhalts translatieren des angezeigten Teils des Rahmeninhalts und des anderen Inhalts der Seite beinhaltet, aufweisen. Zusätzlich weist das Verfahren Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, und in Antwort auf ein Erfassen der M-Fingertranslationsgeste, translatieren des Rahmeninhalts um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne Translatieren des anderen Inhalts der Seite, auf.
  • In einem anderen Aspekt weist eine graphische Benutzerschnittstelle auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige einen Teil eines Seiteninhalts auf der Berührungsbildschirmanzeige auf. Der Teil des Seiteninhalts beinhaltet einen Rahmen, der einen Teil eines Rahmeninhaltes anzeigt, und beinhaltet auch anderen Inhalt der Seite. In Antwort auf ein Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige wird der Seiteninhalt translatiert, um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei Translatieren des Seiteninhalts Translatieren des anderen Inhalts der Seite beinhaltet. In Antwort auf ein Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, wird der Rahmeninhalt translatiert, um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne Translatieren des anderen Inhalts der Seite.
  • In einem anderen Aspekt der Erfindung weist eine tragbare Multifunktionsvorrichtung eine Berührungsbildschirmanzeige, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme auf. Das eine oder die mehreren Programme sind in dem Speicher gespeichert und eingerichtet durch den einen oder die mehreren Prozessoren ausgeführt zu werden. Das eine oder die mehreren Programme beinhalten Anweisungen zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige. Der Teil des Seiteninhalts beinhaltet einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt und beinhaltet auch anderen Inhalt der Seite. Das eine oder die mehreren Programme beinhalten auch Anweisungen zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige; Anweisungen zum Translatieren des Seiteninhalts in Antwort auf ein Erfassen der N-Fingertranslationsgeste, um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei die Anweisungen zum Translatieren des Seiteninhalts Anweisungen zum Translatieren des angezeigten Teils des Seiteninhalts und des anderen Inhalts der Seite beinhalten; Anweisungen zum Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist; und Anweisungen zum Translatieren des Rahmeninhalts in Antwort auf ein Erfassen der M-Fingertranslationsgeste, um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne Translatieren des anderen Inhalts der Seite.
  • In einem anderen Aspekt der Erfindung speichert ein computerlesbares Speichermedium Anweisungen, welche, wenn sie durch eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, die Vorrichtung veranlassen, einen Teil eines Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen. Der Teil des Seiteninhalts beinhaltet einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und beinhaltet auch anderen Inhalt der Seite. Die Anweisungen veranlassen die Vorrichtung auch, eine N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige zu erfassen und den Seiteninhalt in Antwort auf ein Erfassen der N-Fingertranslation, um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, zu Translatieren, wobei Translatieren des Seiteninhalts Translatieren des angezeigten Teils des Rahmeninhalts und des anderen Inhalts der Seite beinhaltet. Die Anweisungen veranlassen die Vorrichtung weiter, eine M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige zu erfassen, wobei M eine andere Zahl als N ist; und den Rahmeninhalt zu translatieren in Antwort auf ein Erfassen der M-Fingertranslationsgeste, um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne Translatieren des anderen Inhalts der Seite.
  • In einem anderen Aspekt der Erfindung weist eine tragbare Kommunikationsvorrichtung mit einer Berührungsbildschirmanzeige Mittel zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige auf. Der Teil des Seiten inhalts beinhaltet einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und beinhaltet auch anderen Inhalt der Seite. Die Vorrichtung weist auch Mittel zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige und Mittel zum Translatieren des Seiteninhalts in Antwort auf ein Erfassen der N-Fingertranslationsgeste, um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, auf, wobei die Mittel zum Translatieren des Seiteninhalts Mittel zum Translatieren des angezeigten Teils des Rahmeninhalts und des anderen Inhalts der Seite beinhalten. Die Vorrichtung weist weiter Mittel zum Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, und Mittel zum Translatieren des Rahmeninhalts in Antwort auf ein Erfassen der M-Fingertranslationsgeste, um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne Translatieren des anderen Inhalts der Seite, auf.
  • Die offenbarten Ausführungsformen ermöglichen es, Benutzern somit, Seiteninhalte leicht zu Translatieren oder nur Rahmeninhalte innerhalb eines Seiteninhaltes zu translatieren, abhängig von der Anzahl an Fingern, die für die Geste benutzt werden.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Für ein besseres Verständnis der vorher genannten Ausführungsbeispiele der Erfindung sowie zusätzlicher Ausführungsbeispiele davon wird nun Bezug genommen auf unten beschriebene Ausführungsbeispiele, in Verbindung mit den folgenden Zeichnungen, in welchen sich ähnliche Bezugszeichen auf korrespondierende Teile über die Figuren hinweg beziehen.
  • 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen mit berührungsempfindlichen Anzeigen in Übereinstimmung mit einigen Ausführungsbeispielen darstellen.
  • 2 stellt eine tragbare Multifunktionsvorrichtung, die einen Berührungsbildschirm aufweist, in Übereinstimmung mit einigen Ausführungsbeispielen dar.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü von Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar.
  • 5A bis 5C stellen beispielhafte Benutzerschnittstellen zum Translatieren von Seiteninhalt oder Translatieren nur von Rahmeninhalt innerhalb des Seiteninhalts dar.
  • 6 ist ein Flussdiagramm, das einen Prozess zum Translatieren von Inhalt darstellt.
  • BESCHREIBUNG DER AUSFÜHRUNGFORMEN
  • Es wird nun im Detail Bezug genommen auf Ausführungsformen, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details gegeben, um ein vertieftes Verständnis der vorliegenden Erfindung zu ermöglichen. Jedoch ist es für den Fachmann ersichtlich, dass die vorliegende Erfindung ohne diese spezifischen Details ausgeführt werden kann. An anderen Stellen werden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltkreise und Netzwerke nicht im Detail beschrieben, um nicht unnötig Aspekte der Ausführungsbeispiele zu verdecken.
  • Es ist auch verständlich, dass obwohl die Begriffe erster, zweiter, usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt sein sollten. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste auch eine zweite Geste genannt werden und ähnlich eine zweite Geste könnte eine erste Geste genannt werden, ohne den Bereich der vorliegenden Erfindung zu verlassen.
  • Die Terminologie, die hier in der Beschreibung der Erfindung verwendet wird, ist nur zum Zwecke der Beschreibung spezieller Ausführungsbeispiele und hat nicht die Intention, die Erfindung zu begrenzen. Wie in der Beschreibung der Erfindung und den angefügten Ansprüchen verwendet, haben die Einzahlformen "ein", "eine" und "der, die, das" nicht die Intention, Pluralformen ebenso zu umfassen, falls der Kontext nichts anderes klar andeutet. Es ist auch verständlich, dass der Begriff "und/oder", wie er hier gebraucht wird, sich bezieht auf und umfasst jede aller möglichen Kombinationen und eines oder mehrere der zugeordneten aufgelisteten Elemente. Es ist weiter verständlich, dass die Begriffe "aufweist" und/oder "aufweisend", wenn in dieser Spezifikation benutzt, die Anwesenheit der genannten Eigenschaften ganzen Zahlen, Schritten, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht die Anwesenheit oder Hinzufügen einer oder mehrerer anderer Eigenschaften, ganzen Zahlen, Schritten, Operationen, Elemente Komponenten und/oder Gruppen davon, ausschließt.
  • Ausführungsbeispiele einer tragbaren Multifunktionsvorrichtung sind beschrieben. In einigen Ausführungsbeispielen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie z. B. ein Mobiltelefon, das auch andere Funktionen, wie z. B. PDA und/oder Musikabspielfunktionen aufweist.
  • Die Benutzerschnittstelle kann ein physikalisches Klickrad zusätzlich zu einem Berührungsbildschirm oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird, aufweisen. Ein Klickrad ist eine Benutzerschnittstellenvorrichtung, die Navigationsbefehle bereitstellen kann, basierend auf einer Winkelverstellung des Rades oder eines Kontaktpunktes mit dem Rad von einem Benutzer der Vorrichtung. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl, der zu einer Wahl eines oder mehrerer Elemente korrespondiert, bereitzustellen, z. B. wenn der Benutzer der Vorrichtung zumindest einen Teil des Rades oder das Zentrum des Rades herunterdrückt. Alternativ kann eine Unterbrechung des Kontakts mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der einer Wahl entspricht. Der Einfachheit halber, wird in der folgenden Diskussion eine tragbare Multifunktionsvorrichtung, die einen Berührungsbildschirm aufweist, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass einige der Benutzerschnittstellen und zugeordneten Prozesse auf andere Vorrichtungen angewandt werden können, wie z. B. Personalcomputer und Laptopcomputer, die eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen aufweisen können, wie z. B. ein physikalisches Klickrad, eine physikalische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt eine Vielzahl von Anwendungen, wie z. B. Telefonanwendungen, eine Videokonferenzanwendung, eine E-Mailanwendung, eine Sofortnachrichtenanwendung, eine Blogginganwendung, eine Digitalkameraanwendung, eine digital Videokameraanwendung, eine Webbrowsinganwendung, eine digitale Musikabspielanwendung und/oder eine digitale Videospieleanwendung.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können zumindest eine gemeinsame physikalische Benutzerschnittstellenvorrichtung, wie z. B. den Berührungsbildschirm verwenden. Eine oder mehrere Funktionen des Berührungsbildschirms, sowie entsprechende angezeigte Informationen auf der Vorrichtung können angepasst und/oder variiert werden, von einer Anwendung zur nächsten und/oder innerhalb einer entsprechenden Anwendung. Auf diese Weise kann eine gemeinsame physikalische Architektur (wie z. B. der Berührungsbildschirm) der Vorrichtung die Vielzahl an Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent sind, unterstützen.
  • Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen aufweisen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standard-Konfigurationen von Symbolen auf den dargestellten Ikonen der Tastatur aufweisen, wie z. B. jene, die beschrieben sind in U. S. Patent Applikations 11/459,606, "Keyboards For Portable Electronic Devices" eingereicht am 24. Juli 2006, und 11/459,615, "Touch Screen Keyboards For Portable Electronic Devices" eingereicht am 24. Juli 2006, deren Inhalte hier durch Bezugnahme in ihrer Gesamtheit eingebunden sind. Die Tastaturausführungsformen können eine reduzierte Anzahl an Ikonen (oder Softtasten) aufweisen, in Bezug auf die Anzahl an Tasten in existierenden physikalischen Tastaturen, wie z. B. jener für eine Schreibmaschine. Diese macht es für Benutzer einfacher, eine oder mehrere Ikonen der Tastatur zu wählen und damit ein oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können angezeigte Ikonen in Übereinstimmung mit Benutzeraktionen modifiziert werden, wie z. B. Wahl einer oder mehrerer Ikonen und/oder einer oder mehrerer korrespondierender Symbole. Eine oder mehrere Anwendungen auf der tragbaren Vorrichtung können gemeinsame und/oder verschiedene Tastaturausführungsformen verwenden. Damit können die verwendeten Tastaturausführungsformen zumindest auf einige der Anwendungen zugeschnitten werden. In einigen Ausführungsbeispielen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer basierend auf einer Wortbenutzungshistorie (Lexikographie, Jargon, individuelle Benutzung) des entsprechenden Benutzers, zugeschnitten werden. Einige der Tastaturausführungsformen können angepasst werden, um die Wahrscheinlichkeit eines Benutzerfehlers zu reduzieren, wenn eine oder mehrere Ikonen und damit ein oder mehrere Symbole gewählt werden, wenn die Softtastaturausführungsformen verwendet werden.
  • Die Aufmerksamkeit wird nun auf Ausführungsbeispiele der Vorrichtung gerichtet. 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsbeispielen darstellen. Die berührungsempfindliche Anzeige 112 wird manchmal auch ein Berührungsbildschirm der Einfachheit halber genannt und kann auch bekannt sein als oder genannt werden ein berührungsemp findliches Anzeigensystem. Die Vorrichtung 100 kann einen Speicher 102 (der eine oder mehrere computerlesbare Speichermedien enthalten kann), ein Speichersteuervorrichtung 122, eine oder mehrere Verarbeitungseinheiten (CPU's) 120, eine Peripherigeräteschnittstelle 118, Hochfrequenz (radio frequency RF) Schaltkreise 108, Audioschaltkreise 110, einen Lautsprecher 111, ein Mikrophon 113 und ein Eingabe/Ausgabe (Input/Output, I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124 aufweisen. Die Vorrichtung 100 kann einen oder mehrere optische Sensoren 164 aufweisen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signallinien 103 kommunizieren.
  • Es sollte betont werden, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt haben kann und zwei oder mehr Komponenten kombinieren kann, oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweisen kann. Die verschiedenen Komponenten, die in den 1A und 1B gezeigt sind, können in Hardware, Software oder einer Kombination von Hardware und Software implementiert sein, darunter ein oder mehrere signalverarbeitungs- und/oder anwendungsspezifische, integrierte Schaltkreise.
  • Der Speicher 102 kann High Speed Random Access Speicher aufweisen und auch nichtvolatilen Speicher aufweisen, wie z. B. eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen, und andere nicht volatile Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 kann durch andere Komponenten der Vorrichtung 100, wie z. B. der CPU 120 und der Peripherigeräteschnittstelle 118, durch die Speichersteuervorrichtung 122 gesteuert werden.
  • Die Peripherigeräteschnittstelle 118 verbindet die Eingabe und Ausgabe der Peripheriegerätevorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 betreiben oder führen verschiedene Softwareprogramme und/oder Gruppen an Anweisungen aus, die in Speicher 102 gespeichert sind, um verschiedene Funktionen für die Vorrichtung 100 auszuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsbeispielen kann die Peripherigeräteschnittstelle 118 die CPU 120 und die Speichersteuervorrichtung 122 auf einem einzigen Chip implementiert sein, wie z. B. ein Chip 104. In einigen anderen Ausführungsbeispielen können sie auf separaten Chips implementiert sein.
  • Der RF (radio frequency) Schaltkreis 108 empfängt und sendet RF Signale, auch elektromagnetische Signale genannt. Der RF Schaltkreis 108 konvertiert elektrische Signale zu/von elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. Der RF Schaltkreis 108 kann wohlbekannte Schaltkreise zum Ausführen dieser Funktionen aufweisen, darunter, aber nicht beschränkt auf ein Antennensystem, ein RF Transceiver, einen oder mehrere Verstärker, einen Empfänger, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, ein CODEC Chipsatz, ein Subscriber Identity Module (SIM) Card, Speicher, usw. Der RF Schaltkreis 108 kann mit Netzwerken kommunizieren, wie z. B. das Internet, auf das auch Bezug genommen wird als World Wide Web (WWW), ein Intraet und/oder ein Drahtlosnetzwerk, wie z. B. ein zellulares Telefonnetzwerk, ein Wireless Lan Area Network (LAN) und/oder ein Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation kann jede aus einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden, darunter aber nicht beschränkt auf, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (z. B. IEEE 802.11a, IEEE 802.11b. IEEE 802.11g und/oder IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, ein Protokoll für E-Mail (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Sofortmitteilungen (z. B. extensible Messaging and Presence Protokoll (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), und/oder Instant Messaging and Presence Service (IMPS)), und/oder Short Message Service (SMS)), oder jedes andere geeignete Kommunikationsprotokoll, darunter Kommunikationsprotokolle, die zum Zeitpunkt der Anmeldung diese Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111, und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripherigeräteschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal zu dem Lautsprecher 111. Der Lautsprecher 111 wandelt die elektrischen Signale in vom Menschen wahrnehmbare Schallwellen um. Der Audioschaltkreis 110 empfängt auch elektrische Signale, die von dem Mikrophon 113 von Schallwellen umgewandelt wurden. Der Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten und überträgt die Audiodaten zu der Peripherigeräteschnittstelle 118 zur Verarbeitung. Audiodaten können abgerufen werden von und/oder übertragen werden zu Speicher 102 und/oder dem RF Schaltkreis 108 durch die Peripherigeräteschnittstelle 118. In einigen Ausführungsbeispielen kann der Audioschaltkreis 110 auch einen Sprechgarnituranschluss aufweisen (z. B. 212, 2). Der Sprechgarnituranschlussstecker stellt eine Schnittstelle zwischen dem Audioschaltkreis 110 und entfernbare Audioeingabe/ausgabeperipheriegeräten bereit, wie z. B. Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit beidem, sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O Untersystem 106 verbindet Eingabe-/Ausgabeperipheriegeräte auf der Vorrichtung 100 sowie dem Berührungsbildschirm 112 und andere Eingabe/Steuervorrichtungen 116 zu der Peripheriegeräteschnittstelle 118. Das I/O Untersystem 106 kann eine Anzeigensteuervorrichtung 156 aufweisen und eine oder mehrere Steuervorrichtungen 160 für andere Eingabe- oder Steuervorrichtungen.
  • Das eine oder mehrere Eingabesteuervorrichtungen 160 empfangen/senden elektrische Signale von/zu anderen Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe-/Steuervorrichtungen 116 können physikalische Knöpfe (z. B. Druckknöpfe, Kipphebel, etc.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder usw. aufweisen. In einigen anderen Ausführungsbeispiele kann die Eingabesteuervorrichtung(en) 116 zu jedem oder keinem der folgenden verbunden sein: Eine Tastatur, Infrarotanschluss, USB-Anschluss und/oder ein Zeigegerät, wie eine Maus. Der eine oder mehrere Knöpfe (z. B. 208, 2) kann einen Aufwärts-/Abwärtsknopf zur Lautstärkeregelung des Lautsprecher 111 und/oder des Mikrophons 113 aufweisen. Der eine oder mehrere Knöpfe können einen Druckknopf (z. B. 206, 2) aufweisen. Ein kurzes Drücken des Druckknopfes kann eine Sperre des Berührungsbildschirms 112 entsperren, oder einen Prozess beginnen, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entsperren, wie beschrieben in U.S. Patent Anmeldung Nr. 11/322,549, "Unlocking a Device by Performing Gestures an an Unlock Image" eingereicht am 23. Dezember 2005, welches hiermit referenzierend in ihrer Gesamtheit eingebunden ist. Ein längeres Drücken des Druckknopfes (z. B. 206) kann die Leistung zu der Vorrichtung 100 an oder ausschalten. Der Benutzer kann in der Lage sein, eine Funktionalität von einem oder mehreren der Knöpfe zu verändern. Der Berührungsbildschirm 112 wird verwendet, virtuelle oder Softknöpfe und ein oder mehrere Softkeyboards zu implementieren.
  • Der berührungsempfindliche Berührbildschirm 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigensteuervorrichtung 156 empfängt und/oder sendet elektrische Signale von/zu dem Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgaben an den Benutzer an. Die visuellen Ausgaben können Graphik, Text, Ikonen, Video und jede Kombination davon (zusammengefasst als "Graphiken" bezeichnet) aufweisen. In einigen Ausführungsbeispielen können einige oder alle der visuellen Ausgaben zu Benutzerschnittstellenobjekten korrespondieren, von denen weitere Details unten beschrieben sind.
  • Ein Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe an Sensoren, die Eingabe von einem Benutzer basierend auf haptischen und/oder taktilem Kontakt akzeptiert. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 (zusammen mit jedem zugehörigen Modul und/oder Gruppen an Instruktionen in Speicher 102) erfassen Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Berührungsbildschirm 112 und wandeln den erfassten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Ikonen, Webseiten oder Bilder) die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Kontaktpunkt zwischen einem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 kann LCD (liquid crystal display) Technologie oder LPD (light emitting polymer display) Technologie verwenden, obwohl andere Displayanzeigentechnologien in anderen Ausführungsbeispielen verwendet werden können. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 können Kontakt und jede Bewegung oder Unterbrechung davon erfassen, unter Verwendung jeder von einer Vielzahl an berührungsempfindlichen Technologien, die jetzt bekannt sind, oder später entwickelt werden, darunter aber nicht beschränkt auf kapazitive, resistive, infrarot und akustischeoberflächenwellen Technologie sowie andere Nahbereichsensorfelder oder andere Elemente zum Bestimmen einer oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm 112.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsbeispielen des Berührungsbildschirm 112 analog zu den vielfachberührungsempfindlichen Tafeln sein, die in den folgenden U.S. Patenten beschrieben sind: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), und/oder 6,677,932 (Westerman), und/oder U.S. Patent Veröffentlichung 2002/0015024 A1 , von denen jede hier in ihrer Gesamtheit referenzierend eingebunden ist. Jedoch zeigt ein Berührungsbildschirm 112 visuelle Ausgaben von der tragbaren Vorrichtung 100 an, wohingegen berührungssensitive Tafeln keine visuellen Ausgaben bereitstellen.
  • Eine berührungsempfindliche Anzeige in einigen Ausführungsbeispielen des Berührungsbildschirms 112 kann wie die folgenden Anmeldungen beschrieben sein: (1) U.S. 11/381,313, "Multipoint Touch Surface Controller", eingereicht am 2. Mai 2006; (2) U.S. Patent Anmeldung Nr. 10/840,862, "Multipoint Touch Screen", eingereicht am 6. Mai 2004; (3) U.S. Patent Application No. 10/903,964, "Gestures For Touch Sensitive Input Devices", eingereicht am 30. Juli 2004; (4) U.S. Patent Application No. 11/048,264, "Gestures For Touch Sensitive Input Devices", eingereicht am 31. Januar 2005; (5) U.S. Patent Application No. 11/038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", eingereicht am 18. Januar 2005; (6) U.S. Patent Application No. 11/228,758, "Virtual Input Device Placement On A Touch Screen User Interface", eingereicht am 16. September 2005; (7) U.S. Patent Application No. 11/228,700, "Operation Of A Computer With A Touch Screen Interface", eingereicht am 16. September 2005; (8) U.S. Patent Anmeldung Nr. 11/228,737, "Activating Virtual Keys Of A Touch Screen Virtual Keyboard", eingereicht am 16. September 2005; and (9) U.S. Patent Anmeldung Nr. 11/367,749, "Multi-Functional Hand-Held Device", eingereicht am 3. März 2006. Alle diese Anmeldungen sind hiermit durch Bezugnahme in ihrer Gesamtheit eingebunden.
  • Der Berührungsbildschirm 112 kann eine Auflösung höher als 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm eine Auflösung von ungefähr 160 dpi. Der Benutzer kann mit dem Berührungsbildschirm 112 in Kontakt treten unter Verwendung irgendeines geeigneten Objektes oder Anhangs, wie z. B. einen Stift, einen Finger, usw. In einigen Ausführungsbeispielen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, die viel weniger präziser als stiftbasierte Eingaben sind, aufgrund des größeren Kontaktbereiches eines Fingers auf dem Berührungs bildschirm. In einigen Ausführungsbeispielen übersetzt die Vorrichtung die groben, fingerbasierten Eingaben in eine präzise Zeiger-/Cursorposition und Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 zusätzlich zu dem Berührungsbildschirm ein Berührungsfeld (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen aufweisen. In einigen Ausführungsbeispielen ist das Berührfeld ein berührungsempfindlicher Bereich der Vorrichtung, der im Gegensatz zu dem Berührungsbildschirm Nicht-visuelle-Ausgaben anzeigt. Das Berührfeld kann eine berührungsempfindliche Oberfläche sein, die von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die von dem Berührungsbildschirm gebildet wird.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 ein physikalisches oder virtuelles Klickrad als eine Eingabe-/Steuervorrichtungen 116 aufweisen. Ein Benutzer kann navigieren unter und interagieren mit einem oder mehreren graphischen Objekten (im Folgenden als Ikonen bezeichnet), die auf dem Berührungsbildschirm 112 angezeigt werden durch Rotieren des Klickrades oder durch Bewegen eines Kontaktpunktes mit dem Klickrad (wobei die Größe der Bewegung des Kontaktpunktes durch seine Winkelverstellung mit Bezug auf einen zentralen Punkt des Klickrades gemessen wird). Das Klickrad kann auch verwendet werden um eine oder mehrere der angezeigten Ikonen auszuwählen. Zum Beispiel kann der Benutzer auf zumindest einen Teil des Klickrades oder eines zugeordneten Knopfes drücken. Benutzerbefehle und Steuerbefehle, die durch den Benutzer über das Klickrad bereitgestellt werden, können von einer Eingabesteuervorrichtung 160 verarbeitet werden sowie eine oder mehrere der Module und/oder Gruppen an Anweisungen in Speicher 102. Für ein virtuelles Klickrad, können das Klickrad bzw. das Klickradsteuervorrichtung Teil des Berührungsbildschirms 112 bzw. der Anzeigensteuervorrichtung 156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein lichtundurchlässiges oder semitransparentes Objekt sein, das erscheint und verschwindet auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung. In einigen Ausführungsbeispielen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt, und wird durch Benutzerkontakt mit dem Berührungsbildschirm bedient.
  • Die Vorrichtung 100 weist auch ein Energiesystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung auf. Das Energiesystem 162 kann ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (alternating current (AC)), ein Wiederaufladesystem, einen Leistungsunterbrechungserfassungsschaltkreis, einen Leistungsumsetzer oder Inverter, einen Energiestatusindikator (z. B. eine light emitting diode (LED) und jede beliebige andere Komponente, die mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen zusammenhängt.
  • Die Vorrichtung 100 kann auch einen oder mehrere optischen Sensoren 164 aufweisen. 1A und 1B zeigen einen optischen Sensor, der zu einer optischen Sensorsteuervorrichtung 158 in I/O Untersystem 106 verbunden ist. Der optische Sensor 164 kann charge-coupeld device (CCD) oder komplementäre metalloxid Halbleiter (complementary metal-oxide semiconductor (CMOS) Fototransistoren aufweisen. Der optische Sensor 164 empfängt Licht von der Umgebung, das durch eine oder mehrere Linsen geleitet wird und konvertiert das Licht in Daten, die ein Bild repräsentieren. In Verbindung mit einem Bildmodul 143 (auch ein Kameramodul genannt) kann der optische Sensor 164 stehende Bilder oder Video aufzeichnen. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 lokalisiert, entgegengesetzt der Berührungsbildschirmanzeige 112 auf der Front der Vorrichtung, so dass die Berührungsbildschirmanzeige als ein Sucher für entweder stehende und/oder Videobildaufnahmen verwendet werden kann. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Front der Vorrichtung lokalisiert, so dass die Benutzerbilder für Videokonferenzen erhalten werden können, während der Benutzer andere Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In einigen Ausführungsbeispielen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Rotation der Linsen und des Sensors in dem Gehäuse der Vorrichtung), so dass ein einziger optischer Sensor 164 zusammen mit der Berührungsbildschirmanzeige für Videokonferenzen und stehende und/oder Videobildaufnahmen verwendet werden kann.
  • Die Vorrichtung 100 kann auch einen oder mehrere Nahbereichsensoren 166 aufweisen. 1A und 1B zeigen einen Nahbereichsensor 166, der zu der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Nahbereichsensor 166 zu einer Eingabesteuervorrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Nahbereichsensor 166 kann funktionieren, wie beschrieben in den U.S. Patent Anmeldung Nrn. 11/241,839, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; 11/240,788, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; 11/620,702, "Using Ambient Light Sensor To Augment Proximity Sensor Output"; 11/586,862, "Automated Response To And Sensing Of User Activity In Portable Devices", eingereicht am 24. Oktober 2006, und 11/638,251 "Methods And Systems For Automatic Configuration Of Peripherals", die hiermit unter Bezugnahme in ihrer Gesamtheit eingebunden sind. In einigen Ausführungsbeispielen stellt sich der Nahbereichsensor aus und schaltet den Berührungsbildschirm 112 aus, wenn die Multifunktionsvorrichtung in der Nähe des Ohres des Benutzers gebracht wird (z. B. wenn der Benutzer einen Telefonanruf tätigt). In einigen Ausführungsbeispielen stellt der Nahbereichsensor den Bildschirm aus, wenn die Vorrichtung in der Handtasche des Benutzers oder anderen dunklen Bereichen ist, um unnötigen Batterieverbrauch zu vermeiden, wenn die Vorrichtung in einem gesperrten Zustand ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1A und 1B zeigen einen Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Beschleunigungsmesser 168 zu einer Eingabe-/Steuervorrichtung 160 in dem I/O Untersys tem 106 verbunden sein. Der Beschleunigungsmesser 168 kann wie in Folgendem beschrieben funktionieren: U.S. Veröffentlichung Nr. 20050190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices" und U.S. Veröffentlichung Nr. 20060017692 , "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer", von denen beide hier referenzierend in ihrer Gesamtheit eingebunden sind. In einigen Ausführungsbeispielen werden die Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht angezeigt, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmesser empfangen werden.
  • In einigen Ausführungsbeispielen können die Softwarekomponenten, die in Speicher 102 gespeichert ist, ein Betriebssystem 126, ein Kommunikationsmodul (oder eine Gruppe an Anweisungen) 128, ein Kontakt-Bewegungsmodul (oder Gruppe an Anweisungen) 130, ein Graphikmodul (oder Gruppe an Anweisungen), Anwendungsfenstermodul 132, ein Texteingabemodul (oder Gruppe an Anweisungen) 134, ein Global Positioning System (GPS) Modul (oder Gruppe an Anweisungen 135 und Anwendungen (oder Gruppe an Anweisungen) 136 aufweisen.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie z. B. VxWorks) beinhalten verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichersteuervorrichtung, Energieverwaltung, etc.) und erleichtern Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und beinhaltet auch verschiedene Softwarekomponenten zum Verwalten von Daten, die von dem RF Schaltkreis 108 und/oder dem externen Anschluss 124 empfangen werden. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIREWIRE, etc.) ist angepasst direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, etc.) verbunden zu sein. In einigen Ausführungsbeispielen ist der externe Anschluss ein Vielfachpin (z. B. 30-Pin) Verbindungseinrichtung, der derselbe ist, oder ähnlich ist zu und/oder kompatibel ist mit der 30-Pin Verbindungseinrichtung, der bei iPod Vorrichtungen benutzt wird (Markenzeichen der Apple Computer Inc.).
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dem Berührungsbildschirm 112 (in Verbindung mit der Anzeigensteuervorrichtung 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. ein Berührungsfeld oder physikalisches Klickrad) erfassen. Das Kontakt-/Bewegungsmodul 130 beinhaltet verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, die mit der Erfassung von Kontakt in Zusammenhang stehen, wie z. B. Bestimmen, ob Kontakt stattgefunden hat, Bestimmen, ob es Bewegung des Kontaktes gibt und Verfolgen der Bewegung über den Berührungsbildschirm 112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen einer Bewegung des Kontaktpunktes kann beinhalten, Bestimmen von Schnelligkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder einer Beschleunigung (einer Änderung des Betrages und/oder Richtung) des Kontaktpunktes. Diese Operationen können auf einzelne Kontakte (z. B. Einfingerkontakte) angewandt werden oder auf simultane Kontakte (z. B. "Mehrberührungs-"/Mehrfingerkontakte). In einigen Ausführungsbeispielen erfasst das Kontakt-/Bewegungsmodul 130 und die Anzeigensteuervorrichtung 156 auch Kontakt auf einem Berührungsfeld. In einigen Ausführungsbeispielen erfasst das Kontakt-/Bewegungsmodul 130 und die Steuervorrichtung 160 Kontakt auf einem Klickrad.
  • Das Graphikmodul 132 beinhaltet verschiedene bekannte Softwarekomponenten zum Wiedergeben und Anzeigen von Graphiken auf dem Berührungsbildschirm 112, darunter Komponenten zum Ändern der Intensität der Graphiken, die angezeigt werden. Wie hierin benutzt beinhaltet der Begriff "Graphiken" jedes Objekt, das einem Benutzer angezeigt werden kann, darunter ohne Begrenzung Text, Webseiten, Ikonen (sowie Benutzerschnittstellenobjekte darunter Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • Das Texteingabemodul 134, welches eine Komponente des Graphikmoduls 132 sein kann, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, Instant Messaging (IM) 141, Blogging 142, Browser 147 und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Benutzung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, zu Kamera 143 und/oder Blogger 142 sowie Bild-/Videometadaten und zu Anwendungen, die positionsbasierte Dienste sowie Wetterwidgets, gelbe Seiten-widgets und Landkarten/Navigationswidgets).
  • Die Anwendungen 136 können die folgenden Module (oder Gruppen an Instruktionen) oder eine Untergruppe oder eine Übergruppe davon beinhalten:
    • • ein Kontaktemodul 137 (manchmal ein Adressbuch oder Kontaktliste ge nannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein E-Mail Client Modul 140;
    • • ein Instant Messaging (IM) Modul 141;
    • • ein Bloggingmodul 142
    • • ein Kameramodul 143 für stehende und/oder Videobilder;
    • • ein Bilderverwaltungsmodul 144;
    • • ein Videoabspielmodul 145;
    • • ein Musikabspielmodul 146;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widgetmodule 149, die beinhalten können Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Weckerwidget 149-4, Wörterbuchwidget 149-5 und andere Widgets, die der Benutzer erhalten hat sowie benutzererzeugte Widgets 149-6;
    • • Widgeterzeugungsmodul 150 zum Erstellen benutzererstellter Widgets
    • 149-6;
    • • Suchmodul 151;
    • • Video- und Musikabspielmodul 152, das Videoabspielmodul 145 und Mu sikabspielmodul 146 verbindet;
    • • Notizblockmodul 153; und/oder
    • • Landkartenmodul 154.
  • Beispiele anderer Anwendungen 136, die in Speicher 102 gespeichert sein können, beinhalten andere Wortverarbeitungsanwendungen, JAVA-unterstützte Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachabgleich.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, kann das Kontaktemodul 137 verwendet werden, ein Adressbuch oder eine Kontaktliste zu verwalten, darunter: Hinzufügen von Name(n) zu dem Adressbuch; Löschen von Name(n) von dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mailadresse(n), physikalische Adresse(n), oder andere Informationen mit einem Namen; Verbinden eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder E-Mailadressen, um Kommunikation per Telefon 138 zu initiieren und/oder zu erleichtern, Videokonferenz 139, E-Mail 140 oder IM 141; usw.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Tele fonmodul 138 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Telefonnummer korrespondiert, auf eine oder mehrere Telefonnummern in dem Adressbuch 137 zuzugreifen, eine Telefonnummer, die eingegeben wurde zu modifizieren, eine entsprechende Telefonnummer zu wählen, eine Konversation zu führen und die Verbindung zu unterbrechen oder aufzulegen, wenn die Konversation beendet ist. Wie oben beschrieben kann die drahtlose Kommunikation jedes einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische Sensor 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Kontakteliste 137 und Telefonmodul 138 kann das Videokonferenzmodul 139 verwendet werden, Videokonferenzen zu initiieren, zu führen und zu beenden, zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das E-Mail Client Modul 140 verwendet werden, E-Mail zu erzeugen, senden, empfangen und verwalten. In Verbindung mit Bildverwaltungsmodul 144, macht es das E-Mail Modul 140 sehr leicht, E-Mails mit stehenden oder Videobildern, die mit Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Instant Messaging Modul 141 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Sofortnachricht korrespondieren, vorher eingegebene Zeichen modifizieren, eine entsprechende Sofortnachricht zu übertragen (z. B. unter Verwendung eines Kurzmitteilungsdienstes (Short Message Service, SMS) oder Multimedia Mitteilungsdienst (Multimedia Message Service (MMS) Protokoll für telefonbasierte Sofortnachrichten oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Sofortnachrichten), Sofortnachrichten zu empfangen und empfangene Sofortnachrichten zu betrachten. In einigen Ausführungsbeispielen können übertragene und/oder empfangene Sofortmitteilungen Graphiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie von einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden, aufweisen. Wie hierin benutzt, bezieht sich "Sofortmitteilungen" auf telefonbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS gesendet wurden) und internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS gesendet wurden).
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Bildverwaltungsmodul 144, und Browsingmodul 147 kann das Bloggingmodul 142 verwendet werden, Text, stehende Bilder, Video und/oder andere Graphiken zu einem Blog (z. B. dem Blog des Benutzers) zu versenden.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische(n) Sensor(en) 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, und Bildverwaltungsmodul 144 kann das Kameramodul 143 verwendet werden, stehende Bilder oder Video (darunter einen Videostream) zu erfassen, und sie in Speicher 102 zu speichern, Charakteristiken eines stehenden Bildes oder Videos zu modifizieren oder ein stehendes Bild oder Video von Speicher 102 zu löschen.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Kameramodul 143 kann das Bildverwaltungsmodul 144 verwendet werden, stehende und/oder Videobilder zu arrangieren, modifizieren oder anderweitig zu manipulie ren, zu labeln, löschen, anzeigen (z. B. in einer digitalen Diashow oder Album) und zu speichern.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, und Lautsprecher 111 kann das Videoabspielmodul 145 verwendet werden, Videos anzuzeigen, zu präsentieren oder anderweitig abzuspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen, verbundenen Anzeige über externen Anschluss 124).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, Lautsprecher 111, RF Schaltkreis 108 und Browsermodul 147, ermöglicht das Musikabspielmodul 146 dem Benutzer, aufgenommene Musik und andere Musikdateien, die in einem oder mehreren Dateiformaten, wie z. B. MP3 oder AAC Dateien, gespeichert sind, abzuspielen. In einigen Ausführungsbeispielen kann die Vorrichtung 100 die Funktionalität eines MP3 Abspielgerätes, wie z. B. eines iPods (Markenzeichen der Apple Computer Inc.) aufweisen.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, und Texteingabemodul 134 kann das Browsermodul 147 verwendet werden, das Internet zu browsen, darunter suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon sowie Anhänge und andere Dateien, die mit Webseiten verbunden sind. Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Browsermodul 147 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, E-Mail Modul 140, und Browsermodul 147 kann das Kalendermodul 148 benutzt werden, Kalender und Daten, die mit Kalendern zusammenhängen (z. B. Kalendereinträge, to do Listen, etc.) zu erzeugen, anzeigen, modifizieren und speichern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 sind die Widgetmodule 149 Minianwendungen, die heruntergeladen werden können und von einem Benutzer verwendet werden können (z. B. Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Wecker 149-4 und Wörterbuchwidget 149-5) oder von dem Benutzer erzeugt werden können (z. B. benutzererzeugtes Widget 149-6). In einigen Ausführungsbeispielen beinhaltet ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript Datei. In einigen Ausführungsbeispielen enthält ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 kann das Widgeterzeugungsmodul 150 verwendet werden von einem Benutzer, um Widgets zu erzeugen (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Suchmodul 141 verwendet werden, um nach Text, Musik, Sound, Bilder, Video und/oder anderen Dateien in Speicher 102 zu suchen, die eine oder mehrere Suchkriterien erfüllen, (z. B. ein oder mehrere benutzerspezifizierte Suchbegriffe).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Notizbuchmodul 153 verwendet werden, Notizen, to do Listen und ähnliches zu erzeugen und zu verwalten.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, GPS Modul 135 und Browsermodul 147 kann das Landkartenmodul 154 verwendet werden, Landkarten und Daten, die mit Landkarten zusammenhängen, zu empfangen, anzuzeigen, modifizieren und zu speichern (z. B. Fahrtrichtungen; Daten auf Speichern und andere Punkte von Interesse an oder in der Nähe einer bestimmten Position; und andere positionsbasierte Daten).
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Gruppe an Anweisungen zum Ausführen einer oder mehrerer oben beschriebener Funktionen. Diese Module (d. h. Gruppen an Anweisungen) brauchen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert zu sein und damit können verschiedene Untergruppen dieser Module kombiniert werden, oder anderweitig in verschiedenen Ausführungsbeispielen neu geordnet werden. Zum Beispiel kann Videoabspielmodul 145 mit Musikabspielmodul 146 in ein einziges Modul (z. B. Video- und Musikabspielmodul 152, 1B) kombiniert werden. In einigen Ausführungsbeispielen kann Speicher 102 eine Untergruppe der Module und oben identifizierten Datenstrukturen speichern. Weiterhin kann Speicher 102 zusätzliche Module oben nicht beschriebener Datenstrukturen speichern.
  • In einigen Ausführungsbeispielen ist die Vorrichtung 100 eine Vorrichtung, in der Benutzung von einer vordefinierten Gruppe an Funktionen auf der Vorrichtung exklusiv durch den Berührungsbildschirm 112 und/oder ein Berührungsfeld ausgeführt wird. Durch Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als primäre Eingabe-/Ausgabevorrichtung zur Benutzung der Vorrichtung 100 kann die Anzahl physikalischer Eingabe-/Ausgabevorrichtung (wie z. B. Druckknöpfe, Wählscheiben und ähnliches) auf der Vorrichtung 100 reduziert werden.
  • Die vordefinierte Gruppe an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt werden kann, beinhaltet Navigieren zwischen Benutzerschnittstellen. In einigen Varianten navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Heim-, oder Ursprungsmenü von jeder Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt werden kann. In solchen Ausführungsbeispielen kann das Berührungsfeld als ein "Menüknopf" bezeichnet werden. In einigen anderen Ausführungsbeispielen kann der Menüknopf ein physikalischer Druckknopf oder eine andere physikalische Eingabe-/Ausgabevorrichtung anstelle eines Berührungsfeldes sein.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist, in Übereinstimmung mit einigen Ausführungsbeispielen. Der Berührungsbildschirm kann eine oder mehrere Grafiken innerhalb der Benutzerschnittstelle (user interface, UI) 200 anzeigen. In diesem Ausführungsbeispiel sowie anderen unten beschriebenen, kann ein Benutzer eine oder mehrere der Graphiken durch Kontaktaufnahme oder Berühren der Graphiken wählen, z. B. mit einem oder mehreren Fingern 202 (in der Fig. nicht maßstäblich gezeichnet). In einigen Ausführungsbeispielen erfolgt die Wahl von einer oder mehreren Graphiken, wenn der Benutzer den Kontakt mit der einen oder mehreren Graphiken unterbricht. In einigen Ausführungsbeispielen kann der Kontakt eine Geste beinhalten, wie z. B. ein oder mehrere Anschläge, eine oder mehrere Wischbewegungen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, aufwärts und/oder abwärts) der mit der Vorrichtung 100 Kontakt aufgenommen hat. In einigen Ausführungsbeispielen darf versehentlicher Kontakt mit einer Graphik die Graphik nicht auswählen. Zum Beispiel darf eine Wischgeste, die über eine Anwendungsikone streicht nicht die korrespondierende Anwendung auswählen, wenn die Geste, die zur Auswahl korrespondiert, ein Anschlag ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere physikalische Knöpfe, wie z. B. "Heim-" oder Menüknopf 204 aufweisen. Wie vorhergehend beschrieben, kann der Menüknopf 204 verwendet werden, zu jeder Anwendung 136 aus einer Gruppe an Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ ist, in einigen Ausführungsbeispielen, der Menüknopf als eine Softtaste in einer GUI im Berührungsbildschirm 112 implementiert.
  • In einigen Ausführungsbeispielen weist die Vorrichtung einen Berührungsbildschirm 112, einen Menüknopf 204, einen Druckknopf 206 auf, um die Vorrichtung an/aus zu schalten und die Vorrichtung zu verriegeln, Lautstärkeanpassungsknopf(knöpfe) 208, ein Subscriber Identity Module (SIM) Karteneinschub 210, einen Sprechgarnituranschluss 212 und einen externen Andock-/Ladeanschluss 124. Der Druckknopf 206 kann verwendet werden, die Vorrichtung durch Herunterdrücken des Knopfes und Halten des Knopfes in dem heruntergedrückten Zustand für eine vordefinierte Zeitdauer an/auszuschalten; die Vorrichtung durch Herunterdrücken des Knopfes und Loslassen des Knopfes bevor die vordefinierte Zeitdauer abgelaufen ist, zu sperren; und/oder die Vorrichtung zu entsperren oder einen Entsperrungsprozess zu starten. In einem alternativen Ausführungsbeispiel kann die Vorrichtung 100 auch verbale Eingaben über das Mikrophon 113 zur Aktivierung oder Deaktivierung einiger Funktionen akzeptieren.
  • Die Aufmerksamkeit wird nun auf Benutzerschnittstellen ("UI") und zugeordnete Prozesse gerichtet, die auf einer tragbaren Multifunktionsvorrichtung 100 implementiert werden können.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar. In einigen Varianten beinhaltet die Benutzerschnittstelle 300 beinhaltet die folgenden Elemente, oder eine Untergruppe oder eine Übergruppe davon:
    • • Entsperrbild 302, das mit einer Fingergeste bewegt wird, um die Vorrich
    • tung zu entsperren;
    • • Pfeil 304 der einen visuellen Hinweis auf die Entsperrgeste bereitstellt;
    • • Kanal 306, der zusätzliche Hinweise auf die Entsperrgeste bereitstellt;
    • • Zeit 308;
    • • Tag 310;
    • • Datum 312; und
    • • Hintergrundbild 314.
  • In einigen Varianten erfasst die Vorrichtung Kontakt mit der berührungsempfindlichen Anzeige (z. B. ein Finger des Benutzers tritt auf oder in der Nähe des Entsperrbildes 302 in Kontakt) während die Vorrichtung in einem Benutzerschnittstellengesperrtzustand ist. Die Vorrichtung bewegt das Entsperrbild 302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht zu einem Benutzerschnittstellenentsperrtzustand über, wenn der erfasste Kontakt zu einer vordefinierten Geste korrespondiert, wie z. B. Bewegen des Entsperrbildes über den Kanal 306. Andererseits behält die Vorrichtung den Benutzerschnittstellengesperrtzustand bei, wenn der erfasste Kontakt nicht zu der vordefinierten Geste korrespondiert. Wie oben bemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entsperren, in folgenden U.S. Patent Anmeldung Nr. beschrieben: 11/322,549, "Unlocking A Device By Performing Gestures On An Unlock Image", eingereicht am 23. Dezember 2005, und 11/322,550, "Indication Of Progress Towards Satisfaction Of A User Input Condition", eingereicht am 23. Dezember 2005, die hiermit referenzierend in ihrer Gesamtheit eingebunden sind.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü an Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar. In einigen Varianten beinhaltet Benutzerschnittstelle 400A die folgenden Elemente, oder eine Untergruppe oder Übergruppe davon:
    • • Signalstärkeindikator(en) 402 für drahtlose Kommunikation(en), wie z. B. zellulare und Wi-Fi Signale;
    • • Zeit 404;
    • • Batteriestatusindikator 406;
    • • Ablage 408, mit Ikonen für häufig benutzte Anwendungen, wie z. B. eines oder mehrere der folgenden:
    • – Telefon 138, der einen Indikator 414 der Anzahl entgangener An rufe oder Anrufbeantworternachrichten, beinhalten kann;
    • – E-Mail Client 140, der einen Indikator 410 der Anzahl ungelesener
    • – E-Mails beinhalten kann;
    • – Browser 147; und
    • – Musikabspielgerät 146; und
    • • Ikonen für andere Anwendungen, wie z. B. eines oder mehrere der folgen den:
    • – IM 141;
    • – Bildverwaltung 144;
    • – Kamera 143;
    • – Videoabspielgerät 145;
    • – Wetter 149-1;
    • – Wertpapiere 149-2;
    • – Blog 142;
    • – Kalender 148;
    • – Taschenrechner 149-3;
    • – Wecker 149-4;
    • – Wörterbuch 149-5;
    • – benutzererzeugtes Widget 149-6.
  • In einigen Varianten kann Benutzerschnittstelle 400B die folgenden Elemente oder eine Untergruppe oder Übergruppe davon beinhalten:
    • 402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414 138, 140 und 147 wie oben beschrieben;
    • • Landkarte 154;
    • • Notizen 153;
    • • Einstellungen 412, die Zugriff auf Einstellungen für die Vorrich tung 100 und ihre verschiedenen Anwendungen 136 bereitstellen, wie weiter unten beschrieben; und
    • • Video- und Musikabspielmodul 152 auch bezeichnet als iPod (Markenzeichen der Apple Computer, Inc.) Modul 152.
  • In einigen Varianten zeigen UI 400A oder 400B alle der verfügbaren Anwendungen 136 auf einem Bildschirm an, so dass es keinen Bedarf gibt, durch eine Liste an Anwendungen zu scrollen (z. B. mit Hilfe einer Scrollleiste). In einigen Anwendungen können die Ikonen, die zu den Anwendungen korrespondieren in der Größe abnehmen, wenn die Anzahl der Anwendungen zunimmt, so dass alle Anwendungen ohne Scrollen auf einem einzigen Bildschirm angezeigt werden können. Einige Varianten, die alle Anwendungen auf einem Bildschirm und einen Menüknopf haben, ermöglichen es einem Benutzer jede gewünschte Anwendung mit höchstens zwei Eingaben, wie z. B. Aktivieren des Menüknopfes 204 und dann Aktivieren der gewünschten Anwendung (z. B. durch einen Anschlag oder andere Fingergesten auf der Ikone, die zu der Anwendung korrespondiert) zuzugreifen.
  • In einigen Varianten stellen UI400A oder 400B integrierten Zugriff auf sowohl widgetbasierte Anwendungen und nicht widgetbasierte Anwendungen bereit. In einigen Varianten werden alle der Widgets, ob benutzererzeugt oder nicht, in UI400A oder 400B angezeigt. In anderen Varianten kann Aktivieren der Ikone für benutzererzeugtes Widget 149-6 zu einer anderen UI führen, die die benutzererzeugten Widgets oder Ikonen, die zu den benutzererzeugten Widgets korrespondieren, enthält.
  • In einigen Varianten kann ein Benutzer die Ikonen in UI400A oder 400B neu ordnen, z. B. unter Verwendung eines Prozesses, der beschrieben ist in U.S. Patent Anmeldung Nr. 11/459,602, "Portable Electronic Device With Interface Reconfiguration Mode", eingereicht am 24. Juli 2006, die hierbei in ihrer Gesamtheit refe renzierend eingebunden ist. Zum Beispiel kann ein Benutzer Anwendungsikonen in und aus der Ablage 408 bewegen unter Verwendung von Fingergesten.
  • In einigen Varianten enthält UI400A oder 400B eine Anzeige (nicht gezeigt), die eine aktualisierte Accountverwendungsmetric für einen Account, der mit der Verwendung der Vorrichtung (z. B. einen zellularen Telefonaccount) zusammenhängt, anzeigt, wie in U.S. Patent Anmeldung Nr. 11/322,552, "Account Information Display For Portable Communication Device, " eingereicht am 23. Dezember 2005, beschrieben, welche hierbei referenzierend in ihrer Gesamtheit eingebunden ist.
  • 5A bis 5C stellen beispielhafte Benutzerschnittstellen zum Translatieren von Seiteninhalt oder Translatieren nur von Rahmeninhalt innerhalb des Seiteninhalts dar.
  • In einigen Varianten beinhalten Benutzerschnittstellen 4200A bis 4200C (5A bis 5C) die folgenden Elemente oder eine Untergruppe oder Übergruppe davon:
    • 402, 404 und 406 wie oben beschrieben;
    • • vorherige Seite Ikone 3902, die, wenn aktiviert (z. B. durch Fingeranschlag auf der Ikone) Anzeigen der vorherigen Webseite initiiert;
    • • nächste Seite Ikone 3906, die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone) Anzeigen der nächsten Webseite initiiert;
    • • Aktualisierungsikone 3910, die, wenn aktiviert (z. B. durch eine Fingeranschlag auf der Ikone) ein Aktualisieren der Webseite initiiert;
    • • Lesezeichenikone 3918, die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone) Anzeigen einer Lesezeichenliste oder Menü für den Browser initiiert;
    • • Lesezeichenhinzufügenikone 3920, die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone) Anzeigen eines UI zum Hinzufügen von Lesezeichen initiiert;
    • • Neues Fenster Ikone 3922, die wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone) Anzeigen eines UI zum Hinzufügen neuer Fenster zu dem Browser initiiert;
    • • Teil 4202 (5A & 5C) eines Seiteninhalts, wie z. B. Webseiteninhalt;
    • • Rahmen 4204, der einen Teil 4206 eines Rahmeninhalts anzeigt;
    • • Teil 4206 (5A und 5B) eines Rahmeninhalts, wie z. B. ein Teil einer Landkarte oder eine scrollbare Liste an Elementen, die in Rahmen 4204 angezeigt werden;
    • • Anderen Inhalt 4208, neben dem Teil 4206 des Rahmeninhalts, in Teil 4202;
    • • Neuer Teil 4212 (5B) des Seiteninhalts, der in Antwort auf eine N-Fingertranslationsgeste 4210 angezeigt wird; und
    • • Neuer Teil 4216 (5C) des Rahmeninhaltes, der in Antwort auf eine M-Fingertranslationsgeste 4214 angezeigt wird, wobei M eine andere Zahl als N ist (z. B. N = 1 und M = 2).
  • 6 ist ein Flussdiagramm, das einen Prozess 6000 zum Translatieren von Inhalt darstellt. In einigen Varianten zeigt eine tragbare Multifunktionsvorrichtung (z. B. Vorrichtung 100) einen Teil (z. B. 4204, 5A) eines Seiteninhalts auf einer Berührungsbildschirmanzeige an (6002). Der Teil des Seiteninhalts beinhaltet einen Rahmen (z. B. 4204), der einen Teil (z. B. 4206) eines Rahmeninhalts beinhaltet und auch anderen Inhalt (z. B. 4208) der Seite beinhaltet.
  • In einigen Varianten ist der Seiteninhalt Webseiteninhalt. In einigen Varianten ist der Seiteninhalt ein Wortverarbeitungs-, Spreadsheet-, E-Mail- oder Präsentationsdokument.
  • Eine N-Fingertranslationsgeste (z. B. 4210) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (6004).
  • In Antwort auf ein Erfassen der N-Fingertranslationsgeste wird der Seiteninhalt translatiert (6006) um einen neuen Teil (z. B. 4212, 5B) des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen. Translatieren des Seiteninhalts beinhaltet Translatieren des angezeigten Teils (z. B. 4206) des Rahmeninhalts und des anderen Inhalts (z. B. 4208) der Seite.
  • In einigen Varianten weist ein Translatieren des Seiteninhalts ein Translatieren des Seiteninhalts in einer vertikalen, horizontalen oder diagonalen Richtung auf. In einigen Varianten hat ein Translatieren des Seiteninhalts eine zugehörige Translationsrichtung, die einer Bewegungsrichtung der N-Fingertranslationsgeste entspricht. In einigen Varianten entspricht die Translationsrichtung direkt der Richtung der Fingerbewegung; in einigen Varianten jedoch wird die Translationsrichtung gemäß der Richtung der Fingerbewegung in Übereinstimmung mit einer Regel abgebildet. Zum Beispiel kann die Regel festlegen, dass, wenn die Richtung einer Fingerbewegung innerhalb eines vorbestimmten Winkels (z. B. 27°) gegenüber einer Standardachse ist, die Translationsrichtung entlang der Standardachse ist. und andernfalls ist die Translationsrichtung im Wesentlichen dieselbe, wie die Richtung einer Fingerbewegung.
  • In einigen Varianten hat ein Translatieren des Seiteninhalts eine zugeordnete Translationsgeschwindigkeit, die zu einer Geschwindigkeit einer Bewegung der N-Fingertranslationsgeste korrespondiert. In einigen Varianten ist ein Translatieren des Seiteninhalts in Übereinstimmung mit einer Simulation einer Gleichung einer Bewegung, die Reibung aufweist.
  • Eine M-Fingertranslationsgeste (z. B. 4214, 5A) wird auf oder in der Nähe der Berührungsbildschirmanzeige erfasst (6008), wobei M eine andere Zahl als N ist. In einigen Varianten ist N gleich 1 und M gleich 2.
  • In Antwort auf ein Erfassen der M-Fingertranslationsgeste 4214 wird der Rahmeninhalt translatiert (6010), um einen neuen Teil (z. B. 4216, 5C) des Rah meninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne ein Translatieren des anderen Inhalts (z. B. 4208) der Seite. Obwohl es in 5A bis 5C nicht gezeigt ist, wird angemerkt, dass, wenn der Seiteninhalt mehr als einen Rahmeninhalt beinhaltet (d. h. zwei oder mehrer Instanzen an Rahmeninhalt in verschiedenen Regionen des Seiteninhalts) führt der Benutzer die M-Fingertranslationsgeste 4214 auf oder zumindest teilweise auf einem entsprechenden Rahmeninhalt aus, um den entsprechenden Rahmeninhalt als den Rahmeninhalt, der translatiert werden soll, zu identifizieren.
  • In einigen Varianten weist ein Translatieren des Rahmeninhaltes, Translatieren des Rahmeninhaltes in einer vertikalen, horizontalen oder diagonalen Richtung, auf.
  • In einigen Varianten hat ein Translatieren des Rahmeninhalts eine zugeordnete Translationsrichtung, die zu einer Bewegungsrichtung der M-Fingertranslationsgeste korrespondiert. In einigen Varianten entspricht die Translationsrichtung direkt der Richtung einer Fingerbewegung; in anderen Varianten jedoch wird die Translationsrichtung gemäß der Richtung einer Fingerbewegung in Übereinstimmung mit einer Regel abgebildet. Zum Beispiel kann die Regel festlegen, dass, wenn die Richtung einer Fingerbewegung innerhalb eines vorbestimmten Winkels (z. B. 27°) gegenüber einer Standardachse ist, die Translationsrichtung entlang der Standardachse ist und andernfalls die Translationsrichtung im Wesentlichen dieselbe wie die Richtung einer Fingerbewegung ist.
  • In einigen Varianten hat ein Translatieren des Rahmeninhalts eine zugeordnete Translationsgeschwindigkeit, die zu einer Bewegungsgeschwindigkeit der M-Fingertranslationsgeste korrespondiert. In einigen Varianten ist ein Translatieren des Rahmeninhalts in Übereinstimmung mit einer Simulation einer Gleichung einer Bewegung, die Reibung aufweist.
  • In einigen Varianten weist der Rahmeninhalt eine Landkarte auf. In einigen Varianten weist der Rahmeninhalt eine scrollbare Liste an Elementen auf.
  • In einigen Varianten beinhaltet der andere Inhalt der Seite Text.
  • Eine graphische Benutzerschnittstelle (z. B. UI 4200A, 5A) auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige weist einen Teil 4204 eines Seiteninhalts auf der Berührungsbildschirmanzeige auf, welche beinhaltet: (1) einen Rahmen 4204, der einen Teil 4206 eines Rahmeninhaltes und (2) anderen Inhalt 4208 der Seite anzeigt. In Antwort auf ein Erfassen einer N-Fingertranslationsgeste 4210 auf oder in der Nähe der Berührungsbildschirmanzeige wird der Seiteninhalt translatiert, um einen neuen Teil 4212 (5B) des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei ein Translatieren des Seiteninhalts ein Translatieren des anderen Inhalts 4208 der Seite beinhaltet. In Antwort auf ein Erfassen einer M-Fingertranslationsgeste 4214 auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, wird der Rahmeninhalt translatiert, um einen neuen Teil 4216 (5C) des Rahmeninhalts auf der Berührungsbildschirmanzeige anzuzeigen, ohne ein Translatieren des anderen Inhalts 4208 der Seite. Wie oben bemerkt, kann die M-Fingergeste 4214 von dem Benutzer auf dem Rahmeninhalt der translatiert werden soll, ausgeführt werden, um den Rahmeninhalt der translatiert werden soll, zu identifizieren.
  • Damit kann ein Benutzer abhängig von der Anzahl an Fingern, die für die Geste verwendet werden, einfach Seiteninhalt translatieren, oder nur Rahmeninhalt innerhalb des Seiteninhalts translatieren.
  • Die vorhergehende Beschreibung wurde zum Zwecke der Erklärung unter Bezugnahme auf spezifische Ausführungsbeispiele beschrieben. Die obigen illustrativen Diskussionen haben jedoch nicht die Intention, ausführlich zu sein, oder die Erfindung auf bestimmte offenbarte Formen zu begrenzen. Viele Modifikationen und Variationen sind im Lichte obiger Lehren möglich. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktischen Anwendungen bestens zu erklären, um dabei andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsbeispiele mit verschiedenen Modifikationen, wie sie für die bestimmte betrachtete Verwendung geeignet sind, bestens zu verwenden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6,323,846 [0040]
    • - US 6,570,557 [0040]
    • - US 6,677,932 [0040]
    • - US 2002/0015024 A1 [0040]
    • - US 20050190059 [0048]
    • - US 20060017692 [0048]

Claims (18)

  1. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, das eine oder die mehreren Programme weisen auf: Anweisungen zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige, wobei der Teil des Seiteninhalts aufweist: einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und anderen Inhalt der Seite; Anweisungen zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige; Anweisungen zum Translatieren des Seiteninhalts, in Antwort auf ein Erfassen der N-Fingertranslationsgeste um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei die Anweisungen zum Translatieren des Seiteninhalts Anweisungen zum Translatieren des angezeigten Teils des Rahmeninhalts and des anderen Inhalts der Seite aufweisen; Anweisungen zum Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, und; Anweisungen zum Translatieren des Rahmeninhalts, in Antwort auf ein Erfassen der M-Fingertranslationsgeste um einen neuen Teil des Rahmen inhalts auf der Berührungsbildschirmanzeige ohne ein Translatieren des anderen Inhalts der Seite anzuzeigen.
  2. Vorrichtung nach Anspruch 1, wobei N gleich 1 ist und M gleich 2 ist.
  3. Vorrichtung nach Anspruch 1, wobei der Seiteninhalt Webseiteninhalt ist.
  4. Vorrichtung nach Anspruch 1, wobei der Seiteninhalt ein Wortverarbeitungs-, Spreadsheet-, Email- oder Präsentationsdokument ist.
  5. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Translatieren des Seiteninhalts Anweisungen zum Translatieren des Seiteninhalts in einer vertikalen, horizontalen oder diagonalen Richtung aufweisen.
  6. Vorrichtung nach Anspruch 1, wobei einer Ausführung der Anweisungen zum Translatieren des Seiteninhalts eine Translationsrichtung zugeordnet ist, die zu einer Bewegungsrichtung der N-Fingertranslationsgeste korrespondiert.
  7. Vorrichtung nach Anspruch 1, wobei einer Ausführung der Anweisungen zum Translatieren des Seiteninhalts eine Translationsgeschwindigkeit zugeordnet ist, die zu einer Bewegungsgeschwindigkeit der N-Fingertranslationsgeste korrespondiert.
  8. Vorrichtung nach Anspruch 1, wobei eine Ausführung der Anweisungen zum Translatieren des Seiteninhalts in Übereinstimmung mit einer Simulation einer Gleichung einer Bewegung, die Reibung aufweist, ist.
  9. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Translatieren des Rahmeninhalts Anweisungen zum Translatieren des Rahmeninhalts in einer vertikalen, horizontalen oder diagonalen Richtung aufweisen.
  10. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Translatieren des Rahmeninhalts Anweisungen zum Translatieren des Rahmeninhalts in einer diagonalen Richtung aufweisen.
  11. Vorrichtung nach Anspruch 1, wobei einer Ausführung der Anweisungen zum Translatieren des Rahmeninhalts eine Translationsrichtung zugeordnet ist, die zu einer Bewegungsrichtung der M-Fingertranslationsgeste korrespondiert.
  12. Vorrichtung nach Anspruch 1, wobei einer Ausführung der Anweisungen zum Translatieren des Rahmeninhalts eine Translationsgeschwindigkeit zugeordnet ist, die zu einer Bewegungsgeschwindigkeit der M-Fingertranslationsgeste korrespondiert.
  13. Vorrichtung nach Anspruch 1, wobei eine Ausführung der Anweisungen zum Translatieren des Rahmeninhalts in Übereinstimmung mit einer Simulation einer Gleichung einer Bewegung, die Reibung aufweist, ist.
  14. Vorrichtung nach Anspruch 1, wobei der Rahmeninhalt eine Landkarte aufweist.
  15. Vorrichtung nach Anspruch 1, wobei der Rahmeninhalt eine scrollbare Liste an Elementen aufweist.
  16. Vorrichtung nach Anspruch 1, wobei der andere Inhalt der Seite Text beinhaltet.
  17. Computerlesbares Speichermedium, das ein oder mehrere Programme speichert, das eine oder die mehreren Programme weisen auf: Anweisungen zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige, wobei der Teil des Seiteninhalts aufweist: einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und anderen Inhalt der Seite; Anweisungen zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige; Anweisungen zum Translatieren des Seiteninhalts, in Antwort auf ein Erfassen der N-Fingertranslation um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei Translatieren des Seiteninhalts Translatieren des angezeigten Teils des Rahmeninhalts and des anderen Inhalts der Seite aufweisen; Anweisungen zum Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, und; Anweisungen zum Translatieren des Rahmeninhalts, in Antwort auf ein Erfassen der M-Fingertranslationsgeste um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige, ohne ein Translatieren des anderen Inhalts der Seite, anzuzeigen.
  18. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, aufweisend: Mittel zum Anzeigen eines Teils eines Seiteninhalts auf der Berührungsbildschirmanzeige, wobei der Teil des Seiteninhalts aufweist: einen Rahmen, der einen Teil eines Rahmeninhalts anzeigt, und anderen Inhalt der Seite; Mittel zum Erfassen einer N-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige; Mittel zum Translatieren des Seiteninhalts, in Antwort auf ein Erfassen der N-Fingertranslationsgeste um einen neuen Teil des Seiteninhalts auf der Berührungsbildschirmanzeige anzuzeigen, wobei die Mittel zum Transla tieren des Seiteninhalts Mittel zum Translatieren des angezeigten Teils des Rahmeninhalts and des anderen Inhalts der Seite aufweisen; Mittel zum Erfassen einer M-Fingertranslationsgeste auf oder in der Nähe der Berührungsbildschirmanzeige, wobei M eine andere Zahl als N ist, und; Mittel zum Translatieren des Rahmeninhalts, in Antwort auf ein Erfassen der M-Fingertranslationsgeste um einen neuen Teil des Rahmeninhalts auf der Berührungsbildschirmanzeige, ohne ein Translatieren des anderen Inhalts der Seite, anzuzeigen.
DE202008000268U 2007-01-07 2008-01-07 Tragbare Multifunktionsvorrichtung Expired - Lifetime DE202008000268U1 (de)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US87925307P 2007-01-07 2007-01-07
US60/879,253 2007-01-07
US87946907P 2007-01-08 2007-01-08
US60/879,469 2007-01-08
US94697607P 2007-06-28 2007-06-28
US60/946,976 2007-06-28
US93799307P 2007-06-29 2007-06-29
US60/937,993 2007-06-29

Publications (1)

Publication Number Publication Date
DE202008000268U1 true DE202008000268U1 (de) 2008-06-19

Family

ID=39107851

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202008000268U Expired - Lifetime DE202008000268U1 (de) 2007-01-07 2008-01-07 Tragbare Multifunktionsvorrichtung

Country Status (5)

Country Link
US (1) US7966578B2 (de)
EP (1) EP2118728A1 (de)
AU (1) AU2008100010B4 (de)
DE (1) DE202008000268U1 (de)
WO (1) WO2008085744A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2613239A1 (de) 2012-01-05 2013-07-10 SONOTEC Dr. zur Horst-Meyer und Münch OHG Mobile Einrichtung zur computergestützten Ein- und Ausgabe von Daten mit einer integrierten Bildschirmausgabeeinheit und Verfahren zur Visualisierung ihrer Bedienung

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US8683362B2 (en) 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8448138B2 (en) * 2008-01-15 2013-05-21 Microsoft Corporation Recording user-driven events within a computing system
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US20090295746A1 (en) * 2008-04-29 2009-12-03 Davidson Philip L Event registration and dispatch system and method for multi-point controls
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8130275B2 (en) * 2008-06-13 2012-03-06 Nintendo Co., Ltd. Information-processing apparatus, and storage medium storing a photographing application launch program executed by information-processing apparatus
JP4181211B1 (ja) * 2008-06-13 2008-11-12 任天堂株式会社 情報処理装置およびそれにおいて実行される起動用プログラム
US8145521B2 (en) * 2008-07-15 2012-03-27 Google Inc. Geographic and keyword context in embedded applications
KR101027566B1 (ko) * 2008-11-17 2011-04-06 (주)메디슨 초음파 진단기 및 초음파 진단기에서의 명령 신호 생성 방법
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US8957865B2 (en) * 2009-01-05 2015-02-17 Apple Inc. Device, method, and graphical user interface for manipulating a user interface object
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
KR20110051073A (ko) * 2009-11-09 2011-05-17 엘지전자 주식회사 휴대형 단말기에서의 응용프로그램 실행 방법
US20110122159A1 (en) * 2009-11-20 2011-05-26 Sony Ericsson Mobile Communications Ab Methods, devices, and computer program products for providing multi-region touch scrolling
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US20110179381A1 (en) * 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US8704783B2 (en) 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
US20110288913A1 (en) * 2010-05-20 2011-11-24 Google Inc. Interactive Ads
KR101673925B1 (ko) 2010-05-26 2016-11-09 삼성전자주식회사 터치 락 상태를 가지는 단말기 및 이의 운용 방법
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
US8773370B2 (en) 2010-07-13 2014-07-08 Apple Inc. Table editing systems with gesture-based insertion and deletion of columns and rows
CN103081496B (zh) 2010-09-08 2016-12-07 瑞典爱立信有限公司 Iptv系统的基于手势的控制
US20120066295A1 (en) * 2010-09-09 2012-03-15 Natarajan Sambamoorthy System and method for accessing and utilizing a plurality of smartphone applications
US8711552B2 (en) 2010-10-06 2014-04-29 Compal Electronics Inc. Modular system having expandable form factor
US9262002B2 (en) 2010-11-03 2016-02-16 Qualcomm Incorporated Force sensing touch screen
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
US8949370B1 (en) * 2011-01-12 2015-02-03 Google Inc. Mobile application generation
US20120242584A1 (en) * 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US9047050B2 (en) 2011-03-24 2015-06-02 Compal Electronics, Inc. Modular system having cross platform master device
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
US8775213B2 (en) 2011-07-21 2014-07-08 Emergent Health Care Solutions, Llc Method, apparatus, and system for reading, processing, presenting, and/or storing electronic medical record information
US9424393B2 (en) 2011-07-21 2016-08-23 Emergent Health Care Solutions, Llc Method, apparatus, and system for reading, processing, presenting, and/or storing electronic medical record information
US8782525B2 (en) 2011-07-28 2014-07-15 National Insturments Corporation Displaying physical signal routing in a diagram of a system
US8713482B2 (en) * 2011-07-28 2014-04-29 National Instruments Corporation Gestures for presentation of different views of a system diagram
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
EP2592828A1 (de) 2011-11-09 2013-05-15 OpenTV, Inc. Vorrichtung und Verfahren zum Durchsuchen eines elektronischen Programmführers
US10789526B2 (en) 2012-03-09 2020-09-29 Nara Logics, Inc. Method, system, and non-transitory computer-readable medium for constructing and applying synaptic networks
US11727249B2 (en) 2011-09-28 2023-08-15 Nara Logics, Inc. Methods for constructing and applying synaptic networks
US10467677B2 (en) 2011-09-28 2019-11-05 Nara Logics, Inc. Systems and methods for providing recommendations based on collaborative and/or content-based nodal interrelationships
US9229568B2 (en) * 2011-09-30 2016-01-05 Oracle International Corporation Touch device gestures
US8589825B2 (en) 2012-02-28 2013-11-19 Huawei Technologies Co., Ltd. Communication application triggering method and electronic device
KR101931676B1 (ko) 2012-03-23 2018-12-24 삼성디스플레이 주식회사 광 센서, 이를 포함하는 표시 장치 및 그 구동 방법
US8904304B2 (en) * 2012-06-25 2014-12-02 Barnesandnoble.Com Llc Creation and exposure of embedded secondary content data relevant to a primary content page of an electronic book
US9239824B2 (en) 2012-07-27 2016-01-19 Semantic Compaction Systems, Inc. Apparatus, method and computer readable medium for a multifunctional interactive dictionary database for referencing polysemous symbol sequences
US9557846B2 (en) 2012-10-04 2017-01-31 Corning Incorporated Pressure-sensing touch system utilizing optical and capacitive systems
US9389138B2 (en) 2012-10-26 2016-07-12 General Electric Company Apparatus and method to detect damage of a component of a system
KR101272865B1 (ko) * 2012-11-30 2013-06-10 (주)인스웨이브시스템즈 모바일 단말기 화면 구성 장치 및 그 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
JP6155869B2 (ja) * 2013-06-11 2017-07-05 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9329765B2 (en) 2013-06-14 2016-05-03 Htc Corporation Method and electronic apparatus for scrolling frame content and recording medium using the same
JP2015148991A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
RU203578U1 (ru) * 2020-08-21 2021-04-13 Юрий Борисович Соколов Интеллектуальный многофункциональный центр
US11856049B2 (en) * 2020-10-26 2023-12-26 Zebra Technologies Corporation Pin board interface

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5896126A (en) 1996-08-29 1999-04-20 International Business Machines Corporation Selection device for touchscreen systems
US6199080B1 (en) 1996-08-30 2001-03-06 Sun Microsystems, Inc. Method and apparatus for displaying information on a computer controlled display device
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US6912694B1 (en) 2000-06-28 2005-06-28 Intel Corporation Providing a scrolling function for a multiple frame web page
TW591488B (en) * 2002-08-01 2004-06-11 Tatung Co Window scrolling method and device thereof
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
TWI248576B (en) 2004-07-05 2006-02-01 Elan Microelectronics Corp Method for controlling rolling of scroll bar on a touch panel
JP2008508601A (ja) 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのジェスチャ
US7760189B2 (en) 2005-01-21 2010-07-20 Lenovo Singapore Pte. Ltd Touchpad diagonal scrolling
WO2006126055A2 (en) 2005-05-23 2006-11-30 Nokia Corporation Improved pocket computer and associated methods
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2613239A1 (de) 2012-01-05 2013-07-10 SONOTEC Dr. zur Horst-Meyer und Münch OHG Mobile Einrichtung zur computergestützten Ein- und Ausgabe von Daten mit einer integrierten Bildschirmausgabeeinheit und Verfahren zur Visualisierung ihrer Bedienung
DE102012200129A1 (de) 2012-01-05 2013-07-11 SONOTEC Dr. zur Horst-Meyer & Münch oHG Mobile Einrichtung zur computergestützten Ein- und Ausgabe von Daten mit einer integrierten Bildschirmausgabeeinheit und Verfahren zur Visualisierung ihrer Bedienung
DE202012013272U1 (de) 2012-01-05 2015-11-16 SONOTEC Dr. zur Horst-Meyer & Münch oHG Mobile Einrichtung zur computergestützten Ein- und Ausgabe von Daten mit einer integrierten Bildschirmausgabeeinheit

Also Published As

Publication number Publication date
WO2008085744A1 (en) 2008-07-17
AU2008100010B4 (en) 2008-06-05
AU2008100010A4 (en) 2008-02-14
US7966578B2 (en) 2011-06-21
US20080168405A1 (en) 2008-07-10
EP2118728A1 (de) 2009-11-18

Similar Documents

Publication Publication Date Title
JP7300488B2 (ja) タッチスクリーンディスプレイにおけるリストのスクローリング、ドキュメントの並進移動、スケーリング及び回転
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000259U1 (de) Tragbare Multifunktionseinrichtung
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
DE112007002088T5 (de) Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
DE112007002090T5 (de) Voicemail-Manager für tragbare Multifunktionsvorrichtung
DE112007002107T5 (de) Tragbare elektronische Vorrichtung, Verfahren und graphische Benutzerschnittstelle zum Anzeigen strukturierter elektronischer Dokumente
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
AU2017202917A1 (en) List scrolling and document translation, scaling, and rotation on a touch-screen display
DE212007000039U1 (de) Tragbare Multifunktionsvorrichtung mit Berührungsbildschirmanzeige

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080724

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20110126

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140122

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right