DE202008000259U1 - Tragbare Multifunktionseinrichtung - Google Patents

Tragbare Multifunktionseinrichtung Download PDF

Info

Publication number
DE202008000259U1
DE202008000259U1 DE202008000259U DE202008000259U DE202008000259U1 DE 202008000259 U1 DE202008000259 U1 DE 202008000259U1 DE 202008000259 U DE202008000259 U DE 202008000259U DE 202008000259 U DE202008000259 U DE 202008000259U DE 202008000259 U1 DE202008000259 U1 DE 202008000259U1
Authority
DE
Germany
Prior art keywords
user input
instructions
contact
touch screen
input element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202008000259U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202008000259U1 publication Critical patent/DE202008000259U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • G06F3/04855Interaction with scrollbars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/274Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc
    • H04M1/2745Devices whereby a plurality of signals may be stored simultaneously with provision for storing more than one subscriber number at a time, e.g. using toothed disc using static electronic memories, e.g. chips
    • H04M1/27467Methods of retrieving data
    • H04M1/27475Methods of retrieving data using interactive graphical means or pictorial representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Tragbare Multifunktionsvorrichtung, aufweisend:
eine Berührungsbildschirmanzeige;
einen oder mehrere Prozessoren;
Speicher; und
ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme aufweisen:
Anweisungen zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist;
Anweisungen zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige;
Anweisungen zum Wählen eines Benutzereingabeelements aus der Vielzahl der Benutzereingabeelemente basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt;
Anweisungen zum Anzeigen von Information, über dem angezeigten Inhalt, die mit dem gewählten Benutzereingabeelement zusammenhängt;
Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und
Anweisungen zum Empfangen von Eingabe für das gewählte Benutzereingabeelement.

Description

  • TECHNISCHES GEBIET
  • Die offenbarten Ausführungsformen beziehen sich generell auf tragbare elektronische Vorrichtungen und insbesondere auf Interagieren mit Benutzereingabeelementen (z. B. radio buttons, Texteingabefelder, Ankreuzfelder, pull down Listen und Formularfelder) auf tragbaren elektronischen Vorrichtungen.
  • HINTERGRUND
  • Mit kompakter werdenden tragbaren elektronischen Vorrichtungen und der Zunahme der Anzahl der Funktionen, die von einer gegebenen Vorrichtung ausgeführt werden, ist es eine signifikante Herausforderung geworden, Benutzerschnittstellen zu entwickeln, die es Benutzern erlauben, einfach mit einer Multifunktionsvorrichtung zu interagieren. Diese Herausforderung ist besonders signifikant für handgehaltene, tragbare Vorrichtungen, die viel kleinere Bildschirme als Desktop oder Laptop Computer haben. Diese Situation ist unglücklich, weil die Benutzerschnittstelle die Schnittstelle ist, durch welche Benutzer nicht nur Inhalt sondern auch Antworten auf Benutzeraktionen oder Verhalten erhalten, darunter Benutzerversuche auf Eigenschaften, Werkzeuge und Funktionen einer Vorrichtung zuzugreifen. Einige tragbare Kommunikationsvorrichtungen (z. B. mobile Telefone, die manchmal Mobiltelefone genannt werden, Zelltelefone, zellulare Telefone und ähnliches) sind dazu übergegangen, mehr Druckknöpfe hinzuzufügen, die Dichte an Druckknöpfen zu erhöhen, die Funktionen von Druckknöpfen zu überladen oder komplexe Menüsysteme zu verwenden, um einem Benutzer Zugriff, Speichern und Manipulieren von Daten zu ermöglichen. Diese gewöhnli chen Benutzerschnittstellen resultieren oft in komplizierten Tastenfolgen und Menühierarchien, die sich ein Benutzer merken muss.
  • Viele gewöhnliche Benutzerschnittstellen, wie jene, die physikalische Druckknöpfe aufweisen, sind ebenfalls inflexibel. Dies ist unglücklich, weil es Benutzerschnittstellen davon abhält, konfiguriert und/oder adaptiert zu werden, von irgendeiner Anwendung, die auf der tragbaren Vorrichtung oder von Benutzern ausgeführt wird. In Verbindung mit der zeitraubenden Voraussetzung, mehrere Tastenfolgen und Menühierarchien im Gedächtnis zu behalten, und der Schwierigkeit, einen gewünschten Druckknopf zu aktivieren, ist diese Inflexibilität für die meisten Benutzer frustrierend.
  • Weiterhin fehlt gewöhnlichen Benutzerschnittstellen ein benutzerfreundlicher Weg Benutzereingabe über Eingabeelemente zu empfangen, die auf dem Bildschirm angezeigt werden, wie z. B. Radio buttons, Texteingabefelder, Ankreuzfelder, Pull down Listen und Formularfelder. Benutzer können Schwierigkeiten erfahren in dem Wählen von Eingabeelementen, die kaum lesbar oder unlesbar sind.
  • Demgemäß, gibt es einen Bedarf an tragbaren Multifunktionsvorrichtungen mit transparenteren und intuitiveren Schnittstellen zum Interagieren mit Benutzereingabeelementen, die einfach zu benutzten, konfigurieren und/oder adaptieren sind. Solche Schnittstellen erhöhen die Effektivität, Effizienz und Benutzerzufriedenheit mit tragbaren Multifunktionsvorrichtungen.
  • ZUSAMMENFASSUNG
  • Die obigen Nachteile und andere Probleme, die mit Benutzerschnittstellen für tragbare Vorrichtungen zusammenhängen, werden reduziert oder eliminiert, durch die offenbarte, tragbare Multifunktionsvorrichtung. In einigen Ausführungsbeispielen weist die Vorrichtung einen berührungssensitiven Bildschirm (auch bekannt als "Berührungsbildschirm") mit einer graphischen Benutzerschnittstelle (graphical user interface, GUI), einen oder mehrere Prozessoren, Speicher und einen oder mehrere Module, Programme oder Gruppen von Anweisungen, die in dem Speicher gespeichert sind, zum Ausführen mehrerer Funktionen, auf. Der Benutzer kann mit der GUI interagieren, primär durch Fingerkontakte und Gesten auf dem berührungsempfindlichen Bildschirm. Die Funktionen können beinhalten Telefonieren, Videokonferenzen, E-Mail, Sofortnachrichten, Blogging, digitale Fotographie, digitales Video, Webbrowsing, digitales Musikabspielen und/oder digitales Videoabspielen. Anweisungen zum Ausführen dieser Funktionen können in einem Computerprogrammprodukt beinhaltet sein, das konfiguriert ist, durch eine oder mehrere Prozessoren ausgeführt zu werden.
  • Ein computerimplementiertes Verfahren zur Benutzung in Verbindung mit einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige weist auf: Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist; Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Wählen eines Benutzereingabeelements aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe von dem Benutzereingabeelement zu dem Kontakt; Anzeigen von Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt; Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Empfangen von Eingabe für das gewählte Benutzereingabeelement.
  • Eine graphische Benutzerschnittstelle auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige weist auf: Inhalt, der eine Vielzahl von Benutzereingabeelementen aufweist; und Information, die mit einem ersten Benutzereingabeelement aus der Vielzahl der Benutzereingabeelemente zusammenhängt. In Antwort auf die Erfassung eines Kontakts eines Fingers mit der Berührungsbildschirmanzeige wird das erste Benutzereingabeelement gewählt, basierend auf der Nähe des ersten Benutzereingabeelements zu dem Kontakt, und die Information, die mit dem ersten Benutzereingabeelement zusammenhängt, wird über dem Inhalt angezeigt. In Antwort auf das Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige wird ein Bereich, der das erste Benutzereingabeelement auf der Berührungsbildschirmanzeige aufweist, vergrößert. Eingabe wird für das erste Benutzereingabeelement empfangen.
  • In einem anderen Aspekt der Erfindung weist eine tragbare Multifunktionsvorrichtung auf: eine Berührungsbildschirmanzeige, einen oder mehrere Prozessoren, Speicher und ein oder mehrere Programme. Das eine oder die mehreren Programme sind in dem Speicher gespeichert und eingerichtet durch den einen oder mehrere Prozessoren ausgeführt zu werden. Das eine oder mehrere Programme beinhalten: Anweisungen zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist; Anweisungen zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Anweisungen zum Wählen eines Benutzereingabeelements aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe von dem Benutzereingabeelement zu dem Kontakt; Anweisungen zum Anzeigen von Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über den angezeigten Inhalt; Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Anweisungen zum Empfangen von Eingabe für das gewählte Benutzereingabeelement.
  • In einem anderen Aspekt der Erfindung weist ein Computerprogrammprodukt ein computerlesbares Speichermittel und einen darin eingebetteten Computerprogrammmechanismus auf. Der Computerprogrammmechanismus weist Anweisungen auf, welche, wenn sie durch eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, die Vorrichtung veranlassen: Inhalt auf der Berührungsbildschirmanzeige anzuzeigen, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist; einen Kontakt von einem Finger mit der Berührungsbildschirmanzeige zu erfassen; ein Benutzereingabeelement aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe von dem Benutzereingabeelement zu dem Kontakt zu wählen; Information, die mit dem gewählten Benutzereingabeelement zusammenhängen, über den angezeigten Inhalt anzuzeigen; eine Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige zu erfassen; und Eingabe für das gewählte Benutzerelement zu empfangen.
  • In einen anderen Aspekt der Erfindung weist eine tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige auf: Mittel zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist; Mittel zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Mittel zum Wählen eines Benutzereingabeelements aus der Vielzahl der Benutzereingabeelemente basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt; Mittel zum Anzeige von Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über den angezeigten Inhalt; Mittel zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Mittel zum Empfangen von Eingabe für das gewählte Benutzereingabeelement.
  • Die offenbarten Ausführungsbeispiele ermöglichen es einem Benutzer Information, die mit Eingabeelementen in angezeigten Inhalt zusammenhängen, leichter zu betrachten und Eingabe auf einer tragbaren Vorrichtung unter Verwendung von Fingerkontakten auf einer Berührungsbildschirmanzeige bereitzustellen. Der Benutzer wird davon erleichtert sich um die Genauigkeit seines Fingerkontakts bezüglich der Wahl von Eingabeelementen sorgen zu müssen. Weiter kann der Benutzer Information betrachten und Eingabe selbst dann bereitstellen, wenn die Eingabeelemente ursprünglich mit einer solchen kleinen Größe dargestellt sind, dass die Eingabeelemente unlesbar oder kaum lesbar sind.
  • KURZE BESCHREIBUNG DER FIGUREN
  • Für ein besseres Verständnis der vorgenannten Ausführungsbeispiele der Erfindung sowie zusätzliche Ausführungsbeispiele davon, sollte Bezug genommen werden auf die unten aufgeführte Beschreibung von Ausführungsbeispielen in Verbindung mit den folgenden Zeichnungen, in welchen sich ähnliche Bezugszeichen auf korrespondierende Teile über die Figuren hinweg beziehen.
  • 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen mit berührungsempfindlichen Anzeigen in Übereinstimmungen mit einigen Ausführungsbeispielen darstellen.
  • 2 stellt eine tragbare Multifunktionsvorrichtung mit einem Berührungsbildschirm in Übereinstimmung mit einigen Ausführungsbeispielen dar.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü an Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar.
  • 5A bis 5E stellen beispielhafte Benutzerschnittstellen zum Interagieren mit Benutzereingabeelementen in angezeigtem Inhalt dar.
  • 6A bis 6E sind Flussdiagramme, die Prozesse zum Empfangen von Eingabe darstellen.
  • BESCHREIBUNG DER AUSFÜHRUNGFORMEN
  • Es wird nun im Detail Bezug genommen auf Ausführungsformen, von denen Beispiele in den beigefügten Zeichnungen dargestellt sind. In der folgenden detaillierten Beschreibung werden zahlreiche spezifische Details gegeben, um ein vertieftes Verständnis der vorliegenden Erfindung zu ermöglichen. Jedoch ist es für den Fachmann ersichtlich, dass die vorliegende Erfindung ohne diese spezifischen Details ausgeführt werden kann. An anderen Stellen werden wohlbekannte Ver fahren, Prozeduren, Komponenten, Schaltkreise und Netzwerke nicht im Detail beschrieben, um nicht unnötig Aspekte der Ausführungsbeispiele zu verdecken.
  • Es ist auch verständlich, dass obwohl die Begriffe erster, zweiter, usw. hierin verwendet werden können, um verschiedene Elemente zu beschreiben, diese Elemente nicht auf diese Begriffe begrenzt sein sollten. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte eine erste Geste auch eine zweite Geste genannt werden und ähnlich eine zweite Geste könnte eine erste Geste genannt werden, ohne den Bereich der vorliegenden Erfindung zu verlassen.
  • Die Terminologie, die hier in der Beschreibung der Erfindung verwendet wird, ist nur zum Zwecke der Beschreibung spezieller Ausführungsbeispiele und hat nicht die Intention, die Erfindung zu begrenzen. Wie in der Beschreibung der Erfindung und den angefügten Ansprüchen verwendet, haben die Einzahlformen "ein", "eine" und "der, die, das" nicht die Intention, Pluralformen ebenso zu umfassen, falls der Kontext nichts anderes klar andeutet. Es ist auch verständlich, dass der Begriff "und/oder", wie er hier gebraucht wird, sich bezieht auf und umfasst jede aller möglichen Kombinationen und eines oder mehrere der zugeordneten aufgelisteten Elemente. Es ist weiter verständlich, dass die Begriffe "aufweist" und/oder "aufweisend", wenn in dieser Spezifikation benutzt, die Anwesenheit der genannten Eigenschaften ganzen Zahlen, Schritten, Operationen, Elemente und/oder Komponenten spezifiziert, aber nicht die Anwesenheit oder Hinzufügen einer oder mehrerer anderer Eigenschaften, ganzen Zahlen, Schritten, Operationen, Elemente Komponenten und/oder Gruppen davon, ausschließt.
  • Ausführungsbeispiele einer tragbaren Multifunktionsvorrichtung, Benutzerschnittstellen für solche Vorrichtungen und zugehörige Prozesse zur Verwendung solcher Vorrichtungen sind beschrieben. In einigen Ausführungsbeispielen ist die Vorrichtung eine tragbare Kommunikationsvorrichtung, wie z. B. ein Mobiltele fon, das auch andere Funktionen, wie z. B. PDA und/oder Musikabspielfunktionen aufweist.
  • Die Benutzerschnittstelle kann ein physikalisches Klickrad zusätzlich zu einem Berührungsbildschirm oder ein virtuelles Klickrad, das auf dem Berührungsbildschirm angezeigt wird, aufweisen. Ein Klickrad ist eine Benutzerschnittstellenvorrichtung, die Navigationsbefehle bereitstellen kann, basierend auf einer Winkelverstellung des Rades oder eines Kontaktpunktes mit dem Rad von einem Benutzer der Vorrichtung. Ein Klickrad kann auch verwendet werden, um einen Benutzerbefehl, der zu einer Wahl eines oder mehrerer Elemente korrespondiert, bereitzustellen, z. B. wenn der Benutzer der Vorrichtung zumindest einen Teil des Rades oder das Zentrum des Rades herunterdrückt. Alternativ kann eine Unterbrechung des Kontakts mit einem Klickradbild auf einer Berührungsbildschirmoberfläche einen Benutzerbefehl anzeigen, der einer Wahl entspricht. Der Einfachheit halber, wird in der folgenden Diskussion eine tragbare Multifunktionsvorrichtung, die einen Berührungsbildschirm aufweist, als eine beispielhafte Ausführungsform verwendet. Es sollte jedoch verstanden werden, dass einige der Benutzerschnittstellen und zugeordneten Prozesse auf andere Vorrichtungen angewandt werden können, wie z. B. Personalcomputer und Laptopcomputer, die eine oder mehrere andere physikalische Benutzerschnittstellenvorrichtungen aufweisen können, wie z. B. ein physikalisches Klickrad, eine physikalische Tastatur, eine Maus und/oder einen Joystick.
  • Die Vorrichtung unterstützt eine Vielzahl von Anwendungen, wie z. B. Telefonanwendungen, eine Videokonferenzanwendung, eine E-Mailanwendung, eine Sofortnachrichtenanwendung, eine Blogginganwendung, eine Digitalkameraanwendung, eine digital Videokameraanwendung, eine Webbrowsinganwendung, eine digitale Musikabspielanwendung und/oder eine digitale Videospieleanwendung.
  • Die verschiedenen Anwendungen, die auf der Vorrichtung ausgeführt werden können, können zumindest eine gemeinsame physikalische Benutzerschnittstel lenvorrichtung, wie z. B. den Berührungsbildschirm verwenden. Eine oder mehrere Funktionen des Berührungsbildschirms, sowie entsprechende angezeigte Informationen auf der Vorrichtung können angepasst und/oder variiert werden, von einer Anwendung zur nächsten und/oder innerhalb einer entsprechenden Anwendung. Auf diese Weise kann eine gemeinsame physikalische Architektur (wie z. B. der Berührungsbildschirm) der Vorrichtung die Vielzahl an Anwendungen mit Benutzerschnittstellen, die intuitiv und transparent sind, unterstützen.
  • Die Benutzerschnittstellen können eine oder mehrere Softtastaturausführungsformen aufweisen. Die Softtastaturausführungsformen können Standard (QWERTY) und/oder Nicht-Standard-Konfigurationen von Symbolen auf den dargestellten Ikonen der Tastatur aufweisen, wie z. B. jene, die beschrieben sind in U.S Patent Anmeldung Nr. 11/459,606, "Keyboards For Portable Electronic Devices", eingereicht am 24. Juli 2006, und 11/459,615, "Touch Screen Keyboards For Portable Electronic Devices", eingereicht am 24. Juli 2006, deren Inhalte durch Bezugnahme in ihrer Gesamtheit eingebunden sind. Die Tastaturausführungsformen können eine reduzierte Anzahl an Ikonen (oder Softtasten) aufweisen, in Bezug auf die Anzahl an Tasten in existierenden physikalischen Tastaturen, wie z. B. jener für eine Schreibmaschine. Diese macht es für Benutzer einfacher, eine oder mehrere Ikonen der Tastatur zu wählen und damit ein oder mehrere entsprechende Symbole. Die Tastaturausführungsformen können anpassbar sein. Zum Beispiel können angezeigte Ikonen in Übereinstimmung mit Benutzeraktionen modifiziert werden, wie z. B. Wahl einer oder mehrerer Ikonen und/oder einer oder mehrerer korrespondierender Symbole. Eine oder mehrere Anwendungen auf der tragbaren Vorrichtung können gemeinsame und/oder verschiedene Tastaturausführungsformen verwenden. Damit können die verwendeten Tastaturausführungsformen zumindest auf einige der Anwendungen zugeschnitten werden. In einigen Ausführungsbeispielen können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer zugeschnitten werden. Zum Beispiel können eine oder mehrere Tastaturausführungsformen auf einen entsprechenden Benutzer basierend auf einer Wortbenutzungshistorie (Lexikographie, Jargon, individuelle Benut zung) des entsprechenden Benutzers, zugeschnitten werden. Einige der Tastaturausführungsformen können angepasst werden, um die Wahrscheinlichkeit eines Benutzerfehlers zu reduzieren, wenn eine oder mehrere Ikonen und damit ein oder mehrere Symbole gewählt werden, wenn die Softtastaturausführungsformen verwendet werden.
  • Die Aufmerksamkeit wird nun auf Ausführungsbeispiele der Vorrichtung gerichtet. 1A und 1B sind Blockdiagramme, die tragbare Multifunktionsvorrichtungen 100 mit berührungsempfindlichen Anzeigen 112 in Übereinstimmung mit einigen Ausführungsbeispielen darstellen. Die berührungsempfindliche Anzeige 112 wird manchmal auch ein Berührungsbildschirm der Einfachheit halber genannt und kann auch bekannt sein als oder genannt werden ein berührungsempfindliches Anzeigensystem. Die Vorrichtung 100 kann einen Speicher 102 (der eine oder mehrere computerlesbare Speichermedien enthalten kann), ein Speichersteuervorrichtung 122, eine oder mehrere Verarbeitungseinheiten (CPU's) 120, eine Peripherigeräteschnittstelle 118, Hochfrequenz (radio frequency RF) Schaltkreise 108, Audioschaltkreise 110, einen Lautsprecher 111, ein Mikrophon 113 und ein Eingabe/Ausgabe (Input/Output, I/O) Untersystem 106, andere Eingabe- oder Steuervorrichtungen 116 und einen externen Anschluss 124 aufweisen. Die Vorrichtung 100 kann einen oder mehrere optische Sensoren 164 aufweisen. Diese Komponenten können über einen oder mehrere Kommunikationsbusse oder Signallinien 103 kommunizieren.
  • Es sollte betont werden, dass die Vorrichtung 100 nur ein Beispiel einer tragbaren Multifunktionsvorrichtung 100 ist, und dass die Vorrichtung 100 mehr oder weniger Komponenten als gezeigt haben kann und zwei oder mehr Komponenten kombinieren kann, oder eine unterschiedliche Konfiguration oder Anordnung der Komponenten aufweisen kann. Die verschiedenen Komponenten, die in den 1A und 1B gezeigt sind, können in Hardware, Software oder einer Kombination von Hardware und Software implementiert sein, darunter ein oder mehrere signalverarbeitungs- und/oder anwendungsspezifische, integrierte Schaltkreise.
  • Der Speicher 102 kann High Speed Random Access Speicher aufweisen und auch nichtvolatilen Speicher aufweisen, wie z. B. eine oder mehrere magnetische Plattenspeichervorrichtungen, Flashspeichervorrichtungen, und andere nicht volatile Festkörperspeichervorrichtungen. Zugriff auf den Speicher 102 kann durch andere Komponenten der Vorrichtung 100, wie z. B. der CPU 120 und der Peripherigeräteschnittstelle 118, durch die Speichersteuervorrichtung 122 gesteuert werden.
  • Die Peripherigeräteschnittstelle 118 verbindet die Eingabe und Ausgabe der Peripheriegerätevorrichtung mit der CPU 120 und dem Speicher 102. Der eine oder die mehreren Prozessoren 120 betreiben oder führen verschiedene Softwareprogramme und/oder Gruppen an Anweisungen aus, die in Speicher 102 gespeichert sind, um verschiedene Funktionen für die Vorrichtung 100 auszuführen und um Daten zu verarbeiten.
  • In einigen Ausführungsbeispielen kann die Peripherigeräteschnittstelle 118 die CPU 120 und die Speichersteuervorrichtung 122 auf einem einzigen Chip implementiert sein, wie z. B. ein Chip 104. In einigen anderen Ausführungsbeispielen können sie auf separaten Chips implementiert sein.
  • Der RF (radio frequency) Schaltkreis 108 empfängt und sendet RF Signale, auch elektromagnetische Signale genannt. Der RF Schaltkreis 108 konvertiert elektrische Signale zu/von elektromagnetischen Signalen und kommuniziert mit Kommunikationsnetzwerken und anderen Kommunikationsvorrichtungen über die elektromagnetischen Signale. Der RF Schaltkreis 108 kann wohlbekannte Schaltkreise zum Ausführen dieser Funktionen aufweisen, darunter, aber nicht beschränkt auf ein Antennensystem, ein RF Transceiver, einen oder mehrere Verstärker, einen Empfänger, einen oder mehrere Oszillatoren, einen digitalen Signalprozessor, ein CODEC Chipsatz, ein Subscriber Identity Module (SIM) Card, Speicher, usw. Der RF Schaltkreis 108 kann mit Netzwerken kommunizieren, wie z. B. das Internet, auf das auch Bezug genommen wird als World Wide Web (WWW), ein Intranet und/oder ein Drahtlosnetzwerk, wie z. B. ein zellulares Telefonnetzwerk, ein Wireless Lan Area Network (LAN) und/oder ein Metropolitan Area Network (MAN) und andere Vorrichtungen über drahtlose Kommunikation. Die drahtlose Kommunikation kann jede aus einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden, darunter aber nicht beschränkt auf, Global System for Mobile Communications (GSM), Enhanced Data GSM Environment (EDGE), high-speed downlink packet access (HSDPA), wideband code division multiple access (W-CDMA), code division multiple access (CDMA), time division multiple access (TDMA), Bluetooth, Wireless Fidelity (Wi-Fi) (e. g., IEEE 802.11a, IEEE 802.11b. IEEE 802.11g und/oder IEEE 802.11n), Voice over Internet Protocol (VoIP), Wi-MAX, ein Protokoll für E-Mail (z. B. Internet message access protocol (IMAP) und/oder post office protocol (POP)), Sofortmitteilungen (z. B. extensible Messaging and Presence Protokoll (XMPP), Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions (SIMPLE), und/oder Instant Messaging and Presence Service (IMPS), und/oder Short Message Service (SMS)), oder jedes andere geeignete Kommunikationsprotokoll, darunter Kommunikationsprotokolle, die zum Zeitpunkt der Anmeldung diese Dokuments noch nicht entwickelt sind.
  • Der Audioschaltkreis 110, der Lautsprecher 111, und das Mikrophon 113 stellen eine Audioschnittstelle zwischen einem Benutzer und der Vorrichtung 100 bereit. Der Audioschaltkreis 110 empfängt Audiodaten von der Peripherigeräteschnittstelle 118, wandelt die Audiodaten in ein elektrisches Signal und überträgt das elektrische Signal zu dem Lautsprecher 111. Der Lautsprecher 111 wandelt die elektrischen Signale in vom Menschen wahrnehmbare Schallwellen um. Der Audioschaltkreis 110 empfängt auch elektrische Signale, die von dem Mikrophon 113 von Schallwellen umgewandelt wurden. Der Audioschaltkreis 110 wandelt das elektrische Signal zu Audiodaten und überträgt die Audiodaten zu der Peripherigeräteschnittstelle 118 zur Verarbeitung. Audiodaten können abgerufen werden von und/oder übertragen werden zu Speicher 102 und/oder dem RF Schaltkreis 108 durch die Peripherigeräteschnittstelle 118. In einigen Ausfüh rungsbeispielen kann der Audioschaltkreis 110 auch einen Sprechgarnituranschluss aufweisen (z. B. 212, 2). Der Sprechgarnituranschlussstecker stellt eine Schnittstelle zwischen dem Audioschaltkreis 110 und entfernbare Audioeingabe-/Ausgabeperipheriegeräten bereit, wie z. B. Nur-Ausgabe-Kopfhörer oder einer Sprechgarnitur mit beidem, sowohl Ausgabe (z. B. einem Kopfhörer für ein oder beide Ohren) als auch Eingabe (z. B. ein Mikrophon).
  • Das I/O Untersystem 106 verbindet Eingabe-/Ausgabeperipheriegeräte auf der Vorrichtung 100 sowie dem Berührungsbildschirm 112 und andere Eingabe/Steuervorrichtungen 116 zu der Peripheriegeräteschnittstelle 118. Das I/O Untersystem 106 kann eine Anzeigensteuervorrichtung 156 aufweisen und eine oder mehrere Steuervorrichtungen 160 für andere Eingabe- oder Steuervorrichtungen. Das eine oder mehrere Eingabesteuervorrichtungen 160 empfangen/senden elektrische Signale von/zu anderen Eingabe- oder Steuervorrichtungen 116. Die anderen Eingabe-/Steuervorrichtungen 116 können physikalische Knöpfe (z. B. Druckknöpfe, Kipphebel, etc.), Wählscheiben, Schiebeschalter, Joysticks, Klickräder usw. aufweisen. In einigen anderen Ausführungsbeispiele kann die Eingabesteuervorrichtung(en) 116 zu jedem oder keinem der folgenden verbunden sein: Eine Tastatur, Infrarotanschluss, USB-Anschluss und/oder ein Zeigegerät, wie eine Maus. Der eine oder mehrere Knöpfe (z. B. 208, 2) kann einen Aufwärt-/Abwärtsknopf zur Lautstärkeregelung des Lautsprecher 111 und/oder des Mikrophons 113 aufweisen. Der eine oder mehrere Knöpfe können einen Druckknopf (z. B. 206, 2) aufweisen. Ein kurzes Drücken des Druckknopfes kann eine Sperre des Berührungsbildschirms 112 entsperren, oder einen Prozess beginnen, der Gesten auf dem Berührungsbildschirm verwendet, um die Vorrichtung zu entsperren, wie beschrieben in U.S Patent Anmeldung Nr. 11/322,549, "Unlocking a Device by Performing Gestures an an Unlock Image," eingereicht am 23. Dezember 2005, welches hiermit referenzierend in seiner Gesamtheit eingebunden ist. Ein längeres Drücken des Druckknopfes (z. B. 206) kann die Leistung zu der Vorrichtung 100 an oder ausschalten. Der Benutzer kann in der Lage sein, eine Funktionalität von einem oder mehreren der Knöpfe zu verändern. Der Berührungs bildschirm 112 wird verwendet, virtuelle oder Softknöpfe und ein oder mehrere Softkeyboards zu implementieren.
  • Der berührungsempfindliche Berührbildschirm 112 stellt eine Eingabeschnittstelle und eine Ausgabeschnittstelle zwischen der Vorrichtung und einem Benutzer bereit. Die Anzeigensteuervorrichtung 156 empfängt und/oder sendet elektrische Signale von/zu dem Berührungsbildschirm 112. Der Berührungsbildschirm 112 zeigt visuelle Ausgaben an den Benutzer an. Die visuellen Ausgaben können Graphik, Text, Ikonen, Video und jede Kombination davon (zusammengefasst als "Graphiken" bezeichnet) aufweisen. In einigen Ausführungsbeispielen können einige oder alle der visuellen Ausgaben zu Benutzerschnittstellenobjekten korrespondieren, von denen weitere Details unten beschrieben sind.
  • Ein Berührungsbildschirm 112 hat eine berührungsempfindliche Oberfläche, einen Sensor oder eine Gruppe an Sensoren, die Eingabe von einem Benutzer basierend auf haptischen und/oder taktilem Kontakt akzeptiert. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 (zusammen mit jedem zugehörigen Modul und/oder Gruppen an Instruktionen in Speicher 102) erfassen Kontakt (und jede Bewegung oder Unterbrechung des Kontaktes) auf dem Berührungsbildschirm 112 und wandeln den erfassten Kontakt in Interaktion mit Benutzerschnittstellenobjekten (z. B. eine oder mehrere Softtasten, Ikonen, Webseiten oder Bilder) die auf dem Berührungsbildschirm angezeigt werden. In einer beispielhaften Ausführungsform korrespondiert ein Kontaktpunkt zwischen einem Berührungsbildschirm 112 und dem Benutzer mit einem Finger des Benutzers.
  • Der Berührungsbildschirm 112 kann LCD (liquid crystal display) Technologie oder LPD (light emitting polymer display) Technologie verwenden, obwohl andere Displayanzeigentechnologien in anderen Ausführungsbeispielen verwendet werden können. Der Berührungsbildschirm 112 und die Anzeigensteuervorrichtung 156 können Kontakt und jede Bewegung oder Unterbrechung davon erfassen, unter Verwendung jeder von einer Vielzahl an berührungsempfindlichen Technologien, die jetzt bekannt sind, oder später entwickelt werden, darunter aber nicht beschränkt auf kapazitive, resistive, infrarot und akustischeoberflächenwellen Technologie sowie andere Nahbereichsensorfelder oder andere Elemente zum Bestimmen einer oder mehrerer Kontaktpunkte mit einem Berührungsbildschirm 112.
  • Eine berührungsempfindliche Anzeige kann in einigen Ausführungsbeispielen des Berührungsbildschirm 112 analog zu den vielfachberührungsempfindlichen Tafeln sein, die in den folgenden U.S. Patenten beschrieben sind: 6,323,846 (Westerman et al.), 6,570,557 (Westerman et al.), und/oder 6,677,932 (Westerman), und/oder U.S. Patent Veröffentlichung 2002/0015024A1 , welche hier referenzierend in ihrer Gesamtheit eingebunden sind. Jedoch zeigt ein Berührungsbildschirm 112 visuelle Ausgaben von der tragbaren Vorrichtung 100 an, wohingegen berührungssensitive Tafeln keine visuellen Ausgaben bereitstellen.
  • Eine berührungsempfindliche Anzeige in einigen Ausführungsbeispielen des Berührungsbildschirms 112 kann wie die folgenden Anmeldungen beschrieben sein: (1) U.S. 11/381,313, "Multipoint Touch Surface Controller", eingereicht am 2. Mai 2006; (2) U.S. Patent Anmeldung Nr. 10/840,862, "Multipoint Touch Screen", eingereicht am 6. Mai 2004; (3) U.S. Patent Anmeldung Nr. 10/903,964, "Gestures For Touch Sensitive Input Devices", eingereicht am 30. Juli 2004; (4) U.S. Patent Anmeldung Nr. 11/048,264, "Gestures For Touch Sensitive Input Devices", eingereicht am 31. Januar 2005; (5) U.S. Patent Anmeldung Nr. 11/038,590, "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices", eingereicht am 18. Januar 2005; (6) U.S. Patent Anmeldung Nr. 11/228,758, "Virtual Input Device Placement On A Touch Screen User Interface", eingereicht am 16. September 2005; (7) U.S. Patent Anmeldung Nr. 11/228,700, "Operation Of A Computer With A Touch Screen Interface", eingereicht am 16. September 2005; (8) U.S. Patent Anmeldung Nr. 11/228,737, "Activating Virtual Keys Of A Touch Screen Virtual Keyboard", eingereicht am 16. September 2005; and (9) U.S. Patent Anmeldung Nr. 11/367,749, "Multi-Functional Hand-Held Device", eingereicht am 3. März 2006. Alle diese Anmeldungen sind hiermit in ihrer Gesamtheit referenzierend eingebunden.
  • Der Berührungsbildschirm 112 kann eine Auflösung höher als 100 dpi haben. In einer beispielhaften Ausführungsform hat der Berührungsbildschirm eine Auflösung von ungefähr 160 dpi. Der Benutzer kann mit dem Berührungsbildschirm 112 in Kontakt treten unter Verwendung irgendeines geeigneten Objektes oder Anhangs, wie z. B. einen Stift, einen Finger, usw. In einigen Ausführungsbeispielen ist die Benutzerschnittstelle entwickelt, um primär mit fingerbasierten Kontakten und Gesten zu arbeiten, die viel weniger präziser als stiftbasierte Eingaben sind, aufgrund des größeren Kontaktbereiches eines Fingers auf dem Berührungsbildschirm. In einigen Ausführungsbeispielen übersetzt die Vorrichtung die groben, fingerbasierten Eingaben in eine präzise Zeiger-/Cursorposition und Befehl zum Ausführen der vom Benutzer gewünschten Aktionen.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 zusätzlich zu dem Berührungsbildschirm ein Berührungsfeld (nicht gezeigt) zum Aktivieren oder Deaktivieren bestimmter Funktionen aufweisen. In einigen Ausführungsbeispielen ist das Berührfeld ein berührungsempfindlicher Bereich der Vorrichtung, der im Gegensatz zu dem Berührungsbildschirm Nicht-visuelle-Ausgaben anzeigt. Das Berührfeld kann eine berührungsempfindliche Oberfläche sein, die von dem Berührungsbildschirm 112 getrennt ist, oder eine Erweiterung der berührungsempfindlichen Oberfläche, die von dem Berührungsbildschirm gebildet wird.
  • In einigen Ausführungsbeispielen kann die Vorrichtung 100 ein physikalisches oder virtuelles Klickrad als eine Eingabe-/Steuervorrichtungen 116 aufweisen. Ein Benutzer kann navigieren unter und interagieren mit einem oder mehreren graphischen Objekten (im Folgenden als Ikonen bezeichnet), die auf dem Berührungsbildschirm 112 angezeigt werden durch Rotieren des Klickrades oder durch Bewegen eines Kontaktpunktes mit dem Klickrad (wobei die Größe der Bewegung des Kontaktpunktes durch seine Winkelverstellung mit Bezug auf einen zentralen Punkt des Klickrades gemessen wird). Das Klickrad kann auch verwendet werden um eine oder mehrere der angezeigten Ikonen auszuwählen. Zum Beispiel kann der Benutzer auf zumindest einen Teil des Klickrades oder eines zugeordneten Knopfes drücken. Benutzerbefehle und Steuerbefehle, die durch den Benutzer über das Klickrad bereitgestellt werden, können von einer Eingabesteuervorrichtung 160 verarbeitet werden sowie eine oder mehrere der Module und/oder Gruppen an Anweisungen in Speicher 102. Für ein virtuelles Klickrad, können das Klickrad bzw. das Klickradsteuervorrichtung Teil des Berührungsbildschirms 112 bzw. der Anzeigensteuervorrichtung 156 sein. Für ein virtuelles Klickrad kann das Klickrad entweder ein lichtundurchlässiges oder semitransparentes Objekt sein, das erscheint und verschwindet auf der Berührungsbildschirmanzeige in Antwort auf Benutzerinteraktion mit der Vorrichtung. In einigen Ausführungsbeispielen wird ein virtuelles Klickrad auf dem Berührungsbildschirm einer tragbaren Multifunktionsvorrichtung angezeigt, und wird durch Benutzerkontakt mit dem Berührungsbildschirm bedient.
  • Die Vorrichtung 100 weist auch ein Energiesystem 162 zum Versorgen der verschiedenen Komponenten mit Leistung auf. Das Energiesystem 162 kann ein Energieverwaltungssystem, eine oder mehrere Energiequellen (z. B. Batterie, Wechselstrom (alternating current (AC)), ein Wiederaufladesystem, einen Leistungsunterbrechungserfassungsschaltkreis, einen Leistungsumsetzer oder Inverter, einen Energiestatusindikator (z. B. eine light emitting diode (LED)) und jede beliebige andere Komponente, die mit der Erzeugung, Verwaltung und Verteilung von Leistung in tragbaren Vorrichtungen zusammenhängt.
  • Die Vorrichtung 100 kann auch einen oder mehreren optischen Sensoren 164 aufweisen. 1A und 1B zeigen einen optischen Sensor, der zu einer optischen Sensorsteuervorrichtung 158 in I/O Untersystem 106 verbunden ist. Der optische Sensor 164 kann charge-coupeld device (CCD) oder komplementäre metalloxid Halbleiter (complementary metal-oxide semiconductor (CMOS)) Fototransistoren aufweisen. Der optische Sensor 164 empfängt Licht von der Umgebung, das durch eine oder mehrere Linsen geleitet wird und konvertiert das Licht in Daten, die ein Bild repräsentieren. In Verbindung mit einem Bildmodul 143 (auch ein Kameramodul genannt) kann der optische Sensor 164 stehende Bilder oder Video aufzeichnen. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Rückseite der Vorrichtung 100 lokalisiert, entgegengesetzt der Berührungsbildschirmanzeige 112 auf der Front der Vorrichtung, so dass die Berührungsbildschirmanzeige als ein Sucher für entweder stehende und/oder Videobildaufnahmen verwendet werden kann. In einigen Ausführungsbeispielen ist ein optischer Sensor auf der Front der Vorrichtung lokalisiert, so dass die Benutzerbilder für Videokonferenzen erhalten werden können, während der Benutzer andere Videokonferenzteilnehmer auf der Berührungsbildschirmanzeige betrachtet. In einigen Ausführungsbeispielen kann die Position des optischen Sensors 164 durch den Benutzer verändert werden (z. B. durch Rotation der Linsen und des Sensors in dem Gehäuse der Vorrichtung), so dass ein einziger optischer Sensor 164 zusammen mit der Berührungsbildschirmanzeige für Videokonferenzen und stehende und/oder Videobildaufnahmen verwendet werden kann.
  • Die Vorrichtung 100 kann auch einen oder mehrere Nahbereichsensoren 166 aufweisen. 1A und 1B zeigen einen Nahbereichsensor 166, der zu der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Nahbereichsensor 166 zu einer Eingabesteuervorrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Nahbereichsensor 166 kann funktionieren, wie beschrieben in den U.S. Patent Anmeldung Nummern: 11/241,839, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; 11/240,788, "Proximity Detector In Handheld Device", eingereicht am 30. September 2005; 11/620,702, "Using Ambient Light Sensor To Augment Proximity Sensor Output"; 11/586,862, "Automated Response To And Sensing Of User Activity In Portable Devices", eingereicht 24. Oktober 2006; und 11/638,251, "Methods And Systems For Automatic Configuration Of Peripherals", die hierbei in ihrer Gesamtheit referenzierend eingebunden sind. In einigen Ausführungsbeispielen stellt sich der Nahbereichsensor aus und schaltet den Berührungsbildschirm 112 aus, wenn die Multi funktionsvorrichtung in der Nähe des Ohres des Benutzers gebracht wird (z. B. wenn der Benutzer einen Telefonanruf tätigt). In einigen Ausführungsbeispielen stellt der Nahbereichsensor den Bildschirm aus, wenn die Vorrichtung in der Handtasche des Benutzers oder anderen dunklen Bereichen ist, um unnötigen Batterieverbrauch zu vermeiden, wenn die Vorrichtung in einem gesperrten Zustand ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere Beschleunigungsmesser 168 aufweisen. 1B und 1B zeigen einen Beschleunigungsmesser 168, der mit der Peripheriegeräteschnittstelle 118 verbunden ist. Alternativ kann der Beschleunigungsmesser 168 zu einer Eingabe-/Steuervorrichtung 160 in dem I/O Untersystem 106 verbunden sein. Der Beschleunigungsmesser 168 kann wie in Folgendem beschrieben funktionieren: U.S. Veröffentlichung Nr. 20050190059 , „Acceleration-based Theft Detection System for Portable Electronic Devices" und U.S. Veröffentlichung Nr. 20060017692 , "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer", von denen beide hier referenzierend in ihrer Gesamtheit eingebunden sind. In einigen Ausführungsbeispielen werden die Informationen auf der Berührungsbildschirmanzeige in einer Portraitansicht oder einer Landschaftsansicht angezeigt, basierend auf einer Analyse von Daten, die von dem einen oder mehreren Beschleunigungsmesser empfangen werden.
  • In einigen Ausführungsbeispielen können die Softwarekomponenten, die in Speicher 102 gespeichert ist, ein Betriebssystem 126, ein Kommunikationsmodul (oder eine Gruppe an Anweisungen) 128, ein Kontakt-/Bewegungsmodul (oder Gruppe an Anweisungen) 130, ein Graphikmodul (oder Gruppe an Anweisungen), Anwendungsfenstermodul 132, ein Texteingabemodul (oder Gruppe an Anweisungen) 134, ein Global Positioning System (GPS) Modul (oder Gruppe an Anweisungen 135 und Anwendungen (oder Gruppe an Anweisungen) 136 aufweisen.
  • Das Betriebssystem 126 (z. B. Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS oder ein eingebettetes Betriebssystem, wie z. B. Vx Works) beinhalten verschiedene Softwarekomponenten und/oder Treiber zum Steuern und Verwalten allgemeiner Systemaufgaben (z. B. Speicherverwaltung, Speichersteuervorrichtung, Energieverwaltung, etc.) und erleichtern Kommunikation zwischen verschiedenen Hardware- und Softwarekomponenten.
  • Das Kommunikationsmodul 128 erleichtert die Kommunikation mit anderen Vorrichtungen über einen oder mehrere externe Anschlüsse 124 und beinhaltet auch verschiedene Softwarekomponenten zum Verwalten von Daten, die von dem RF Schaltkreis 108 und/oder dem externen Anschluss 124 empfangen werden. Der externe Anschluss 124 (z. B. Universal Serial Bus (USB), FIREWIRE, etc.) ist angepasst direkt mit anderen Vorrichtungen oder indirekt über ein Netzwerk (z. B. das Internet, drahtloses LAN, etc.) verbunden zu sein. In einigen Ausführungsbeispielen ist der externe Anschluss ein Vielfachpin (z. B. 30-Pin) Verbindungseinrichtung, der derselbe ist, oder ähnlich ist zu und/oder kompatibel ist mit der 30-Pin Verbindungseinrichtung, der bei iPod Vorrichtungen benutzt wird (Markenzeichen der Apple Computer Inc.).
  • Das Kontakt-/Bewegungsmodul 130 kann Kontakt mit dein Berührungsbildschirm 112 (in Verbindung mit der Anzeigensteuervorrichtung 156) und anderen berührungsempfindlichen Vorrichtungen (z. B. ein Berührungsfeld oder physikalisches Klickrad) erfassen. Das Kontakt-/Bewegungsmodul 130 beinhaltet verschiedene Softwarekomponenten zum Ausführen verschiedener Operationen, die mit der Erfassung von Kontakt in Zusammenhang stehen, wie z. B. Bestimmen, ob Kontakt stattgefunden hat, Bestimmen, ob es Bewegung des Kontaktes gibt und Verfolgen der Bewegung über den Berührungsbildschirm 112 und Bestimmen, ob der Kontakt unterbrochen wurde (z. B. wenn der Kontakt beendet wurde). Bestimmen einer Bewegung des Kontaktpunktes kann beinhalten, Bestimmen von Schnelligkeit (Betrag), Geschwindigkeit (Betrag und Richtung), und/oder einer Beschleunigung (einer Änderung des Betrages und/oder Richtung) des Kontaktpunktes.
  • Diese Operationen können auf einzelne Kontakte (z. B. Einfingerkontakte) angewandt werden oder auf simultane Kontakte (z. B. "Mehrberührungs-"/Mehrfingerkontakte). In einigen Ausführungsbeispielen erfasst das Kontakt-/Bewegungsmodul 130 und die Anzeigensteuervorrichtung 156 auch Kontakt auf einem Berührungsfeld. In einigen Ausführungsbeispielen erfasst das Kontakt-/Bewegungsmodul 130 und die Steuervorrichtung 160 Kontakt auf einem Klickrad.
  • Das Graphikmodul 132 beinhaltet verschiedene bekannte Softwarekomponenten zum Wiedergeben und Anzeigen von Graphiken auf dem Berührungsbildschirm 112, darunter Komponenten zum Ändern der Intensität der Graphiken, die angezeigt werden. Wie hierin benutzt beinhaltet der Begriff "Graphiken" jedes Objekt, das einem Benutzer angezeigt werden kann, darunter ohne Begrenzung Text, Webseiten, Ikonen (sowie Benutzerschnittstellenobjekte darunter Softtasten), digitale Bilder, Videos, Animationen und ähnliches.
  • Das Texteingabemodul 134, welches eine Komponente des Graphikmoduls 132 sein kann, stellt Softtastaturen zum Eingeben von Text in verschiedenen Anwendungen bereit (z. B. Kontakte 137, E-Mail 140, Instant Messaging (IM) 141, Blogging 142, Browser 147 und jede andere Anwendung, die Texteingabe benötigt).
  • Das GPS Modul 135 bestimmt die Position der Vorrichtung und stellt diese Information zur Benutzung in verschiedenen Anwendungen bereit (z. B. dem Telefon 138 zur Verwendung in positionsbasiertem Wählen, zu Kamera 143 und/oder Blogger 142 sowie Bild-/Videometadaten und zu Anwendungen, die positionsbasierte Dienste sowie Wetterwidgets, gelbe Seiten-widgets und Landkarten/Navigationswidgets).
  • Die Anwendungen 136 können die folgenden Module (oder Gruppen an Instruktionen) oder eine Untergruppe oder eine Übergruppe davon beinhalten:
    • • ein Kontaktemodul 137 (manchmal ein Adressbuch oder Kontaktliste ge nannt);
    • • ein Telefonmodul 138;
    • • ein Videokonferenzmodul 139;
    • • ein E-Mail Client Modul 140;
    • • ein Instant Messaging (IM) Modul 141;
    • • ein Bloggingmodul 142
    • • ein Kameramodul 143 für stehende und/oder Videobilder;
    • • ein Bilderverwaltungsmodul 144;
    • • ein Videoabspielmodul 145;
    • • ein Musikabspielmodul 146;
    • • ein Browsermodul 147;
    • • ein Kalendermodul 148;
    • • Widgetmodule 149, die beinhalten können Wetterwidget 149-1, Wertpa pierwidget 149-2, Taschenrechnerwidget 149-3, Weckerwidget 149-4, Wörterbuchwidget 149-5 und andere Widgets, die der Benutzer erhalten hat sowie benutzererzeugte Widgets 149-6;
    • • Widgeterzeugungsmodul 150 zum Erstellen benutzererstellter Widgets 149-6;
    • • Suchmodul 151;
    • • Video- und Musikabspielmodul 152, das Videoabspielmodul 145 und Mu sikabspielmodul 146 verbindet;
    • • Notizblockmodul 153; und/oder
    • • Landkartenmodul 154.
  • Beispiele anderer Anwendungen 136, die in Speicher 102 gespeichert sein können, beinhalten andere Wortverarbeitungsanwendungen, JAVA-unterstützte Anwendungen, Verschlüsselung, digitale Rechteverwaltung, Spracherkennung und Sprachabgleich.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134, kann das Kontaktemodul 137 verwendet werden, ein Adressbuch oder eine Kontaktliste zu verwalten, darunter: Hinzufügen von Name(n) zu dein Adressbuch; Löschen von Name(n) von dem Adressbuch; Zuweisen von Telefonnummer(n), E-Mailadresse(n), physikalische Adresse(n), oder andere Informationen mit einem Namen; Verbinden eines Bildes mit einem Namen; Kategorisieren und Sortieren von Namen; Bereitstellen von Telefonnummern oder E-Mailadressen, um Kommunikation per Telefon 138 zu initiieren und/oder zu erleichtern, Videokonferenz 139, E-Mail 140 oder IM 141; usw.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Telefonmodul 138 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Telefonnummer korrespondiert, auf eine oder mehrere Telefonnummern in dem Adressbuch 137 zuzugreifen, eine Telefonnummer, die eingegeben wurde zu modifizieren, eine entsprechende Telefonnummer zu wählen, eine Konversation zu führen und die Verbindung zu unterbrechen oder aufzulegen, wenn die Konversation beendet ist. Wie oben beschrieben kann die drahtlose Kommunikation jedes einer Vielzahl an Kommunikationsstandards, Protokollen und Technologien verwenden.
  • In Verbindung mit RF Schaltkreis 108, Audioschaltkreis 110, Lautsprecher 111, Mikrophon 113, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische Sensor 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Kontakteliste 137 und Telefonmodul 138 kann das Videokonferenzmodul 139 verwendet werden, Videokonferenzen zu initiieren, zu führen und zu beenden, zwischen einem Benutzer und einem oder mehreren anderen Teilnehmern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das E-Mail Client Modul 140 verwendet werden, E-Mail zu erzeugen, senden, empfangen und verwalten. In Verbindung mit Bildverwaltungsmodul 144, macht es das E-Mail Modul 140 sehr leicht, E-Mails mit stehenden oder Videobildern, die mit Kameramodul 143 aufgenommen wurden, zu erzeugen und zu senden.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Instant Messaging Modul 141 benutzt werden, eine Folge an Zeichen einzugeben, die zu einer Sofortnachricht korrespondieren, vorher eingegebene Zeichen modifizieren, eine entsprechende Sofortnachricht zu übertragen (z. B. unter Verwendung eines Kurzmitteilungsdienstes (Short Message Service, SMS) oder Multimedia Mitteilungsdienst (Multimedia Message Service (MMS) Protokoll für telefonbasierte Sofortnachrichten oder unter Verwendung von XMPP, SIMPLE oder IMPS für internetbasierte Sofortnachrichten), Sofortnachrichten zu empfangen und empfangene Sofortnachrichten zu betrachten. In einigen Ausführungsbeispielen können übertragene und/oder empfangene Sofortmitteilungen Graphiken, Fotos, Audiodateien, Videodateien und/oder andere Anhänge, wie sie von einem MMS und/oder einem Enhanced Messaging Service (EMS) unterstützt werden, aufweisen. Wie hierin benutzt, bezieht sich "Sofortmitteilungen" auf telefonbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von SMS oder MMS gesendet wurden) und internetbasierte Nachrichten (z. B. Nachrichten, die unter Verwendung von XMPP, SIMPLE oder IMPS gesendet wurden). Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Instant Messaging Modul 141 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, Bildverwaltungsmodul 144, und Browsingmodul 147 kann das Bloggingmodul 142 verwendet werden, Text, stehende Bilder, Video und/oder andere Graphiken zu einem Blog (z. B. dem Blog des Benutzers) zu versenden.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, optische(n) Sensor(en) 164, optischen Sensorsteuervorrichtung 158, Kontaktmodul 130, Graphikmodul 132, und Bildverwaltungsmodul 144 kann das Kameramodul 143 verwendet werden, stehende Bilder oder Video (darunter einen Videostream) zu erfassen, und sie in Speicher 102 zu speichern, Charakteristiken eines stehenden Bildes oder Videos zu modifizieren oder ein stehendes Bild oder Video von Speicher 102 zu löschen.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Kameramodul 143 kann das Bildverwaltungsmodul 144 verwendet werden, stehende und/oder Videobilder zu arrangieren, modifizieren oder anderweitig zu manipulieren, zu labeln, löschen, anzeigen (z. B. in einer digitalen Diashow oder Album) und zu speichern.
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, und Lautsprecher 111 kann das Videoabspielmodul 145 verwendet werden, Videos anzuzeigen, zu präsentieren oder anderweitig abzuspielen (z. B. auf dem Berührungsbildschirm oder auf einer externen, verbundenen Anzeige über externen Anschluss 124).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Audioschaltkreis 110, Lautsprecher 111, RF Schaltkreis 108 und Browsermodul 147, ermöglicht das Musikabspielmodul 146 dem Benutzer, aufgenommene Musik und andere Musikdateien, die in einem oder mehreren Dateiformaten, wie z. B. MP3 oder AAC Dateien, gespeichert sind, abzuspielen. In einigen Ausführungsbeispielen kann die Vorrichtung 100 die Funktionalität eines MP3 Abspielgerätes, wie z. B. eines iPods (Markenzeichen der Apple Computer Inc.) aufweisen.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, und Texteingabemodul 134 kann das Browsermodul 147 verwendet werden, das Internet zu browsen, darunter suchen, verbinden zu, empfangen und anzeigen von Webseiten oder Teilen davon sowie Anhänge und andere Dateien, die mit Webseiten verbunden sind. Benutzerschnittstellen und zugeordnete Prozesse, die Browsermodul 147 verwenden, sind weiter unten beschrieben.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, E-Mail Modul 140, und Browsermodul 147 kann das Kalendermodul 148 benutzt werden, Kalender und Daten, die mit Kalendern zusammenhängen (z. B. Kalendereinträge, to do Listen, etc.) zu erzeugen, anzeigen, modifizieren und speichern.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 sind die Widgetmodule 149 Minianwendungen, die heruntergeladen werden können und von einem Benutzer verwendet werden können (z. B. Wetterwidget 149-1, Wertpapierwidget 149-2, Taschenrechnerwidget 149-3, Wecker 149-4 und Wörterbuchwidget 149-5) oder von dem Benutzer erzeugt werden können (z. B. benutzererzeugtes Widget 149-6). In einigen Ausführungsbeispielen beinhaltet ein Widget eine HTML (Hypertext Markup Language) Datei, eine CSS (Cascading Style Sheets) Datei und eine JavaScript Datei. In einigen Ausführungsbeispielen enthält ein Widget eine XML (Extensible Markup Language) Datei und eine JavaScript Datei (z. B. Yahoo! Widgets).
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134 und Browsermodul 147 kann das Widgeterzeugungsmodul 150 verwendet werden von einem Benutzer, um Widgets zu erzeugen (z. B. Umwandeln eines benutzerspezifizierten Teils einer Webseite in ein Widget). Varianten von Benutzerschnittstellen und zugeordneten Prozessen, die Widgeterzeugungsmodul 150 verwenden, sind weiter unten beschrieben. In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Suchmodul 141 verwendet werden, um nach Text, Musik, Sound, Bilder, Video und/oder anderen Dateien in Speicher 102 zu suchen, die eine oder mehrere Suchkriterien erfüllen, (z. B. ein oder mehrere benutzerspezifizierte Suchbegriffe).
  • In Verbindung mit Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132 und Texteingabemodul 134 kann das Notizbuchmodul 153 verwendet werden, Notizen, to do Listen und ähnliches zu erzeugen und zu verwalten.
  • In Verbindung mit RF Schaltkreis 108, Berührungsbildschirm 112, Anzeigensystemsteuervorrichtung 156, Kontaktmodul 130, Graphikmodul 132, Texteingabemodul 134, GPS Modul 135 und Browsermodul 147 kann das Landkartenmodul 154 verwendet werden, Landkarten und Daten, die mit Landkarten zusammenhängen, zu empfangen, anzuzeigen, modifizieren und zu speichern (z. B. Fahrtrichtungen; Daten auf Speichern und andere Punkte von Interesse an oder in der Nähe einer bestimmten Position; und andere positionsbasierte Daten).
  • Jedes der oben identifizierten Module und Anwendungen entspricht einer Gruppe an Anweisungen zum Ausführen einer oder mehrerer oben beschriebener Funktionen. Diese Module (d. h. Gruppen an Anweisungen) brauchen nicht als separate Softwareprogramme, Prozeduren oder Module implementiert zu sein und damit können verschiedene Untergruppen dieser Module kombiniert werden, oder anderweitig in verschiedenen Ausführungsbeispielen neu geordnet werden. Zum Beispiel kann Videoabspielmodul 145 mit Musikabspielmodul 146 in ein einziges Modul (z. B. Video- und Musikabspielmodul 152, 1B) kombiniert werden. In einigen Ausführungsbeispielen kann Speicher 102 eine Untergruppe der Module und oben identifizierten Datenstrukturen speichern. Weiterhin kann Speicher 102 zusätzliche Module oben nicht beschriebener Datenstrukturen speichern.
  • In einigen Ausführungsbeispielen ist die Vorrichtung 100 eine Vorrichtung, in der Benutzung von einer vordefinierten Gruppe an Funktionen auf der Vorrichtung exklusiv durch den Berührungsbildschirm 112 und/oder ein Berührungsfeld ausgeführt wird. Durch Verwendung eines Berührungsbildschirms und/oder eines Berührungsfeldes als primäre Eingabe-/Ausgabevorrichtung zur Benutzung der Vorrichtung 100 kann die Anzahl physikalischer Eingabe-/Ausgabevorrichtung (wie z. B. Druckknöpfe, Wählscheiben und ähnliches) auf der Vorrichtung 100 reduziert werden.
  • Die vordefinierte Gruppe an Funktionen, die exklusiv durch einen Berührungsbildschirm und/oder ein Berührungsfeld ausgeführt werden kann, beinhaltet Navigieren zwischen Benutzerschnittstellen. In einigen Varianten navigiert das Berührungsfeld, wenn es durch den Benutzer berührt wird, die Vorrichtung 100 zu einem Haupt-, Heim-, oder Ursprungsmenü von jeder Benutzerschnittstelle, die auf der Vorrichtung 100 angezeigt werden kann. In solchen Ausführungsbeispielen kann das Berührungsfeld als ein "Menüknopf" bezeichnet werden. In einigen anderen Ausführungsbeispielen kann der Menüknopf ein physikalischer Druckknopf oder eine andere physikalische Eingabe-/Ausgabevorrichtung anstelle eines Berührungsfeldes sein.
  • 2 stellt eine tragbare Multifunktionsvorrichtung 100 dar, die einen Berührungsbildschirm 112 aufweist, in Übereinstimmung mit einigen Ausführungsbeispielen. Der Berührungsbildschirm kann eine oder mehrere Grafiken innerhalb der Benutzerschnittstelle (user interface, UI) 200 anzeigen. In diesem Ausführungsbeispiel sowie anderen unten beschriebenen, kann ein Benutzer eine oder mehrere der Graphiken durch Kontaktaufnahme oder Berühren der Graphiken wählen, z. B. mit einem oder mehreren Fingern 202 (in der Fig. nicht maßstäblich gezeichnet). In einigen Ausführungsbeispielen erfolgt die Wahl von einer oder mehreren Gra phiken, wenn der Benutzer den Kontakt mit der einen oder mehreren Graphiken unterbricht. In einigen Ausführungsbeispielen kann der Kontakt eine Geste beinhalten, wie z. B. ein oder mehrere Anschläge, eine oder mehrere Wischbewegungen (von links nach rechts, rechts nach links, aufwärts und/oder abwärts) und/oder ein Rollen eines Fingers (von rechts nach links, links nach rechts, aufwärts und/oder abwärts) der mit der Vorrichtung 100 Kontakt aufgenommen hat. In einigen Ausführungsbeispielen darf versehentlicher Kontakt mit einer Graphik die Graphik nicht auswählen. Zum Beispiel darf eine Wischgeste, die über eine Anwendungsikone streicht nicht die korrespondierende Anwendung auswählen, wenn die Geste, die zur Auswahl korrespondiert, ein Anschlag ist.
  • Die Vorrichtung 100 kann auch einen oder mehrere physikalische Knöpfe, wie z. B. "Heim-" oder Menüknopf 204 aufweisen. Wie vorhergehend beschrieben, kann der Menüknopf 204 verwendet werden, zu jeder Anwendung 136 aus einer Gruppe an Anwendungen zu navigieren, die auf der Vorrichtung 100 ausgeführt werden können. Alternativ ist, in einigen Ausführungsbeispielen, der Menüknopf als eine Softtaste in einer GUI im Berührungsbildschirm 112 implementiert.
  • In einigen Ausführungsbeispielen weist die Vorrichtung einen Berührungsbildschirm 112, einen Menüknopf 204, einen Druckknopf 206 auf, um die Vorrichtung an/aus zu schalten und die Vorrichtung zu verriegeln, Lautstärkeanpassungsknopf(knöpfe) 208, ein Subscriber Identity Module (SIM) Karteneinschub 210, einen Sprechgarnituranschluss 212 und einen externen Andock-/Ladeanschluss 124. Der Druckknopf 206 kann verwendet werden, die Vorrichtung durch Herunterdrücken des Knopfes und Halten des Knopfes in dem heruntergedrückten Zustand für eine vordefinierte Zeitdauer an/auszuschalten; die Vorrichtung durch Herunterdrücken des Knopfes und Loslassen des Knopfes bevor die vordefinierte Zeitdauer abgelaufen ist, zu sperren; und/oder die Vorrichtung zu entsperren oder einen Entsperrungsprozess zu starten. In einem alternativen Ausführungsbeispiel kann die Vorrichtung 100 auch verbale Eingaben über das Mikrophon 113 zur Aktivierung oder Deaktivierung einiger Funktionen akzeptieren.
  • Die Aufmerksamkeit wird nun auf Benutzerschnittstellen ("UI") und zugeordnete Prozesse gerichtet, die auf einer tragbaren Multifunktionsvorrichtung 100 implementiert werden können.
  • 3 stellt eine beispielhafte Benutzerschnittstelle zum Entsperren einer tragbaren elektronischen Vorrichtung dar. Benutzerschnittstelle 300 kann die folgenden Elemente, oder eine Untergruppe oder eine Übergruppe davon beinhalten:
    • • Entsperrbild 302, das mit einer Fingergeste bewegt wird, um die Vorrich tung zu entsperren;
    • • Pfeil 304 der einen visuellen Hinweis auf die Entsperrgeste bereitstellt;
    • • Kanal 306, der zusätzliche Hinweise auf die Entsperrgeste bereitstellt;
    • • Zeit 308;
    • • Tag 310;
    • • Datum 312; und
    • • Hintergrundbild 314.
  • In einigen Varianten erfasst die Vorrichtung Kontakt mit der berührungsempfindlichen Anzeige (z. B. ein Finger des Benutzers tritt auf oder in der Nähe des Entsperrbildes 302 in Kontakt) während die Vorrichtung in einem Benutzerschnittstellengesperrtzustand ist. Die Vorrichtung bewegt das Entsperrbild 302 in Übereinstimmung mit dem Kontakt. Die Vorrichtung geht zu einen Benutzerschnittstellenentsperrtzustand über, wenn der erfasste Kontakt zu einer vordefinierten Geste korrespondiert, wie z. B. Bewegen des Entsperrbildes über den Kanal 306. Andererseits behält die Vorrichtung den Benutzerschnittstellengesperrtzustand bei, wenn der erfasste Kontakt nicht zu der vordefinierten Geste korrespondiert. Wie oben bemerkt, sind Prozesse, die Gesten auf dem Berührungsbildschirm verwenden, um die Vorrichtung zu entsperren, in folgenden U.S. Patent Anmeldung beschrieben: 11/322,549, "Unlocking A Device By Performing Gestures On An Unlock Image", eingereicht am 23. Dezember 2005, und 11/322,550, "Indication Of Progress Towards Satisfaction Of A User Input Condition", eingereicht am 23. Dezember 2005, die hiermit in ihrer Gesamtheit referenzierend eingebunden sind.
  • 4A und 4B stellen beispielhafte Benutzerschnittstellen für ein Menü an Anwendungen auf einer tragbaren Multifunktionsvorrichtung dar. Benutzerschnittstelle 400A kann die folgenden Elemente, oder eine Untergruppe oder Übergruppe davon beinhalten:
    • • Signalstärkeindikator(en) 402 für drahtlose Kommunikation(en), wie z. B. zellulare und Wi-Fi Signale;
    • • Zeit 404;
    • • Batteriestatusindikator 406;
    • • Ablage 408, mit Ikonen für häufig benutzte Anwendungen, wie z. B eines oder mehrere der Folgenden:
    • – Telefon 138, der einen Indikator 414 der Anzahl entgangener An rufe oder Anrufbeantworternachrichten, beinhalten kann;
    • – E-Mail Client 140, der einen Indikator 410 der Anzahl ungelesener E-Mails beinhalten kann;
    • – Browser 147; und
    • – Musikabspielgerät 146; und
    • • Ikonen für andere Anwendungen, wie z. B. eines oder mehrere der Folgen den:
    • – IM 141;
    • – Bildverwaltung 144;
    • – Kamera 143;
    • – Videoabspielgerät 145;
    • – Wetter 149-1;
    • – Wertpapiere 149-2;
    • – Blog 142;
    • – Kalender 148;
    • – Taschenrechner 149-3;
    • – Wecker 149-4;
    • – Wörterbuch 149-5;
    • – benutzererzeugtes Widget 149-6.
  • Benutzerschnittstelle 400B kann die folgenden Elemente oder eine Untergruppe oder Übergruppe davon beinhalten beinhalten:
    • 402, 404, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414 138, 140 und 147 wie oben beschrieben;
    • • Landkarte 154;
    • • Notizen 153;
    • • Einstellungen 412, die Zugriff auf Einstellungen für die Vorrichtung 100 und ihre verschiedenen Anwendungen 136 bereitstellen, wie wei ter unten beschrieben; und
    • • Video- und Musikabspielmodul 152 auch bezeichnet als iPod (Mar kenzeichen der Apple Computer, Inc.) Modul 152.
  • UI 400A oder 400B können alle der verfügbaren Anwendungen 136 auf einem Bildschirm anzeigen, so dass es keinen Bedarf gibt, durch eine Liste an Anwendungen zu scrollen (z. B. mit Hilfe einer Scrollleiste). In einigen Anwendungen können die Ikonen, die zu den Anwendungen korrespondieren in der Größe abnehmen, wenn die Anzahl der Anwendungen zunimmt, so dass alle Anwendungen ohne Scrollen auf einem einzigen Bildschirm angezeigt werden können. Einige Varianten, die alle Anwendungen auf einem Bildschirm und einen Menüknopf haben, ermöglichen es einem Benutzer jede gewünschte Anwendung mit höchstens zwei Eingaben, wie z. B. Aktivieren des Menüknopfes 204 und dann Aktivieren der gewünschten Anwendung (z. B. durch einen Anschlag oder andere Fingergesten auf der Ikone, die zu der Anwendung korrespondiert) zuzugreifen.
  • UI 400A oder 400B können integrierten Zugriff auf sowohl widgetbasierte Anwendungen und nicht widgetbasierte Anwendungen bereitstellen. In einigen Varianten werden alle der Widgets, ob benutzererzeugt oder nicht, in UI 400A oder 400B angezeigt. In anderen Varianten kann Aktivieren der Ikone für benutzererzeugtes Widget 149-6 zu einer anderen UI führen, die die benutzererzeugten Widgets oder Ikonen, die zu den benutzererzeugten Widgets korrespondieren, enthält.
  • Ein Benutzer kann die Ikonen in UI 400A oder 400B neu ordnen, z. B. unter Verwendung eines Prozesses, der beschrieben ist in U.S. Patent Anmeldung Nr. 11/459,602, "Portable Electronic Device With Interface Reconfiguration Mode", eingereicht am 24. Juli 2006, die hierbei in ihrer Gesamtheit referenzierend eingebunden ist. Zum Beispiel kann ein Benutzer Anwendungsikonen in und aus der Ablage 408 bewegen unter Verwendung von Fingergesten.
  • UI 400A oder 400B können eine Anzeige (nicht gezeigt) beinhalten, die eine aktualisierte Accountverwendungsmetric für einen Account, der mit der Verwendung der Vorrichtung (z. B. einen zellularen Telefonaccount) zusammenhängt, anzeigt, wie in U.S. Patent Anmeldung Nr. 11/322,552, "Account Information Display For Portable Communication Device", eingereicht am 23. Dezember 2005, beschrieben, welche hierbei referenzierend eingebunden ist.
  • 5A bis 5E stellen beispielhafte Benutzerschnittstellen zum Interagieren mit Benutzereingabeelementen in angezeigtem Inhalt dar. In einigen Varianten wird der angezeigte Inhalt (z. B. eine Webseite oder anderer elektronischer Inhalt) durch eine Webbrowseranwendung (z. B. browsing Modul 147) angezeigt.
  • Benutzerschnittstellen 4100A bis 4100E (5A bis 5E) können die folgenden Elemente beinhalten oder eine Untergruppe oder eine Übergruppe davon:
    • 402, 404 und 406, wie oben beschrieben;
    • • vorherige Seite-Ikone 3902, die, wenn aktiviert (z. B. durch einen Finger anschlag auf der Ikone), Anzeigen der vorherigen Webseite initiiert;
    • • nächste Seite-Ikone 3906, die, wenn aktiviert (z. B. durch einen Fingeran schlag auf der Ikone), Anzeigen der nächsten Webseite aktiviert;
    • • Aktualisieren-Ikone 3910, die, wenn aktiviert (z. B. durch einen Fingeran schlag auf der Ikone), ein Aktualisieren der Webseite initiiert;
    • • Webseite 3912 oder ein anderes strukturiertes Dokument;
    • • Lesezeichen-Ikone 3918, die, wenn aktiviert (z. B. durch einen Fingeran schlag auf der Ikone), Anzeigen einer Lesezeichenliste oder Menü für den Browser initiiert;
    • • Lesezeichen hinzufügen Ikone 3920, die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone), Anzeigen eines UI zum Hinzufügen von Lesezeichen initiiert;
    • • neues Fenster-Ikone 3922, die, wenn aktiviert (z. B. durch einen Fingeran schlag auf der Ikone), anzeigen eines UI zum Hinzufügen neuer Fenster zu dem Browser initiiert;
    • • Inhalt 4112, wie z. B. Webseiteninhalt; ein Wortverarbeitung, Spreadsheet, E-Mail oder Präsentationsdokument; ein elektronisches Formular oder ein Online-Formular;
    • • Benutzereingabeelemente 4102 in dem Inhalt 4112, wie z. B. radio buttons, Texteingabefelder, Ankreuzfelder, pull down Listen und/oder Formular felder;
    • • Information 4108 über ein gewähltes Eingabeelement 4102;
    • • Bereich 4114, das ein gewähltes Benutzereingabeelement 4102 aufweist;
    • • Abbruch-Ikone 4116 (5B), die, wenn aktiviert (z. B. durch einen Fin geranschlag auf der Ikone), Benutzereingabe in das gewählte Element 4112 abbricht;
    • • Eingabewahlen-Ikone 4118 (5B), die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone), verwendet werden als Eingabe für das ge wählte Element 4102
    • • Fertigikone 4124 (5E), die, wenn aktiviert (z. B. durch einen Fingeran schlag auf der Ikone), die Vorrichtung zu dem vorhergehenden UI (z. B. UI 4100D, 5D) zurückführt;
    • • Übermitteln-Ikone 4126 (5E), die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone), die Eingaben zu einem Remoteserver sen det;
    • • Buchstabentastatur 616 (5E) zum Eingeben von Text;
    • • Tastaturwechsel Wahl-Ikone 618 (5E), die, wenn aktiviert (z. B. durch einen Fingeranschlag auf der Ikone), die Anzeige einer verschiedenen Tas tatur initiiert; und
  • 6A bis 6C sind Flussdiagramme, die Verfahren 6000 (6A) und 6020 (6B bis 6C) zum Empfangen von Eingabe darstellen. Die Vorgänge in Verfahren 6020 sind eine Übergruppe der Vorgänge in Verfahren 6000.
  • Eine tragbare Multifunktionsvorrichtung (z. B. Vorrichtung 100) kann Inhalt (z. B. Inhalt 4112, 5A) auf einer Berührungsbildschirmanzeige anzeigen (6002). Der Inhalt weist eine Vielzahl an Benutzereingabeelementen (z. B. 4102) auf.
  • In einigen Varianten ist der Inhalt ein Webseite (z. B. Webseite 3912, 5A). In einigen Varianten ist der Inhalt eine Wortverarbeitung, Spreadsheet, E-Mail oder Präsentationsdokument. In einigen Varianten ist der Inhalt ein elektronisches Formular. In einigen Varianten ist der Inhalt ein Onlineformular (6022).
  • Die Benutzereingabeelemente (z. B. 4102) können einen oder mehrere radio buttons, Texteingabefelder, Ankreuzfelder, pull down Listen (6024) (z. B. 4102-1, 5A) und/oder Formularfelder (z. B. Benutzername 4102-3, 5A) aufweisen.
  • Ein Kontakt von einem Finger (z. B. 4104, 5A) mit der Berührungsbildschirmanzeige wird erfasst (6004). Der Kontakt beinhaltet einen Kontaktbereich.
  • Ein Benutzereingabeelement (z. B. 4102-1, 5A) aus der Vielzahl an Benutzereingabeelementen wird, basierend auf der Nähe von dem Benutzereingabeelement, zu dem Kontakt gewählt (6006).
  • In einigen Varianten wird ein Punkt (z. B. 4106, 5A) innerhalb des Kontaktbereiches bestimmt (6008). In einigen Varianten ist der Punkt innerhalb des Kontaktbereiches der Schwerpunkt des Kontaktbereiches (6026). In einigen Varianten ist der Punkt innerhalb des Kontaktbereiches von dein Schwerpunkt des Kontaktbereiches verschoben (6028).
  • In einigen Varianten wird ein Benutzereingabeelement (z. B. 4102-1, 5A) aus der Vielzahl an Benutzereingabeelementen gewählt (6006), basierend auf der Nähe des Benutzereingabeelements, zu dem bestimmten Punkt (z. B. 4106, 5A). In einigen Varianten wird Wählen auf Benutzereingabeelemente begrenzt, die innerhalb des Kontaktbereiches angeordnet sind. In einigen Varianten wird Wählen auf Benutzereingabeelemente begrenzt, die zumindest teilweise mit dem Kontaktbereich überlappen. In einigen Varianten wird Wählen auf Benutzereingabeelemente begrenzt, die innerhalb einer vorbestimmten Entfernung von dem bestimmten Punkt angeordnet sind (6030). In einigen Varianten hat der Inhalt auf der Berührungsbildschirmanzeige einen zugeordneten Skalierungsfaktor und das Wählen wird auf Benutzereingabeelemente, die innerhalb einer Distanz von dem bestimmten Punkt angeordnet sind, begrenzt, welche in Übereinstimmung mit dem Skalierungsfaktor bestimmt wird (6032).
  • Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, wird über den angezeigten Inhalt (z. B. "Accounts"-Menü 4108-1, 5A) angezeigt (6010). Die angezeigte Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, kann eine Beschreibung des gewählten Benutzereingabeelements aufweisen (6034).
  • In einigen Varianten wird die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, außerhalb des Kontaktbereiches angezeigt (6038). In einigen Varianten hängt die Position der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, und die über den angezeigten Inhalt angezeigt wird, von der Position des Kontaktes ab (6036). In einigen Varianten wird die Position der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über der oberen Hälfte des angezeigten Inhalts angezeigt, wenn die Position des Kontakts in der unteren Hälfte des angezeigten Inhalts ist und die Position der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, wird über der unteren Hälfte des angezeigten Inhalts angezeigt, wenn die Position des Kontakts in der oberen Hälfte des angezeigten Inhalts ist.
  • In einigen Varianten wird die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, angezeigt (6040) nachdem der Kontakt für zumindest eine vorbestimmte Zeit beibehalten wird. In einigen Varianten wird die angezeigte Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, entfernt (6042), wenn der Kontakt mit dem Berührungsbildschirm länger als eine vorbestimmte Zeit beibehalten wird.
  • Eine Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige wird erfasst (6012). In einigen Varianten umfasst Erfassen der Unterbrechung des Kontaktes, Erfassen der Unterbrechung des Kontaktes während die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, angezeigt wird (6044).
  • In einigen Varianten wird in Antwort auf Erfassen der Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige ein Bereich vergrößert (6046), der das gewählte Benutzereingabeelement aufweist, auf der Berührungsbildschirmanzeige (z. B. für Element 4102-1, Bereich 4114-1- in 5A ist in 5B vergrößert; ähnlich für Elemente 4112-3 und 4112-4, Bereich 4114-2 in 5D ist in 5E vergrößert).
  • In einigen Varianten, wird, in Antwort auf Erfassen der Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige, vor Ablauf einer vorbestimmten Zeitdauer, das gewählte Benutzereingabeelement auf der Berührungsbildschirmanzeige vergrößert (z. B. Element 4102-1 in 5A wird in 5B vergrößert; ähnlich werden Elemente 4102-3 und 4102-4 in 5D in 5E vergrößert).
  • Eingabe wird für das gewählte Benutzereingabeelement empfangen (6014). In einigen Varianten beinhaltet Empfangen von Eingabe: Empfangen von Texteingabe über eine Softtastatur (6048) auf der Berührungsbildschirmanzeige (z. B. Tastatur 616, 5E), Erfassen eines Fingerkontaktes mit einem radio button (6050) auf der Berührungsbildschirmanzeige, Erfassen eines Fingerkontaktes mit einem Ankreuzfeld (6052) auf der Berührungsbildschirmanzeige oder Erfassen eines Fingerkontaktes mit einem Punkt in einer pull down Liste (6054) auf der Berührungsbildschirmanzeige (z. B. Kontakt 4120 auf Eingabewahl 4118-3, 5B).
  • In einigen Varianten wird die empfangene Eingabe zu einem Remotecomputer gesendet (6056), wie z. B. einem Webserver. Zum Beispiel wird Eingabe, die in Benutzereingabeelementen 4102-3 und 4102-4 empfangen wird (5E) zu einem Remoteserver gesendet bei Erfassung eines Fingerkontaktes (oder einer Unterbrechung eines Fingerkontaktes) mit der Übermitteln-Ikone 4126.
  • 6D ist ein Flussdiagramm, dass ein Verfahren 6060 zum Empfangen von Eingabe darstellt. Vorgänge 6002 und 6004 werden wie oben beschrieben unter Bezugnahme auf Verfahren 6000 (6A) und 6020 (6B bis 6C) beschrieben.
  • Ein erstes Benutzerelement (z. B. 4102-1, 5A) aus der Vielzahl an Benutzereingabeelementen wird gewählt (6062) basierend auf der Nähe des ersten Benut zereingabeelements zu dem Kontakt. In einigen Varianten ist ein Wählen auf Benutzereingabeelemente, die innerhalb des Kontaktbereiches angeordnet sind, begrenzt. In einigen Varianten ist ein Wählen auf Benutzereingabeelemente, die zumindest teilweise mit dem Kontaktbereich überlappen, begrenzt. In einigen Varianten ist ein Wählen auf Benutzereingabeelemente, die innerhalb einer vorbestimmten Entfernung von dem bestimmten Punkt angeordnet sind, begrenzt. In einigen Varianten hat der Inhalt auf der Berührungsbildschirmanzeige einen zugeordneten Skalierungsfaktor und das Wählen ist auf Benutzereingabeelemente, die innerhalb einer Distanz von dem bestimmten Punkt angeordnet sind, die in Übereinstimmung mit dem Skalierungsfaktor bestimmt wird, begrenzt.
  • Information, die mit dem ersten Benutzereingabeelement zusammenhängt, wird über den angezeigten Inhalt (z. B. "Accounts"-Menü 4108-1, 5A) angezeigt (6064). In einigen Varianten weist die angezeigte Information, die mit dem ersten Benutzereingabeelement zusammenhängt, eine Beschreibung des ersten Benutzereingabeelements auf.
  • Bewegung des Kontaktes wird auf der Berührungsbildschirmanzeige (z. B. Bewegung 4110-1, 5C) erfasst (6066). Ein zweites Benutzereingabeelement (z. B. Element 4102-2, 5C) aus der Vielzahl an Benutzereingabeelementen wird gewählt (6068) basierend auf der Nähe des zweiten Benutzereingabeelements zu dem Kontakt (z. B. Kontakt 4104, 5C). Die Anzeige der Information, die mit dem ersten gewählten Benutzereingabeelement zusammenhängt, über den angezeigten Inhalt, wird beendet (6070). Information, die mit dem zweiten gewählten Benutzereingabeelement zusammenhängt, wird über den angezeigten Inhalt (z. B. "sign in"-Knopf 4108-3, 5C) angezeigt (6072).
  • Eine Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige wird erfasst (6074). Eingabe für das zweite Benutzereingabeelement wird empfangen (6076). In einigen Varianten weist ein Empfangen von Eingabe auf: Empfangen von Texteingabe über ein Softkeyboard auf der Berührungsbild schirmanzeige (z. B. Tastatur 616, 5E), Erfassen eines Fingerkontaktes mit einem radio button auf der Berührungsbildschirmanzeige, Erfassen eines Fingerkontakts mit einem Ankreuzfeld auf der Berührungsbildschirmanzeige, oder Erfassen eines Fingerkontaktes mit einem Punkt in einer pull down Liste auf der Berührungsbildschirmanzeige (z. B. Kontakt 4120 auf Eingabewahl 4118-3, 5B).
  • In einigen Varianten wird die empfangene Eingabe zu einem Remotecomputer gesendet (6078), wie z. B. ein Webserver. Zum Beispiel wird Eingabe, die in Benutzereingabeelementen 4102-3 und 4102-4 empfangen wird (5E), zu einem Remoteserver gesendet bei Erfassung eines Fingerkontakts (oder einer Unterbrechung eines Fingerkontaktes) mit der Übermitteln-Ikone 4126.
  • 6E ist ein Flussdiagramm, das ein Verfahren 6080 zum Empfangen von Eingabe darstellt. Vorgänge 6002, 6004, 6006 und 6010 werden, wie oben beschrieben, unter Bezugnahme auf Verfahren 6000 (6A) und 6020 (6B bis 6C) ausgeführt.
  • Bewegung des Kontakts auf der Berührungsbildschirmanzeige wird erfasst (6082) (z. B. Bewegung 4110-1 in 5C und Bewegung 4110-2 in 5D). Eine Serie an Benutzereingabeelementen aus der Vielzahl an Benutzereingabeelementen wird gewählt (6084) basierend auf der Nähe von den Benutzereingabeelementen zu dem Kontakt (z. B. Elemente 4102-2 in 5C und Elemente 4102-3 und 4102-4 in 5D). Information, die mit jedem Benutzereingabeelement in der Serie an Benutzereingabeelementen zusammenhängt, wird aufeinander folgend über dem angezeigten Inhalt (z. B. Information 4108-3 in 5C und Information 4108-4 in 5D) angezeigt.
  • Eine Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige wird erfasst (6088). Eingabe für ein Benutzereingabeelement aus der gewählten Serie an Benutzereingabeelementen wird empfangen (6090). Ein Emp fangen von Eingabe kann aufweisen: Empfangen von Texteingabe über eine Softtastatur auf der Berührungsbildschirmanzeige (z. B. Tastatur 6016, 5E), Erfassen eines Fingerkontakts mit einen radio button auf der Berührungsbildschirmanzeige, Erfassen eines Fingerkontakts mit einem Ankreuzfeld auf der Berührungsbildschirmanzeige oder Erfassen eines Fingerkontakts mit einem Punkt in einer pull down Liste auf der Berührungsbildschirmanzeige (z. B. Kontakt 4120 auf Eingabewahl 4118-3, 5B).
  • In einigen Varianten wird die empfangene Eingabe (6092) zu einem Remotecomputer, wie z. B. einem Webserver gesendet. Zum Beispiel wird Eingabe, die in Benutzereingabeelementen 4102-3 und 4102-4 empfangen wird (5E) zu einem Remoteserver bei Erfassung eines Fingerkontakts (oder einer Unterbrechung eines Fingerkontakts) mit der Übermitteln-Ikone 4126 gesendet.
  • Eine graphische Benutzerschnittstelle (z. B. UI 4100A, 5A) auf einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige weist auf: (1) Inhalt 4112, das eine Vielzahl an Benutzereingabeelementen 4102 aufweist und (2) Information 4108-1, die mit einem ersten Benutzereingabeelement 4102-1 aus der Vielzahl an Benutzereingabeelementen zusammenhängt. In Antwort auf die Erfassung eines Kontakts 4104 eines Fingers mit der Berührungsbildschirmanzeige: Wird das erste Benutzereingabeelement 4102-1, basierend auf der Nähe des ersten Benutzereingabeelements zu dem Kontakt, gewählt und die Information 4108-1, die mit dem ersten Benutzereingabeelement verbunden ist, wird über den Inhalt angezeigt. In Antwort auf ein Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige wird ein Bereich vergrößert, der das erste Benutzereingabeelement beinhaltet, auf der Berührungsbildschirmanzeige (z. B. für Element 4102-1, Bereich 4114-1 in 5A wird in 5B vergrößert). Eingabe wird für das erste Benutzereingabeelement empfangen.
  • Unter Verwendung von Schnittstellen, wie z. B. 4100A bis 4100E und Verfahren, wie z. B. 6000, 6020, 6060 und 6080 kann ein Benutzer einfacher Information betrachten, die mit Eingabeelementen zusammenhängt und Eingabe auf einer tragbaren Vorrichtung unter Verwendung von Fingerkontakten auf einem Berührungsbildschirm bereitstellen. Der Benutzer wird davon erleichtert sich um die Genauigkeit seines Fingerkontaktes unter Bezug auf eine Wahl von Eingabeelementen sorgen zu missen. Weiterhin kann der Benutzer Information betrachten und Eingabe bereitstellen, selbst wenn die Eingabeelemente ursprünglich mit einer solch kleinen Größe dargestellt sind, dass die Elemente unlesbar oder kaum lesbar sind.
  • Die vorhergehende Beschreibung wurde zum Zwecke der Erklärung unter Bezugnahme auf spezielle Ausführungsbeispiele beschrieben. Die darstellenden Diskussionen jedoch haben nicht die Intention ausführlich zu sein oder die Erfindung auf die bestimmten offenbarten Formen zu beschränken. Viele Modifikationen und Variationen sind im Lichte der obigen Lehren möglich. Die Ausführungsbeispiele wurden gewählt und beschrieben, um die Prinzipien der Erfindung und ihre praktischen Anwendung bestens zu erklären, um dabei andere Fachleute in die Lage zu versetzen, die Erfindung und verschiedene Ausführungsformen mit verschiedenen Modifikationen, wie sie für die bestimmte betrachtete Verwendung geeignet sind, bestens zu benutzen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 6323846 [0039]
    • - US 6,570,557 [0039]
    • - US 6,677,932 [0039]
    • - US 2002/0015024 A1 [0039]
    • - US 20050190059 [0047]
    • - US 20060017692 [0047]

Claims (28)

  1. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder die mehreren Programme aufweisen: Anweisungen zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen aufweist; Anweisungen zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Anweisungen zum Wählen eines Benutzereingabeelements aus der Vielzahl der Benutzereingabeelemente basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt; Anweisungen zum Anzeigen von Information, über dem angezeigten Inhalt, die mit dem gewählten Benutzereingabeelement zusammenhängt; Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Anweisungen zum Empfangen von Eingabe für das gewählte Benutzereingabeelement.
  2. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Erfassen der Unterbrechung des Kontakts Anweisungen zum Erfassen der Unterbre chung des Kontakts, während die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, angezeigt wird.
  3. Vorrichtung nach Anspruch 1, wobei der Inhalt eine Webseite ist.
  4. Vorrichtung nach Anspruch 1, wobei der Inhalt ein Wortverarbeitungs-, Spreadsheet-, Email- oder Präsentationsdokument ist.
  5. Vorrichtung nach Anspruch 1, wobei der Inhalt ein elektronisches Formular ist.
  6. Vorrichtung nach Anspruch 1, wobei der Inhalt ein Onlineformular ist.
  7. Vorrichtung nach Anspruch 1, wobei die Benutzereingabeelemente einen oder mehrere radio buttons, Texteingabefelder, Ankreuzfelder, pull down Listen und/oder Formularfelder aufweisen.
  8. Vorrichtung nach Anspruch 1, wobei der Kontakt einen Kontaktbereich aufweist; und die Anweisungen zum Wählen des Benutzereingabeelements Anweisungen zum Bestimmen eines Punktes innerhalb des Kontaktbereiches und Anweisungen zum Wählen des Benutzereingabeelements basierend auf der Nähe des Benutzereingabeelements zu dem bestimmten Punkt, beinhalten.
  9. Vorrichtung nach Anspruch 8, wobei der Punkt innerhalb des Kontaktbereiches der Schwerpunkt des Kontaktbereiches ist.
  10. Vorrichtung nach Anspruch 8, wobei der Punkt innerhalb des Kontaktbereiches von dem Schwerpunkt des Kontaktbereiches verschoben ist.
  11. Vorrichtung nach Anspruch 1, wobei die angezeigte Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, eine Beschreibung des gewählten Benutzereingabeelements aufweist.
  12. Vorrichtung nach Anspruch 1, aufweisend: in Antwort auf eine Ausführung der Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige, Ausführen von Anweisungen zum Vergrößern eines Bereichs, der die gewählten Benutzereingabeelemente aufweist, auf der Berührungsbildschirmanzeige.
  13. Vorrichtung nach Anspruch 1, aufweisend: in Antwort auf eine Ausführung der Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige vor Ablauf einer vorbestimmten Zeit, Ausführen von Anweisungen zum Vergrößern des gewählten Benutzereingabeelements auf der Berührungsbildschirmanzeige.
  14. Vorrichtung nach Anspruch 1, weiter aufweisend: eine Ausführung von Anweisungen zum Entfernen der angezeigten Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, wenn der Kontakt mit der Berührungsbildschirmanzeige länger als eine vorbestimmte Zeit beibehalten wird.
  15. Vorrichtung nach Anspruch 1, wobei die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über der oberen Hälfte des angezeigten Inhalts angezeigt wird, wenn die Position des Kontakts in der unteren Hälfte des angezeigten Inhalts ist und wobei die Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über der unteren Hälfte des angezeigten Inhalts angezeigt wird, wenn die Position des Kontakts in der oberen Hälfte des angezeigten Inhalts ist.
  16. Vorrichtung nach Anspruch 1, wobei die Position der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, die über dem angezeigten Inhalt angezeigt wird, von der Position des Kontakts abhängt.
  17. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Empfangen von Eingabe aufweisen: Anweisungen zum Empfangen von Texteingabe über eine Softtastatur auf der Berührungsbildschirmanzeige, Anweisungen zum Erfassen eines Fingerkontakts mit einem radio button auf der Berührungsbildschirmanzeige, Anweisungen zum Erfassen eines Fingerkontakts mit einer Ankreuzfeld auf der Berührungsbildschirmanzeige, oder Anweisungen zum Erfassen eines Fingerkontakts mit einem Punkt in einer pull down Liste auf der Berührungsbildschirmanzeige.
  18. Vorrichtung nach Anspruch 1, aufweisend Anweisungen zum Senden der empfangenen Eingabe zu einem Remotecomputer.
  19. Vorrichtung nach Anspruch 1, wobei der Inhalt auf der Berührungsbildschirmanzeige einen zugeordneten Skalierungsfaktor aufweist, und wobei das Wählen bei einer Ausführung der Anweisungen zum Wählen, auf Benutzereingabeelemente begrenzt ist, die innerhalb einer Entfernung von dem bestimmten Punkt angeordnet sind, die in Übereinstimmung mit dem Skalierungsfaktor bestimmt wird.
  20. Vorrichtung nach Anspruch 8, wobei Wählen, bei einer Ausführung der Anweisungen zum Wählen auf Benutzereingabeelemente begrenzt ist, die innerhalb des Kontaktbereiches angeordnet sind.
  21. Vorrichtung nach Anspruch 8, wobei Wählen, bei einer Ausführung der Anweisungen zum Wählen, auf Benutzereingabeelemente begrenzt ist, die zumindest teilweise mit dem Kontaktbereich überlappen.
  22. Vorrichtung nach Anspruch 8, wobei Wählen, bei einer Ausführung der Anweisungen zum Wählen, auf Benutzereingabeelemente begrenzt ist, die innerhalb einer vorbestimmten Entfernung von dem bestimmten Punkt angeordnet sind.
  23. Vorrichtung nach Anspruch 1, wobei die Anweisungen zum Anzeigen der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, ausgeführt werden, nachdem der Kontakt für zumindest eine vorbestimmte Zeit beibehalten wird.
  24. Vorrichtung nach Anspruch 8, wobei die Anweisungen zum Anzeigen der Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, außerhalb des Kontaktbereiches ausgeführt werden.
  25. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind, durch den einen oder die mehreren Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme aufweisen: Anweisungen zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen beinhaltet; Anweisungen zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Anweisungen zum Wählen ein ersten Benutzereingabeelements aus der Vielzahl an Benutzereingabeelementen, basierend auf der Nähe des ersten Benutzereingabeelementes zu dem Kontakt; Anweisungen zum Anzeigen von Information, die mit dem ersten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt; Anweisungen zum Erfassen von Bewegung des Kontakts auf der Berührungsbildschirmanzeige; Anweisungen zum Wählen eines zweiten Benutzereingabeelements aus der Vielzahl der Benutzereingabeelemente, basierend auf der Nähe des zweiten Benutzereingabeelements zu dem Kontakt; Anweisungen zum Beenden der Anzeige der Information, die mit dem ersten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt; Anweisungen zum Anzeigen von Information, die mit dem zweiten Benutzereingabeelement zusammenhängt, über den angezeigten Inhalt; Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Anweisungen zum Empfangen von Eingabe für das zweite Benutzereingabeelement.
  26. Tragbare Multifunktionsvorrichtung, aufweisend: eine Berührungsbildschirmanzeige; einen oder mehrere Prozessoren; Speicher; und ein oder mehrere Programme, wobei das eine oder die mehreren Programme in dem Speicher gespeichert sind und eingerichtet sind von dem einen oder den mehreren Prozessoren ausgeführt zu werden, wobei das eine oder mehrere Programme aufweisen: Anweisungen zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen beinhaltet; Anweisungen zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Anweisungen zum Wählen eines Benutzereingabeelements aus der Vielzahl der Benutzereingabeelemente basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt; Anweisungen zum Anzeigen von Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt; Anweisungen zum Erfassen von Bewegung des Kontakts auf der Berührungsbildschirmanzeige; Anweisungen zum Wählen einer Serie an Benutzereingabeelementen aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe der Benutzereingabeelemente zu dem Kontakt; Anweisungen zum nacheinander folgenden Anzeigen von Information, die mit jedem Benutzereingabeelement aus der Serie an Benutzereingabeelementen zusammenhängt, über dem angezeigten Inhalt; Anweisungen zum Erfassen einer Unterbrechung des Kontakts von dem Finger mit der Berührungsbildschirmanzeige; und Anweisungen zum Empfangen von Eingabe für ein Benutzereingabeelement aus der gewählten Serie an Benutzereingabeelementen.
  27. Computerprogrammprodukt, aufweisend: ein computerlesbares Speichermedium und einen darin eingebetteten Computerprogrammmechanismus, wobei der Computerprogrammmechanismus Anweisungen aufweist, welche, wenn sie von einer tragbaren Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige ausgeführt werden, die Vorrichtung veranlassen: Inhalt auf der Berührungsbildschirmanzeige anzuzeigen, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen beinhaltet; einen Kontakt von einem Finger mit der Berührungsbildschirmanzeige zu erfassen; ein Benutzereingabeelement aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt zu wählen; Informatione, die mit dem gewählten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt anzuzeigen; eine Unterbrechung des Kontakts des Fingers mit der Berührungsbildschirmanzeige zu erfassen; und Eingabe für das gewählte Benutzereingabeelement zu empfangen;
  28. Tragbare Multifunktionsvorrichtung mit einer Berührungsbildschirmanzeige, aufweisend: Mittel zum Anzeigen von Inhalt auf der Berührungsbildschirmanzeige, wobei der Inhalt eine Vielzahl an Benutzereingabeelementen beinhaltet; Mittel zum Erfassen eines Kontakts von einem Finger mit der Berührungsbildschirmanzeige; Mittel zum Wählen eines Benutzereingabeelements aus der Vielzahl an Benutzereingabeelementen basierend auf der Nähe des Benutzereingabeelements zu dem Kontakt; Mittel zum Anzeigen von Information, die mit dem gewählten Benutzereingabeelement zusammenhängt, über dem angezeigten Inhalt; Mittel zum Erfassen einer Unterbrechung des Kontakts von den Fingern mit der Berührungsbildschirmanzeige; und Mittel zum Erfassen von Eingabe für das gewählte Benutzereingabeelement;
DE202008000259U 2007-01-07 2008-01-07 Tragbare Multifunktionseinrichtung Expired - Lifetime DE202008000259U1 (de)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US87925307P 2007-01-07 2007-01-07
US60/879,253 2007-01-07
US87946907P 2007-01-08 2007-01-08
US60/879,469 2007-01-08
US94712707P 2007-06-29 2007-06-29
US93799307P 2007-06-29 2007-06-29
US60/947,127 2007-06-29
US60/937,993 2007-06-29
US11/960,394 US8451232B2 (en) 2007-01-07 2007-12-19 Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
US11/960,394 2007-12-19

Publications (1)

Publication Number Publication Date
DE202008000259U1 true DE202008000259U1 (de) 2008-05-29

Family

ID=39332212

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202008000259U Expired - Lifetime DE202008000259U1 (de) 2007-01-07 2008-01-07 Tragbare Multifunktionseinrichtung

Country Status (3)

Country Link
US (4) US8451232B2 (de)
DE (1) DE202008000259U1 (de)
TW (3) TWI378380B (de)

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8570278B2 (en) * 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US8451232B2 (en) 2007-01-07 2013-05-28 Apple Inc. Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
US8103223B2 (en) 2007-12-28 2012-01-24 Cypress Semiconductor Corporation Cellular communication device with wireless pointing device function
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8836706B2 (en) * 2008-12-18 2014-09-16 Microsoft Corporation Triggering animation actions and media object actions
US9846533B2 (en) 2009-03-16 2017-12-19 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
TW201106251A (en) 2009-04-24 2011-02-16 Ibm Editing apparatus, editing method and program
KR101640464B1 (ko) * 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
JP2011145386A (ja) * 2010-01-13 2011-07-28 Fuji Xerox Co Ltd 表示制御装置、表示装置及びプログラム
CN101763270B (zh) 2010-01-28 2011-06-15 华为终端有限公司 组件显示处理方法和用户设备
TWI410861B (zh) * 2010-02-12 2013-10-01 Mitake Information Corp 行動設備金融看盤軟體之重要價位資訊放大顯示裝置及方法
US9134897B2 (en) 2010-04-26 2015-09-15 Via Technologies, Inc. Electronic system and method for operating touch screen thereof
US8990732B2 (en) * 2010-05-14 2015-03-24 Sap Se Value interval selection on multi-touch devices
US20120054683A1 (en) * 2010-09-01 2012-03-01 Nokia Corporation Method, apparatus, computer program and user interface
KR101522345B1 (ko) 2010-11-12 2015-05-21 주식회사 케이티 이동 통신 단말에서의 배경화면 표시 방법 및 그 장치
KR101199618B1 (ko) 2011-05-11 2012-11-08 주식회사 케이티테크 화면 분할 표시 장치 및 방법
US8719695B2 (en) 2011-05-31 2014-05-06 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9536224B2 (en) 2011-11-03 2017-01-03 Htc Corporation Method, apparatus and recording medium for displaying tasks
US20130127727A1 (en) * 2011-11-17 2013-05-23 Catherine ALLEN E-book reader for disabled individuals
KR101919853B1 (ko) * 2011-12-23 2018-11-19 삼성전자주식회사 디스플레이 장치 및 그 잠금 해제 방법
EP2798508A4 (de) * 2011-12-28 2015-08-26 Intel Corp Verfahren und vorrichtung zum streaming von metadaten zwischen vorrichtungen mittels javascript und html5
US11209975B2 (en) 2013-03-03 2021-12-28 Microsoft Technology Licensing, Llc Enhanced canvas environments
WO2014136245A1 (ja) * 2013-03-07 2014-09-12 三菱電機株式会社 エンジニアリングツール
KR20150000273A (ko) * 2013-06-24 2015-01-02 삼성전자주식회사 단말 장치 및 제어 방법
WO2015013321A2 (en) * 2013-07-25 2015-01-29 Declarativ, Inc. Opportunistic use of transient user interface space
US20150049026A1 (en) * 2013-08-14 2015-02-19 Htc Corporation Handheld electronic device and input operation method of the same
US10990267B2 (en) 2013-11-08 2021-04-27 Microsoft Technology Licensing, Llc Two step content selection
US9841881B2 (en) 2013-11-08 2017-12-12 Microsoft Technology Licensing, Llc Two step content selection with auto content categorization
US20150130723A1 (en) * 2013-11-08 2015-05-14 Microsoft Corporation Two step content selection with trajectory copy
TWI512567B (zh) * 2013-11-14 2015-12-11 Darfon Electronics Corp 具備觸控功能之周邊裝置
CN105739847A (zh) * 2014-12-11 2016-07-06 富泰华工业(深圳)有限公司 智能电子装置、智能电子装置唤醒屏幕的系统与方法
US10382261B2 (en) * 2015-07-29 2019-08-13 Open Text GXS ULC Systems and methods for managed services provisioning using service-specific provisioning data instances
US10481645B2 (en) 2015-09-11 2019-11-19 Lucan Patent Holdco, LLC Secondary gesture input mechanism for touchscreen devices
US20170097765A1 (en) * 2015-10-05 2017-04-06 Iq Technology Inc. Method to Provide a Service While Inputting Content in an Application Though A Virtual Keyboard
EP3430794B1 (de) 2016-03-14 2020-07-29 Robert Bosch GmbH Tragbares tastenfeld für gegensprechsystem
US10698568B2 (en) * 2016-06-29 2020-06-30 T-Mobile Usa, Inc. Systems and methods for improved cellular quality of experience
WO2018142588A1 (ja) * 2017-02-03 2018-08-09 楽天株式会社 情報処理装置、情報処理方法、プログラム、記憶媒体
USD856365S1 (en) * 2017-10-27 2019-08-13 Canva Pty Ltd. Display screen or portion thereof with an animated graphical user interface
USD857056S1 (en) * 2017-10-27 2019-08-20 Canva Pty Ltd. Display screen or portion thereof with an animated graphical user interface
USD861023S1 (en) 2017-10-27 2019-09-24 Canva Pty Ltd. Display screen or portion thereof with a graphical user interface
TWI661349B (zh) * 2017-11-15 2019-06-01 財團法人資訊工業策進會 產生對話式使用者介面的方法及系統
CN108234295B (zh) * 2017-12-29 2021-04-02 努比亚技术有限公司 群功能控件的显示控制方法、终端及计算机可读存储介质
USD863334S1 (en) * 2018-05-12 2019-10-15 Canva Pty Ltd Display screen or portion thereof with a graphical user interface
TWI779310B (zh) * 2019-09-26 2022-10-01 華碩電腦股份有限公司 電子裝置之控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4862498A (en) 1986-11-28 1989-08-29 At&T Information Systems, Inc. Method and apparatus for automatically selecting system commands for display
JPH1115914A (ja) * 1997-06-09 1999-01-22 Internatl Business Mach Corp <Ibm> 文字データ入力装置およびその方法
US5910800A (en) 1997-06-11 1999-06-08 Microsoft Corporation Usage tips for on-screen touch-sensitive controls
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
GB2341952B (en) 1998-09-24 2003-05-14 Ibm Multi-layer entry fields
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US7210099B2 (en) * 2000-06-12 2007-04-24 Softview Llc Resolution independent vector display of internet content
GB0017793D0 (en) 2000-07-21 2000-09-06 Secr Defence Human computer interface
US6897853B2 (en) 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
TW498225B (en) * 2001-04-03 2002-08-11 Tzung-Guo Tzeng Input method for alphanumeric characters
US6907581B2 (en) 2001-04-03 2005-06-14 Ramot At Tel Aviv University Ltd. Method and system for implicitly resolving pointing ambiguities in human-computer interaction (HCI)
EP1449190B1 (de) 2001-05-02 2013-07-10 Bitstream, Inc. Verfahren, systeme und programmierung zum herstellen und anzeigen von subpixeloptimierten bildern und solche bilder enthaltender digitaler inhalt
DE10140874A1 (de) 2001-08-21 2003-03-20 Dosch & Amand Gmbh & Co Kg Graphische Benutzeroberfläche
US8042044B2 (en) 2002-11-29 2011-10-18 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
TWI239465B (en) * 2002-12-03 2005-09-11 Inventec Appliances Corp Automation of maintenance management flow operation for returning and mending article
US7565622B2 (en) * 2003-07-10 2009-07-21 Lenovo (Singapore) Pte Ltd. Method and apparatus for modification of pointing device functions in conjunction with dynamic sorting, displaying, listing, and activation
WO2005018129A2 (en) 2003-08-15 2005-02-24 Semtech Corporation Improved gesture recognition for pointing devices
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US20050071761A1 (en) 2003-09-25 2005-03-31 Nokia Corporation User interface on a portable electronic device
US20050091577A1 (en) * 2003-10-23 2005-04-28 International Business Machines Corporation Information integration system
WO2005081894A2 (en) * 2004-02-23 2005-09-09 Hillcrest Laboratories, Inc. Keyboardless text entry
US7441207B2 (en) * 2004-03-18 2008-10-21 Microsoft Corporation Method and system for improved viewing and navigation of content
US7623119B2 (en) * 2004-04-21 2009-11-24 Nokia Corporation Graphical functions by gestures
TWI248576B (en) 2004-07-05 2006-02-01 Elan Microelectronics Corp Method for controlling rolling of scroll bar on a touch panel
US20060007176A1 (en) 2004-07-06 2006-01-12 Chung-Yi Shen Input method and control module defined with an initial position and moving directions and electronic product thereof
US7295904B2 (en) 2004-08-31 2007-11-13 International Business Machines Corporation Touch gesture based interface for motor vehicle
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
US7760189B2 (en) 2005-01-21 2010-07-20 Lenovo Singapore Pte. Ltd Touchpad diagonal scrolling
US7577925B2 (en) * 2005-04-08 2009-08-18 Microsoft Corporation Processing for distinguishing pen gestures and dynamic self-calibration of pen-based computing systems
EP1908051A4 (de) * 2005-07-22 2012-01-25 Matthew G Pallakoff System und verfahren für eine daumenoptimierte benutzerschnittstelle eines berührungsbildschirms
US7694231B2 (en) * 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US8054294B2 (en) * 2006-03-31 2011-11-08 Sony Corporation Touch screen remote control system for use in controlling one or more devices
US8161395B2 (en) * 2006-11-13 2012-04-17 Cisco Technology, Inc. Method for secure data entry in an application
US8451232B2 (en) 2007-01-07 2013-05-28 Apple Inc. Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
KR20080099487A (ko) * 2007-05-09 2008-11-13 엘지전자 주식회사 이동통신 단말기 및 그 제어방법
US20090109243A1 (en) * 2007-10-25 2009-04-30 Nokia Corporation Apparatus and method for zooming objects on a display
KR101523979B1 (ko) * 2008-10-02 2015-05-29 삼성전자주식회사 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US20020015024A1 (en) 1998-01-26 2002-02-07 University Of Delaware Method and apparatus for integrating manual input
US20060017692A1 (en) 2000-10-02 2006-01-26 Wehrenberg Paul J Methods and apparatuses for operating a portable device based on an accelerometer
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US20050190059A1 (en) 2004-03-01 2005-09-01 Apple Computer, Inc. Acceleration-based theft detection system for portable electronic devices

Also Published As

Publication number Publication date
TW201528104A (zh) 2015-07-16
US20080165143A1 (en) 2008-07-10
US20130262993A1 (en) 2013-10-03
US8451232B2 (en) 2013-05-28
US10409461B2 (en) 2019-09-10
US20190220155A1 (en) 2019-07-18
TWI490770B (zh) 2015-07-01
TW200844837A (en) 2008-11-16
US20160266746A1 (en) 2016-09-15
TW201234258A (en) 2012-08-16
US10228824B2 (en) 2019-03-12
TWI378380B (en) 2012-12-01
TWI525521B (zh) 2016-03-11
US9372620B2 (en) 2016-06-21

Similar Documents

Publication Publication Date Title
JP7300488B2 (ja) タッチスクリーンディスプレイにおけるリストのスクローリング、ドキュメントの並進移動、スケーリング及び回転
US10409461B2 (en) Portable multifunction device, method, and graphical user interface for interacting with user input elements in displayed content
DE202008000268U1 (de) Tragbare Multifunktionsvorrichtung
DE202008000262U1 (de) Tragbare Multifunktionsvorrichtung
DE112007002088T5 (de) Verfahren zum Bestimmen einer Cursor-Position von einem Fingerkontakt mit einer Berührungsbildschirmanzeige
DE202008000260U1 (de) Tragbare Multifunktionsvorrichtung
DE112007002090T5 (de) Voicemail-Manager für tragbare Multifunktionsvorrichtung
DE112007002107T5 (de) Tragbare elektronische Vorrichtung, Verfahren und graphische Benutzerschnittstelle zum Anzeigen strukturierter elektronischer Dokumente
DE202007018420U1 (de) Tragbare elektronische Vorrichtung, die ähnliche Operationen für unterschiedliche Gesten durchführt
AU2017202917A1 (en) List scrolling and document translation, scaling, and rotation on a touch-screen display

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080703

R150 Utility model maintained after payment of first maintenance fee after three years

Effective date: 20110126

R151 Utility model maintained after payment of second maintenance fee after six years

Effective date: 20140122

R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right