DE202005021427U1 - Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung - Google Patents

Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung Download PDF

Info

Publication number
DE202005021427U1
DE202005021427U1 DE202005021427U DE202005021427U DE202005021427U1 DE 202005021427 U1 DE202005021427 U1 DE 202005021427U1 DE 202005021427 U DE202005021427 U DE 202005021427U DE 202005021427 U DE202005021427 U DE 202005021427U DE 202005021427 U1 DE202005021427 U1 DE 202005021427U1
Authority
DE
Germany
Prior art keywords
touch
user interface
gesture
fingers
list
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202005021427U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/903,964 external-priority patent/US8479122B2/en
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE202005021427U1 publication Critical patent/DE202005021427U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

Eine in der Hand haltbare elektronische Vorrichtung, mit:
einem Mobiltelefon;
einer Medienabspieleinrichtung;
einer berührungsempfindlichen Eingabeoberfläche;
einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt;
einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist;
einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist; und
einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste...

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich allgemein auf Gestikulieren, das mit berührungsempfindlichen Einrichtungen zusammenhängt.
  • 2. Beschreibung des Standes der Technik
  • Heutzutage gibt es viele Arten von Eingabeeinrichtungen, um in einem Computersystem Vorgänge durchzuführen. Die Vorgänge entsprechen im Allgemeinen dem Bewegen eines Zeigers (Cursors) und dem Auswählen auf einem Anzeigebildschirm. Die Vorgänge können auch Blättern, Durchlaufen (Scrollen), Mitführen, Zoomen, usw. umfassen. Beispielhaft können die Eingabeeinrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln (Trackballs), Berührungsfelder (Touchpads), Steuerknüppel (Joysticks), Berührungsbildschirme (Touchscreens) u. Ä. umfassen. Jede dieser Einrichtungen hat Vorteile und Nachteile, die berücksichtigt werden, wenn das Computersystem entworfen wird.
  • Knöpfe und Schalter sind im Allgemeinen von mechanischer Art und bieten eine beschränkte Kontrolle bezüglich der Bewegung eines Zeigers (Cursors) und dem Auswählen. Zum Beispiel sind sie im Allgemeinen dafür vorgesehen, den Zeiger in eine bestimmte Richtung zu bewegen (z. B. Pfeiltasten) oder um bestimmte Auswahlen zu treffen (z. B. Eingabe, Löschen, Nummer, usw.).
  • Bei Mäusen entspricht die Bewegung des Eingabezeigers den relativen Bewegungen der Maus, während der Nutzer die Maus entlang einer Oberfläche bewegt. Bei Rollkugeln (Trackballs) entspricht die Bewegung des Eingabezeigers den relativen Bewegungen einer Kugel, während der Nutzer die Kugel innerhalb eines Gehäuses bewegt. Mäuse und Rollkugeln umfassen ebenso einen oder mehrere Knöpfe um Auswahlen vorzunehmen. Mäuse können auch Bildlaufräder (Scrollwheels) umfassen, die es einem Nutzer erlauben, die graphische Nutzeroberfläche zu durchqueren, indem das Rad einfach vorwärts oder rückwärts gedreht wird.
  • Bei Berührungsfeldern (Touchpads) entspricht die Bewegung des Eingabezeigers den relativen Bewegungen des Fingers (oder Stiftes) des Nutzers, während der Finger entlang einer Oberfläche des Berührungsfeldes bewegt wird. Andererseits sind Berührungsbildschirme (Touchscreens) eine Art Anzeigebildschirm, mit einer berührungsempfindlichen durchsichtigen Tafel, die den Bildschirm bedeckt. Wenn ein Nutzer einen Berührungsbildschirm verwendet, führt er auf dem Anzeigebildschirm eine Auswahl durch, indem er direkt auf Objekte der graphischen Nutzeroberfläche auf dem Bildschirm zeigt (üblicherweise mit einem Stift oder Finger).
  • Um zusätzliche Funktionalitäten zu bieten, wurden bei einigen dieser Eingabeeinrichtungen Gesten implementiert. Zum Beispiel können bei Berührungsfeldern Auswahlen erfolgen, wenn ein einfaches oder mehrfaches Antippen der Oberfläche des Berührungsfeldes erfasst wird. In manchen Fällen kann jeglicher Abschnitt des Berührungsfeldes angetippt werden, und in anderen Fällen kann ein eigens vorgesehener Abschnitt des Berührungsfeldes angetippt werden. Zusätzlich zu Auswahlen kann ein Bildlauf (Scrolling) ausgelöst werden, durch Einsatz der Bewegung eines Fingers am Rande des Berührungsfeldes.
  • Die US-Patente 5,612,719 und 5,590,219 , die an Apple Computer, Inc. übertragen wurden, beschreiben einige andere Verwendungen von Gesten. Die 5,612,719 offenbart einen Knopf, der sich auf dem Bildschirm befindet, der auf wenigstens zwei verschiedene Knopfgesten reagiert, die auf dem Bildschirm am oder in der Nähe des Knopfes ausgeführt werden. Die 5,590,219 offenbart ein Verfahren zur Erkennung einer Eingabe in der Form einer ellipsenförmigen Geste auf einem Anzeigebildschirm eines Computersystems.
  • In letzter Zeit wurden fortgeschrittenere Gesten implementiert. Zum Beispiel kann ein Bildlauf ausgelöst werden, indem man vier Finger auf dem Berührungsfeld platziert, sodass die Bildlaufgeste erkannt wird, und indem man danach diese Finger auf dem Berührungsfeld bewegt, um Bildlaufereignisse durchzuführen. Die Verfahren zur Implementierung dieser fortgeschrittenen Gesten haben jedoch mehrere Nachteile. Zum Beispiel kann eine Geste, sobald sie festgelegt ist, nicht verändert werden, bis der Nutzer den Gestenzustand zurücksetzt. Wenn bei Berührungsfeldern z. B. vier Finger einem Bildlauf entsprechen und der Nutzer einen Daumen ablegt, nachdem die vier Finger erkannt wurden, wird jegliche Handlung, die der neuen Geste mit vier Fingern und Daumen zugeordnet ist, nicht durchgeführt, bis die gesamte Hand vom Berührungsfeld abgehoben wird und wieder abgelegt wird (z. B. Zurücksetzen). Einfach gesagt, kann der Nutzer nicht mittendrin die Gestenzustände verändern. In ähnlicher Weise kann nur eine Geste gleichzeitig durchgeführt werden. Das heißt, dass mehrere Gesten nicht gleichzeitig durchgeführt werden können.
  • Auf der Grundlage des oben Gesagten besteht ein Bedürfnis für Verbesserungen in der Weise, in welcher Gesten auf berührungsempfindlichen Einrichtungen durchgeführt werden.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Die Erfindung bezieht sich in einer Ausführungsform auf eine in der Hand haltbare elektronische Vorrichtung, mit einem Mobiltelefon, einer Medienabspieleinrichtung, einer berührungsempfindlichen Eingabeoberfläche, einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt, einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist, einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist, und einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste und während eines gewissen Zeitraums danach durchzulaufen.
  • Die Erfindung bezieht sich in einer weiteren Ausführungsform auf eine in der Hand haltbare elektronische Vorrichtung, mit einem Mobiltelefon; einer Medienabspieleinrichtung mit einer listenbasierten Nutzeroberfläche, wobei die listenbasierte Nutzeroberfläche eine vertikale Liste an horizontalen Linien umfasst, wobei jede Linie die Beschreibung eines Medienobjekts aufweist; einer berührungsempfindlichen Eingabeoberfläche, die dafür angepasst ist, eine Steuerung sowohl des Mobiltelefons als auch der Medienabspieleinrichtung bereitzustellen; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche operativ gekoppelt ist und dafür programmiert ist, Angaben zu empfangen, die Eingaben auf der berührungsempfindlichen Eingabeoberfläche zugeordnet sind, wobei sol che Angaben wenigstens eine Gestenangabe umfassen, die einer Bewegung eines Objekts allgemein rechtwinklig zur listenbasierten Nutzeroberfläche zugeordnet ist, wobei die Prozessoreinheit weiterhin dafür programmiert ist, bei Erhalt der Gestenangabe und während eines gewissen Zeitraums danach ein Durchlaufen der listenbasierten Nutzeroberfläche zu verursachen; und einer Anzeigeeinrichtung, die mit der Prozessoreinheit operativ gekoppelt ist, und dafür konfiguriert ist, die listenbasierte Nutzeroberfläche zu präsentieren.
  • Ein computerimplementiertes Verfahren zur Verarbeitung von Berührungseingaben umfasst das Lesen von Daten von einem Mehrpunktberührungsbildschirm. Die Daten betreffen Berührungseingaben im Verhältnis zum Berührungsbildschirm. Das Verfahren umfasst auch das Identifizieren wenigstens einer Mehrpunktgeste, auf der Grundlage der Daten des Mehrpunktberührungsbildschirms.
  • Ein Gestikverfahren umfasst die gleichzeitige Erfassung mehrerer Berührungen an verschiedenen Punkten auf einer berührungsempfindlichen Oberfläche. Das Verfahren umfasst ebenso das Aufteilen der mehreren Berührungen in wenigstens zwei getrennte Gestikeingaben, die gleichzeitig stattfinden. Jede Gestikeingabe hat eine andere Funktion, wie z. B. Zoomen, Mitführen, Drehen usw.
  • Ein anderes Gestikverfahren umfasst die gleichzeitige Erfassung einer Mehrzahl von Gesten, die gleichzeitig in Bezug auf eine berührungsempfindliche Einrichtung durchgeführt werden. Das Verfahren umfasst ebenso das Erzeugen verschiedener Befehle für jede der Gesten, die erfasst wurden.
  • Ein anderes Gestikverfahren umfasst die Anzeige eines grafischen Bildes auf einem Anzeigebildschirm. Das Verfahren umfasst ebenso die Erfassung einer Mehrzahl gleichzeitiger Berührungen auf einer berührungsempfindlichen Einrichtung. Das Verfahren umfasst weiterhin das Verbinden der erfassten Mehrfachberührungen mit dem grafischen Bild, das auf dem Anzeigebildschirm dargestellt wird.
  • Ein Verfahren zum Aufrufen eines Elements einer Nutzeroberfläche auf einer Anzeige mittels eines Mehrpunktberührungsbildschirms eines Computersystems umfasst die Erfassung und das Analysieren der gleichzeitigen Anwesenheit zweier oder mehrerer Objekte, die sich in Kontakt mit dem Mehrpunktberührungsbildschirm befinden. Das Verfahren umfasst ebenso das Auswählen eines Werkzeugs einer Nutzeroberfläche aus einer Mehrzahl von zur Verfügung stehenden Werkzeugen, um es für die Interaktion mit einem Nutzer des Computersystems auf einer Anzeige anzuzeigen, zumindest teilweise auf der Grundlage der Analyse. Das Verfahren umfasst weiterhin das Kontrollieren des Oberflächenwerkzeugs zumindest teilweise auf der Grundlage der weiteren Bewegung der Objekte im Verhältnis zum Mehrpunktberührungsbildschirm.
  • Ein berührungsbasiertes Verfahren umfasst das Erfassen einer Nutzereingabe, die über eine Mehrpunktfühleinrichtung erfolgt. Die Nutzereingabe umfasst eine oder mehrere Eingaben. Jede Eingabe hat eine eindeutige Kennung. Das Verfahren umfasst auch die Klassifizierung, während der Nutzereingabe, der Nutzereingabe als eine Eingabe für eine Verfolgung oder für eine Auswahl, wenn die Nutzereingabe eine eindeutige Kennung umfasst, oder als Gesteneingabe, wenn die Nutzereingabe wenigstens zwei eindeutige Kennungen umfasst. Das Verfahren umfasst weiterhin die Durchführung der Verfolgung oder der Auswahl während der Nutzereingabe, wenn die Nutzereingabe als eine Eingabe zur Verfolgung oder zur Auswahl klassifiziert wird. Das Verfahren umfasst weiterhin die Durchführung einer oder mehrerer Steuerhandlungen während der Nutzereingabe, wenn die Nutzereingabe als Gesteneingabe klassifiziert wird. Wobei die Steuerhandlungen zumindest teilweise darauf basieren, welche Änderungen zwischen den wenigstens zwei eindeutigen Kennungen erfolgen.
  • Ein anderes berührungsbasiertes Verfahren umfasst die Ausgabe einer graphischen Nutzeroberfläche auf einer Anzeige. Das Verfahren umfasst ebenso das Erfassen einer Nutzereingabe auf einer berührungsempfindlichen Einrichtung.
  • Das Verfahren umfasst weiterhin das Analysieren der Nutzereingabe auf Merkmale hin, die auf ein Verfolgen, Auswählen oder Gestikulieren hinweisen. Das Verfahren umfasst außerdem die Kategorisierung der Nutzereingabe als eine Verfolgungs-, Auswahl- oder Gestikeingabe. Das Verfahren umfasst weiterhin die Durchführung eines Verfolgens (Tracking) oder einer Auswahl innerhalb der graphischen Nutzeroberfläche, wenn die Nutzereingabe als eine Verfolgungs- oder Auswahleingabe kategorisiert wird. Weiterhin umfasst das Verfahren die Durchführung von Steuerhandlungen innerhalb der graphischen Nutzeroberfläche, wenn die Nutzereingabe als eine Gestikeingabe kategorisiert wird, wobei die Handlungen auf der besonderen Gestikeingabe basieren.
  • Ein anderes berührungsbasiertes Verfahren umfasst das Einfangen eines anfänglichen Berührungsbildes. Das Verfahren umfasst ebenso die Bestimmung des Berührungsmodus auf der Grundlage des Berührungsbildes. Das Verfahren umfasst weiterhin das Einfangen des nächsten Berührungsbildes. Das Verfahren umfasst weiterhin die Bestimmung, ob sich der Berührungsmodus zwischen dem anfänglichen und dem nächsten Berührungsbild verändert hat. Das Verfahren umfasst außerdem, falls sich der Berührungsmodus verändert hat, das Festlegen des nächsten Berührungsbildes als das anfängliche Berührungsbild und eine Bestimmung des Berührungsmodus basierend auf dem neuen anfänglichen Berührungsbild. Weiterhin umfasst das Verfahren, falls der Berührungsmodus gleichgeblieben ist, einen Vergleich der Berührungsbilder und die Durchführung einer Steuerfunktion auf Grundlage des Vergleichs.
  • Ein computerimplementiertes Verfahren zur Verarbeitung von Berührungseingaben umfasst das Lesen von Daten von einem Berührungsbildschirm. Wobei die Daten Berührungseingaben im Verhältnis zum Berührungsbildschirm betreffen und der Berührungsbildschirm über Mehrpunktfähigkeiten verfügt. Das Verfahren umfasst ebenso die Umwandlung der Daten in eine Sammlung von Merkmalen. Das Verfahren umfasst weiter die Klassifizierung der Merkmale und die Gruppierung der Merkmale in eine oder mehrere Merkmalsgruppen. Das Verfahren um fasst weiterhin die Berechnung von Schlüsselparametern der Merkmalsgruppen und die Zuordnung der Merkmalsgruppen zu Elementen der Nutzeroberfläche auf einer Anzeige.
  • Ein anderes computerimplementiertes Verfahren umfasst die Ausgabe eines grafischen Bildes. Das Verfahren umfasst ebenso das Empfangen einer Eingabe in Form einer Gestik mit mehreren Berührungen über dem grafischen Bild. Das Verfahren umfasst weiterhin das Verändern des grafischen Bildes basierend auf und im Einklang mit der Eingabe in Form einer Gestik mit mehreren Berührungen.
  • Ein berührungsbasiertes Verfahren umfasst den Empfang einer Gestikeingabe über einem ersten Bereich. Das Verfahren umfasst ebenso das Erzeugen eines ersten Befehls, wenn die Gestikeingabe über den ersten Bereich empfangen wird. Das Verfahren umfasst ebenso den Empfang derselben Gestikeingabe über einem zweiten Bereich. Das Verfahren umfasst weiterhin das Erzeugen eines zweiten Befehls, wenn dieselbe Gestikeingabe über dem zweiten Bereich empfangen wird. Wobei der zweite Befehl sich vom ersten Befehl unterscheidet.
  • Ein Verfahren zur Erkennung mehrfacher Gestikeingaben umfasst den Empfang eines gestenartigen Streichens mit mehreren Berührungen auf einer berührungsempfindlichen Oberfläche. Wobei das gestenartige Streichen mit mehreren Berührungen andauernd den Kontakt mit der berührungsempfindlichen Oberfläche hält. Das Verfahren umfasst ebenso das Erkennen einer ersten Gestikeingabe während des gestenartigen Streichens mit mehreren Berührungen. Das Verfahren umfasst weiterhin das Erkennen einer zweiten Gestikeingabe während des gestenartigen Streichens mit mehreren Berührungen.
  • Ein computerimplementiertes Verfahren umfasst die Erfassung einer Mehrzahl Berührungen auf einer berührungsempfindlichen Einrichtung. Das Verfahren umfasst ebenso das Bilden einer oder mehrerer Berührungsgruppen mit der Mehrzahl an Berührungen. Das Verfahren umfasst weiterhin die Überwachung der Bewe gung jeder und innerhalb jeder der Berührungsgruppen. Das Verfahren umfasst außerdem die Erzeugung von Steuersignalen, wenn die Berührungen innerhalb der Berührungsgruppen bewegt werden, oder wenn die Berührungsgruppen in ihrer Gesamtheit bewegt werden.
  • Es ist anzumerken, dass jedes der oben beschriebenen Verfahren implementiert werden kann, indem eine berührungsbasierte Eingabeeinrichtung wie z. B. ein Berührungsbildschirm oder ein Berührungsfeld eingesetzt wird, insbesondere eine berührungsbasierte Mehrpunkteingabeeinrichtung, und sogar noch insbesondere ein Mehrpunktberührungsbildschirm. Es ist auch anzumerken, dass die Gesten, Gestenmodi, Gestikeingaben, usw. irgendeinem von dem entsprechen können, was weiter unten in der ausführlichen Beschreibung beschrieben ist. Zum Beispiel können die Gesten einem Zoomen, Mitführen, Bildlauf, Drehen, Vergrößern, hervortretenden Steuerelementen (floating controls), Zielzoomen, Blättern, der Trägheit, Tippen, Raddrehen und/oder Ähnlichem zugeordnet sein.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die Erfindung wird mit der folgenden detaillierten Beschreibung zusammen mit den beigefügten Zeichnungen leicht verstanden werden, in denen gleiche Bezugszeichen gleiche strukturelle Elemente bezeichnen und in denen:
  • 1 ein Blockdiagramm eines Computersystems gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • 2 ein Mehrpunktverarbeitungsverfahren ist.
  • 3A und B ein Bild gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 4 eine Gruppe von Merkmalen gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 5 ein Verfahren zur Berechnung von Parameter ist.
  • 6A bis 6G eine Drehgeste veranschaulichen.
  • 7 ein Diagramm eines berührungsbasierten Verfahrens ist.
  • 8 ein Diagramm eines berührungsbasierten Verfahrens ist.
  • 9 ein Diagramm eines berührungsbasierten Verfahrens ist.
  • 10 ein Diagramm eines Zoom-Gestenverfahrens ist.
  • 11A bis 11J eine Zoomsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 12 ein Diagramm eines Mitführverfahrens ist.
  • 13A bis 13D eine Mitführsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 14 ein Diagramm eines Drehverfahrens ist.
  • 15A bis 15C eine Drehsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 16 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 17A bis 17E eine Sequenz mit hervortretendem Steuerelement gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 18 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 19A bis 19D eine Sequenz mit einem zoomenden Ziel veranschaulichen.
  • 20 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 21A bis 21D eine Sequenz mit Seitenblättern gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 22 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 23A bis 23D eine Trägheitssequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • 24 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 25A bis 25D eine Tastatursequenz veranschaulichen.
  • 26 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist.
  • 27A bis 27D eine Sequenz mit einem Rad für einen Bildlauf gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die Erfindung betrifft allgemein Gesten und Verfahren zur Umsetzung von Gesten bei berührungsempfindlichen Einrichtungen. Beispiele von berührungsempfindlichen Einrichtungen umfassen Berührungsbildschirme und Berührungsfelder (Touchscreens und Touchpads). Ein Aspekt der Erfindung bezieht sich auf die Erkennung von wenigstens zwei gleichzeitig stattfindenden Gesten. Ein anderer Aspekt der Erfindung bezieht sich auf die Anzeige eines graphischen Bildes und das Verbinden verschiedener Berührungen, die auf dem graphischen Bild erfolgen. Ein anderer Aspekt der Erfindung bezieht sich auf die sofortige Erkennung von Gesten, sodass den Gesten zugeordnete Aktionen zur gleichen Zeit umgesetzt werden können. Ein anderer Aspekt der Erfindung bezieht sich auf das Ändern eines angezeigten Bilds auf der Grundlage und im Einklang mit einer gestenhaften Eingabe, d.h. dass das angezeigte Bild sich mit Änderungen bei der gestenhaften Eingabe fortwährend ändert, sodass das angezeigte Bild ständig der gestenhaften Eingabe folgt. Ein anderer Aspekt der Erfindung bezieht sich auf die Umsetzung eines Eingabemodus auf der Grundlage der Anzahl von Fingern (oder eines anderen Objekts) im Kontakt mit der Eingabeeinrichtung. Ein anderer Aspekt der Erfindung bezieht sich auf die Bereitstellung einer örtlichen Sensibilität, wo Gesten verschiedene Dinge bedeuten, wenn sie über unterschiedlichen Flächen der Eingabeeinrichtung umgesetzt werden. Ein anderer Aspekt der Erfindung bezieht sich auf die Änderung einer Eingabe, bei fortwährendem Kontakt mit der berührungsempfindlichen Oberfläche der berührungsempfindlichen Einrichtung.
  • Diese und andere Aspekte der Erfindung werden weiter unten mit Bezug auf die 1 bis 27 beschrieben. Jedoch wird der Fachmann leicht feststellen, dass die hier angegebenen ausführliche Beschreibung mit Bezug auf diese Figuren zur Erläuterung dient, da die Erfindung sich über diese beschränkten Ausführungsformen hinaus erstreckt.
  • 1 ist ein Blockdiagramm eines beispielhaften Computersystems 50, gemäß einer Ausführungsform der vorliegenden Erfindung. Das Computersystem 50 kann einem Personalcomputersystem entsprechen, wie z.B. Tischrechnern (Desktops), Laptops, Tablett-PCs oder einem in der Hand haltbaren Rechner (handheld Computer). Das Computersystem kann auch einer Recheneinrichtung, wie z.B. einem Mobiltelefon, einem persönlichen digitalen Assistenten (PDA), einem zum Abspielen von Medien eigens vorgesehenen Gerät, einem Elektronikgerät für Verbraucher, und ähnlichem entsprechen.
  • Das beispielhafte Computersystem 50, das in 1 gezeigt ist, umfasst einen Prozessor 56, der zum Ausführen von Befehlen und zum Durchführen von Vorgängen konfiguriert ist, die mit dem Computersystem 50 zusammenhängen. Zum Beispiel kann der Prozessor 56 unter Verwendung von Befehlen, die er z.B. aus einem Speicher entnommen hat, den Empfang und die Behandlung von Eingabe- und Ausgabedaten zwischen den Komponenten des Computersystems 50 steuern. Der Prozessor 56 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektrischen Komponenten umgesetzt sein. Zum Beispiel können diverse Architekturen für den Prozessor 56 eingesetzt werden, umfassend einen vorgesehenen oder einen eingebetteten Prozessor, einen Prozessor mit einer einzigen Aufgabe, einen Kontroller, eine anwendungsspezifische integrierte Schaltung (ASIC, Application Specific Integrated Circuit), usw.
  • In den meisten Fällen arbeitet der Prozessor 56 zusammen mit einem Betriebssystem, um Computercode auszuführen und Daten zu erzeugen und zu nutzen. Betriebssysteme sind allgemein wohl bekannt und werden nicht weiter im Detail beschrieben. Beispielhaft kann das Betriebssystem OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein für einen besonderen Zweck vorgesehenes Betriebssystem sein, wie es für geräteartige Recheneinrichtungen mit beschränkter Aufgabe eingesetzt werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks 58 befinden, der operativ mit dem Prozessor 56 gekoppelt ist. Der Speicherblock 58 bietet allgemein einen Platz zum Speichern von Computercode und Daten, die durch das Computersystem 50 verwendet werden. Beispielhaft kann der Speicherblock 58 einen Nur-Lesespeicher (Read Only Memory, ROM), ein Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), ein Festplattenlaufwerk und/oder ähnliches umfassen. Die Informationen können sich auch auf einem entfernbaren Speichermedium befinden und bei Bedarf auf das Computersystem 50 geladen oder installiert werden. Entfernbare Speichermedien umfassen z.B. CD-ROM, PC-Card, Speicherkarte, Diskette, Magnetband und eine Netzwerkkomponente.
  • Das Computersystem 50 hat ebenso eine Anzeigeeinrichtung 68, die mit dem Prozessor 56 operativ gekoppelt ist. Die Anzeigeeinrichtung 68 kann eine Flüssigkristallanzeige (LCD, Liquid Crystal Display) sein (z.B., mit aktiver oder passiver Matrix und ähnlichem). Alternativ kann die Anzeigeeinrichtung 68 ein Monitor sein, wie z.B. eine Monochromanzeige, eine CGA-Anzeige (Color Graphics Adapter Display), eine EGA-Anzeige (Enhanced Graphics Adapter Display), eine VGA-Anzeige (Variable Graphics Array Display), eine Super VGA-Anzeige, eine Kathodenstrahlröhre und ähnliches. Die Anzeigeeinrichtung kann auch einer Plasmaanzeige entsprechen, oder einer Anzeige, die mit elektronischen Tinten umgesetzt ist.
  • Die Anzeigeeinrichtung 68 ist allgemein zur Anzeige einer graphischen Nutzeroberfläche 69 konfiguriert, welche eine Schnittstelle zwischen dem Nutzer des Computersystems und dem Betriebssystem oder einer darauf ablaufenden Anwendung bereitstellt, die einfach zu benutzen ist. Allgemein gesagt stellt die gra phische Nutzeroberfläche 69 Programme, Dateien und Betriebsoptionen mit graphischen Bildern dar. Die graphischen Bilder können Fenster, Felder, Dialogboxen, Menüs, Icons, Knöpfe, Zeiger, Bildlaufbalken, usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein, oder können dynamisch erzeugt werden, um den spezifischen Aktionen zu dienen, die durch einen Nutzer vorgenommen werden. Während des Betriebs kann der Nutzer verschiedene graphische Bilder auswählen und aktivieren, um damit zugeordnete Funktionen und Aufgaben zu initiieren. Zum Beispiel kann der Nutzer einen Knopf auswählen, der ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Ikon, das ein bestimmtes Programm startet. Die graphische Nutzoberfläche 69 kann zusätzlich oder alternativ für den Nutzer Informationen, wie z.B. nicht-interaktiven Text und nicht-interaktive Graphiken, auf der Anzeigeeinrichtung 68 anzeigen.
  • Das Computersystem 50 umfasst ebenso eine Eingabeeinrichtung 70, die mit dem Prozessor 56 operativ gekoppelt ist. Die Eingabeeinrichtung 70 ist für den Transfer von Daten von der Außenwelt in das Computersystem 50 konfiguriert. Die Eingabeeinrichtung 70 kann z.B. verwendet werden, um im Verhältnis zur graphischen Nutzeroberfläche 69 auf der Anzeige 68 eine Verfolgung (tracking) auszuführen und Auswahlen vorzunehmen. Die Eingabeeinrichtung 70 kann ebenso verwendet werden, um im Computersystem 50 Befehle abzugeben. Die Eingabeeinrichtung 70 kann eine berührungsempfindliche Einrichtung umfassen, die dazu konfiguriert ist, über die Berührung eines Nutzers eine Eingabe zu empfangen und diese Informationen an den Prozessor 56 zu senden. Beispielhaft kann die berührungsempfindliche Einrichtung einem Berührungsfeld (touchpad) oder einem Berührungsbildschirm (touchscreen) entsprechen. In vielen Fällen erkennt die berührungsempfindliche Einrichtung Berührungen, sowie die Position und Stärke der Berührungen auf einer berührungsempfindlichen Oberfläche. Das die Berührung fühlende Mittel berichtet die Berührungen an den Prozessor 56, und der Prozessor 56 interpretiert die Berührungen gemäß seiner Programmierung. Zum Beispiel kann der Prozessor 56 gemäß einer besonderen Berührung eine Aufgabe starten. Ein eigens vorgesehener Prozessor kann verendet werden, um Berührungen lo kal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. Die berührungsempfindliche Einrichtung kann auf Sensortechnologien beruhen, die folgendes umfassen, aber nicht darauf beschränkt sind: Kapazitivsensoren, Widerstandsensoren, Oberflächenschallwellensensoren, Drucksensoren, optische Sensoren und/oder ähnliches. Weiterhin kann das die Berührung fühlende Mittel auf Einpunktfühlen oder Mehrpunktfühlen basieren. Einpunktfühlen ist in der Lage, nur eine einzige Berührung zu unterscheiden, während Mehrpunktfühlen in der Lage ist, mehrere Berührungen zu unterscheiden, die gleichzeitig erfolgen.
  • Die Eingabeeinrichtung 70 kann ein Berührungsbildschirm sein, der über oder vor einer Anzeige 68 positioniert ist. Der Berührungsbildschirm 70 kann in die Anzeigeeinrichtung 68 integriert sein, oder es kann sich um eine getrennte Komponente handeln. Der Berührungsbildschirm 70 besitzt mehrere Vorteile gegenüber anderen Eingabetechnologien, wie z.B. Berührungsfelder, Mäuse, usw. Zum einen ist der Berührungsbildschirm 70 vor der Anzeige 68 positioniert, und folglich kann der Nutzer die graphische Nutzeroberfläche 69 direkt manipulieren. Zum Beispiel kann der Nutzer einfach seinen Finger über einem Objekt platzieren, das gesteuert werden soll. Bei Berührungsfeldern gibt es eine solche Eins-zu-Eins-Beziehung nicht. Bei Berührungsfeldern ist das Berührungsfeld entfernt von der Anzeige angeordnet, typischerweise in einer anderen Ebene. Zum Beispiel befindet sich die Anzeige typischerweise in einer senkrechten Ebene, und das Berührungsfeld befindet sich typischerweise in einer waagerechten Ebene. Dies macht dessen Benutzung weniger intuitiv und folglich schwieriger im Vergleich zu Berührungsbildschirmen. Zusätzlich zu seiner Eigenschaft als Berührungsbildschirm kann die Eingabeeinrichtung 70 eine Mehrpunkteingabeeinrichtung sein. Mehrpunkteingabeeinrichtungen haben Vorteile über herkömmliche Einpunkteinrichtungen dahingehend, dass sie mehr als ein Objekt (Finger) unterscheiden können. Einpunkteinrichtungen sind einfach unfähig, mehrere Objekte zu unterscheiden. Beispielhaft ist ein Mehrpunktberührungsbildschirm, der hier eingesetzt werden kann, in der parallel anhängigen und gemeinsam übertragenen US-Patentanmeldung Nr. 10/840,862 , die hiermit durch Verweis in die Offenbarung mit aufgenommen wird, detaillierter gezeigt und beschrieben.
  • Das Computersystem 50 umfasst ebenso Fähigkeiten zur Kopplung mit einer oder mehreren Eingabe-/Ausgabeeinrichtungen 80. Beispielhaft können die Eingabe-/Ausgabeeinrichtungen 80 Tastaturen, Druckern, Scannern, Kameras, Lautsprechern und/oder ähnlichem entsprechen. Die Eingabe-/Ausgabeeinrichtungen 80 können in das Computersystem 50 integriert sein, oder es kann sich um getrennte Komponenten handeln (z.B. Peripheriegeräte). In manchen Fällen können die Eingabe-/Ausgabeeinrichtungen 80 über Kabelverbindungen (z.B. Kabel/Anschlüsse) mit dem Computersystem 50 verbunden sein. In anderen Fällen können die Eingabe-/Ausgabeeinrichtungen 80 über drahtlose Verbindungen mit dem Computersystem 80 verbunden sein. Zum Beispiel kann die Datenverbindung PS/2, USB, IR, RF, Bluetooth oder ähnlichem entsprechen.
  • Gemäß einer Ausführungsform der vorliegenden Erfindung ist das Computersystem 50 für die Erkennung von auf die Eingabeeinrichtung 70 angewandten Gesten 85 und für die Steuerung von Aspekten des Computersystems 50 auf der Grundlage der Gesten 85 ausgestaltet. In manchen Fällen ist eine Geste als eine stilisierte Interaktion mit einer Eingabeeinrichtung definiert, die auf einen oder mehrere spezifische Rechenvorgänge abgebildet wird. Die Gesten 85 können über diverse Hand- und insbesondere Fingerbewegungen ausgeführt werden. Alternativ oder zusätzlich können die Gesten mit einem Stift ausgeführt werden. In all diesen Fällen empfängt die Eingabeeinrichtung 70 die Gesten 85, und der Prozessor 56 führt Befehle aus, um Vorgänge durchzuführen, die den Gesten 85 zugeordnet sind. Zusätzlich kann der Speicherblock 58 ein Gestenbetriebsprogramm 88 umfassen, das ein Teil des Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm 88 umfasst allgemein einen Satz an Befehlen, der das Auftreten von Gesten 85 erkennt, und einen oder mehrere Softwareagenten über die Gesten 85 informiert und/oder darüber informiert, welche Handlung(en) in Antwort auf die Gesten 85 vorgenommen wird (werden).
  • Wenn ein Nutzer eine oder mehreren Gesten durchführt, leitet die Eingabeeinrichtung 70 Informationen über die Gesten an den Prozessor 56 weiter. Unter Verwendung von Befehlen aus dem Speicher 58, und insbesondere des Gestenbetriebsprogramms 88, interpretiert der Prozessor 56 die Gesten 85 und steuert verschiedene Komponenten des Computersystems 50, wie z.B. den Speicher 58, eine Anzeige 68 und Eingabe-/Ausgabeeinrichtungen 80, auf der Grundlage der Gesten 85. Die Gesten 85 können als Befehle zur Durchführung von Aktionen bei im Speicher 58 gespeicherten Anwendungen, zur Veränderung auf von der Anzeige 68 gezeigten Objekten der graphischen Nutzeroberfläche, zur Veränderung von in dem Speicher 58 gespeicherten Daten, und/oder zur Durchführung von Aktionen bei den Eingabe-/Ausgabeeinrichtungen 80 identifiziert werden. Beispielhaft können die Befehle einem Zoomen, Mitführen, Bildlauf, Blättern, Drehen, Größe einstellen und ähnlichem zugeordnet sein. Als weitere Beispiele können die Befehle auch dem Folgenden zugeordnet sein: dem Starten eines bestimmten Programms, dem Öffnen einer Datei oder eines Dokuments, dem Betrachten eines Menüs, dem Durchführen einer Auswahl, dem Ausführen von Anweisungen, dem Einloggen in das Computersystem, dem Erlauben des Zugangs zu gesperrten Bereichen des Computersystems für autorisierte Einzelpersonen, dem Laden eines Nutzerprofils, das der vom Nutzer bevorzugten Anordnung der Arbeitsfläche (Desktop) des Rechners zugeordnet ist, und/oder ähnlichem.
  • Es kann eine große Spanne an verschiedenen Gesten verwendet werden. Beispielhaft kann es sich bei den Gesten um Einzelpunkt- oder Mehrpunktgesten; statische oder dynamische Gesten; kontinuierliche oder segmentierte Gesten; und/oder um ähnliches handeln. Einzelpunktgesten sind solche Gesten, die mit einem einzigen Kontaktpunkt ausgeführt werden, z.B., wird die Geste mit einer einzigen Berührung wie z.B. von einem einzigen Finger, einer Handfläche oder einem Stift ausgeführt. Mehrpunktgesten sind solche Gesten, die mit mehreren Punkten ausgeführt werden können, z.B., wird die Geste mit mehreren Berührungen wie z.B. von mehreren Fingern, Fingern und Handflächen, einem Finger und einem Stift, mehreren Stiften und/oder jeglicher Kombination davon ausgeführt. Statische Gesten sind solche Gesten, die keine Bewegung umfassen, und dynamische Gesten sind solche Gesten, bei denen eine Bewegung vorkommt. Kontinuierliche Gesten sind solche Gesten, die in einem einzigen Streich ausgeführt werden, und segmentierte Gesten sind solche Gesten, die in einer Sequenz von verschiedenen Schritten oder Strichen ausgeführt werden.
  • Bei einer Ausführungsform ist das Computersystem 50 zur gleichzeitigen Registrierung mehrerer Gesten konfiguriert, d.h., dass mehrere Gesten gleichzeitig ausgeführt werden können. Beispielhaft kann eine Zoomgeste zur gleichen Zeit wie eine Drehgeste ausgeführt werden, oder eine Drehgeste kann zur gleichen Zeit wie eine Mitführgeste ausgeführt werden. Bei einer besonderen Umsetzung können Zoom-, Dreh- und Mitführgesten alle gleichzeitig erfolgen, um zur gleichen Zeit ein Zoomen, Drehen und Mitführen auszuführen.
  • Bei einer anderen Ausführungsform ist das System zur sofortigen Erkennung der Gesten konfiguriert, sodass den Gesten zugeordnete Aktionen zur gleichen Zeit wie die Geste umgesetzt werden können, d.h., dass die Geste und die Aktion gleichzeitig nebeneinander erfolgen, anstatt dass es sich um einen Vorgang mit zwei Schritten handelt. Beispielhaft bewegt sich bei einer Bildlaufgeste der Bildschirm mit der Fingerbewegung.
  • Bei einer anderen Ausführungsform folgt ein auf der Anzeige 68 präsentiertes Objekt kontinuierlich der auf einem Berührungsbildschirm stattfindenden Geste. Es besteht eine 1-zu-1-Beziehung zwischen der gerade durchgeführten Geste und den auf der Anzeige 68 gezeigten Objekten. Zum Beispiel erfolgen mit Durchführung der Geste gleichzeitig Veränderungen an den Objekten, die unterhalb der Geste liegen. Zum Beispiel können während einer Zoomgeste sich die Finger auseinanderspreizen oder schließen, um während des Spreizens ein Heranzoomen des auf der Anzeige 68 gezeigten Objekts zu verursachen, und während des Schließens ein Herauszoomen. Während dieses Vorgangs erkennt das Computersystem 50 die Nutzereingabe als eine Zoomgeste, bestimmt, welche Handlung erfolgen sollte, und gibt Steuerdaten an die richtige Einrichtung aus, in diesem Fall die Anzeige 68.
  • Bei einer anderen Ausführungsform verfügt das Computersystem 50 über eine örtliche Sensibilität, wobei Gesten unterschiedliche Dinge bedeuten, wenn sie über unterschiedlichen Flächen der Eingabeeinrichtung 68 umgesetzt werden. Zum Beispiel verursacht eine Drehgeste über einem Lautstärkerknopf eine Erhöhung/Senkung der Lautstärke, wohingegen eine Drehgeste über einem Foto eine Drehung des Fotos verursacht.
  • Bei einer anderen Ausführungsform kann die Anzahl an Fingern, die sich in Kontakt mit dem Berührungsbildschirm befinden, einen Eingabemodus angeben. Zum Beispiel kann eine einzelne Berührung wie z.B. durch einen einzelnen Finger den Wunsch angeben, eine Verfolgung (Tracking) durchzuführen, d.h., Zeiger- oder Kursorbewegungen, oder Auswahlen, wohingegen mehrere Berührungen wie z.B. durch eine Fingergruppe den Wunsch anzeigen können, zu Gestikulieren. Die Anzahl Finger zur Umsetzung der Gestik kann stark variieren. Beispielhaft können zwei Finger einen ersten Gestikmodus angeben, können drei Finger einen dritten Gestikmodus angeben, usw. Alternativ kann irgendeine Anzahl von Fingern, d.h. mehr als einer, für denselben Gestikmodus verwendet werden, der ein oder mehrere Gestensteuerelemente umfassen kann. Die Ausrichtung der Finger kann in ähnlicher Weise eingesetzt werden, um den gewünschten Modus zu bezeichnen. Das Profil des Fingers kann erfasst werden, um verschiedene Modusvorgänge basierend darauf zu erlauben, ob der Nutzer z.B. seinen Daumen oder Zeigefinger verwendet hat.
  • Bei einer anderen Ausführungsform kann eine Eingabe während der Durchführung eines durchgezogenen Strichs auf der Eingabeeinrichtung verändert werden, ohne den Strich zu unterbrechen (z.B. ein Abheben von der berührungsempfindlichen Oberfläche). Bei einer Umsetzung kann ein Nutzer von einem Verfolgungs- (oder Auswahl-)Modus zu einem Gestikmodus umschalten, während ein Strich durchgeführt wird. Zum Beispiel kann das Verfolgen oder Auswählen einem einzelnen Finger zugeordnet sein, und kann das Gestikulieren mehreren Fingern zugeordnet sein; folglich kann der Nutzer zwischen Verfolgung/Auswahl und Gestikulieren hin- und herschalten, indem er einen zweiten Finger von dem Berührungsbildschirm abhebt und auf diesem absetzt. Bei einer anderen Umsetzung kann der Nutzer von einem Gestikmodus zu einem anderen Gestikmodus umschalten, während ein Strich ausgeführt wird. Zum Beispiel kann ein Zoomen dem Spreizen eines Fingerpaars zugeordnet sein, und kann ein Drehen dem Drehen des Fingerpaars zugeordnet sein; folglich kann der Nutzer zwischen Zoomen und Drehen hin- und herschalten, indem er bei der Bewegung seiner Finger zwischen Spreizen und Drehen wechselt. Bei noch einer anderen Umsetzung kann die Anzahl an Gesteneingaben verändert werden, während ein Strich ausgeführt wird (z.B. hinzugefügt oder abgezogen werden). Zum Beispiel kann der Nutzer während eines Zoomens, wo die Finger auseinander gespreizt werden, weiterhin seine Finger drehen, um sowohl ein Zoomen als auch ein Drehen auszulösen. Weiterhin kann der Nutzer während des Zoomens und Drehens das Spreizen der Finger abbrechen, sodass nur eine Drehung stattfindet. Mit anderen Worten können die Gesteneingaben kontinuierlich eingegeben werden, entweder gleichzeitig oder nacheinander.
  • Bei einer besonderen Ausführungsform löst ein einzelner Finger ein Verfolgen (Tracking) (oder eine Auswahl) aus, und lösen zwei oder mehr Finger in unmittelbarer Nähe zueinander einen Bildlauf oder Mitführen aus. Zwei Finger werden im Allgemeinen bevorzugt, um ein einfaches Hin- und Herschalten zwischen einem und zwei Fingern bereitzustellen, d.h., dass der Nutzer zwischen den Modi sehr leicht umschalten kann, indem er einfach einen zusätzlichen Finger anhebt oder absetzt. Dies hat den Vorteil, dass es intuitiver ist, als andere Formen der Modus Hin- und Herschaltung. Während des Verfolgens (Tracking) wird die Bewegung des Zeigers dadurch gesteuert, dass der Nutzer einen einzelnen Finger auf der berührungsempfindlichen Oberfläche einer berührungsempfindlichen Einrich tung bewegt. Die Sensoranordnung der berührungsempfindlichen Einrichtung interpretiert die Fingerbewegung und erzeugt Signale zur Erzeugung einer entsprechenden Bewegung des Zeigers auf der Anzeige. Während eines Bildlaufs wird die Bewegung des Bildschirms dadurch gesteuert, dass der Nutzer zwei Finger auf der berührungsempfindlichen Oberfläche der berührungsempfindlichen Einrichtung bewegt. Wenn die kombinierten Finger in die senkrechte Richtung bewegt werden, wird die Bewegung als ein senkrechtes Bildlaufereignis interpretiert, und wenn die kombinierten Finger in die waagerechte Richtung bewegt werden, wird die Bewegung als ein waagerechtes Bildlaufereignis interpretiert. Das Gleiche gilt für das Mitführen, obwohl ein Mitführen in alle Richtungen erfolgen kann, anstatt nur der waagerechten und senkrechten Richtungen.
  • Der Begriff "Bildlauf" ("scrolling"), so wie er hier verwendet wird, betrifft allgemein das Bewegen von angezeigten Daten oder Bildern (z.B. Text oder Graphiken) durch einen Sichtbereich auf einem Anzeigebildschirm, sodass ein neuer Datensatz (z.B. eine Textzeile oder Graphiken) im Sichtbereich in Sicht kommt. Sobald der Sichtbereich voll ist, erscheint in den meisten Fällen jeder neue Datensatz am Rand des Sichtbereichs, und alle anderen Datensätze bewegen sich eine Position weiter. Das heißt, dass der neue Datensatz für jeden Datensatz erscheint, der sich aus dem Sichtbereich herausbewegt. Im Wesentlichen erlaubt es die Bildlauffunktion einem Nutzer, aufeinanderfolgende Datensätze zu betrachten, die derzeit außerhalb des Sichtbereichs liegen. Der Sichtbereich kann der gesamte Sichtbereich des Anzeigebildschirms sein, oder es kann sich nur um einen Abschnitt des Anzeigebildschirms handeln (z.B. ein Fensterrahmen).
  • Wie oben erwähnt, kann der Bildlauf senkrecht (hoch oder runter) oder waagerecht (links oder rechts) umgesetzt sein. Im Falle des senkrechten Bildlaufs, wenn ein Nutzer das Bild nach unten durchläuft, erscheint jeder neue Datensatz am unteren Ende des Sichtbereichs, und alle anderen Datensätze bewegen sich eine Position aufwärts. Wenn der Sichtbereich voll ist, bewegt sich der oberste Datensatz aus dem Sichtbereich heraus. Wenn ein Nutzer nach oben hin durchläuft, erscheint in ähnlicher Weise jeder neue Datensatz am oberen Ende des Sichtbereichs, und alle anderen Datensätze bewegen sich um eine Position nach unten. Wenn der Sichtbereich voll ist, bewegt sich der unterste Datensatz aus dem Sichtbereich heraus.
  • Beispielhaft kann der Anzeigebildschirm während des Betriebs eine Liste von Medienobjekten (z.B. Songs) anzeigen. Ein Nutzer ist in der Lage, die Liste an Medienobjekten linear zu durchlaufen, indem er seinen Finger über den Berührungsbildschirm bewegt. Während der Finger sich über den Berührungsbildschirm bewegt, werden die angezeigten Objekte von der Liste an Medienobjekten variiert, sodass der Nutzer in der Lage ist, im Ergebnis die Liste an Medienobjekten zu durchlaufen. In den meisten Fällen ist der Nutzer in der Lage, seine Durchquerung der Liste an Medienobjekten zu beschleunigen, indem er seinen Finger mit höheren Geschwindigkeiten bewegt. Einige Ausfürungsformen, die in Bezug zu dem obigen Beispiel stehen können, sind weiter unten detaillierter beschrieben. Siehe z.B. 6, 23 und 27.
  • 2 ist ein Mehrpunktverarbeitungsverfahren 100. Das Mehrpunktverarbeitungsverfahren 100 kann z.B. in dem in der 1 gezeigten System durchgeführt werden. Das Mehrpunktverarbeitungsverfahren 100 beginnt allgemein beim Kasten 102, wo Bilder von einer Mehrpunkteingabeeinrichtung, und insbesondere einem Mehrpunktberührungsbildschirm, ausgelesen werden. Beispielhaft kann der Mehrpunktberührungsbildschirm allgemein dem Mehrpunktberührungsbildschirm entsprechen, der in der parallel anhängigen US-Patentanmeldung Nr. 10/840,862 offenbart ist, die hiermit durch Bezugnahme in die Offenbarung aufgenommen wird. Obwohl der Begriff "Bild" verwendet wird, ist anzumerken, dass die Daten in anderen Formen auftreten können. In den meisten Fällen liefert das aus dem Berührungsbildschirm ausgelesene Bild die Größe (Z) in Abhängigkeit der Position (x und y) für jeden Sensorpunkt oder Pixel des Berührungsbildschirms. Die Größe kann z.B. die an jedem Punkt gemessene Kapazität widerspiegeln.
  • Im Anschluss an den Kasten 102 fährt das Mehrpunktverarbeitungsverfahren 100 mit dem Kasten 104 fort, wo das Bild in eine Sammlung oder Liste von Merkmalen umgewandelt wird. Jedes Merkmal repräsentiert eine getrennte Eingabe wie z.B. eine Berührung. In den meisten Fällen hat jedes Merkmal seine eigene eindeutige Kennung (ID), x-Koordinate, y-Koordinate, Größe Z, Winkel θ, Fläche A, und ähnliches. Beispielhaft veranschaulichen die 3A und 3B ein Bild 120 zu einem bestimmten Zeitpunkt. Beim Bild 120 gibt es zwei Merkmale 122, die auf zwei getrennten Berührungen basieren. Die Berührungen können z.B. von einem Fingerpaar stammen, das den Berührungsbildschirm berührt. Wie es gezeigt ist, umfasst jedes Merkmal 122 eine eindeutige Kennung (ID), eine x Koordinate, y Koordinate, Größe Z, einen Winkel θ und eine Fläche A. Genauer gesagt wird das erste Merkmal 122A durch ID1, x1, y1, Z1, θ1, A1 repräsentiert, und wird das zweite Merkmal 122B durch ID2, x2, y2, Z2, θ2, A2 repräsentiert. Diese Daten können z.B. unter Verwendung eines Mehrberührungsprotokolls ausgegeben werden.
  • Die Umwandlung von Daten oder Bildern zu Merkmalen kann unter Verwendung von Verfahren erreicht werden, die in der parallel anhängigen U.S. Patentanmeldung Nr.: 10/840,862 beschrieben sind, die hiermit durch Bezugname in die Offenbarung aufgenommen wird. Wie es darin offenbart ist, werden die Rohdaten empfangen. Die Rohdaten liegen typischer Weise in einer digitalisierten Form vor und umfassen Werte für jeden Knotenpunkt des Berührungsbildschirms. Die Werte können zwischen 0 und 256 liegen, wobei 0 keinem Berührungsdruck entspricht, und 256 dem vollen Berührungsdruck entspricht. Anschließend werden die Rohdaten gefiltert, um das Rauschen zu verringern. Sobald gefiltert wurde, werden Gradientdaten, welche die Topologie jeder Gruppe verbundener Punkte angeben, erzeugt. Anschließend werden die Grenzen für Berührungsbereiche auf der Basis der Gradientdaten berechnet, das heißt, es wird festgestellt, welche Punkte gruppiert werden, um jeden Berührungsbereich zu bilden. Beispielhaft kann ein Wasserscheiden-Algorithmus eingesetzt werden. Sobald die Grenzen bestimmt sind, werden die Daten für jeden der Berührungsbereiche berechnet (z.B. x, y, Z, θ, A).
  • Im Anschluss an den Kasten 104 fährt das Mehrpunktverarbeitungsverfahren 100 mit Kasten 106 fort, wo eine Klassifizierung und Gruppierung der Merkmale erfolgt. Während der Klassifizierung wird die Identität jedes Merkmals bestimmt. Z.B. können die Merkmale als ein bestimmter Finger, ein Daumen, eine Handfläche oder ein anderes Objekt klassifiziert werden. Sobald sie klassifiziert sind, können die Merkmale gruppiert werden. Die Art und Weise, in welcher die Gruppen gebildet werden, kann stark variieren. In den meisten Fällen werden die Merkmale auf der Grundlage einiger Kriterien gruppiert (z.B., dass sie ein ähnliches Attribut haben). Z.B. können die in den 3A und 3B gezeigten zwei Merkmale gruppiert werden, da jedes dieser Merkmale sich in der Nähe zum anderen befindet, oder da sie von derselben Hand stammen. Das Gruppieren kann einen bestimmten Grad an Filterung umfassen, um Merkmale auszufiltern, die nicht Teil des Berührungsereignisses sind. Beim Filtern kann ein Merkmal oder können mehrere Merkmale verworfen werden, weil sie entweder gewisse vorbestimmte Kriterien erfüllen, oder weil sie gewisse Kriterien nicht erfüllen. Beispielhaft kann eines der Merkmale als ein Daumen klassifiziert werden, der sich am Rande eines Tablett-PC's befindet. Da der Daumen verwendet wird, um das Gerät zu halten, anstatt verwendet zu werden, um eine Aufgabe durchzuführen, wird das dadurch erzeugte Merkmal verworfen, das heißt, es wird nicht als Teil des in Verarbeitung befindlichen Berührungsereignisses betrachtet.
  • Im Anschluss an den Kasten 106 fährt das Mehrpunktverarbeitungsverfahren 100 mit Kasten 108 fort, wo Schlüsselparameter für die Merkmalsgruppen berechnet werden. Die Schlüsselparameter können den Abstand zwischen Merkmalen, den x/y Schwerpunkt aller Merkmale, die Merkmaldrehung, den Gesamtdruck der Gruppe (z.B. Druck beim Schwerpunkt) und ähnliches umfassen. Wie es in 4 gezeigt ist, kann die Berechnung folgendes umfassen: Auffinden des Schwerpunkts C, Zeichnen einer virtuellen Linie 130 vom Schwerpunkt C zu jedem Merkmal, Definieren des Abstands D für jede virtuelle Linie (D1 und D2), und dann Bildung des Durchschnitts aus den Abständen D1 und D2. Sobald die Para meter berechnet sind, werden die Parameterwerte berichtet. Die Parameterwerte werden typischer Weise mit einer Gruppenkennung (group identifier, GID) und der Anzahl an Merkmalen innerhalb jeder Gruppe (in diesem Fall drei) berichtet. In den meisten Fällen werden sowohl anfängliche als auch gegenwärtige Parameterwerte berichtet. Die anfänglichen Parameterwerte können auf dem Aufsetzen basieren, das heißt, wenn der Nutzer seine Finger auf dem Berührungsbildschirm aufsetzt, und die gegenwärtigen Werte können auf jeglichem Punkt innerhalb eines Strichs basieren, der nach dem Aufsetzen auftritt. Es versteht sich, dass die Kasten 102 bis 108 während des Strichs eines Nutzers wiederholt ausgeführt werden, wodurch eine Mehrzahl sequenziell konfigurierter Signale erzeugt wird. Die anfänglichen und gegenwärtigen Parameter können in späteren Schritten verglichen werden, um im System Aktionen durchzuführen.
  • Im Anschluss an den Kasten 108 fährt der Verfahrensablauf mit dem Kasten 110 fort, wo die Gruppe einem Element einer Nutzeroberfläche zugeordnet wird. Nutzeroberflächenelemente sind Felder mit Schaltflächen, Listen, Schieber, Räder, Knöpfe, usw.. Jedes Nutzeroberflächenelement repräsentiert eine Komponente oder ein Steuerelement der Nutzeroberfläche. Die Anwendung hinter dem (den) Nutzeroberflächenelement(en) hat Zugang zu den im Kasten 108 berechneten Parameterdaten. Bei einer Umsetzung bewertet die Anwendung die Relevanz der Berührungsdaten für das entsprechende Nutzeroberflächenelement. Die Bewertung kann auf gewissen vorbestimmten Kriterien basieren. Die Bewertung kann das Erzeugen einer Bewertungszahl umfassen, sowie desjenigen Nutzeroberflächenelements, das die höchste Bewertungszahl hat, was ihm den alleinigen Zugang zur Gruppe verschafft. Es kann sogar auch einen gewissen Grad an Hysterese geben (sobald eines der Nutzeroberflächenelemente die Kontrolle dieser Gruppe beansprucht, bleibt die Gruppe bei dem Nutzeroberflächenelement, bis ein anderes Nutzeroberflächenelement eine viel höhere Wertung hat). Beispielhaft kann die Bewertung die Bestimmung der Nähe des Schwerpunkts (oder von Merkmalen) zum Objekt der graphischen Nutzeroberfläche umfassen, das dem Nutzeroberflächenelement zugeordnet ist.
  • Im Anschluss an den Kasten 110 fährt das Mehrpunktverarbeitungsverfahren 100 mit den Kästen 112 und 114 fort. Die Kästen 112 und 114 können ungefähr zur gleichen Zeit ausgeführt werden. Aus der Sicht des Nutzers scheint es bei einer Ausführungsform so, als ob die Kästen 112 und 114 gleichzeitig ausgeführt werden. Beim Kasten 112 werden eine oder mehrere Aktionen durchgeführt, auf der Grundlage von Unterschieden zwischen anfänglichen und gegenwärtigen Parameterwerten sowie des Nutzeroberflächenelements, welchem sie zugeordnet sind. Beim Kasten 114 wird dem Nutzer eine Rückmeldung bezüglich der einen oder der mehreren Handlungen bereitgestellt, die gerade durchgeführt werden. Beispielhaft kann die Rückmeldung an den Nutzer eine Anzeige-, Audio-, Taktil-Rückmeldung und/oder ähnliches umfassen.
  • 5 ist ein Parameterberechnungsverfahren 150. Das Parameterberechnungsverfahren 150 kann zum Beispiel dem Kasten 108 entsprechen, der in der 2 gezeigt ist. Das Parameterberechnungsverfahren 150 beginnt allgemein beim Kasten 152, wo eine Merkmalsgruppe empfangen wird. Im Anschluss an den Kasten 152 fährt das Parameterberechnungsverfahren 150 zum Kasten 154 fort, wo festgestellt wird, ob die Anzahl an Merkmalen in der Merkmalsgruppe sich verändert hat oder nicht. Zum Beispiel kann sich die Anzahl an Merkmalen verändert haben, weil der Nutzer einen zusätzlichen Finger anhebt oder ablegt. Verschiedene Finger können benötigt werden, um unterschiedliche Steuerungen (z.B. verfolgen, gestikulieren) durchzuführen. Falls die Anzahl an Merkmalen sich verändert hat, fährt das Parameterberechnungsverfahren 150 mit dem Kasten 156 fort, wo die anfänglichen Parameterwerte berechnet werden. Falls die Anzahl die gleiche bleibt, fährt das Parameterberechnungsverfahren 150 mit dem Kasten 158 fort, wo die gegenwärtigen Parameterwerte berechnet werden. Anschließend fährt das Parameterberechnungsverfahren 150 mit dem Kasten 150 fort, wo die anfänglichen und gegenwärtigen Parameterwerte berichtet werden. Beispielhaft können die anfänglichen Parameterwerte den durchschnittlichen anfänglichen Abstand zwischen Punkten (oder Abstand (Mittel) anfänglich) und die gegenwärtigen Parame terwerte den durchschnittlichen gegenwärtigen Abstand zwischen Punkten (oder Abstand (Mittel) gegenwärtig) enthalten. Diese können in nachfolgenden Schritten verglichen werden, um verschiedene Aspekte eines Computersystems zu steuern.
  • Die obigen Verfahren und Techniken können verwendet werden, um jegliche Anzahl an Objekten und Aktionen einer graphischen Nutzeroberfläche zu implementieren. Zum Beispiel können Gesten kreiert werden, um einen Nutzerbefehl zu erfassen und zu bewirken, der zur Größenanpassung eines Fensters, Durchlaufen einer Anzeige, Drehen eines Objekts, Hinein- oder Herauszoomen in bzw. aus eine angezeigte Ansicht, Löschen oder Einfügen von Text oder anderen Objekten, usw. dient. Gesten können ebenso verwendet werden, um virtuelle Steueroberflächen wie z.B. Lautstärkeknöpfe, Schalter, Schieber, Griffe, Knöpfe, Türen und andere Interaktionselemente aufzurufen und zu manipulieren, die erzeugt werden können, um die menschliche Interaktion mit dem Rechensystem zu erleichtern.
  • Um ein die obigen Methodologien verwendendes Beispiel zu nennen, mit Bezug auf die 6A bis 6G, wird eine Drehgestik zur Steuerung eines virtuellen Lautstärkeknopfs 170 auf einer graphischen Nutzeroberfläche 172 einer Anzeige 174 eines Tablett-PC's 175 beschrieben. Um den Knopf 170 zu betätigen, platziert der Nutzer seine Finger 176 auf einem Mehrpunktberührungsbildschirm 178. Der virtuelle Steuerknopf kann bereits angezeigt sein, oder die besondere Anzahl, Ausrichtung oder das Profil der Finger beim Aufsetzen, oder die Bewegung der Finger direkt danach, oder eine Kombination dieser und anderer Charakteristiken der Interaktion des Nutzers können dazu führen, dass der virtuelle Steuerknopf angezeigt wird. In jedem Falle assoziiert das Rechensystem eine Fingergruppe mit dem virtuellen Steuerknopf und stellt fest, dass der Nutzer beabsichtigt, den virtuellen Lautstärkeknopf zu verenden. Diese Assoziation kann auch teilweise auf dem Modus oder dem gegenwärtigen Zustand der Recheneinrichtung zum Zeitpunkt der Eingabe basieren. Zum Beispiel kann dieselbe Geste alternativ als eine Lautstärkeknopf-Geste interpretiert werden, falls gerade ein Song auf der Rechen einrichtung läuft, oder als ein Drehbefehl, falls gerade eine Anwendung zur Editierung von Objekten ausgeführt wird. Es kann eine andere Rückmeldung an den Nutzer bereitgestellt werden, einschließlich z.B. eine hörbare oder fühlbare Rückmeldung.
  • Sobald der Knopf 170 angezeigt wird, wie es in der 6A gezeigt ist, können die Finger 176 des Nutzers um den Knopf 170 herumpositioniert werden, in ähnlicher Weise als ob es sich um einen tatsächlichen Knopf oder Regler handelte, und können dann um den Knopf 170 herumgedreht werden, um das Drehen des Knopfes 170 zu simulieren. Wiederum kann z.B. eine hörbare Rückmeldung in der Form eines Klickgeräusches oder eine fühlbare Rückmeldung in der Form einer Vibration bereitgestellt werden, während der Knopf 170 „gedreht" wird. Der Nutzer kann auch seine andere Hand verwenden, um den Tablett PC 175 zu halten.
  • Wie es in 6B gezeigt ist, erfasst der Mehrpunktberührungsbildschirm 178 wenigstens ein Bildpaar. Insbesondere wird beim Absetzen ein erstes Bild 180 erzeugt, und wenigstens ein anderes Bild 182 wird erzeugt, wenn die Finger 176 gedreht werden. Auch wenn nur zwei Bilder gezeigt sind, würde es in den meisten Fällen viel mehr Bilder geben, die Schritt für Schritt zwischen diesen zwei Bildern auftreten. Jedes Bild repräsentiert ein Profil der mit dem Berührungsbildschirm in Kontakt befindlichen Finger zu einem bestimmten Zeitpunkt. Diese Bilder können auch als Berührungsbilder bezeichnet werden. Es wird ersichtlich sein, dass der Begriff „Bild" nicht bedeutet, dass das Profil auf dem Bildschirm 178 angezeigt wird (sondern stattdessen durch die berührungsempfindliche Einrichtung verbildlicht wird). Es ist auch zu bemerken, dass, obwohl der Begriff „Bild" verwendet wird, die Daten in anderen Formen vorliegen können, die zu diversen Zeitpunkten für die Berührungsfläche repräsentativ sind.
  • Wie es in der 6C gezeigt ist, wird jedes der Bilder 180 bis 182 in eine Sammlung von Merkmalen 184 umgewandelt. Jedes Merkmal 184 ist einer bestimmten Berührung zugeordnet, wie z.B. von den Spitzen eines jeden Fingers 176, welche den Knopf 170 umgeben, sowie dem Daumen der anderen Hand 177, die verwendet wird, um den Tablett PC 175 zu halten.
  • Wie es in der 6D gezeigt ist, werden die Merkmale 184 klassifiziert, d.h., jeder Finger/Daumen wird identifiziert, und für jedes der Bilder 180 und 182 gruppiert. In diesem konkreten Fall werden die dem Knopf 170 zugeordneten Merkmale 184A gruppiert, um die Gruppe 188 zu bilden, und das Merkmal 184B, das dem Daumen zugeordnet ist, wird herausgefiltert. Bei alternativen Gestaltungen kann das Daumenmerkmal 184B als ein getrenntes Merkmal in Alleinstellung (oder in einer anderen Gruppe) behandelt werden, z.B., um den Eingabe- oder Betriebsmodus des Systems zu ändern, oder eine andere Geste zu implementieren, z.B., eine Schiebergeste, die einem Entzerrungsschieber zugeordnet ist, der auf dem Bildschirm im Bereich des Daumens (oder eines anderen Fingers) angezeigt wird.
  • Wie es in 6E gezeigt ist, werden für jedes Bild 180 und 182 die Schlüsselparameter der Merkmalsgruppe 188 berechnet. Die dem ersten Bild 180 zugeordneten Schlüsselparametern repräsentieren den Anfangszustand, und die Schlüsselparameter des zweiten Bildes 182 repräsentieren den gegenwärtigen Zustand.
  • Wie es ebenso in der 6E gezeigt ist, ist der Knopf 170 das der Merkmalsgruppe 188 zugeordnete Nutzeroberflächenelement, wegen deren Nähe zum Knopf 170. Anschließend, wie es in 6F gezeigt ist, werden die Schlüsselparameterwerte der Merkmalsgruppe 188 von jedem Bild 180 und 182 verglichen, um den Rotationsvektor zu bestimmen, das heißt, dass sich die Merkmalsgruppe vom anfänglichen zum gegenwärtigen Zustand um fünf (5) Grad im Uhrzeigersinn gedreht hat. In der 6F ist die anfängliche Merkmalsgruppe (Bild 180) mit gestrichelten Linien gezeigt, während die gegenwärtige Merkmalsgruppe (Bild 182) mit durchgezogenen Linien gezeigt ist.
  • Wie es in der 6G gezeigt ist, erhöht (oder verringert) der Lautsprecher 192 des Tablett PC's 175 seine Ausgabe auf der Grundlage des Rotationsvektors, gemäß der Drehweite der Finger 176, d.h., eine Erhöhung der Lautstärke um 5% auf der Grundlage einer Drehung von fünf Grad. Die Anzeige 174 des Tablett PC's kann ebenfalls die Drehung des Knopf 170 gemäß der Drehweite der Finger 176 anpassen, d.h., dass die Position des Knopfs 170 sich um fünf (5) Grad dreht. In den meisten Fällen erfolgt das Drehen des Knopfs gleichzeitig mit der Drehung der Finger, d.h., dass für jeden Grad an Fingerdrehung sich der Knopf um ein Grad dreht. Im Wesentlichen folgt der virtuelle Steuerknopf der Geste, die auf dem Bildschirm erfolgt. Weiterhin kann eine Audioeinheit 194 des Tablett PC's für jede Dreheinheit ein Klickgeräusch bereitstellen, z.B. fünf Klicks bereitstellen, auf der Grundlage einer Drehung von fünf Grad. Außerdem kann eine haptische Einheit 196 des Tablett PC's 175 ein gewisses Maß an Vibration oder eine andere taktile Rückmeldung für jeden Klick bereitstellen, wodurch ein tatsächlicher Knopf simuliert wird.
  • Es ist zu bemerken, dass zusätzliche Gesten gleichzeitig zur Geste für den virtuellen Steuerknopf ausgeführt werden können. Zum Beispiel kann unter Verwendung beider Hände mehr als ein virtueller Steuerknopf gleichzeitig gesteuert werden, d.h., eine Hand für jeden virtuellen Steuerknopf. Alternativ oder zusätzlich können eine oder mehrere Schieberleisten gleichzeitig mit dem virtuellen Steuerknopf gesteuert werden, d.h., dass eine Hand den virtuellen Steuerknopf bedient, während wenigstens ein Finger und vielleicht mehr als ein Finger der anderen Hand wenigstens einen Schieber bedient, und möglicherweise mehr als eine Schieberleiste, z.B. eine Schieberleiste für jeden Finger.
  • Es ist auch anzumerken, dass, obwohl die Ausführungsform mit Hilfe eines virtuellen Steuerknopfs beschrieben wird, das Nutzeroberflächenelement bei einer anderen Ausführungsform ein virtuelles Bildlaufrad sein kann. Beispielhaft kann das virtuelle Bildlaufrad ein tatsächliches Bildlaufrad nachahmen, wie z.B. solche, die in den US Patentveröffentlichungen Nr. 2003/0076303 A1 , 2003/0076301 A1 , 2003/0095096 A1 beschrieben sind, die hiermit durch Bezugname alle in die Offenbarung mit aufgenommen werden. Wenn der Nutzer seine Finger auf der Oberfläche des virtuellen Bildlaufrads platziert und eine wirbelartige, drehende oder tangentiale Gestenbewegung ausführt, kann z.B. in Bezug auf eine in einem Fenster angezeigte Objektliste ein Bildlaufvorgang durchgeführt werden.
  • 7 ist ein Diagramm eines berührungsbasierten Verfahrens 200. Das Verfahren beginnt allgemein beim Kasten 202, wo eine Nutzereingabe, die über einer Mehrpunktsensoreinrichtung erfolgt, erfasst wird. Die Nutzereingabe umfasst eine oder mehrere Berührungseingaben, wobei jede Berührungseingabe eine eindeutige Kennung hat. Im Anschluss an den Kasten 202 fährt das berührungsbasierte Verfahren 200 mit dem Kasten 204 fort, wo die Nutzereingabe als eine Verfolgungs- oder Auswahleingabe klassifiziert wird, wenn die Nutzereingabe eine einzige eindeutige Kennung umfasst (Eingabe mit einer Berührung), oder als eine Gesteneingabe klassifiziert wird, wenn die Nutzereingabe wenigstens zwei eindeutige Kennungen umfasst (mehr als eine Berührungseingabe). Wenn die Nutzereingabe als eine Verfolgungseingabe klassifiziert wird, fährt das berührungsbasierte Verfahren 200 mit dem Kasten 206 fort, wo eine Verfolgung gemäß der Nutzereingabe durchgeführt wird. Wenn die Nutzereingabe als eine Gesteneingabe klassifiziert wird, fährt das berührungsbasierte Verfahren 200 mit dem Kasten 208 fort, wo eine oder mehrere Gestensteuerhandlungen gemäß der Nutzereingabe durchgeführt werden. Die Gestensteuerhandlungen basieren zumindest teilweise auf Veränderungen, die mit oder zwischen den wenigstens zwei eindeutigen Kennungen stattfinden.
  • 8 ist ein Diagramm eines berührungsbasierten Verfahrens 250. Das berührungsbasierte Verfahren 250 beginnt allgemein beim Kasten 252, wo ein anfängliches Bild während eines Eingabestrichs auf einer berührungsempfindlichen Oberfläche aufgenommen wird. Im Anschluss an den Kasten 252 fährt das berührungsbasierte Verfahren 250 mit dem Kasten 254 fort, wo auf der Grundlage des anfänglichen Bildes der Berührungsmodus bestimmt wird. Zum Beispiel kann, wenn das anfängliche Bild eine einzige eindeutige Kennung umfasst, der Berührungsmodus einem Verfolgungs-(tracking) oder Auswahlmodus entsprechen. Andererseits kann, falls das Bild mehr als eine eindeutige Kennung umfasst, der Berührungsmodus einem Gestenmodus entsprechen. Im Anschluss an den Kasten 254 fährt das berührungsbasierte Verfahren 250 mit dem Kasten 256 fort, wo ein nächstes Bild während des Eingabestrichs auf der berührungsempfindlichen Oberfläche aufgenommen wird. Typischer Weise werden die Bilder während des Strichs sequenziell aufgenommen, und folglich kann es eine Mehrzahl von Bildern geben, die dem Strich zugeordnet sind. Im Anschluss an den Kasten 256 fährt das berührungsbasierte Verfahren 250 mit dem Kasten 258 fort, wo festgestellt wird, ob sich der Berührungsmodus zwischen der Aufnahme des anfänglichen Bildes und der Aufnahme des nachfolgenden Bildes verändert hat. Falls sich der Berührungsmodus verändert hat, fährt das berührungsbasierte Verfahren 250 mit dem Kasten 260 fort, wo das nachfolgende Bild als das anfängliche Bild festgelegt wird, und anschließend wird erneut auf der Grundlage des neuen anfänglichen Bildes beim Kasten 254 der Berührungsmodus bestimmt. Falls der Berührungsmodus gleichgeblieben ist, fährt das berührungsbasierte Verfahren 250 mit dem Kasten 262 fort, wo das anfängliche und das nachfolgende Bild verglichen werden und eines oder mehrere Steuersignale auf der Grundlage des Vergleichs erzeugt werden.
  • 9 ist ein Diagramm eines berührungsbasierten Verfahrens 300. Das berührungsbasierte Verfahren 300 beginnt beim Kasten 302, wo ein Objekt der graphischen Nutzeroberfläche ausgegeben wird. Zum Beispiel kann ein Prozessor eine Anzeige anweisen, ein besonderes Objekt der graphischen Nutzeroberfläche anzuzeigen. Im Anschluss an den Kasten 302 fährt das berührungsbasierte Verfahren 300 mit dem Kasten 304 fort, wo über dem Objekt der graphischen Nutzeroberfläche eine Gesteneingabe empfangen wird. Zum Beispiel kann ein Nutzer seine Finger gestenartig auf der Oberfläche des Berührungsbildschirms absetzen oder bewegen und über dem angezeigten Objekt der graphischen Nutzeroberfläche verweilen. Die Gesteneingabe kann eine oder mehrere einzelne Gesten umfassen, die nacheinander erfolgen, oder mehrere Gesten, die gleichzeitig erfolgen. Jede der Gesten hat im Allgemeinen eine ihr zugeordnete besondere Sequenz, Bewegung oder Orientierung. Zum Beispiel kann eine Geste das Auseinanderspreizen der Finger oder das Zusammenführen der Finger, das Drehen der Finger, das Versetzen der Finger, und/oder ähnliches umfassen.
  • Im Anschluss an den Kasten 304 fährt das berührungsbasierte Verfahren 300 mit dem Kasten 306 fort, wo das Objekt der graphischen Nutzeroberfläche auf der Grundlage und im Einklang mit der Gesteneingabe modifiziert wird. Modifiziert heißt, dass sich das Objekt der graphischen Nutzeroberfläche gemäß der gerade durchgeführten konkreten Geste oder Gesten verändert. Im Einklang heißt, dass die Änderungen annähernd während der Durchführung der Geste oder Gesten erfolgen. In den meisten Fällen besteht eine eins zu eins Beziehung zwischen der (den) Geste(n) und den beim Objekt der graphischen Nutzeroberfläche erfolgenden Änderungen, und sie erfolgen im Wesentlichen gleichzeitig. Im Wesentlichen folgt das Objekt der graphischen Nutzeroberfläche der Bewegung der Finger. Zum Beispiel kann ein Spreizen der Finger gleichzeitig das Objekt vergrößern, kann ein Schließen der Finger gleichzeitig das Objekt der graphischen Nutzeroberfläche verkleinern, kann ein Drehen der Finger gleichzeitig das Objekt drehen, kann ein Verschieben der Finger ein gleichzeitiges Mitführen oder Durchlaufen des Objekts der graphischen Nutzeroberfläche erlauben.
  • Bei einer Ausführungsform kann der Kasten 306 die Bestimmung umfassen, welches Objekt der graphischen Nutzeroberfläche der gerade durchgeführten Geste zugeordnet ist, und anschließend die Fixierung des angezeigten Objekts an den über ihm angeordneten Fingern, sodass das Objekt der graphischen Nutzeroberfläche sich gemäß der Gesteneingabe verändert. Indem die Finger mit dem Objekt der graphischen Nutzeroberfläche fixiert oder diesem zugeordnet werden, kann das Objekt der graphischen Nutzeroberfläche sich fortlaufend gemäß dem anpassen, was die Finger auf dem Berührungsbildschirm machen. Oft erfolgt die Be stimmung und Fixierung beim Absetzen, d.h., wenn der Finger auf dem Berührungsbildschirm positioniert ist.
  • 10 ist ein Diagramm eines Zoom-Gestenverfahrens 350. Die Zoomgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Zoomgestenverfahren 350 beginnt allgemein beim Kasten 352, wo die Anwesenheit wenigstens eines ersten Fingers und eines zweiten Fingers gleichzeitig auf einer Berührungsempfindlichen Oberfläche erfasst wird. Die Anwesenheit wenigstens zweier Finger ist darauf festgelegt anzugeben, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt irgendeine Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung dahingehend festgelegt sein, dass sie unabhängig davon wirkt ob zwei, drei, vier oder mehr Finger in Berührung sind, und sogar, wenn die Anzahl sich während der Geste verändert, d.h., es wird zu jeder Zeit während der Gesten nur ein Minimum von zwei Fingern benötigt.
  • Im Anschluss an den Kasten 352 fährt das Zoomgestenverfahren 350 mit dem Kasten 354 fort, wo der Abstand zwischen den wenigstens zwei Fingern verglichen wird. Der Abstand kann derjenige von Finger zu Finger sein, oder von jedem Finger zu einem anderen Referenzpunkt, wie z.B. dem Schwerpunkt. Falls sich der Abstand zwischen den zwei Fingern vergrößert (Auseinanderspreizen), wird ein Heranzoomsignal erzeugt, wie es im Kasten 356 gezeigt ist. Wenn der Abstand zwischen den zwei Fingen sich verringert (zusammenführen), wird ein Herauszoomsignal erzeugt, wie es im Kasten 358 gezeigt ist. In den meisten Fällen wird das Absetzen der Finger diese einem besonderen gerade angezeigten Objekt der graphischen Nutzeroberfläche zuordnen oder damit fixieren. Zum Beispiel kann die berührungsempfindliche Oberfläche ein Berührungsbildschirm sein, und das Objekt der graphischen Nutzeroberfläche kann auf dem Berührungsbildschirm angezeigt sein. Dies erfolgt typischer Weise, wenn wenigstens einer der Finger über dem Objekt der graphischen Nutzeroberfläche positioniert ist. Als Ergebnis kann, wenn die Finger auseinander bewegt werden, das Heranzoomsignal verwendet werden, um die Größe der im Objekt der graphischen Nutzeroberfläche eingebetteten Merkmale zu vergrößern, und, wenn die Finger zusammengekniffen werden, kann das Herauszoomsignal verwendet werden, um die Größe der im Objekt eingebetteten Merkmale zu verringern. Das Zoomen erfolgt typischer Weise innerhalb einer vorbestimmten Grenze, wie z.B. die Peripherie der Anzeige, die Peripherie eines Fensters, dem Rand des Objekts der graphischen Nutzeroberfläche, und/oder ähnlichem. Die eingebetteten Merkmale können über eine Mehrzahl von Lagen ausgebildet sein, wobei jede eine unterschiedliche Zoomstufe repräsentiert. In den meisten Fällen verändert sich die Zoomstärke gemäß dem Abstand zwischen den zwei Objekten. Weiterhin kann das Zoomen typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel, während die Finger auseinander gespreizt oder zusammengeführt werden, zoomt gleichzeitig das Objekt heran oder weg. Obwohl diese Methodologie auf das Zoomen abzielt, ist anzumerken, dass sie auch für das Vergrößern oder Verkleinern verwendet werden kann. Das Zoomgestenverfahren 350 kann in graphischen Programmen, wie z.B. Veröffentlichungs-(publishing), Foto- und Zeichenprogrammen besonders nützlich sein. Weiterhin kann das Zoomen eingesetzt werden, um ein Peripheriegerät wie z.B. eine Kamera zu steuern, d.h., dass, wenn die Finger auseinandergespreizt werden, die Kamera herauszoomt, und, wenn die Finger geschlossen werden, die Kamera hereinzoomt.
  • Die 11A bis 11H veranschaulichen eine Zoomsequenz unter Verwendung des oben beschriebenen Verfahrens. Die 11A veranschaulicht eine Anzeige, die ein Objekt 364 einer graphischen Nutzeroberfläche in der Form einer Karte Nordamerikas präsentiert, mit eingebetteten Ebenen, die gezoomt werden können. In manchen Fällen wird, wie gezeigt, das Objekt der graphischen Nutzeroberfläche innerhalb eines Fensters positioniert, das eine Grenze des Objekts 364 der graphischen Nutzeroberfläche bildet. Die 11B veranschaulicht einen Nutzer, der seine Finger 366 über einer Region Nordamerikas 368, insbesondere die ver ten Staaten 370 und ganz besonders Kalifornien 372 positioniert. Um Kalifornien 372 heran zu zoomen, beginnt der Nutzer damit, seine Finger 366 auseinander zu spreizen, wie es in der 11C gezeigt ist. Mit dem weiteren Auseinanderspreizen der Finger 366 (der Abstand vergrößert sich) zoomt die Karte weiterhin Nordkalifornien 374 heran, dann eine bestimmte Region von Nordkalifornien 374, dann das Suchtgebiet 376, dann die Halbinsel 378 (z.B. das Gebiet zwischen San Franzisko und der San Jose Gegend), und dann die Stadt von San Carlos 380, die sich zwischen San Franzisko und San Jose befindet, wie es in den 11D bis 11H veranschaulicht ist. Um aus San Carlos 380 heraus und zurück nach Nordamerika 368 zu zoomen, werden die Finger 366 wieder gemäß der oben beschriebenen Sequenz, aber in umgekehrter Reihenfolge, geschlossen.
  • 12 ist ein Diagramm eines Mitführverfahrens 400. Die Mitführgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Mitführverfahren 400 beginnt allgemein beim Kasten 402, wo die Anwesenheit wenigstens eines ersten Objekts und eines zweiten Objekts auf einer berührungsempfindlichen Oberfläche gleichzeitig erfasst wird. Die Anwesenheit wenigstens zweier Finger ist dahingehend festgelegt, dass sie angibt, dass die Berührung eine Gestenberührung ist, anstatt einer Verfolgungs-(tracking)-berührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst wenn die Anzahl während der Geste wechselt, d.h., es nur ein Minimum von zwei Finger benötigt. Im Anschluss an den Kasten 402 fährt das Mitführverfahren 400 zum Kasten 404 fort, wo die Position der zwei Objekte, wenn die Objekte gemeinsam über den Berührungsbildschirm bewegt werden, überwacht wird. Im Anschluss an den Kasten 404 fährt das Mitführverfahren 400 mit dem Kasten 406 fort, wo ein Mitführsignal erzeugt wird, wenn die Position der zwei Objekte sich im Verhältnis zu einer Anfangsposition verändert. In den meisten Fällen wird das Absetzen der Finger die Finger einem bestimmten auf dem Berührungsbildschirm angezeigten Objekt der graphischen Nutzeroberflächen zuordnen oder sie mit diesen fixieren. Typischer Weise, wenn wenigstens einer der Finger über dem Bild auf dem Objekt der graphischen Nutzeroberfläche positioniert ist. Daraus ergibt sich, dass, wenn die Finger gemeinsam über dem Berührungsbildschirm bewegt werden, das Mitführsignal verwendet werden kann, um das Bild in Richtung der Finger zu verschieben. In den meisten Fällen ändert sich das Ausmaß des Mitführens gemäß der Strecke, um welche sich die zwei Objekte bewegen. Weiterhin kann das Mitführen typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel, während sich die Finger bewegen, bewegt sich das Objekt zeitgleich mit den Fingern.
  • Die 13A bis 13D veranschaulichen eine Mitführsequenz, die auf dem oben beschriebenen Mitführverfahren 400 basiert. Unter Verwendung der Karte der 11 veranschaulicht 13A einen Nutzer, der seine Finger 366 über der Karte positioniert. Beim Absetzen werden die Finger 366 mit der Karte fixiert. Wie es in der 13B gezeigt ist, wird, wenn die Finger 366 senkrecht nach oben bewegt werden, die gesamte Karte 364 nach oben bewegt, wobei veranlasst wird, dass bisher gesehene Abschnitte der Karte 364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte 364 innerhalb des Sichtbereichs platziert werden. Wie es in der 13C gezeigt ist, wird, wenn die Finger 366 waagerecht zur Seite bewegt werden, die gesamte Karte 364 zur Seite bewegt, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte 364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie es in 13D gezeigt ist, wird, wenn die Finger 366 diagonal bewegt werden, die gesamte Karte 364 diagonal bewegt, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte 364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie man erkennt, folgt die Bewegung der Karte 364 der Bewegung der Finger 366. Dieser Prozess ist ähnlich dem Verschieben eines Blatt Papiers entlang eines Tisches. Der durch die Finger auf das Papier ausgeübte Druck fixiert das Papier an den Fingern, und wenn die Finger über den Tisch verschoben werden, bewegt sich das Stück Papier mit ihnen.
  • 14 ist ein Diagramm eines Drehverfahrens 450. Die Drehgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Drehverfahren 450 beginnt allgemein beim Kasten 452, wo die Anwesenheit eines ersten Objekts und eines zweiten Objekts gleichzeitig erfasst wird. Die Anwesenheit von wenigstens zwei Fingern ist dahin gehend festgelegt, dass sie angibt, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst wenn sich die Anzahl während der Geste verändert, d.h., das nur ein Minimum von zwei Fingern benötigt wird.
  • Im Anschluss an den Kasten 452 fährt das Drehverfahren 450 mit dem Kasten 454 fort, wo der Winkel eines jeden Fingers festgelegt wird. Typischer Weise werden die Winkel in Bezug zu einem Referenzpunkt bestimmt. Im Anschluss an den Kasten 454 fährt das Drehverfahren 450 mit dem Kasten 456 fort, wo ein Drehsignal erzeugt wird, wenn der Winkel wenigstens eines der Objekte sich im Verhältnis zum Bezugspunkt ändert. In den meisten Fällen wird das Absetzen der Finger die Finger einem bestimmten auf dem Berührungsbildschirm angezeigten Objekt der graphischen Nutzeroberfläche zuordnen, oder sie mit diesem fixieren. Typischer Weise wird, wenn wenigstens einer der Finger über dem Bild auf dem Objekt der graphischen Nutzeroberfläche positioniert ist, das Objekt der graphischen Nutzeroberfläche den Fingern zugeordnet oder an diesen fixiert. Es ergibt sich daraus, dass, wenn die Finger gedreht werden, das Drehsignal verwendet werden kann, um das Objekt in Richtung der Fingerdrehung zu drehen (z.B. im Uhrzeigersinn oder gegen den Uhrzeigersinn). In den meisten Fällen ändert sich das Ausmaß der Drehung des Objekts gemäß dem Ausmaß der Fingerdrehung, d.h., dass wenn die Finger sich um fünf Grad bewegen, das Objekt das gleiche tut. Weiterhin kann die Drehung typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Finger erfolgen. Zum Beispiel, während sich die Finger drehen, dreht sich das Objekt gleichzeitig mit den Fingern.
  • Die 15A bis 15C veranschaulichen eine Drehsequenz, die auf dem oben beschriebenen Verfahren basiert. Unter Verwendung der Karte der 11 veranschaulicht die 15A einen Nutzer, der seine Finger 366 über der Karte 364 positioniert. Beim Absetzen werden die Finger 366 mit der Karte 364 fixiert. Wie es in der 15B gezeigt ist, wird, wenn die Finger 366 im Urzeigersinn gedreht werden, die gesamte Karte 364 im Urzeigersinn gedreht, gemäß dem Drehen der Finger 366. Wie es in der 15C gezeigt ist, wird, wenn die Finger 366 entgegen dem Uhrzeigersinn gedreht werden, die gesamte Karte 364 gegen den Urzeigersinn gedreht, gemäß den drehenden Fingern 366.
  • Es ist anzumerken, dass die in den 10 bis 15 beschriebenen Verfahren während desselben gestenartigen Strichs umgesetzt sein können. Das heißt, dass Zoomen, Drehen und Mitführen alle während des gestenartigen Strichs ausgeführt werden können, der ein Spreizen, Drehen und Verschieben der Finger umfassen kann. Zum Beispiel wird beim Absetzen wenigstens zweier Finger das angezeigte Objekt (die Karte) den zwei Fingern zugeordnet oder an diesen fixiert. Um zu zoomen kann der Nutzer die Finger spreizen oder zusammenführen. Um zu drehen, kann der Nutzer seine Finger drehen. Um mitzuführen, kann der Nutzer seine Finger verschieben. Jede dieser Aktionen kann gleichzeitig innerhalb einer kontinuierlichen Bewegung stattfinden. Zum Beispiel kann der Nutzer seine Finger spreizen und schließen, während er sie über dem Berührungsbildschirm dreht und verschiebt. Alternativ kann der Nutzer jede dieser Bewegungen segmentieren, ohne den gestenartigen Strich zurücksetzen zu müssen. Zum Beispiel kann der Nutzer als erstes seine Finger spreizen, dann seine Finger drehen, dann seine Finger schließen, dann seine Finger verschieben usw.
  • 16 ist ein Diagramm eines Verfahrens 500 zum Betreiben einer graphischen Nutzeroberfläche. Das Betriebsverfahren 500 für die graphische Nutzeroberfläche ist dafür ausgelegt, um in einer graphischen Nutzeroberfläche hervortretende Steuerelemente auszulösen. Das Betriebsverfahren 500 für eine graphische Nutzeroberfläche beginnt allgemein bei einem Kasten 502, wo die Anwesenheit eines Objekts wie z.B. eines Fingers oder Daumens erfasst wird. Dies kann z.B. durch Verwendung eines Berührungsbildschirms erreicht werden. Im Anschluss an den Kasten 502 fährt das Betriebsverfahren 500 für eine graphische Nutzeroberfläche mit dem Kasten 504 fort, wo das Objekt erkannt wird (die Identität des Objekts wird herausgefunden). Das Objekt kann unter einer Mehrzahl von Objekten erkannt werden. Siehe z.B. oben, den Kasten 104 der 2.
  • Im Anschluss an den Kasten 504 fährt das Betriebsverfahren 500 für eine graphische Nutzeroberfläche mit dem Kasten 506 fort, wo ein Bild in der Nähe des Objekts erzeugt wird. Typischer Weise basiert das Bild auf dem erkannten Objekt. Das Bild kann Fenster, Felder, Dialogfenster, Menüs, Ikons, Knöpfe, Zeiger, Bildlaufbalken, usw. umfassen. In manchen Fällen kann der Nutzer das Bild (oder darin eingebettete Merkmal) auswählen und aktivieren, um Funktionen und Aufgaben zu initiieren. Beispielhaft kann das Bild ein Element einer Nutzeroberfläche oder eine Gruppe von Elementen einer Nutzeroberfläche sein (z.B., ein oder mehrere Knöpfe, die ein Fenster öffnen, schließen, minimieren oder maximieren). Bei dem Bild kann es sich auch um eins oder mehrere Ikons handeln, die ein besonderes Programm oder Dateien starten, die sich öffnen, wenn sie ausgewählt werden. Zusätzlich kann das Bild nicht interaktivem Text und Graphiken entsprechen. In den meisten Fällen wird das Bild solange angezeigt wie das Objekt erfasst wird, oder es kann während einer vorher eingestellten Zeitspanne angezeigt werden, d.h., dass es nach einer Zeitspanne abgelaufen ist und entfernt wird.
  • Bei einer besonderen Ausführungsform umfasst das Bild eine oder mehrere Steueroptionen, die durch den Nutzer ausgewählt werden können. Die Steueroptionen können einen oder mehrere Steuerknöpfe umfassen, um diverse Aufgaben umzusetzen. Zum Beispiel kann dass Steueroptionsfenster Steuerknöpfe zum Musikhören umfassen, wie z.B. Abspielen, Pause, Suchlauf und Menü.
  • Die 17A bis 17E veranschaulichen eine Sequenz mit hervortretendem Steuerelement, die das oben beschriebene Verfahren einsetzt. Wie es in der 17A gezeigt ist, verwendet ein Nutzer 510 einen Tablett PC 512 und hält folglich den Tablett PC 512 mit einer Hand 514 während er mit der anderen Hand 516 navigiert (z.B. verfolgen (tracking), gestikulieren). Wie es in der 17B gezeigt ist, die eine Nahansicht des den Tablett PC 512 haltenden Nutzers ist, ist ein Abschnitt des Daumens der haltenden Hand 514 über dem Berührungsbildschirm 520 positioniert. Wie es in 17C gezeigt ist, erkennt der Tablett PC 512 den Daumen und zeigt in der Nähe des Daumen ein Steuerfeld 522 an. Das Steuerfeld 522 umfasst diverse Knöpfe 524, die durch den Daumen des Nutzers ausgewählt werden können, um in dem Tablett PC 512 Aufgaben zu initiieren. Wie es in der 17D gezeigt ist, wird, während der Tablett PC 512 gehalten wird, der Daumen über einem der Knöpfe 524 ausgestreckt, welcher anschließend angetippt wird, wodurch die dem Knopf 524 zugeordnete Aufgabe ausgewählt wird. Beispielhaft kann die Aufgabe dem Starten eines Programms oder dem Zugriff zu einem Netzwerk oder dem Ändern des Betriebsmodus der Einrichtung zugeordnet sein. Das Steuerfeld 522 und die Knöpfe 524 können verwendet werden, um den Eingabemodus des Berührungsbildschirms 520 zu ändern, sodass z.B. die identische Geste, die mit den Fingern der anderen Hand des Nutzers ausgeführt wird, mehrere Bedeutungen haben kann, in Abhängigkeit davon, welcher der Knöpfe 524 ausgewählt ist. Wie es in der 17E gezeigt ist, kann, wenn der Daumen vom Berührungsbildschirm 520 wegbewegt wird, das Steuerfeld 522 ablaufen und verschwinden. Alternativ kann das Steuerfeld unter Verwendung herkömmlicher Schließikons oder -knöpfe geschlossen werden.
  • Die 18 ist ein Diagramm eines Betriebsverfahrens 550 für eine graphische Nutzeroberfläche. Das Betriebverfahren 550 für eine graphische Nutzeroberfläche ist dafür ausgelegt, das Zoomen von Zielen auszulösen. Das Betriebsverfahren 550 für eine graphische Nutzeroberfläche beginnt allgemein bei einem Kasten 552, wo ein Steuerfeld in Form eines Elements einer graphischen Nutzeroberfläche angezeigt wird. Das Steuerfeld enthält einen oder mehrere Steuerknöpfe, die recht nahe bei einander liegen, und die verwendet werden können, um Aktionen auszuführen. Das Steuerfeld kann z.B. Steuerknöpfe wie etwa Maximieren, Minimieren, Schließen und ähnliches umfassen. Im Anschluss an den Kasten 552 fährt das Betriebsverfahren 550 für eine graphische Nutzeroberfläche mit dem Kasten 554 fort, wo das Steuerfeld vergrößert wird, oder wenigstens einer der Steuerknöpfe vergrößert wird, während einer Zeitspanne, über welche die Anwesenheit eines Objekts über dem Steuerfeld oder einem der Steuerknöpfe erfasst wird. Indem Fall, wo das Steuerfeld vergrößert wird, wird jeder der Steuerknöpfe vergrößert, wodurch deren Auswahl viel leichter gemacht wird. In dem Fall, wo nur der Steuerknopf vergrößert wird, würde der Nutzer entscheiden, ob dies der richtige Knopf ist, und falls dies der Fall ist, den vergrößerten Steuerknopf auswählen, oder den Prozess erneut starten, sodass der geeignete Steuerknopf präsentiert wird. In den meisten Fällen entspricht die Größe der Steuerknöpfe der Größe des Fingers, sodass sie durch das Objekt leicht ausgewählt werden können. Im Anschluss an den Kasten 554 fährt das Betriebsverfahren 550 für eine graphische Nutzeroberfläche mit dem Kasten 556 fort, wo ein dem ausgewählten Steuerknopf zugeordnetes Steuersignal erzeugt wird, wenn die Anwesenheit des Objekts über einem der vergrößerten Steuerknöpfe erfasst wird.
  • Die 19A bis 19D veranschaulichen eine Sequenz zum Zoomen eines Ziels unter Verwendung des oben beschriebenen Betriebsverfahrens 550 für eine graphische Nutzeroberfläche. Wie es in der 19A gezeigt ist, platziert ein Nutzer 510 seinen Finger 576 über ein Steuerfeld 578. Da die Knöpfe 580 des Steuerfelds 578, in welchem sie enthalten sind, kleiner sind als der Finger 576 und nahe bei einander liegen, ist es für den Nutzer 510 schwierig, direkt eine Auswahl vorzu nehmen, ohne möglicherweise einen unerwünschten Knopf 580 zu drücken, z.B., ein Knopf neben dem gewünschten Knopf. Beispielhaft kann der Finger 576 zwei oder mehr Knöpfe 580 abdecken. Wie es in 19B gezeigt ist, wird wenigstens ein Abschnitt des Steuerfeldes 578 vergrößert, der die darin enthaltenen Knöpfe 580 enthält, wenn der Nutzer seinen Daumen über dem Steuerfeld platziert. Wie es in 19C gezeigt ist, sobald das Steuerfeld seinen vergrößerten Zustand erreicht hat, kann der Nutzer einen der vergrößerten Knöpfe auswählen, der nun näher an der Größe des Daumens liegt. Beispielhaft kann der Nutzer den gewünschten Steuerknopf antippen. Wie es in der 19D gezeigt ist, verringert sich das Steuerfeld auf seine Anfangsgröße, nachdem der Knopf ausgewählt ist, oder nach einer vorbestimmten Zeitspanne, während welcher keine Auswahl erfolgt ist (es läuft zum Beispiel ab), oder wenn der Nutzer seinen Finger von dem Steuerfeld wegbewegt.
  • 20 ist ein Diagramm eines Betriebsverfahrens 600 einer graphischen Nutzeroberfläche. Das Betriebsverfahren 600 einer graphischen Nutzeroberfläche ist dafür ausgelegt, das Blättern einer Seite auszulösen. Das Betriebsverfahren 600 einer graphischen Nutzeroberfläche beginnt allgemein beim Kasten 602, wo eine Seite unter einer Vielzahl von Seiten in einer graphischen Nutzeroberfläche angezeigt wird. Beispielhaft können die Seiten einem elektronischen Buch zugeordnet sein. Im Anschluss an den Kasten 602 fährt das Betriebsverfahren 600 einer graphischen Nutzeroberfläche mit dem Kasten 604 fort, wo die Anwesenheit eines Objekts (oder von Objekten) in einem vorbestimmten Bereich über der Seite erfasst wird. Der vorbestimmte Bereich kann z.B. dem Bereich entsprechen, wo die Seitenzahl angezeigt ist. Im Anschluss an den Kasten 604 führt das Betriebsverfahren 600 einer graphischen Nutzeroberfläche mit dem Kasten 606 fort, wo ein Signal für ein Seitenblättern erzeugt wird, wenn das Objekt (oder die Objekte) innerhalb des vorbestimmten Bereichs verschoben wird. Die Verschiebung ist dafür ausgelegt, einen Finger zu simulieren, der in einem wirklichen papiergebundenen Buch die Seite umblättert. Die Richtung der Verschiebung gibt an, ob innerhalb der Liste an Seiten zur nächsten oder vorhergehenden Seite gegangen werden soll. Zum Beispiel wird dann, wenn der Finger von rechts nach links geführt wird, ein Signal für eine Seite rückwärts erzeugt, und wenn der Finger von links nach rechts geführt wird, wird ein Signal für eine Seite vorwärts erzeugt. Das Betriebsverfahren 600 für eine graphische Nutzeroberfläche kann auf mehrere Arten verbessert werden. Wenn mehrere Finger geführt werden, dann kann dies z.B. ein Signal zum Umblättern erzeugen, das größer als eine Seite ist. Zum Beispiel entspricht das Führen von zwei Fingern einem Umblättern von zwei Seiten, entspricht das Führen von drei Finger dem Umblättern von drei Seiten, usw. Oder ein Führen von zwei Fingern entspricht einem Umblättern von zehn Seiten, ein Führen von drei Fingern entspricht einem Umblättern von fünfzig Seiten, usw.
  • 21A21D veranschaulichen eine Sequenz zum Seitenblättern unter Verwendung des oben beschriebenen Betriebsverfahrens 600 für eine grafische Nutzeroberfläche. Wie es in der 21A gezeigt ist, bei der es sich um eine Nahansicht eines Nutzers 510 handelt, der einen Tablett PC 512 hält, führt der Nutzer seinen Finger über die Seitenzahl in eine Richtung zur linken Seite der Seite 630 hin. Wie es in 21B gezeigt ist, erkennt der Tablett PC 512 die geführte Bewegung und die Richtung der geführten Bewegung im Bereich der Seitenzahl, und folglich zeigt der Tablett PC 512 die nächste Seite einer Gruppe von Seiten an. Dies kann wiederholt durchgeführt werden, um die Gruppe an Seiten zu durchstreifen. Wie es in 21C gezeigt ist, führt der Nutzer seinen Finger 576 über die Seitenzahl in eine Richtung zur rechten Seite der Seite 630 hin. Wie es in 21D gezeigt ist, erkennt der Tablett PC 512 die geführte Bewegung und die Richtung der geführten Bewegung im Bereich der Seitenzahl, und folglich zeigt der Tablett PC 512 die vorherige Seite einer Gruppe an Seiten an. Dies kann wiederholt durchgeführt werden, um die Gruppe an Seiten zu durchstreifen.
  • 22 ist ein Diagramm eines Betriebsverfahrens 650 für eine grafische Nutzeroberfläche. Das Betriebsverfahren 650 für eine grafische Nutzeroberfläche ist dafür ausgelegt, um typischerweise während eines Bildlaufs- oder Mitführvorgangs eine Trägheit zu bewirken. Die Trägheit wird im Allgemeinen als die Nei gung definiert, die ein sich im Stillstand befindlicher Körper hat, im Stillstand zu bleiben, oder, die ein sich in Bewegung befindlicher Körper hat, in Bewegung entlang einer geraden Linie zu verbleiben, es sei denn, er wird durch eine äußere Kraft gestört. In dieser besonderen Ausführungsform sind der grafischen Nutzeroberfläche oder einem Abschnitt davon Trägheitseigenschaften zugeordnet, bei denen es sich um dessen Widerstand gegenüber einer Bewegungsänderungsrate handelt. Bei einer grafischen Nutzeroberfläche mit hohen Trägheitseigenschaften wird die Beschleunigung der grafischen Nutzeroberfläche für eine gegebene Eingabe gering sein. Andererseits, wenn die grafische Nutzeroberfläche geringe Trägheitseigenschaften hat, wird die Beschleunigung für eine gegebene Eingabe hoch sein.
  • Das Betriebsverfahren 650 für eine grafische Nutzeroberfläche beginnt allgemein beim Kasten 652, wo ein grafisches Bild auf einer grafischen Nutzeroberfläche angezeigt wird. Im Anschluss an den Kasten 652 fährt das Betriebsverfahren 650 für eine grafische Nutzeroberfläche mit dem Kasten 654 fort, wo ein Bildlauf- oder Mitführstrich auf einer berührungsempfindlichen Oberfläche erfasst wird. Beispielhaft kann der Strich ein Linear- oder Drehstrich sein. Bei einem Linearstrich folgt typischerweise die Richtung des Bildlaufs oder des Mitführens der Richtung des Strichs. Bei einem Drehstrich (siehe 6) wird der Drehstrich typischerweise in eine lineare Eingabe umgewandelt, wobei eine Bewegung im Uhrzeigersinn senkrecht nach oben und eine Bewegung gegen den Uhrzeigersinn senkrecht nach unten entsprechen kann. Im Anschluss an den Kasten 654 fährt der Verfahrensablauf mit dem Kasten 656 fort, wo die Geschwindigkeit und Richtung des Bildlauf- oder Mitführstrichs bestimmt wird. Im Anschluss an den Kasten 656 fährt das Betriebsverfahren 650 für eine grafische Nutzeroberfläche mit dem Kasten 658 fort, wo das Bild gemäß der Geschwindigkeit und Richtung des Bildlaufs- oder Mitführstrichs sowie zugeordneter Trägheitseigenschaften bewegt wird. Im Anschluss an den Kasten 658 fährt das Betriebsverfahren 650 für eine grafische Nutzeroberfläche mit dem Kasten 660 fort, wo die Bewegung des Bildes fortwährt, selbst wenn der Mitführstrich oder Bildlaufstrich nicht mehr erfasst wird.
  • Wenn z.B. der Nutzer seinen Finger von der berührungsempfindlichen Oberfläche abhebt, fährt die Bildlauf- oder Mitführfunktion fort, als ob der Bildlauf- oder Mitführstrich weiterhin ausgeführt würde. In manchen Fällen wird die Bewegung des Bildes endlos fortgeführt, bis irgendeine Brems-(Stoppen oder Verlangsamen)-Steuerung erfolgt. Diese besondere Methodik simuliert Schwerelosigkeit. In anderen Fällen wird die Bewegung des Bildes gemäß dem zugeordneten Betriebsverfahren 650 für eine grafische Nutzeroberfläche mit Trägheit verlangsamt. Metaphorisch gesprochen kann das Bild einem Stück Papier entsprechen, das sich über eine Tischplatte bewegt. Um das Stück Papier zu bewegen, übt der Nutzer auf das Papier eine Kraft in die gewünschte Richtung aus. Wenn der Nutzer seinen Finger vom Papier abhebt, wird das Papier weiterhin über einen gewissen Zeitraum entlang der Tischplatte in die gewünschte Richtung gleiten. Das Ausmaß des Gleitens nach dem Abheben des Fingers hängt allgemein unter anderem von dessen Masse, der durch den Finger angewandten Kraft, der zwischen dem Papier und der Tischplatte bestehenden Reibungskraft, usw. ab. Wie man weiß, stoppt bei der herkömmlichen Umsetzung eines Bildlaufs und Mitführens der Bildlauf oder das Mitführen, wenn die Finger abgehoben werden. Im Gegensatz dazu bewegt sich unter Verwendung der oben erwähnten Methodik der Bildlauf oder das Mitführen weiter, wenn die Finger abgehoben werden.
  • Das Betriebsverfahren 650 für eine grafische Nutzeroberfläche kann zusätzlich die Kasten A und B umfassen. Im Kasten A wird ein Objekt, wie z.B. ein Finger, auf der berührungsempfindlichen Oberfläche erfasst, wenn sich das Bild ohne Hilfe des Objekts bewegt (Kasten 660). Im Kasten B wird die Bewegung des Bildes gestoppt, wenn das Objekt erfasst wird, d.h. dass die neue Berührung als ein Bremsmittel dient. Unter Verwendung der obigen Metapher drückt der Nutzer, während das Stuck Papier über die Tischplatte gleitet, seinen Finger auf das Papier, wodurch dessen Bewegung gestoppt wird.
  • Die 23A bis 23D veranschaulichen eine Trägheitssequenz unter Verwendung des oben beschriebenen Verfahrens. Die 23A veranschaulicht eine Anzeige, die eine grafische Nutzeroberfläche 678 mit einem Fenster 679 präsentiert, das eine Liste 680 von Medienelementen 681 aufweist. Das Fenster 679 und die Liste 680 können z.B. einem Steuerfenster und einer Musikliste entsprechen, die sich in iTunesTM finden, das durch Apple Computer, Inc. aus Cupertino, Kalifornien, hergestellt wird. Wie es in 23B gezeigt ist, wird, wenn der Nutzer seinen Finger oder seine Finger 576 über den Berührungsbildschirm 520 gleiten lässt, ein senkrechter Bildlauf, der Medienelemente nach oben oder nach unten durch das Fenster bewegt, umgesetzt. Die Richtung des Bildlaufs kann derselben Richtung wie der Fingerbewegung folgen (wie es gezeigt ist) oder es kann in die entgegen gesetzte Richtung gehen. Bei einer besonderen Ausführungsform wird ein einzelner Finger verwendet, um die Medienelemente in der Liste auszuwählen, und es werden zwei Finger verwendet, um die Liste zu durchlaufen.
  • Ein Bildlauf betrifft allgemein das Bewegen von angezeigten Daten oder Bildern (z.B. Medienelemente 681) über eine Ansichtsfläche auf einem Anzeigebildschirm, so dass ein neuer Datensatz (z.B. Medienelemente 681) in der Ansichtsfläche in Sicht kommt. Sobald die Ansichtsfläche voll ist, erscheint in den meisten Fällen jeder neue Datensatz am Rand der Ansichtsfläche, und alle anderen Datensätze bewegen sich um eine Position weiter. Das heißt, dass der neue Datensatz für jeden Datensatz erscheint, der sich aus der Ansichtsfläche heraus bewegt. Im Wesentlichen erlauben es diese Funktionen einem Nutzer, sich einander anschließende Datensätze zu betrachten, die sich gegenwärtig außerhalb der Ansichtsfläche befinden. In den meisten Fällen kann der Nutzer die Durchquerung der Datensätze beschleunigen, indem er seinen Finger mit höherer Geschwindigkeit bewegt. Beispiele für das Durchlaufen von Listen können in den US-Patentveröffentlichungen Nr.: 2003/0076303A1 , 2003/0076301 A1 , 2003/0095096A1 gefunden werden, die hiermit durch Verweis in die Offenbarung aufgenommnen werden.
  • Wie es in der 23C gezeigt ist, bewegen sich die angezeigten Daten weiter, selbst wenn der Finger vom Berührungsbildschirm entfernt wird. Die fortlaufende Bewegung basiert zumindest teilweise auf der vorhergehenden Bewegung. Zum Beispiel kann der Bildlauf in der gleichen Richtung und mit derselben Geschwindigkeit fortfahren. In manchen Fällen verlangsamt sich der Bildlauf mit der Zeit, d.h., dass die Geschwindigkeit der Durchquerung der Medienelemente sich immer mehr verlangsamt, bis der Bildlauf schlussendlich anhält, wodurch eine statische Liste verbleibt. Beispielhaft kann jedes neue Medienelement, das in die Ansichtsfläche gebracht wird, die Geschwindigkeit inkrementell verringern. Alternativ oder zusätzlich, wie es in der 23D gezeigt ist, beenden die angezeigten Daten ihre Bewegung, wenn der Finger 576 zurück auf den Berührungsbildschirm 520 gesetzt wird. Das heißt, dass das erneute Absetzen des Fingers auf dem Berührungsbildschirm ein Bremsen umsetzen kann, das die fortlaufend wirkende Bewegung stoppt oder verlangsamt. Obwohl diese Sequenz auf einen senkrechten Bildlauf gerichtet ist, ist anzumerken, dass dies nicht eine Beschränkung ist und dass ein waagerechter Bildlauf sowie ein Mitführen unter Verwendung der oben beschriebenen Verfahren ausgeführt werden können.
  • 24 ist ein Diagramm eines Betriebssystems 700 für eine grafische Nutzeroberfläche. Das Verfahren 700 ist dafür ausgelegt, eine Tastatur zu simulieren. Das Verfahren beginnt allgemein beim Kasten 702, wo auf der Anzeige eine Tastatur präsentiert wird. Im Anschluss an den Kasten 702 fährt der Verfahrensvorgang mit dem Kasten 704 fort, wo die Anwesenheit eines ersten Objekts über einer ersten Taste und gleichzeitig eines zweiten Objekts über einer zweiten Taste auf einem Berührungsbildschirm erfasst wird. Der Berührungsbildschirm ist über oder vor der Anzeige positioniert. Beispielhaft kann die Anzeige eine Flüssigkristallanzeige (LCD) sein und kann der Berührungsbildschirm ein Mehrpunkt-Berührungsbildschirm sein. Im Anschluss an den Kasten 704 fährt der Verfahrensvorgang mit dem Kasten 706 fort, wo ein oder mehrere gleichzeitige Steuersignale erzeugt werden, wenn das erste Objekt über der ersten Taste erfasst wird, und wenn gleichzeitig das zweite Objekt über der zweiten Taste erfasst wird.
  • Bei einer Ausführungsform wird nur ein einziges Steuersignal erzeugt, wenn das erste Objekt über der ersten Taste erfasst wird, und wenn gleichzeitig das zweite Objekt über der zweiten Taste erfasst wird. Beispielhaft kann die erste Taste eine Umschalttaste sein, und kann die zweite Taste eine Symboltaste (z.B. Buchstaben, Zahlen) sein. Auf diese Weise wirkt die Tastatur wie eine herkömmliche Tastatur, d.h., dass es dem Nutzer erlaubt ist, mehrere Tasten gleichzeitig auszuwählen, um das Symbol zu ändern, d.h. Kleinschrift/Großschrift. Die Tasten können auch der Steuerungstaste, der Alt-Taste, der Escape-Taste, der Funktionstaste und Ähnlichern entsprechen.
  • Bei einer anderen Ausführungsform wird für jede betätigte Taste (Tastenberührung), die gleichzeitig erfolgt, ein Steuersignal erzeugt. Zum Beispiel können Zeichengruppen gleichzeitig getippt werden. In manchen Fällen kann die hinter der Tastatur ablaufende Anwendung dafür konfiguriert sein, die Reihenfolge der Zeichen auf der Grundlage einiger vorbestimmter Kriterien zu bestimmen. Zum Beispiel kann die Anwendung, obwohl die Zeichen durcheinander sein können, die richtige Reihenfolge der Zeichen auf der Grundlage von Rechtschreibung, Verwendung, Kontext und Ähnlichem bestimmen.
  • Obwohl nur zwei Tasten beschrieben sind, ist anzumerken, dass zwei Tasten keine Beschränkung darstellen und dass mehr als zwei Tasten gleichzeitig betätigt werden können, um ein oder mehrere Steuersignale zu erzeugen. Zum Beispiel kann eine Control-Alt-Delete-Funktionalität umgesetzt sein, oder es können größere Zeichengruppen gleichzeitig getippt werden.
  • Die 25A bis 25D veranschaulichen eine Tastatursequenz unter Verwendung des oben beschriebenen Verfahrens. Die 25A veranschaulicht eine Anzeige, die ein Objekt 730 einer grafischen Nutzeroberfläche in der Form einer Tastatur präsentiert. Wie es in der 25B gezeigt ist, positioniert ein Nutzer seine Finger 576 über dem Mehrpunkt-Berührungsbildschirm 520 über das Keyboard 730, um Daten in ein Textverarbeitungsprogramm einzugeben. Beispielhaft kann der Nut zer einen seiner Finger 576A auf der Q-Taste platzieren, um ein klein geschriebenes „q" im Textverarbeitungsprogramm zu erzeugen. Wie es in der 25C gezeigt ist, platziert der Nutzer, wenn er entscheidet, dass ein Buchstabe groß geschrieben sein soll, einen Finger 576B auf der Umschalttaste und einen anderen Finger 576A auf dem gewünschten Buchstaben (wie es durch die Pfeile gezeigt ist). Wie in 25D gezeigt ist, entfernt der Nutzer einfach, um weiter in Kleinschrift zu schrieben, seinen Finger 576B von der Umschalttaste und platziert seinen Finger 576A über einem gewünschten Buchstaben (wie es durch den Pfeil angegeben ist).
  • Die 26 ist ein Diagramm eines Betriebsverfahrens 750 für eine grafische Nutzeroberfläche. Das Verfahren 750 ist dafür ausgelegt, ein Bildlaufrad zu simulieren, wie diejenigen, die in den US-Patentveröffentlichungen Nr.: 2003/0076303 A1 , 2003/0076301 A1 , 2003/0095096 A1 beschrieben sind, wobei alle hiermit per Verweis in die Offenbarung aufgenommen werden. Das Verfahren beginnt allgemein beim Kasten 752, wo ein virtuelles Bildlaufrad auf der Anzeige präsentiert wird. In manchen Fällen kann das virtuelle Bildlaufrad in seiner Mitte einen virtuellen Knopf umfassen. Das virtuelle Bildlaufrad ist für die Umsetzung eines Bildlaufs, wie z.B. durch eine Liste, konfiguriert, und der Knopf ist zur Umsetzung von Auswahlen, wie z.B. in der Liste abgelegter Elemente, konfiguriert. Im Anschluss an den Kasten 752 fährt das Verfahren mit dem Kasten 754 fort, wo die Anwesenheit wenigstens eines ersten Fingers, und insbesondere eines ersten und eines zweiten Fingers (um zwischen Verfolgung und Gestikulieren zu unterscheiden) über dem virtuellen Bildlaufrad auf einem Berührungsbildschirm erfasst wird. Der Berührungsbildschirm ist über oder vor der Anzeige positioniert. Beispielhaft kann die Anzeige eine Flüssigkristallanzeige (LCD) sein, und kann der Berührungsbildschirm ein Mehrpunkt-Berührungsbildschirm sein. Im Anschluss an den Kasten 754 fährt das Verfahren mit dem Kasten 756 fort, wo die anfängliche Position der Finger auf dem virtuellen Bildlaufrad festgelegt wird. Beispielhaft kann der Winkel der Finger im Verhältnis zu einem Referenzpunkt bestimmt werden (z.B. 12 Uhr, 6 Uhr, usw.). Im Anschluss an den Kasten 756 fährt das Verfahren 750 mit dem Kasten 758 fort, wo ein Drehsignal erzeugt wird, wenn der Winkel der Finger sich im Verhältnis zum Bezugspunkt ändert. In den meisten Fällen assoziiert, verbindet oder fixiert das Absetzen der Finger die Finger (oder den Finger) mit dem virtuellen Bildlaufrad, wenn die Finger über dem virtuellen Bildlaufrad positioniert sind. Es ergibt sich daraus, dass, wenn die Finger gedreht werden, das Drehsignal verwendet werden kann, um das virtuelle Bildlaufrad in die Richtung der Fingerdrehung (z.B. im Uhrzeigersinn, gegen den Uhrzeigersinn) zu drehen. In den meisten Fällen variiert das Ausmaß der Raddrehung gemäß dem Ausmaß der Fingerdrehung, d.h., dass, wenn die Finger sich um fünf Grad bewegen, das Rad dasselbe tut. Weiterhin erfolgt die Drehung typischerweise im Wesentlichen gleichzeitig mit der Bewegung der Finger. Zum Beispiel dreht sich das Bildlaufrad gleichzeitig mit den Fingern, während sich die Finger drehen.
  • In manchen Fällen können die Grundsätze der Trägheit, wie oben beschrieben, auf das virtuelle Bildlaufrad angewandt werden. In solchen Fällen dreht sich das virtuelle Bildlaufrad weiter, wenn die Finger (oder einer der Finger) vom virtuellen Bildlaufrad abgehoben werden, und kommt langsam über eine virtuelle Reibung zum Halt. Alternativ oder zusätzlich kann die fortlaufende Drehung gestoppt werden, indem die Finger (oder der entfernte Finger) zurück auf das Bildlaufrad platziert werden, wodurch die Drehung des virtuellen Bildlaufrads gebremst wird.
  • Die 27A bis 27D veranschaulichen eine Sequenz eines Bildlaufrads unter Verwendung des oben beschriebenen Verfahrens. Die 27A veranschaulicht eine Anzeige, die ein Bildlaufrad präsentiert. Das Bildlaufrad kann als Teil eines Programms automatisch angezeigt werden, oder es kann angezeigt werden, wenn eine bestimmte Geste ausgeführt wird. Beispielhaft kann während des Betriebs eines Musikprogramms (wie z.B. iTunes, das durch Apple Computer, Inc. aus Cupertino, Kalifornien, hergestellt wird) das virtuelle Bildlaufrad auf der grafische Nutzeroberfläche des Musikprogramms erscheinen, wenn zwei Finger auf dem Berührungsbildschirm platziert werden, anstatt eines Fingers, der typischerweise im Musikprogramm zur Verfolgung (tracking) eingesetzt wird. In manchen Fällen erscheint das virtuelle Bildlaufrad nur, wenn zwei Finger auf einem vorbestimmten Bereich in der grafische Nutzeroberfläche platziert werden. Wie es in der 27B gezeigt ist, positioniert ein Nutzer seine Finger über dem Mehrpunkt-Berührungsbildschirm 520 über dem Bildlaufrad. Ab einem bestimmten Zeitpunkt sind die Finger mit dem Bildlaufrad fixiert. Dies kann z.B. beim Absetzen erfolgen. Wie es in der 27C gezeigt ist, wird das Bildlaufrad, wenn die Finger im Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern im Uhrzeigersinn gedreht. Wie es in der 27D gezeigt ist, wird das virtuelle Bildlaufrad, wenn die Finger entgegen dem Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern entgegen dem Uhrzeigersinn gedreht. Alternativ kann die Drehung des virtuellen Bildlaufrads auch mit der linearen Bewegung der Finger in tangentialer Weise gedreht werden.
  • Es ist anzumerken, dass, obwohl ein Oberflächenbildlaufrad gezeigt ist, die wesentlichen Elemente davon auf herkömmlichere Bildlaufräder angewandt werden können, die virtuell basiert sind. Zum Beispiel Bildlaufräder, deren Achse parallel zum Anzeigebildschirm verläuft und welche durch den Anzeigebildschirm hindurch hervorzustehen scheinen, wie es in der 28 gezeigt ist. Bei dieser besonderen Umsetzung wird jedoch eine lineare Bewegung der Finger eingesetzt, um das virtuelle Bildlaufrad zu drehen.
  • Die verschiedenen Aspekte, Ausführungsformen, Umsetzungen oder Merkmale der Erfindung können getrennt oder in irgendeiner Kombination verwendet werden.
  • Die Erfindung wird vorzugsweise durch Hardware, Software oder einer Kombination von Hardware und Software umgesetzt. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium verkörpert sein. Das computerlesbare Medium ist jegliche Datenspeichereinrichtung, die Daten speichern kann, die anschließend durch ein Computersystem ausgelesen werden können. Beispiele von computerlesbaren Medien umfassen Nur-Lese-Speicher, Speicher mit wahlfreiem Zugriff, CD-ROMS, DVDs, Magnetbänder, optische Datenspeichereinrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkgekoppelte Computersysteme verteilt sein, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.
  • Obwohl diese Erfindung in Form von mehreren bevorzugten Ausführungsformen beschrieben wurde, gibt es Veränderungen, Permutierungen und Äquivalente, die innerhalb des Rahmens dieser Erfindung fallen. Zum Beispiel, obwohl die Erfindung in erster Linie auf Berührungsbildschirme gerichtet wurde, ist anzumerken, dass in manchen Fällen auch Berührungsfelder anstatt Berührungsbildschirme eingesetzt werden können. Es können auch andere Typen von berührungsempfindlichen Einrichtungen verwendet werden. Es ist auch anzumerken, dass es sehr viele alternative Arten der Umsetzung der Verfahren und Vorrichtungen der vorliegenden Erfindung gibt. Es ist folglich beabsichtigt, dass die folgenden angefügten Ansprüche so ausgelegt werden, dass sie alle solche Änderungen, Permutierungen und Äquivalente umfassen, wie sie innerhalb des wahren Geistes und Umfangs der vorliegenden Erfindung fallen.

Claims (12)

  1. Eine in der Hand haltbare elektronische Vorrichtung, mit: einem Mobiltelefon; einer Medienabspieleinrichtung; einer berührungsempfindlichen Eingabeoberfläche; einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt; einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist; und einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste und während eines gewissen Zeitraums danach durchzulaufen.
  2. In der Hand haltbare Vorrichtung nach Anspruch 1, wobei die Medienabspieleinrichtung eine Musikabspieleinrichtung ist.
  3. In der Hand haltbare Vorrichtung nach Anspruch 1, wobei ein Medienobjekt ein Musikobjekt ist.
  4. In der Hand haltbare Vorrichtung nach Anspruch 1, wobei das Softwaremodul weiterhin dafür angepasst ist, das Durchlaufen bei Auswahl eines Medienobjekts zu stoppen.
  5. In der Hand haltbare Vorrichtung nach Anspruch 1, wobei das Objekt ein Finger ist.
  6. Eine in der Hand haltbare elektronische Vorrichtung, mit: einem Mobiltelefon; einer Medienabspieleinrichtung mit einer listenbasierten Nutzeroberfläche, wobei die listenbasierte Nutzeroberfläche eine vertikale Liste an horizontalen Linien umfasst, wobei jede Linie die Beschreibung eines Medienobjekts aufweist; einer berührungsempfindlichen Eingabeoberfläche, die dafür angepasst ist, eine Steuerung sowohl des Mobiltelefons als auch der Medienabspieleinrichtung bereitzustellen; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche operativ gekoppelt ist und dafür programmiert ist, Angaben zu empfangen, die Eingaben auf der berührungsempfindlichen Eingabeoberfläche zugeordnet sind, wobei solche Angaben wenigstens eine Gestenangabe umfassen, die einer Bewegung eines Objekts allgemein rechtwinklig zur listenbasierten Nutzeroberfläche zugeordnet ist, wobei die Prozessoreinheit weiterhin dafür programmiert ist, bei Erhalt der Gestenangabe und während eines gewissen Zeitraums danach ein Durchlaufen der listenbasierten Nutzeroberfläche zu verursachen; und einer Anzeigeeinrichtung, die mit der Prozessoreinheit operativ gekoppelt ist, und dafür konfiguriert ist, die listenbasierte Nutzeroberfläche zu präsentieren.
  7. In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Prozessoreinheit weiterhin dafür programmiert ist, eine Angabe bezüglich einer ersten Berührung auf der berührungsempfindlichen Eingabeoberfläche zu erhalten, die sich in der Nähe eines Medienobjekts befindet, und in Antwort auf die erste Berührung die Auswahl des Medienobjekts zu veranlassen.
  8. In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Medienabspieleinrichtung eine Musikabspieleinrichtung umfasst.
  9. In der Hand haltbare Vorrichtung nach Anspruch 6, wobei ein Medienobjekt ein Musikobjekt umfasst.
  10. In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Prozessoreinheit weiterhin dafür programmiert ist, eine Angabe bezüglich einer ersten Berührung auf der berührungsempfindlichen Oberfläche während des Durchlaufs zu erhalten, und in Antwort auf die erste Berührung eine Beendigung des Durchlaufs zu verursachen.
  11. In der Hand haltbare Vorrichtung nach Anspruch 6, wobei das Objekt einen Finger umfasst.
  12. In der Hand haltbare Vorrichtung nach Anspruch 6, weiterhin mit einem persönlichen digitalen Assistenten.
DE202005021427U 2004-07-30 2005-07-19 Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung Expired - Lifetime DE202005021427U1 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US59248304P 2004-07-30 2004-07-30
US10/903,964 2004-07-30
US10/903,964 US8479122B2 (en) 2004-07-30 2004-07-30 Gestures for touch sensitive input devices
US60/592,483 2004-07-30
PCT/US2005/025657 WO2006020305A2 (en) 2004-07-30 2005-07-19 Gestures for touch sensitive input devices

Publications (1)

Publication Number Publication Date
DE202005021427U1 true DE202005021427U1 (de) 2008-02-14

Family

ID=35908005

Family Applications (2)

Application Number Title Priority Date Filing Date
DE202005021492U Expired - Lifetime DE202005021492U1 (de) 2004-07-30 2005-07-19 Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202005021427U Expired - Lifetime DE202005021427U1 (de) 2004-07-30 2005-07-19 Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE202005021492U Expired - Lifetime DE202005021492U1 (de) 2004-07-30 2005-07-19 Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung

Country Status (6)

Country Link
EP (4) EP2000893B1 (de)
JP (3) JP4763695B2 (de)
KR (4) KR100958491B1 (de)
CN (1) CN103365595B (de)
DE (2) DE202005021492U1 (de)
WO (1) WO2006020305A2 (de)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8199125B2 (en) 2008-12-26 2012-06-12 Fujifilm Corporation Information display apparatus, information display method and recording medium
DE102011116187A1 (de) * 2011-10-14 2013-04-18 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle
US9285908B2 (en) 2009-03-16 2016-03-15 Apple Inc. Event recognition
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US9323335B2 (en) 2008-03-04 2016-04-26 Apple Inc. Touch event model programming interface
US9389712B2 (en) 2008-03-04 2016-07-12 Apple Inc. Touch event model
US9483121B2 (en) 2009-03-16 2016-11-01 Apple Inc. Event recognition
US9529519B2 (en) 2007-01-07 2016-12-27 Apple Inc. Application programming interfaces for gesture operations
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
DE102008032451C5 (de) * 2008-07-10 2017-10-19 Rational Ag Anzeigeverfahren und Gargerät hierfür
US9798459B2 (en) 2008-03-04 2017-10-24 Apple Inc. Touch event model for web pages
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
DE112009000002B4 (de) 2008-03-04 2020-01-09 Apple Inc. Verarbeitung von Berührungsereignissen für Webseiten
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling

Families Citing this family (566)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US8610674B2 (en) 1995-06-29 2013-12-17 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7760187B2 (en) 2004-07-30 2010-07-20 Apple Inc. Visual expander
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9529440B2 (en) 1999-01-25 2016-12-27 Apple Inc. Disambiguation of multitouch gesture recognition for 3D interaction
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US8339379B2 (en) * 2004-04-29 2012-12-25 Neonode Inc. Light-based touch screen
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US7193609B2 (en) 2002-03-19 2007-03-20 America Online, Inc. Constraining display motion in display navigation
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7669134B1 (en) 2003-05-02 2010-02-23 Apple Inc. Method and apparatus for displaying information during an instant messaging session
US9060770B2 (en) 2003-05-20 2015-06-23 Ethicon Endo-Surgery, Inc. Robotically-driven surgical instrument with E-beam driver
US8059099B2 (en) 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
KR100958491B1 (ko) * 2004-07-30 2010-05-17 애플 인크. 터치 감지 입력 장치용 모드 기반 그래픽 사용자 인터페이스
KR100958490B1 (ko) * 2004-07-30 2010-05-17 애플 인크. 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US7958456B2 (en) 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US7786975B2 (en) 2005-12-23 2010-08-31 Apple Inc. Continuous scrolling list with acceleration
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US7812826B2 (en) 2005-12-30 2010-10-12 Apple Inc. Portable electronic device with multi-touch input
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
KR100823083B1 (ko) * 2006-02-09 2008-04-18 삼성전자주식회사 터치스크린을 구비한 문서 표시장치의 문서 교정 방법 및그 장치
JP5210497B2 (ja) * 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US20070257891A1 (en) * 2006-05-03 2007-11-08 Esenther Alan W Method and system for emulating a mouse on a multi-touch sensitive surface
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US9198084B2 (en) 2006-05-26 2015-11-24 Qualcomm Incorporated Wireless architecture for a traditional wire-based protocol
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US9360967B2 (en) 2006-07-06 2016-06-07 Apple Inc. Mutual capacitance touch sensing device
US8743060B2 (en) 2006-07-06 2014-06-03 Apple Inc. Mutual capacitance touch sensing device
CN1885717B (zh) * 2006-07-11 2014-04-02 汕头市夏野电器有限公司 一种用于产生改变电路参数的控制信号的感应拨盘以及含有该感应拨盘的电路参数控制装置
JP2008033695A (ja) * 2006-07-29 2008-02-14 Sony Corp 表示内容のスクロール方法、スクロール装置およびスクロールプログラム
US7907117B2 (en) 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
KR100781706B1 (ko) 2006-08-16 2007-12-03 삼성전자주식회사 휴대 단말기의 리스트 스크롤 장치 및 방법
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
CN101529874A (zh) * 2006-09-06 2009-09-09 苹果公司 用于具有触摸屏显示器的便携式多功能设备的电话呼入管理
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US9304675B2 (en) * 2006-09-06 2016-04-05 Apple Inc. Portable electronic device for instant messaging
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
AU2012100655B4 (en) * 2006-09-06 2013-01-24 Apple Inc. Touch screen device, method, and graphical user interface for determining commands by applying heuristics
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US7581186B2 (en) 2006-09-11 2009-08-25 Apple Inc. Media manager with integrated browsers
GB2480777B (en) * 2006-09-11 2012-01-04 Apple Inc Media player with image-based browsing
US7890863B2 (en) * 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
US8147316B2 (en) 2006-10-10 2012-04-03 Wms Gaming, Inc. Multi-player, multi-touch table for use in wagering game systems
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
KR100770936B1 (ko) * 2006-10-20 2007-10-26 삼성전자주식회사 문자 입력 방법 및 이를 위한 이동통신단말기
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
JP2008158842A (ja) * 2006-12-25 2008-07-10 Xanavi Informatics Corp 地図表示装置
KR101515767B1 (ko) * 2006-12-27 2015-04-28 임머숀 코퍼레이션 진동 촉각 피드백을 통한 가상 디텐트
US8130203B2 (en) 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US7855718B2 (en) * 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
AU2011253700B2 (en) * 2007-01-05 2013-08-29 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8214768B2 (en) * 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US20080165149A1 (en) * 2007-01-07 2008-07-10 Andrew Emilio Platzer System, Method, and Graphical User Interface for Inputting Date and Time Information on a Portable Multifunction Device
US7978182B2 (en) 2007-01-07 2011-07-12 Apple Inc. Screen rotation gestures on a portable multifunction device
US8788954B2 (en) 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080165151A1 (en) * 2007-01-07 2008-07-10 Lemay Stephen O System and Method for Viewing and Managing Calendar Entries
US9001047B2 (en) * 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device
US7966578B2 (en) * 2007-01-07 2011-06-21 Apple Inc. Portable multifunction device, method, and graphical user interface for translating displayed content
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US8612857B2 (en) 2007-01-08 2013-12-17 Apple Inc. Monitor configuration for media device
US8607144B2 (en) 2007-01-08 2013-12-10 Apple Inc. Monitor configuration for media device
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
KR101420419B1 (ko) 2007-04-20 2014-07-30 엘지전자 주식회사 전자기기와 그 데이터 편집방법 및 이동통신단말기
KR20080101484A (ko) * 2007-05-18 2008-11-21 엘지전자 주식회사 이동통신 단말기 및 그 제어방법
US8436815B2 (en) 2007-05-25 2013-05-07 Microsoft Corporation Selective enabling of multi-input controls
US8201096B2 (en) 2007-06-09 2012-06-12 Apple Inc. Browsing or searching user interfaces and other aspects
US8185839B2 (en) 2007-06-09 2012-05-22 Apple Inc. Browsing or searching user interfaces and other aspects
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9954996B2 (en) 2007-06-28 2018-04-24 Apple Inc. Portable electronic device with conversation management for incoming instant messages
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
KR101395780B1 (ko) * 2007-07-27 2014-05-16 삼성전자주식회사 촉각 감지를 위한 압력 센서 어레이 장치 및 방법
US8683378B2 (en) 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8122384B2 (en) 2007-09-18 2012-02-21 Palo Alto Research Center Incorporated Method and apparatus for selecting an object within a user interface by performing a gesture
US8098235B2 (en) 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US8633915B2 (en) 2007-10-04 2014-01-21 Apple Inc. Single-layer touch-sensitive display
EP2053497A1 (de) * 2007-10-26 2009-04-29 Research In Motion Limited Textauswahl über einen berührungsempfindlichen Bildschirm einer tragbaren Mobilkommunikationsvorrichtung
US9274698B2 (en) 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
EP2060970A1 (de) * 2007-11-12 2009-05-20 Research In Motion Limited Benutzerschnittstelle für ein Gerät mit Touchscreen
US8416198B2 (en) 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
TW200925966A (en) * 2007-12-11 2009-06-16 J Touch Corp Method of controlling multi-point controlled controller
KR20090070491A (ko) * 2007-12-27 2009-07-01 엔에이치엔(주) 터치스크린을 이용한 화면 제어 장치 및 방법
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8230360B2 (en) 2008-01-04 2012-07-24 Apple Inc. User interface for selection from media collection
US20090174676A1 (en) * 2008-01-04 2009-07-09 Apple Inc. Motion component dominance factors for motion locking of touch sensor data
US9372576B2 (en) 2008-01-04 2016-06-21 Apple Inc. Image jaggedness filter for determining whether to perform baseline calculations
US8327272B2 (en) 2008-01-06 2012-12-04 Apple Inc. Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars
US8405621B2 (en) 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
KR101224588B1 (ko) * 2008-01-24 2013-01-22 삼성전자주식회사 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기
CN102124424A (zh) * 2008-01-31 2011-07-13 安普赛德股份有限公司 数据输入装置、数据输入方法和数据输入程序及记录有该程序的记录介质
US20090207140A1 (en) * 2008-02-19 2009-08-20 Sony Ericsson Mobile Communications Ab Identifying and responding to multiple time-overlapping touches on a touch panel
US20090213083A1 (en) * 2008-02-26 2009-08-27 Apple Inc. Simulation of multi-point gestures with a single pointing device
US8201109B2 (en) 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
KR101007045B1 (ko) * 2008-03-12 2011-01-12 주식회사 애트랩 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법
US9454256B2 (en) 2008-03-14 2016-09-27 Apple Inc. Sensor configurations of an input device that are switchable based on mode
EP2104027B1 (de) * 2008-03-19 2013-10-23 BlackBerry Limited Elektronische Vorrichtung mit berührungsempfindlicher Eingabeoberfläche und Verfahren zur Bestimmung einer benutzerseitig ausgewählten Eingabe
US9448721B2 (en) 2008-03-19 2016-09-20 Blackberry Limited Electronic device including touch-sensitive input device and method of determining selection
KR101460127B1 (ko) 2008-03-27 2014-11-10 삼성전자주식회사 저항막 방식 터치스크린의 멀티 터치 인식 방법 및 이를이용하는 휴대 단말기
CN101897233A (zh) * 2008-03-27 2010-11-24 三菱电机株式会社 感应加热烹饪器
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
DE102008017716A1 (de) * 2008-04-07 2009-10-08 Volkswagen Ag Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug sowie Verfahren zum Betreiben einer solchen
US20090254855A1 (en) * 2008-04-08 2009-10-08 Sony Ericsson Mobile Communications, Ab Communication terminals with superimposed user interface
DE102008022752A1 (de) * 2008-05-08 2009-11-12 Volkswagen Ag Verfahren zur Bestimmung mindestens einer Berührungsposition einer berührungssensitiven Vorrichtung sowie entsprechend ausgestaltete berührungssensitive Einrichtung und Fahrzeug
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US9035891B2 (en) 2008-05-16 2015-05-19 International Business Machines Corporation Multi-point touch-sensitive sensor user interface using distinct digit identification
US9035886B2 (en) 2008-05-16 2015-05-19 International Business Machines Corporation System and apparatus for a multi-point touch-sensitive sensor user interface using distinct digit identification
KR101439554B1 (ko) * 2008-06-19 2014-09-11 주식회사 케이티 터치 입력 인식 방법 및 이를 수행하는 장치
KR101498623B1 (ko) 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8241912B2 (en) 2008-06-26 2012-08-14 Wms Gaming Inc. Gaming machine having multi-touch sensing device
US8754855B2 (en) * 2008-06-27 2014-06-17 Microsoft Corporation Virtual touchpad
KR100984826B1 (ko) * 2008-07-03 2010-10-20 주식회사 엘지유플러스 휴대용 단말기 및 그의 사용자 인터페이스 방법
DE102008032450B4 (de) 2008-07-10 2023-11-02 Rational Ag Anzeigeverfahren und Gargerät hierfür
DE102008032448B4 (de) 2008-07-10 2023-11-02 Rational Ag Anzeigeverfahren und Gargerät hierfür
WO2010008088A1 (ja) * 2008-07-17 2010-01-21 日本電気株式会社 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
DE102008038897A1 (de) * 2008-08-13 2010-02-18 Deutsche Telekom Ag Mobiltelefon mit Menüführung auf dem Bildschirm
JP5501509B2 (ja) * 2008-09-03 2014-05-21 キヤノン株式会社 情報処理装置、その動作方法及びプログラム
US20100064261A1 (en) * 2008-09-09 2010-03-11 Microsoft Corporation Portable electronic device with relative gesture recognition mode
RU2520400C2 (ru) * 2008-09-12 2014-06-27 Конинклейке Филипс Электроникс Н.В. Навигация в графическом пользовательском интерфейсе на карманных устройствах
KR20100033202A (ko) * 2008-09-19 2010-03-29 삼성전자주식회사 디스플레이 장치 및 상기 디스플레이 장치의 제어 방법
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
US20100077431A1 (en) * 2008-09-25 2010-03-25 Microsoft Corporation User Interface having Zoom Functionality
US8284170B2 (en) 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
US9395867B2 (en) 2008-10-08 2016-07-19 Blackberry Limited Method and system for displaying an image on an electronic device
KR101033280B1 (ko) * 2008-10-23 2011-05-09 (주)오로라 디자인랩 다접점 터치센서를 이용하는 스위치 및 그 제어방법
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
DE602008006738D1 (de) * 2008-10-29 2011-06-16 Giga Byte Comm Inc Verfahren und Vorrichtung zum Umschalten eines Touchscreens einer tragbaren elektronischen Vorrichtung
CN103500032B (zh) * 2008-10-30 2016-12-28 日本电气株式会社 便携式终端设备、数据操纵处理方法和数据操纵处理程序
KR101029627B1 (ko) * 2008-10-31 2011-04-15 에스케이텔레시스 주식회사 터치스크린이 구비된 이동통신 단말기의 기능구현방법 및 장치
US8502785B2 (en) * 2008-11-12 2013-08-06 Apple Inc. Generating gestures tailored to a hand resting on a surface
US20100123676A1 (en) * 2008-11-17 2010-05-20 Kevin Scott Kirkup Dual input keypad for a portable electronic device
JP5174626B2 (ja) * 2008-11-17 2013-04-03 株式会社ゼンリンデータコム 地図表示装置、地図表示方法、およびコンピュータプログラム
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
JPWO2010067537A1 (ja) 2008-12-08 2012-05-17 シャープ株式会社 操作受付装置及びコンピュータプログラム
KR101531363B1 (ko) 2008-12-10 2015-07-06 삼성전자주식회사 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법
US9398089B2 (en) 2008-12-11 2016-07-19 Qualcomm Incorporated Dynamic resource sharing among multiple wireless devices
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
BRPI0823080B1 (pt) * 2008-12-29 2020-08-04 Hewlett-Packard Development Company, L.P Sistema para a utilização de uma interface de usuário baseada em gestos, método para a utilização de uma interface de usuário baseada em gestos e meio legível por computador
KR101596499B1 (ko) * 2009-01-14 2016-02-23 삼성전자주식회사 휴대용 기기의 키 입력 방법 및 장치
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8922521B2 (en) 2009-02-02 2014-12-30 Apple Inc. Switching circuitry for touch sensitive display
JP5347589B2 (ja) * 2009-03-10 2013-11-20 株式会社オートネットワーク技術研究所 操作装置
US10705701B2 (en) 2009-03-16 2020-07-07 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8839155B2 (en) 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8255830B2 (en) 2009-03-16 2012-08-28 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
JP2010218422A (ja) * 2009-03-18 2010-09-30 Toshiba Corp 情報処理装置および情報処理装置の制御方法
JP5146389B2 (ja) * 2009-04-03 2013-02-20 ソニー株式会社 情報処理装置、および推定方法
US8593410B2 (en) 2009-04-10 2013-11-26 Apple Inc. Touch sensor panel design
KR101056088B1 (ko) * 2009-04-20 2011-08-10 (주)빅트론닉스 터치패널 입력장치, 방법 및 이를 이용한 모바일 기기
KR100974910B1 (ko) * 2009-05-12 2010-08-09 우효준 터치 장치 제어방법, 이를 이용하는 터치 장치
US9354751B2 (en) 2009-05-15 2016-05-31 Apple Inc. Input device with optimized capacitive sensing
EP2254032A1 (de) * 2009-05-21 2010-11-24 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerverfahren dafür
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
FR2946768B1 (fr) * 2009-06-11 2012-02-10 Sagem Defense Securite Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede
US8957874B2 (en) 2009-06-29 2015-02-17 Apple Inc. Touch sensor panel design
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US9264248B2 (en) 2009-07-02 2016-02-16 Qualcomm Incorporated System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment
JP2011013990A (ja) * 2009-07-03 2011-01-20 Pioneer Electronic Corp コンテンツ再生装置
US8872771B2 (en) 2009-07-07 2014-10-28 Apple Inc. Touch sensing device having conductive nodes
JP2011028345A (ja) * 2009-07-22 2011-02-10 Olympus Imaging Corp 条件変更装置、カメラ、携帯機器、およびプログラム
JP5669169B2 (ja) * 2009-07-28 2015-02-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
DE102010026291A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Kraftfahrzeug
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9176962B2 (en) 2009-09-07 2015-11-03 Apple Inc. Digital media asset browsing with audio cues
KR101691823B1 (ko) 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
FR2950168B1 (fr) 2009-09-11 2012-03-23 Milibris Terminal mobile a ecran tactile
EP3855297A3 (de) 2009-09-22 2021-10-27 Apple Inc. Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8624933B2 (en) 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
NO332170B1 (no) 2009-10-14 2012-07-16 Cisco Systems Int Sarl Anordning og fremgangsmate for kamerakontroll
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
KR20110047349A (ko) * 2009-10-30 2011-05-09 주식회사 팬택 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법
US8957918B2 (en) * 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
JP2011106946A (ja) * 2009-11-17 2011-06-02 Hioki Ee Corp 波形表示装置および波形表示方法
JP5568970B2 (ja) * 2009-11-30 2014-08-13 ソニー株式会社 情報処理装置、情報処理方法及びそのプログラム
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
US9582238B2 (en) 2009-12-14 2017-02-28 Qualcomm Incorporated Decomposed multi-stream (DMS) techniques for video display systems
US8358281B2 (en) 2009-12-15 2013-01-22 Apple Inc. Device, method, and graphical user interface for management and manipulation of user interface elements
US20110148786A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated Method and apparatus for changing operating modes
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
JP5572397B2 (ja) * 2010-01-06 2014-08-13 京セラ株式会社 入力装置、入力方法および入力プログラム
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
JP4932010B2 (ja) * 2010-01-06 2012-05-16 株式会社スクウェア・エニックス ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US20110163967A1 (en) * 2010-01-06 2011-07-07 Imran Chaudhri Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document
EP2343503A1 (de) * 2010-01-07 2011-07-13 Navigon AG Verfahren zum Betrieb eines Navigationsgeräts
CN102123132A (zh) * 2010-01-08 2011-07-13 阿尔卡特朗讯 为用户终端提供通信的方法及装置
US9542001B2 (en) 2010-01-14 2017-01-10 Brainlab Ag Controlling a surgical navigation system
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
EP2348392A1 (de) * 2010-01-21 2011-07-27 Research In Motion Limited Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür
KR101304321B1 (ko) * 2010-01-22 2013-09-11 전자부품연구원 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8677268B2 (en) 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539386B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8539385B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
KR100990833B1 (ko) * 2010-01-28 2010-11-04 김준 터치 장치 제어방법, 이를 이용하는 터치 장치
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
EP2367097B1 (de) * 2010-03-19 2017-11-22 BlackBerry Limited Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür
US8756522B2 (en) 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US20110246875A1 (en) * 2010-04-02 2011-10-06 Symantec Corporation Digital whiteboard implementation
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US8881060B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
WO2011130919A1 (en) 2010-04-23 2011-10-27 Motorola Mobility, Inc. Electronic device and method using touch-detecting surface
DE202010006302U1 (de) 2010-04-30 2010-09-30 Wagner, Amina Halter für einen tragbaren Tablet-Computer mit einer Anzeigevorrichtung
JP5230684B2 (ja) * 2010-05-13 2013-07-10 パナソニック株式会社 電子機器、表示方法、及びプログラム
JP5010714B2 (ja) 2010-05-21 2012-08-29 株式会社東芝 電子機器、入力制御プログラム、及び入力制御方法
JP5533254B2 (ja) * 2010-05-24 2014-06-25 アイシン・エィ・ダブリュ株式会社 情報表示装置、情報表示方法及びプログラム
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
KR101685145B1 (ko) * 2010-06-09 2016-12-09 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP5598104B2 (ja) * 2010-06-10 2014-10-01 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
KR101102326B1 (ko) * 2010-06-11 2012-01-05 한국과학기술원 터치스크린 제어장치, 방법, 이를 포함하는 전자 기기 및 이를 위한 기록매체
US8933910B2 (en) 2010-06-16 2015-01-13 Panasonic Intellectual Property Corporation Of America Information input apparatus, information input method, and program
CN102314297B (zh) * 2010-07-07 2016-04-13 腾讯科技(深圳)有限公司 一种窗口对象惯性移动方法及实现装置
US8972903B2 (en) * 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US8922499B2 (en) 2010-07-26 2014-12-30 Apple Inc. Touch input transitions
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
JP5482549B2 (ja) * 2010-08-03 2014-05-07 富士通株式会社 表示装置、表示方法、および、表示プログラム
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
KR20120019244A (ko) * 2010-08-25 2012-03-06 삼성전자주식회사 휴대 단말기의 복합 속성 제어 방법 및 이를 지원하는 휴대 단말기
JP5725767B2 (ja) * 2010-08-31 2015-05-27 キヤノン株式会社 情報処理装置及びその制御方法
US9747270B2 (en) 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
JPWO2012043360A1 (ja) * 2010-09-29 2014-02-06 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、その制御方法及びプログラム
KR101743632B1 (ko) 2010-10-01 2017-06-07 삼성전자주식회사 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법
US9678572B2 (en) 2010-10-01 2017-06-13 Samsung Electronics Co., Ltd. Apparatus and method for turning e-book pages in portable terminal
EP2437151B1 (de) 2010-10-01 2020-07-08 Samsung Electronics Co., Ltd. Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät
KR20120035748A (ko) * 2010-10-06 2012-04-16 삼성전자주식회사 인쇄옵션 표시방법 및 인쇄옵션 표시장치
KR101915615B1 (ko) 2010-10-14 2019-01-07 삼성전자주식회사 모션 기반 사용자 인터페이스 제어 장치 및 방법
KR101199970B1 (ko) 2010-10-29 2012-11-12 전남대학교산학협력단 멀티 터치 특징정보 추출방법 및 그 멀티 터치 특징정보를 이용한 멀티 터치 제스처 인식방법
US9092135B2 (en) 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality
EP2645207A1 (de) 2010-11-24 2013-10-02 Nec Corporation Eingabevorrichtung und steuerverfahren für die eingabevorrichtung
JP5479414B2 (ja) * 2010-11-24 2014-04-23 キヤノン株式会社 情報処理装置およびその制御方法
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
KR101645685B1 (ko) * 2010-12-20 2016-08-04 애플 인크. 이벤트 인식
KR101729523B1 (ko) 2010-12-21 2017-04-24 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
ES2392419B1 (es) 2010-12-27 2013-10-22 BSH Electrodomésticos España S.A. Dispositivo de aparato doméstico, aparato doméstico con un dispositivo de aparato doméstico, y procedimiento para la puesta en funcionamiento de un dispositivo de aparato doméstico.
KR101662726B1 (ko) * 2010-12-29 2016-10-14 삼성전자주식회사 전자 기기의 스크롤 방법 및 장치
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
CA2823388A1 (en) * 2011-01-06 2012-07-12 Tivo Inc. Method and apparatus for gesture based controls
US9787725B2 (en) 2011-01-21 2017-10-10 Qualcomm Incorporated User input back channel for wireless displays
US8964783B2 (en) 2011-01-21 2015-02-24 Qualcomm Incorporated User input back channel for wireless displays
US9065876B2 (en) 2011-01-21 2015-06-23 Qualcomm Incorporated User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays
US20130013318A1 (en) 2011-01-21 2013-01-10 Qualcomm Incorporated User input back channel for wireless displays
US9413803B2 (en) 2011-01-21 2016-08-09 Qualcomm Incorporated User input back channel for wireless displays
US10135900B2 (en) 2011-01-21 2018-11-20 Qualcomm Incorporated User input back channel for wireless displays
US10108386B2 (en) 2011-02-04 2018-10-23 Qualcomm Incorporated Content provisioning for wireless back channel
US9503771B2 (en) 2011-02-04 2016-11-22 Qualcomm Incorporated Low latency wireless display for graphics
EP2492788B1 (de) * 2011-02-24 2015-07-15 ST-Ericsson SA Zoomverfahren
US9547428B2 (en) 2011-03-01 2017-01-17 Apple Inc. System and method for touchscreen knob control
EP2500814B1 (de) * 2011-03-13 2019-05-08 LG Electronics Inc. Transparente Anzeigevorrichtung und Verfahren zu deren Betrieb
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
RU2611977C2 (ru) 2011-05-09 2017-03-01 Конинклейке Филипс Н.В. Вращение объекта на экране
JP2012247861A (ja) * 2011-05-25 2012-12-13 Panasonic Corp タッチスクリーン装置、タッチ操作入力方法及びプログラム
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9032338B2 (en) 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US9092130B2 (en) 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US8959459B2 (en) 2011-06-15 2015-02-17 Wms Gaming Inc. Gesture sensing enhancement system for a wagering game
JP5855862B2 (ja) 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
US20130227398A1 (en) * 2011-08-23 2013-08-29 Opera Software Asa Page based navigation and presentation of web content
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
JP5805473B2 (ja) * 2011-09-02 2015-11-04 クラリオン株式会社 操作装置
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US20130067398A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
EP2756379A1 (de) * 2011-09-13 2014-07-23 Newman Infinite, Inc. Vorrichtung, verfahren und computerlesbares speichermedium zur handhabung eines benutzerschnittstellenelements
US9851889B2 (en) 2011-09-16 2017-12-26 Kt Corporation Apparatus and method for rotating a displayed image by using multi-point touch inputs
US9274642B2 (en) * 2011-10-20 2016-03-01 Microsoft Technology Licensing, Llc Acceleration-based interaction for multi-pointer indirect input devices
US9658715B2 (en) 2011-10-20 2017-05-23 Microsoft Technology Licensing, Llc Display mapping modes for multi-pointer indirect input devices
US8933896B2 (en) 2011-10-25 2015-01-13 Microsoft Corporation Pressure-based interaction for indirect touch input devices
KR101279518B1 (ko) * 2011-10-26 2013-06-28 엘지전자 주식회사 이동 단말기 및 그의 스크린 제어방법
KR101880653B1 (ko) * 2011-10-27 2018-08-20 삼성전자 주식회사 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법
US9372612B2 (en) * 2011-10-31 2016-06-21 Microsoft Technology Licensing, Llc Exposing inertial snap points
US9053083B2 (en) 2011-11-04 2015-06-09 Microsoft Technology Licensing, Llc Interaction between web gadgets and spreadsheets
US9367230B2 (en) * 2011-11-08 2016-06-14 Microsoft Technology Licensing, Llc Interaction models for indirect interaction devices
US9141280B2 (en) 2011-11-09 2015-09-22 Blackberry Limited Touch-sensitive display method and apparatus
WO2013080444A1 (ja) * 2011-11-29 2013-06-06 パナソニック株式会社 表示制御装置、表示制御方法、および表示制御プログラム
US9389679B2 (en) 2011-11-30 2016-07-12 Microsoft Technology Licensing, Llc Application programming interface for a multi-pointer indirect touch input device
JP5776525B2 (ja) * 2011-12-05 2015-09-09 株式会社デンソー 入力装置
JP5798903B2 (ja) * 2011-12-13 2015-10-21 日本電信電話株式会社 情報入力システムとそのプログラム
JP5880024B2 (ja) * 2011-12-22 2016-03-08 株式会社バッファロー 情報処理装置及びプログラム
DE102011056940A1 (de) 2011-12-22 2013-06-27 Bauhaus Universität Weimar Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige
US9525998B2 (en) 2012-01-06 2016-12-20 Qualcomm Incorporated Wireless display with multiscreen service
JP5957893B2 (ja) 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP6196017B2 (ja) 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
EP2804372A4 (de) 2012-01-13 2015-09-16 Sony Corp Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren sowie computerprogramm
US9007323B2 (en) * 2012-02-03 2015-04-14 Panasonic Intellectual Property Management Co., Ltd. Haptic feedback device, method for driving haptic feedback device, and drive program
KR101725073B1 (ko) 2012-02-06 2017-04-11 핫헤드 게임즈 인크. 카드 상자 및 팩의 가상 개봉
JP5936183B2 (ja) 2012-02-07 2016-06-15 オリンパス株式会社 撮影機器
JP5797580B2 (ja) * 2012-02-16 2015-10-21 シャープ株式会社 入力制御装置、電子機器、入力制御方法、プログラムおよび記録媒体
JP2013178658A (ja) * 2012-02-28 2013-09-09 Nikon Corp 画像処理装置及びプログラム、並びに電子カメラ
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
JP5817613B2 (ja) * 2012-03-23 2015-11-18 株式会社デンソー 入力装置
JP2013210944A (ja) * 2012-03-30 2013-10-10 Hitachi Solutions Ltd 画面操作機能を有する装置
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
WO2013154341A1 (ko) * 2012-04-10 2013-10-17 Ahn Jae Seok 모바일 단말에서 디지털 컨텐트를 스크롤하는 방법 및 이를 위한 모바일 단말 장치
JP6004716B2 (ja) * 2012-04-13 2016-10-12 キヤノン株式会社 情報処理装置およびその制御方法、コンピュータプログラム
US9329723B2 (en) 2012-04-16 2016-05-03 Apple Inc. Reconstruction of original touch image from differential touch image
WO2013155590A1 (en) * 2012-04-18 2013-10-24 Research In Motion Limited Systems and methods for displaying information or a feature in overscroll regions on electronic devices
US9086732B2 (en) 2012-05-03 2015-07-21 Wms Gaming Inc. Gesture fusion
JP2013238955A (ja) * 2012-05-14 2013-11-28 Sharp Corp 携帯情報端末
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
CN102799347B (zh) * 2012-06-05 2017-01-04 北京小米科技有限责任公司 应用于触屏设备的用户界面交互方法、装置及触屏设备
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
JP5877374B2 (ja) 2012-06-13 2016-03-08 パナソニックIpマネジメント株式会社 操作表示装置、プログラム
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
WO2014010543A1 (ja) * 2012-07-09 2014-01-16 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、入力受付方法及びプログラム
JP2012234569A (ja) * 2012-08-09 2012-11-29 Panasonic Corp 電子機器、表示方法、及びプログラム
CN102819417B (zh) * 2012-08-16 2015-07-15 小米科技有限责任公司 一种图片显示处理方法及装置
US9507513B2 (en) 2012-08-17 2016-11-29 Google Inc. Displaced double tap gesture
KR101343591B1 (ko) 2012-09-03 2013-12-19 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
KR101405822B1 (ko) * 2012-09-18 2014-06-11 주식회사 인프라웨어 터치기반 편집 어플을 위한 시각적 편집보조 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP6159069B2 (ja) * 2012-09-27 2017-07-05 京セラ株式会社 表示装置
WO2014050957A1 (ja) 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
CN103729107A (zh) * 2012-10-15 2014-04-16 中兴通讯股份有限公司 一种悬浮对象的实现方法与装置
US20140109016A1 (en) * 2012-10-16 2014-04-17 Yu Ouyang Gesture-based cursor control
US8949735B2 (en) 2012-11-02 2015-02-03 Google Inc. Determining scroll direction intent
KR101468970B1 (ko) * 2012-11-30 2014-12-04 주식회사 인프라웨어 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치
JP6033061B2 (ja) * 2012-11-30 2016-11-30 Kddi株式会社 入力装置およびプログラム
JP2014112335A (ja) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd 情報処理装置及びプログラム
KR20140078853A (ko) * 2012-12-18 2014-06-26 삼성전자주식회사 증강현실시스템 및 그 제어방법
WO2014103634A1 (ja) 2012-12-26 2014-07-03 グリー株式会社 表示処理方法及び情報装置
US20140189603A1 (en) * 2012-12-28 2014-07-03 Darryl L. Adams Gesture Based Partition Switching
JP5385450B2 (ja) * 2012-12-28 2014-01-08 株式会社ゼンリンデータコム 地図表示装置
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
KR102072582B1 (ko) * 2012-12-31 2020-02-03 엘지전자 주식회사 듀얼 디스플레이 방법 및 장치
JPWO2014112029A1 (ja) * 2013-01-15 2017-01-19 日立マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2014111959A2 (en) 2013-01-21 2014-07-24 Keypoint Technologies India Pvt. Ltd. Text input system and method
IN2013CH00469A (de) 2013-01-21 2015-07-31 Keypoint Technologies India Pvt Ltd
JP5835240B2 (ja) * 2013-01-28 2015-12-24 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
CN103970646B (zh) 2013-01-29 2016-12-28 国际商业机器公司 一种用于操作序列的自动分析方法及其系统
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
DE102013101339A1 (de) * 2013-02-12 2014-08-14 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Bedienelement
EP2963530A4 (de) * 2013-02-27 2016-10-26 Alps Electric Co Ltd Betriebsdetektionsvorrichtung
KR102117086B1 (ko) * 2013-03-08 2020-06-01 삼성디스플레이 주식회사 단말기 및 그의 조작 방법
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR102157332B1 (ko) * 2013-03-15 2020-09-17 삼성전자주식회사 전자 장치에서 줌 기능을 제어하기 위한 방법 및 장치
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
JP6264370B2 (ja) * 2013-04-02 2018-01-24 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR102114608B1 (ko) * 2013-04-02 2020-06-05 엘지전자 주식회사 멀티 스크린 디바이스 및 그 제어 방법
US20140306910A1 (en) * 2013-04-15 2014-10-16 Qualcomm Incorporated Id tracking of gesture touch geometry
JP5742870B2 (ja) * 2013-04-17 2015-07-01 カシオ計算機株式会社 電子機器およびプログラム
US8997013B2 (en) * 2013-05-31 2015-03-31 Google Inc. Multiple graphical keyboards for continuous gesture input
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
CN105408842A (zh) 2013-07-17 2016-03-16 Touchcard株式会社 图像显示系统以及输入装置
JP6211327B2 (ja) * 2013-07-22 2017-10-11 アルプス電気株式会社 入力装置
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
KR20150019352A (ko) 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
US9886141B2 (en) 2013-08-16 2018-02-06 Apple Inc. Mutual and self capacitance touch measurements in touch panel
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
JP6138641B2 (ja) 2013-09-13 2017-05-31 株式会社Nttドコモ 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム
JP5948294B2 (ja) * 2013-09-25 2016-07-06 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
AU2013404001B2 (en) 2013-10-30 2017-11-30 Apple Inc. Displaying relevant user interface objects
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
JP6222830B2 (ja) * 2013-12-27 2017-11-01 マクセルホールディングス株式会社 画像投射装置
JPWO2015121964A1 (ja) * 2014-02-14 2017-03-30 富士通株式会社 入力装置
JP2017068291A (ja) * 2014-02-14 2017-04-06 アルプス電気株式会社 入力方法、及び入力装置
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10936120B2 (en) 2014-05-22 2021-03-02 Apple Inc. Panel bootstraping architectures for in-cell self-capacitance
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
EP3480811A1 (de) 2014-05-30 2019-05-08 Apple Inc. Verfahren zur eingabe von mehreren befehlen mit einer einzigen äusserung
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US10255267B2 (en) 2014-05-30 2019-04-09 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9978043B2 (en) 2014-05-30 2018-05-22 Apple Inc. Automatic event scheduling
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
WO2015189922A1 (ja) 2014-06-11 2015-12-17 三菱電機株式会社 表示制御システムおよび表示制御方法
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
US10289251B2 (en) 2014-06-27 2019-05-14 Apple Inc. Reducing floating ground effects in pixelated self-capacitance touch screens
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9880655B2 (en) 2014-09-02 2018-01-30 Apple Inc. Method of disambiguating water from a finger touch on a touch sensor panel
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
CN107077260B (zh) 2014-09-22 2020-05-12 苹果公司 触摸控制器和用于触摸传感器面板的方法
US10025684B2 (en) 2014-09-24 2018-07-17 Microsoft Technology Licensing, Llc Lending target device resources to host device computing environment
US9769227B2 (en) 2014-09-24 2017-09-19 Microsoft Technology Licensing, Llc Presentation of computing environment on multiple devices
US10448111B2 (en) 2014-09-24 2019-10-15 Microsoft Technology Licensing, Llc Content projection
US20160088060A1 (en) * 2014-09-24 2016-03-24 Microsoft Technology Licensing, Llc Gesture navigation for secondary user interface
US10635296B2 (en) 2014-09-24 2020-04-28 Microsoft Technology Licensing, Llc Partitioned application presentation across devices
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
CN112379792A (zh) 2014-10-27 2021-02-19 苹果公司 像素化自电容水排斥
JP5966125B2 (ja) * 2014-11-12 2016-08-10 株式会社ユピテル 車両用情報表示装置
JP2016099871A (ja) * 2014-11-25 2016-05-30 アルパイン株式会社 情報機器およびその操作方法、操作プログラム
KR101619888B1 (ko) 2014-11-28 2016-05-12 현대자동차주식회사 터치 인식 기능을 구비한 차량 및 그 제어방법과 내비게이션
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
EP3037783B1 (de) * 2014-12-23 2019-09-25 Alpine Electronics, Inc. Informationsverarbeitungsvorrichtung, insbesondere Navigationssystem, Verfahren und Vorrichtung zur Informationsverarbeitung
US20160202865A1 (en) 2015-01-08 2016-07-14 Apple Inc. Coordination of static backgrounds and rubberbanding
CN107209602B (zh) 2015-02-02 2020-05-26 苹果公司 柔性自电容和互电容触摸感测系统架构
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10488992B2 (en) 2015-03-10 2019-11-26 Apple Inc. Multi-chip touch architecture for scalability
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
WO2016157330A1 (ja) 2015-03-27 2016-10-06 日本電気株式会社 モバイル監視装置、プログラム、及び制御方法
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10101882B2 (en) 2015-06-05 2018-10-16 Apple Inc. Movement between multiple views
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
CN104991645A (zh) * 2015-06-24 2015-10-21 宇龙计算机通信科技(深圳)有限公司 光标控制方法及装置
JP6511352B2 (ja) * 2015-07-03 2019-05-15 株式会社エクシング 楽曲検索装置及び楽曲検索用プログラム
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10365773B2 (en) 2015-09-30 2019-07-30 Apple Inc. Flexible scan plan using coarse mutual capacitance and fully-guarded measurements
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
KR20170064901A (ko) * 2015-12-02 2017-06-12 엘지전자 주식회사 모바일 디바이스 및 그 제어 방법
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US20170177204A1 (en) * 2015-12-18 2017-06-22 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Centering gesture to enhance pinch-to-zoom gesture on touchscreens
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017138738A (ja) 2016-02-02 2017-08-10 富士通テン株式会社 入力装置、表示装置および入力装置の制御方法
US9871962B2 (en) 2016-03-04 2018-01-16 RollCall, LLC Movable user interface shutter button for camera
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9919213B2 (en) * 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
JP6681110B2 (ja) * 2016-05-09 2020-04-15 株式会社コーエーテクモゲームス ユーザインターフェース処理プログラム及び記録媒体
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10620812B2 (en) 2016-06-10 2020-04-14 Apple Inc. Device, method, and graphical user interface for managing electronic communications
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
KR101726549B1 (ko) * 2016-06-29 2017-04-12 정상문 모바일 실시간 시뮬레이션 게임에서의 터치 조작 방식
AU2017208277B2 (en) 2016-09-06 2018-12-20 Apple Inc. Back of cover touch sensors
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP6249073B2 (ja) * 2016-09-28 2017-12-20 富士ゼロックス株式会社 情報処理装置及びプログラム
JP6181833B1 (ja) * 2016-09-29 2017-08-16 株式会社ゲオインタラクティブ 画像表示装置及び画像表示用プログラム
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
CN106955489B (zh) * 2017-02-14 2018-05-11 网易(杭州)网络有限公司 一种控制手机游戏中信息显示的交互方法及装置
US10386965B2 (en) 2017-04-20 2019-08-20 Apple Inc. Finger tracking in wet environment
US11431836B2 (en) 2017-05-02 2022-08-30 Apple Inc. Methods and interfaces for initiating media playback
US10992795B2 (en) 2017-05-16 2021-04-27 Apple Inc. Methods and interfaces for home media control
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10928980B2 (en) 2017-05-12 2021-02-23 Apple Inc. User interfaces for playing and managing audio items
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN111343060B (zh) 2017-05-16 2022-02-11 苹果公司 用于家庭媒体控制的方法和界面
US20220279063A1 (en) 2017-05-16 2022-09-01 Apple Inc. Methods and interfaces for home media control
JP6567233B2 (ja) 2017-06-20 2019-08-28 三菱電機株式会社 タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
CN107608621A (zh) * 2017-10-12 2018-01-19 北京元心科技有限公司 触点信息的处理方法、装置和终端
EP3503026A1 (de) * 2017-12-20 2019-06-26 Koninklijke Philips N.V. Vorrichtung, system und verfahren zur interaktion mit gefässbildern
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
TWI666574B (zh) * 2018-05-22 2019-07-21 義隆電子股份有限公司 判斷觸控裝置上之觸控物件力道及觸控事件的方法
JP7004629B2 (ja) * 2018-09-25 2022-01-21 富士フイルム株式会社 画像表示制御装置、画像表示制御装置の作動プログラム、及び作動方法
US20200333925A1 (en) * 2019-04-19 2020-10-22 Microsoft Technology Licensing, Llc System and method for navigating interfaces using touch gesture inputs
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
TWI728361B (zh) 2019-05-15 2021-05-21 和碩聯合科技股份有限公司 用於一電子裝置的快速資料瀏覽方法
KR102436985B1 (ko) 2019-05-31 2022-08-29 애플 인크. 오디오 미디어 제어를 위한 사용자 인터페이스
US11010121B2 (en) 2019-05-31 2021-05-18 Apple Inc. User interfaces for audio media control
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
DK202070612A1 (en) 2020-02-14 2021-10-26 Apple Inc User interfaces for workout content
US11662867B1 (en) 2020-05-30 2023-05-30 Apple Inc. Hover detection on a touch sensor panel
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs
US11392291B2 (en) 2020-09-25 2022-07-19 Apple Inc. Methods and interfaces for media control with dynamic feedback
KR20220042558A (ko) * 2020-09-28 2022-04-05 주식회사 딥바이오 병리 이미지 분석 결과 출력 방법 및 이를 수행하는 컴퓨팅 시스템
CN112396590B (zh) * 2020-11-25 2022-07-15 中南大学 一种半自磨入磨矿石块度检测方法、设备及介质
WO2024064235A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Touchscreen jog wheel user interface element

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3301079B2 (ja) * 1990-06-18 2002-07-15 ソニー株式会社 情報入力装置、情報入力方法、情報処理装置及び情報処理方法
JPH0454523A (ja) * 1990-06-21 1992-02-21 Hitachi Aic Inc タッチパネル
US6028271A (en) * 1992-06-08 2000-02-22 Synaptics, Inc. Object position detector with edge motion feature and gesture recognition
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
US5583946A (en) 1993-09-30 1996-12-10 Apple Computer, Inc. Method and apparatus for recognizing gestures on a computer system
JP3546337B2 (ja) * 1993-12-21 2004-07-28 ゼロックス コーポレイション 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法
US5798760A (en) * 1995-06-07 1998-08-25 Vayda; Mark Radial graphical menuing system with concentric region menuing
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
US5825308A (en) * 1996-11-26 1998-10-20 Immersion Human Interface Corporation Force feedback interface having isotonic and isometric functionality
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
JP3280559B2 (ja) * 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
US5874948A (en) * 1996-05-28 1999-02-23 International Business Machines Corporation Virtual pointing device for touchscreens
JPH1039748A (ja) * 1996-07-18 1998-02-13 Koonet:Kk 電子式地図システム、それを用いた情報提供装置及び記憶媒体
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
US6433801B1 (en) * 1997-09-26 2002-08-13 Ericsson Inc. Method and apparatus for using a touch screen display on a portable intelligent communications device
JPH11133816A (ja) * 1997-10-27 1999-05-21 Canon Inc 画像形成装置、設定情報入力方法および記憶媒体
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
KR100595924B1 (ko) * 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US6211856B1 (en) * 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US6278443B1 (en) * 1998-04-30 2001-08-21 International Business Machines Corporation Touch screen with random finger placement and rolling on screen to control the movement of information on-screen
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
JP2000163193A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP4542637B2 (ja) * 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US6246395B1 (en) * 1998-12-17 2001-06-12 Hewlett-Packard Company Palm pressure rejection method and apparatus for touchscreens
US6639584B1 (en) * 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP4803883B2 (ja) * 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
JP2001230992A (ja) * 2000-02-18 2001-08-24 Nidec Copal Corp 画像表示装置及びその制御方法
JP2001356878A (ja) * 2000-06-14 2001-12-26 Hitachi Ltd アイコン制御方法
JP4543513B2 (ja) * 2000-07-17 2010-09-15 ソニー株式会社 双方向通信システム、表示装置、ベース装置および双方向通信方法
US6570557B1 (en) * 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
JP4686886B2 (ja) * 2001-04-06 2011-05-25 ソニー株式会社 情報処理装置
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP2003123992A (ja) 2001-10-17 2003-04-25 Ushio Inc キセノン放電ランプ点灯装置
US7345671B2 (en) * 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US7312785B2 (en) * 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7084856B2 (en) 2001-10-22 2006-08-01 Apple Computer, Inc. Mouse having a rotary dial
GB0201074D0 (en) * 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
JP3951727B2 (ja) * 2002-02-06 2007-08-01 松下電器産業株式会社 情報処理装置
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US7466307B2 (en) * 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US20030193481A1 (en) * 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
US8570277B2 (en) * 2002-05-16 2013-10-29 Sony Corporation Inputting method and inputting apparatus
US7789756B2 (en) * 2002-09-13 2010-09-07 Igt Wagering gaming device having simulated control of movement of game functional elements
GB0222094D0 (en) * 2002-09-24 2002-10-30 Koninkl Philips Electronics Nv Graphical user interface navigation method and apparatus
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
KR20040057131A (ko) * 2002-12-24 2004-07-02 삼성전자주식회사 터치스크린에서 지정위치 확대 기능을 갖는 휴대용 모바일기기 및 그 확대 방법
US7337634B2 (en) * 2003-01-09 2008-03-04 General Electric Company Washer/dryer touch sensitive graphical user interface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
KR100958491B1 (ko) * 2004-07-30 2010-05-17 애플 인크. 터치 감지 입력 장치용 모드 기반 그래픽 사용자 인터페이스

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529519B2 (en) 2007-01-07 2016-12-27 Apple Inc. Application programming interfaces for gesture operations
US11954322B2 (en) 2007-01-07 2024-04-09 Apple Inc. Application programming interface for gesture operations
US11449217B2 (en) 2007-01-07 2022-09-20 Apple Inc. Application programming interfaces for gesture operations
US10963142B2 (en) 2007-01-07 2021-03-30 Apple Inc. Application programming interfaces for scrolling
US10613741B2 (en) 2007-01-07 2020-04-07 Apple Inc. Application programming interface for gesture operations
US10175876B2 (en) 2007-01-07 2019-01-08 Apple Inc. Application programming interfaces for gesture operations
US9665265B2 (en) 2007-01-07 2017-05-30 Apple Inc. Application programming interfaces for gesture operations
US9575648B2 (en) 2007-01-07 2017-02-21 Apple Inc. Application programming interfaces for gesture operations
US9971502B2 (en) 2008-03-04 2018-05-15 Apple Inc. Touch event model
DE112009000001B4 (de) * 2008-03-04 2021-01-14 Apple Inc. Berührungsmodell für Webseiten
US9389712B2 (en) 2008-03-04 2016-07-12 Apple Inc. Touch event model
US11740725B2 (en) 2008-03-04 2023-08-29 Apple Inc. Devices, methods, and user interfaces for processing touch events
US9690481B2 (en) 2008-03-04 2017-06-27 Apple Inc. Touch event model
US9720594B2 (en) 2008-03-04 2017-08-01 Apple Inc. Touch event model
US10936190B2 (en) 2008-03-04 2021-03-02 Apple Inc. Devices, methods, and user interfaces for processing touch events
DE112009000002B4 (de) 2008-03-04 2020-01-09 Apple Inc. Verarbeitung von Berührungsereignissen für Webseiten
US9798459B2 (en) 2008-03-04 2017-10-24 Apple Inc. Touch event model for web pages
US10521109B2 (en) 2008-03-04 2019-12-31 Apple Inc. Touch event model
DE112009000003B4 (de) * 2008-03-04 2019-11-21 Apple Inc. Programmierschnittstelle für ein Berührungsereignismodell
US9323335B2 (en) 2008-03-04 2016-04-26 Apple Inc. Touch event model programming interface
DE102008032451C5 (de) * 2008-07-10 2017-10-19 Rational Ag Anzeigeverfahren und Gargerät hierfür
US8199125B2 (en) 2008-12-26 2012-06-12 Fujifilm Corporation Information display apparatus, information display method and recording medium
US9285908B2 (en) 2009-03-16 2016-03-15 Apple Inc. Event recognition
US9965177B2 (en) 2009-03-16 2018-05-08 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US10719225B2 (en) 2009-03-16 2020-07-21 Apple Inc. Event recognition
US9483121B2 (en) 2009-03-16 2016-11-01 Apple Inc. Event recognition
US11755196B2 (en) 2009-03-16 2023-09-12 Apple Inc. Event recognition
US11163440B2 (en) 2009-03-16 2021-11-02 Apple Inc. Event recognition
US10732997B2 (en) 2010-01-26 2020-08-04 Apple Inc. Gesture recognizers with delegates for controlling and modifying gesture recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
DE102011116187A1 (de) * 2011-10-14 2013-04-18 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle
US11429190B2 (en) 2013-06-09 2022-08-30 Apple Inc. Proxy gesture recognizer
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer

Also Published As

Publication number Publication date
EP1774429B1 (de) 2018-06-06
JP2010170573A (ja) 2010-08-05
KR101270847B1 (ko) 2013-06-05
JP5456529B2 (ja) 2014-04-02
CN103365595B (zh) 2017-03-01
JP4763695B2 (ja) 2011-08-31
KR101128572B1 (ko) 2012-04-23
EP2000893A2 (de) 2008-12-10
KR20070039613A (ko) 2007-04-12
EP3121697A1 (de) 2017-01-25
WO2006020305A3 (en) 2007-05-24
KR20090050109A (ko) 2009-05-19
EP2000894A2 (de) 2008-12-10
EP2000894A3 (de) 2009-01-14
KR100958491B1 (ko) 2010-05-17
CN103365595A (zh) 2013-10-23
EP2000893B1 (de) 2016-09-21
KR20120014067A (ko) 2012-02-15
WO2006020305A2 (en) 2006-02-23
JP2008508601A (ja) 2008-03-21
EP2000893A3 (de) 2009-01-14
KR20080096593A (ko) 2008-10-30
DE202005021492U1 (de) 2008-05-08
KR100984596B1 (ko) 2010-09-30
EP2000894B1 (de) 2016-10-19
EP1774429A2 (de) 2007-04-18
JP2008508600A (ja) 2008-03-21

Similar Documents

Publication Publication Date Title
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202007018368U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
DE202007014957U1 (de) Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert
US20180059928A1 (en) Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE112008004156B4 (de) System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
DE202007013923U1 (de) Mehrfachereignis-Eingabesystem
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112013002381T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE112010003602T5 (de) System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät
DE202015006055U1 (de) Benutzeroberfläche zum Empfangen von Benutzereingaben
DE202011110722U1 (de) Tragbare elektronische Vorrichtung mit scrollbarem Bereich
DE112010002760T5 (de) Benutzerschnittstelle
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202008000261U1 (de) Vielfach-Berührungsdatenfussionssystem
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE112013002387T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
DE102010028983A1 (de) Zweidimensionale Berührungssensoren
DE102008063354A1 (de) Selektive Rückweisung von Berührungskontakten in einem Randbereich einer Berührungsoberfläche
DE202012101741U1 (de) Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE112011100087T5 (de) Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse
DE102011016389A1 (de) Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20080320

R150 Term of protection extended to 6 years

Effective date: 20081006

R151 Term of protection extended to 8 years
R151 Term of protection extended to 8 years

Effective date: 20110729

R152 Term of protection extended to 10 years

Effective date: 20130731

R071 Expiry of right