DE202005021427U1 - Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung - Google Patents
Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung Download PDFInfo
- Publication number
- DE202005021427U1 DE202005021427U1 DE202005021427U DE202005021427U DE202005021427U1 DE 202005021427 U1 DE202005021427 U1 DE 202005021427U1 DE 202005021427 U DE202005021427 U DE 202005021427U DE 202005021427 U DE202005021427 U DE 202005021427U DE 202005021427 U1 DE202005021427 U1 DE 202005021427U1
- Authority
- DE
- Germany
- Prior art keywords
- touch
- user interface
- gesture
- fingers
- list
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
Eine
in der Hand haltbare elektronische Vorrichtung, mit:
einem Mobiltelefon;
einer Medienabspieleinrichtung;
einer berührungsempfindlichen Eingabeoberfläche;
einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt;
einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist;
einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist; und
einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste...
einem Mobiltelefon;
einer Medienabspieleinrichtung;
einer berührungsempfindlichen Eingabeoberfläche;
einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt;
einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist;
einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist; und
einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste...
Description
- HINTERGRUND DER ERFINDUNG
- 1. Gebiet der Erfindung
- Die vorliegende Erfindung bezieht sich allgemein auf Gestikulieren, das mit berührungsempfindlichen Einrichtungen zusammenhängt.
- 2. Beschreibung des Standes der Technik
- Heutzutage gibt es viele Arten von Eingabeeinrichtungen, um in einem Computersystem Vorgänge durchzuführen. Die Vorgänge entsprechen im Allgemeinen dem Bewegen eines Zeigers (Cursors) und dem Auswählen auf einem Anzeigebildschirm. Die Vorgänge können auch Blättern, Durchlaufen (Scrollen), Mitführen, Zoomen, usw. umfassen. Beispielhaft können die Eingabeeinrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln (Trackballs), Berührungsfelder (Touchpads), Steuerknüppel (Joysticks), Berührungsbildschirme (Touchscreens) u. Ä. umfassen. Jede dieser Einrichtungen hat Vorteile und Nachteile, die berücksichtigt werden, wenn das Computersystem entworfen wird.
- Knöpfe und Schalter sind im Allgemeinen von mechanischer Art und bieten eine beschränkte Kontrolle bezüglich der Bewegung eines Zeigers (Cursors) und dem Auswählen. Zum Beispiel sind sie im Allgemeinen dafür vorgesehen, den Zeiger in eine bestimmte Richtung zu bewegen (z. B. Pfeiltasten) oder um bestimmte Auswahlen zu treffen (z. B. Eingabe, Löschen, Nummer, usw.).
- Bei Mäusen entspricht die Bewegung des Eingabezeigers den relativen Bewegungen der Maus, während der Nutzer die Maus entlang einer Oberfläche bewegt. Bei Rollkugeln (Trackballs) entspricht die Bewegung des Eingabezeigers den relativen Bewegungen einer Kugel, während der Nutzer die Kugel innerhalb eines Gehäuses bewegt. Mäuse und Rollkugeln umfassen ebenso einen oder mehrere Knöpfe um Auswahlen vorzunehmen. Mäuse können auch Bildlaufräder (Scrollwheels) umfassen, die es einem Nutzer erlauben, die graphische Nutzeroberfläche zu durchqueren, indem das Rad einfach vorwärts oder rückwärts gedreht wird.
- Bei Berührungsfeldern (Touchpads) entspricht die Bewegung des Eingabezeigers den relativen Bewegungen des Fingers (oder Stiftes) des Nutzers, während der Finger entlang einer Oberfläche des Berührungsfeldes bewegt wird. Andererseits sind Berührungsbildschirme (Touchscreens) eine Art Anzeigebildschirm, mit einer berührungsempfindlichen durchsichtigen Tafel, die den Bildschirm bedeckt. Wenn ein Nutzer einen Berührungsbildschirm verwendet, führt er auf dem Anzeigebildschirm eine Auswahl durch, indem er direkt auf Objekte der graphischen Nutzeroberfläche auf dem Bildschirm zeigt (üblicherweise mit einem Stift oder Finger).
- Um zusätzliche Funktionalitäten zu bieten, wurden bei einigen dieser Eingabeeinrichtungen Gesten implementiert. Zum Beispiel können bei Berührungsfeldern Auswahlen erfolgen, wenn ein einfaches oder mehrfaches Antippen der Oberfläche des Berührungsfeldes erfasst wird. In manchen Fällen kann jeglicher Abschnitt des Berührungsfeldes angetippt werden, und in anderen Fällen kann ein eigens vorgesehener Abschnitt des Berührungsfeldes angetippt werden. Zusätzlich zu Auswahlen kann ein Bildlauf (Scrolling) ausgelöst werden, durch Einsatz der Bewegung eines Fingers am Rande des Berührungsfeldes.
- Die
US-Patente 5,612,719 und5,590,219 , die an Apple Computer, Inc. übertragen wurden, beschreiben einige andere Verwendungen von Gesten. Die5,612,719 offenbart einen Knopf, der sich auf dem Bildschirm befindet, der auf wenigstens zwei verschiedene Knopfgesten reagiert, die auf dem Bildschirm am oder in der Nähe des Knopfes ausgeführt werden. Die5,590,219 offenbart ein Verfahren zur Erkennung einer Eingabe in der Form einer ellipsenförmigen Geste auf einem Anzeigebildschirm eines Computersystems. - In letzter Zeit wurden fortgeschrittenere Gesten implementiert. Zum Beispiel kann ein Bildlauf ausgelöst werden, indem man vier Finger auf dem Berührungsfeld platziert, sodass die Bildlaufgeste erkannt wird, und indem man danach diese Finger auf dem Berührungsfeld bewegt, um Bildlaufereignisse durchzuführen. Die Verfahren zur Implementierung dieser fortgeschrittenen Gesten haben jedoch mehrere Nachteile. Zum Beispiel kann eine Geste, sobald sie festgelegt ist, nicht verändert werden, bis der Nutzer den Gestenzustand zurücksetzt. Wenn bei Berührungsfeldern z. B. vier Finger einem Bildlauf entsprechen und der Nutzer einen Daumen ablegt, nachdem die vier Finger erkannt wurden, wird jegliche Handlung, die der neuen Geste mit vier Fingern und Daumen zugeordnet ist, nicht durchgeführt, bis die gesamte Hand vom Berührungsfeld abgehoben wird und wieder abgelegt wird (z. B. Zurücksetzen). Einfach gesagt, kann der Nutzer nicht mittendrin die Gestenzustände verändern. In ähnlicher Weise kann nur eine Geste gleichzeitig durchgeführt werden. Das heißt, dass mehrere Gesten nicht gleichzeitig durchgeführt werden können.
- Auf der Grundlage des oben Gesagten besteht ein Bedürfnis für Verbesserungen in der Weise, in welcher Gesten auf berührungsempfindlichen Einrichtungen durchgeführt werden.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Die Erfindung bezieht sich in einer Ausführungsform auf eine in der Hand haltbare elektronische Vorrichtung, mit einem Mobiltelefon, einer Medienabspieleinrichtung, einer berührungsempfindlichen Eingabeoberfläche, einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt, einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist, einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist, und einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste und während eines gewissen Zeitraums danach durchzulaufen.
- Die Erfindung bezieht sich in einer weiteren Ausführungsform auf eine in der Hand haltbare elektronische Vorrichtung, mit einem Mobiltelefon; einer Medienabspieleinrichtung mit einer listenbasierten Nutzeroberfläche, wobei die listenbasierte Nutzeroberfläche eine vertikale Liste an horizontalen Linien umfasst, wobei jede Linie die Beschreibung eines Medienobjekts aufweist; einer berührungsempfindlichen Eingabeoberfläche, die dafür angepasst ist, eine Steuerung sowohl des Mobiltelefons als auch der Medienabspieleinrichtung bereitzustellen; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche operativ gekoppelt ist und dafür programmiert ist, Angaben zu empfangen, die Eingaben auf der berührungsempfindlichen Eingabeoberfläche zugeordnet sind, wobei sol che Angaben wenigstens eine Gestenangabe umfassen, die einer Bewegung eines Objekts allgemein rechtwinklig zur listenbasierten Nutzeroberfläche zugeordnet ist, wobei die Prozessoreinheit weiterhin dafür programmiert ist, bei Erhalt der Gestenangabe und während eines gewissen Zeitraums danach ein Durchlaufen der listenbasierten Nutzeroberfläche zu verursachen; und einer Anzeigeeinrichtung, die mit der Prozessoreinheit operativ gekoppelt ist, und dafür konfiguriert ist, die listenbasierte Nutzeroberfläche zu präsentieren.
- Ein computerimplementiertes Verfahren zur Verarbeitung von Berührungseingaben umfasst das Lesen von Daten von einem Mehrpunktberührungsbildschirm. Die Daten betreffen Berührungseingaben im Verhältnis zum Berührungsbildschirm. Das Verfahren umfasst auch das Identifizieren wenigstens einer Mehrpunktgeste, auf der Grundlage der Daten des Mehrpunktberührungsbildschirms.
- Ein Gestikverfahren umfasst die gleichzeitige Erfassung mehrerer Berührungen an verschiedenen Punkten auf einer berührungsempfindlichen Oberfläche. Das Verfahren umfasst ebenso das Aufteilen der mehreren Berührungen in wenigstens zwei getrennte Gestikeingaben, die gleichzeitig stattfinden. Jede Gestikeingabe hat eine andere Funktion, wie z. B. Zoomen, Mitführen, Drehen usw.
- Ein anderes Gestikverfahren umfasst die gleichzeitige Erfassung einer Mehrzahl von Gesten, die gleichzeitig in Bezug auf eine berührungsempfindliche Einrichtung durchgeführt werden. Das Verfahren umfasst ebenso das Erzeugen verschiedener Befehle für jede der Gesten, die erfasst wurden.
- Ein anderes Gestikverfahren umfasst die Anzeige eines grafischen Bildes auf einem Anzeigebildschirm. Das Verfahren umfasst ebenso die Erfassung einer Mehrzahl gleichzeitiger Berührungen auf einer berührungsempfindlichen Einrichtung. Das Verfahren umfasst weiterhin das Verbinden der erfassten Mehrfachberührungen mit dem grafischen Bild, das auf dem Anzeigebildschirm dargestellt wird.
- Ein Verfahren zum Aufrufen eines Elements einer Nutzeroberfläche auf einer Anzeige mittels eines Mehrpunktberührungsbildschirms eines Computersystems umfasst die Erfassung und das Analysieren der gleichzeitigen Anwesenheit zweier oder mehrerer Objekte, die sich in Kontakt mit dem Mehrpunktberührungsbildschirm befinden. Das Verfahren umfasst ebenso das Auswählen eines Werkzeugs einer Nutzeroberfläche aus einer Mehrzahl von zur Verfügung stehenden Werkzeugen, um es für die Interaktion mit einem Nutzer des Computersystems auf einer Anzeige anzuzeigen, zumindest teilweise auf der Grundlage der Analyse. Das Verfahren umfasst weiterhin das Kontrollieren des Oberflächenwerkzeugs zumindest teilweise auf der Grundlage der weiteren Bewegung der Objekte im Verhältnis zum Mehrpunktberührungsbildschirm.
- Ein berührungsbasiertes Verfahren umfasst das Erfassen einer Nutzereingabe, die über eine Mehrpunktfühleinrichtung erfolgt. Die Nutzereingabe umfasst eine oder mehrere Eingaben. Jede Eingabe hat eine eindeutige Kennung. Das Verfahren umfasst auch die Klassifizierung, während der Nutzereingabe, der Nutzereingabe als eine Eingabe für eine Verfolgung oder für eine Auswahl, wenn die Nutzereingabe eine eindeutige Kennung umfasst, oder als Gesteneingabe, wenn die Nutzereingabe wenigstens zwei eindeutige Kennungen umfasst. Das Verfahren umfasst weiterhin die Durchführung der Verfolgung oder der Auswahl während der Nutzereingabe, wenn die Nutzereingabe als eine Eingabe zur Verfolgung oder zur Auswahl klassifiziert wird. Das Verfahren umfasst weiterhin die Durchführung einer oder mehrerer Steuerhandlungen während der Nutzereingabe, wenn die Nutzereingabe als Gesteneingabe klassifiziert wird. Wobei die Steuerhandlungen zumindest teilweise darauf basieren, welche Änderungen zwischen den wenigstens zwei eindeutigen Kennungen erfolgen.
- Ein anderes berührungsbasiertes Verfahren umfasst die Ausgabe einer graphischen Nutzeroberfläche auf einer Anzeige. Das Verfahren umfasst ebenso das Erfassen einer Nutzereingabe auf einer berührungsempfindlichen Einrichtung.
- Das Verfahren umfasst weiterhin das Analysieren der Nutzereingabe auf Merkmale hin, die auf ein Verfolgen, Auswählen oder Gestikulieren hinweisen. Das Verfahren umfasst außerdem die Kategorisierung der Nutzereingabe als eine Verfolgungs-, Auswahl- oder Gestikeingabe. Das Verfahren umfasst weiterhin die Durchführung eines Verfolgens (Tracking) oder einer Auswahl innerhalb der graphischen Nutzeroberfläche, wenn die Nutzereingabe als eine Verfolgungs- oder Auswahleingabe kategorisiert wird. Weiterhin umfasst das Verfahren die Durchführung von Steuerhandlungen innerhalb der graphischen Nutzeroberfläche, wenn die Nutzereingabe als eine Gestikeingabe kategorisiert wird, wobei die Handlungen auf der besonderen Gestikeingabe basieren.
- Ein anderes berührungsbasiertes Verfahren umfasst das Einfangen eines anfänglichen Berührungsbildes. Das Verfahren umfasst ebenso die Bestimmung des Berührungsmodus auf der Grundlage des Berührungsbildes. Das Verfahren umfasst weiterhin das Einfangen des nächsten Berührungsbildes. Das Verfahren umfasst weiterhin die Bestimmung, ob sich der Berührungsmodus zwischen dem anfänglichen und dem nächsten Berührungsbild verändert hat. Das Verfahren umfasst außerdem, falls sich der Berührungsmodus verändert hat, das Festlegen des nächsten Berührungsbildes als das anfängliche Berührungsbild und eine Bestimmung des Berührungsmodus basierend auf dem neuen anfänglichen Berührungsbild. Weiterhin umfasst das Verfahren, falls der Berührungsmodus gleichgeblieben ist, einen Vergleich der Berührungsbilder und die Durchführung einer Steuerfunktion auf Grundlage des Vergleichs.
- Ein computerimplementiertes Verfahren zur Verarbeitung von Berührungseingaben umfasst das Lesen von Daten von einem Berührungsbildschirm. Wobei die Daten Berührungseingaben im Verhältnis zum Berührungsbildschirm betreffen und der Berührungsbildschirm über Mehrpunktfähigkeiten verfügt. Das Verfahren umfasst ebenso die Umwandlung der Daten in eine Sammlung von Merkmalen. Das Verfahren umfasst weiter die Klassifizierung der Merkmale und die Gruppierung der Merkmale in eine oder mehrere Merkmalsgruppen. Das Verfahren um fasst weiterhin die Berechnung von Schlüsselparametern der Merkmalsgruppen und die Zuordnung der Merkmalsgruppen zu Elementen der Nutzeroberfläche auf einer Anzeige.
- Ein anderes computerimplementiertes Verfahren umfasst die Ausgabe eines grafischen Bildes. Das Verfahren umfasst ebenso das Empfangen einer Eingabe in Form einer Gestik mit mehreren Berührungen über dem grafischen Bild. Das Verfahren umfasst weiterhin das Verändern des grafischen Bildes basierend auf und im Einklang mit der Eingabe in Form einer Gestik mit mehreren Berührungen.
- Ein berührungsbasiertes Verfahren umfasst den Empfang einer Gestikeingabe über einem ersten Bereich. Das Verfahren umfasst ebenso das Erzeugen eines ersten Befehls, wenn die Gestikeingabe über den ersten Bereich empfangen wird. Das Verfahren umfasst ebenso den Empfang derselben Gestikeingabe über einem zweiten Bereich. Das Verfahren umfasst weiterhin das Erzeugen eines zweiten Befehls, wenn dieselbe Gestikeingabe über dem zweiten Bereich empfangen wird. Wobei der zweite Befehl sich vom ersten Befehl unterscheidet.
- Ein Verfahren zur Erkennung mehrfacher Gestikeingaben umfasst den Empfang eines gestenartigen Streichens mit mehreren Berührungen auf einer berührungsempfindlichen Oberfläche. Wobei das gestenartige Streichen mit mehreren Berührungen andauernd den Kontakt mit der berührungsempfindlichen Oberfläche hält. Das Verfahren umfasst ebenso das Erkennen einer ersten Gestikeingabe während des gestenartigen Streichens mit mehreren Berührungen. Das Verfahren umfasst weiterhin das Erkennen einer zweiten Gestikeingabe während des gestenartigen Streichens mit mehreren Berührungen.
- Ein computerimplementiertes Verfahren umfasst die Erfassung einer Mehrzahl Berührungen auf einer berührungsempfindlichen Einrichtung. Das Verfahren umfasst ebenso das Bilden einer oder mehrerer Berührungsgruppen mit der Mehrzahl an Berührungen. Das Verfahren umfasst weiterhin die Überwachung der Bewe gung jeder und innerhalb jeder der Berührungsgruppen. Das Verfahren umfasst außerdem die Erzeugung von Steuersignalen, wenn die Berührungen innerhalb der Berührungsgruppen bewegt werden, oder wenn die Berührungsgruppen in ihrer Gesamtheit bewegt werden.
- Es ist anzumerken, dass jedes der oben beschriebenen Verfahren implementiert werden kann, indem eine berührungsbasierte Eingabeeinrichtung wie z. B. ein Berührungsbildschirm oder ein Berührungsfeld eingesetzt wird, insbesondere eine berührungsbasierte Mehrpunkteingabeeinrichtung, und sogar noch insbesondere ein Mehrpunktberührungsbildschirm. Es ist auch anzumerken, dass die Gesten, Gestenmodi, Gestikeingaben, usw. irgendeinem von dem entsprechen können, was weiter unten in der ausführlichen Beschreibung beschrieben ist. Zum Beispiel können die Gesten einem Zoomen, Mitführen, Bildlauf, Drehen, Vergrößern, hervortretenden Steuerelementen (floating controls), Zielzoomen, Blättern, der Trägheit, Tippen, Raddrehen und/oder Ähnlichem zugeordnet sein.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Die Erfindung wird mit der folgenden detaillierten Beschreibung zusammen mit den beigefügten Zeichnungen leicht verstanden werden, in denen gleiche Bezugszeichen gleiche strukturelle Elemente bezeichnen und in denen:
-
1 ein Blockdiagramm eines Computersystems gemäß einer Ausführungsform der vorliegenden Erfindung ist. -
2 ein Mehrpunktverarbeitungsverfahren ist. -
3A und B ein Bild gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
4 eine Gruppe von Merkmalen gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht. -
5 ein Verfahren zur Berechnung von Parameter ist. -
6A bis6G eine Drehgeste veranschaulichen. -
7 ein Diagramm eines berührungsbasierten Verfahrens ist. -
8 ein Diagramm eines berührungsbasierten Verfahrens ist. -
9 ein Diagramm eines berührungsbasierten Verfahrens ist. -
10 ein Diagramm eines Zoom-Gestenverfahrens ist. -
11A bis11J eine Zoomsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
12 ein Diagramm eines Mitführverfahrens ist. -
13A bis13D eine Mitführsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
14 ein Diagramm eines Drehverfahrens ist. -
15A bis15C eine Drehsequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
16 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
17A bis17E eine Sequenz mit hervortretendem Steuerelement gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
18 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
19A bis19D eine Sequenz mit einem zoomenden Ziel veranschaulichen. -
20 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
21A bis21D eine Sequenz mit Seitenblättern gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
22 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
23A bis23D eine Trägheitssequenz gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. -
24 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
25A bis25D eine Tastatursequenz veranschaulichen. -
26 ein Diagramm eines Bedienverfahrens für eine graphische Nutzeroberfläche ist. -
27A bis27D eine Sequenz mit einem Rad für einen Bildlauf gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. - AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
- Die Erfindung betrifft allgemein Gesten und Verfahren zur Umsetzung von Gesten bei berührungsempfindlichen Einrichtungen. Beispiele von berührungsempfindlichen Einrichtungen umfassen Berührungsbildschirme und Berührungsfelder (Touchscreens und Touchpads). Ein Aspekt der Erfindung bezieht sich auf die Erkennung von wenigstens zwei gleichzeitig stattfindenden Gesten. Ein anderer Aspekt der Erfindung bezieht sich auf die Anzeige eines graphischen Bildes und das Verbinden verschiedener Berührungen, die auf dem graphischen Bild erfolgen. Ein anderer Aspekt der Erfindung bezieht sich auf die sofortige Erkennung von Gesten, sodass den Gesten zugeordnete Aktionen zur gleichen Zeit umgesetzt werden können. Ein anderer Aspekt der Erfindung bezieht sich auf das Ändern eines angezeigten Bilds auf der Grundlage und im Einklang mit einer gestenhaften Eingabe, d.h. dass das angezeigte Bild sich mit Änderungen bei der gestenhaften Eingabe fortwährend ändert, sodass das angezeigte Bild ständig der gestenhaften Eingabe folgt. Ein anderer Aspekt der Erfindung bezieht sich auf die Umsetzung eines Eingabemodus auf der Grundlage der Anzahl von Fingern (oder eines anderen Objekts) im Kontakt mit der Eingabeeinrichtung. Ein anderer Aspekt der Erfindung bezieht sich auf die Bereitstellung einer örtlichen Sensibilität, wo Gesten verschiedene Dinge bedeuten, wenn sie über unterschiedlichen Flächen der Eingabeeinrichtung umgesetzt werden. Ein anderer Aspekt der Erfindung bezieht sich auf die Änderung einer Eingabe, bei fortwährendem Kontakt mit der berührungsempfindlichen Oberfläche der berührungsempfindlichen Einrichtung.
- Diese und andere Aspekte der Erfindung werden weiter unten mit Bezug auf die
1 bis27 beschrieben. Jedoch wird der Fachmann leicht feststellen, dass die hier angegebenen ausführliche Beschreibung mit Bezug auf diese Figuren zur Erläuterung dient, da die Erfindung sich über diese beschränkten Ausführungsformen hinaus erstreckt. -
1 ist ein Blockdiagramm eines beispielhaften Computersystems50 , gemäß einer Ausführungsform der vorliegenden Erfindung. Das Computersystem50 kann einem Personalcomputersystem entsprechen, wie z.B. Tischrechnern (Desktops), Laptops, Tablett-PCs oder einem in der Hand haltbaren Rechner (handheld Computer). Das Computersystem kann auch einer Recheneinrichtung, wie z.B. einem Mobiltelefon, einem persönlichen digitalen Assistenten (PDA), einem zum Abspielen von Medien eigens vorgesehenen Gerät, einem Elektronikgerät für Verbraucher, und ähnlichem entsprechen. - Das beispielhafte Computersystem
50 , das in1 gezeigt ist, umfasst einen Prozessor56 , der zum Ausführen von Befehlen und zum Durchführen von Vorgängen konfiguriert ist, die mit dem Computersystem50 zusammenhängen. Zum Beispiel kann der Prozessor56 unter Verwendung von Befehlen, die er z.B. aus einem Speicher entnommen hat, den Empfang und die Behandlung von Eingabe- und Ausgabedaten zwischen den Komponenten des Computersystems50 steuern. Der Prozessor56 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektrischen Komponenten umgesetzt sein. Zum Beispiel können diverse Architekturen für den Prozessor56 eingesetzt werden, umfassend einen vorgesehenen oder einen eingebetteten Prozessor, einen Prozessor mit einer einzigen Aufgabe, einen Kontroller, eine anwendungsspezifische integrierte Schaltung (ASIC, Application Specific Integrated Circuit), usw. - In den meisten Fällen arbeitet der Prozessor
56 zusammen mit einem Betriebssystem, um Computercode auszuführen und Daten zu erzeugen und zu nutzen. Betriebssysteme sind allgemein wohl bekannt und werden nicht weiter im Detail beschrieben. Beispielhaft kann das Betriebssystem OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein für einen besonderen Zweck vorgesehenes Betriebssystem sein, wie es für geräteartige Recheneinrichtungen mit beschränkter Aufgabe eingesetzt werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks58 befinden, der operativ mit dem Prozessor56 gekoppelt ist. Der Speicherblock58 bietet allgemein einen Platz zum Speichern von Computercode und Daten, die durch das Computersystem50 verwendet werden. Beispielhaft kann der Speicherblock58 einen Nur-Lesespeicher (Read Only Memory, ROM), ein Speicher mit wahlfreiem Zugriff (Random Access Memory, RAM), ein Festplattenlaufwerk und/oder ähnliches umfassen. Die Informationen können sich auch auf einem entfernbaren Speichermedium befinden und bei Bedarf auf das Computersystem50 geladen oder installiert werden. Entfernbare Speichermedien umfassen z.B. CD-ROM, PC-Card, Speicherkarte, Diskette, Magnetband und eine Netzwerkkomponente. - Das Computersystem
50 hat ebenso eine Anzeigeeinrichtung68 , die mit dem Prozessor56 operativ gekoppelt ist. Die Anzeigeeinrichtung68 kann eine Flüssigkristallanzeige (LCD, Liquid Crystal Display) sein (z.B., mit aktiver oder passiver Matrix und ähnlichem). Alternativ kann die Anzeigeeinrichtung68 ein Monitor sein, wie z.B. eine Monochromanzeige, eine CGA-Anzeige (Color Graphics Adapter Display), eine EGA-Anzeige (Enhanced Graphics Adapter Display), eine VGA-Anzeige (Variable Graphics Array Display), eine Super VGA-Anzeige, eine Kathodenstrahlröhre und ähnliches. Die Anzeigeeinrichtung kann auch einer Plasmaanzeige entsprechen, oder einer Anzeige, die mit elektronischen Tinten umgesetzt ist. - Die Anzeigeeinrichtung
68 ist allgemein zur Anzeige einer graphischen Nutzeroberfläche69 konfiguriert, welche eine Schnittstelle zwischen dem Nutzer des Computersystems und dem Betriebssystem oder einer darauf ablaufenden Anwendung bereitstellt, die einfach zu benutzen ist. Allgemein gesagt stellt die gra phische Nutzeroberfläche69 Programme, Dateien und Betriebsoptionen mit graphischen Bildern dar. Die graphischen Bilder können Fenster, Felder, Dialogboxen, Menüs, Icons, Knöpfe, Zeiger, Bildlaufbalken, usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein, oder können dynamisch erzeugt werden, um den spezifischen Aktionen zu dienen, die durch einen Nutzer vorgenommen werden. Während des Betriebs kann der Nutzer verschiedene graphische Bilder auswählen und aktivieren, um damit zugeordnete Funktionen und Aufgaben zu initiieren. Zum Beispiel kann der Nutzer einen Knopf auswählen, der ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Ikon, das ein bestimmtes Programm startet. Die graphische Nutzoberfläche69 kann zusätzlich oder alternativ für den Nutzer Informationen, wie z.B. nicht-interaktiven Text und nicht-interaktive Graphiken, auf der Anzeigeeinrichtung68 anzeigen. - Das Computersystem
50 umfasst ebenso eine Eingabeeinrichtung70 , die mit dem Prozessor56 operativ gekoppelt ist. Die Eingabeeinrichtung70 ist für den Transfer von Daten von der Außenwelt in das Computersystem50 konfiguriert. Die Eingabeeinrichtung70 kann z.B. verwendet werden, um im Verhältnis zur graphischen Nutzeroberfläche69 auf der Anzeige68 eine Verfolgung (tracking) auszuführen und Auswahlen vorzunehmen. Die Eingabeeinrichtung70 kann ebenso verwendet werden, um im Computersystem50 Befehle abzugeben. Die Eingabeeinrichtung70 kann eine berührungsempfindliche Einrichtung umfassen, die dazu konfiguriert ist, über die Berührung eines Nutzers eine Eingabe zu empfangen und diese Informationen an den Prozessor56 zu senden. Beispielhaft kann die berührungsempfindliche Einrichtung einem Berührungsfeld (touchpad) oder einem Berührungsbildschirm (touchscreen) entsprechen. In vielen Fällen erkennt die berührungsempfindliche Einrichtung Berührungen, sowie die Position und Stärke der Berührungen auf einer berührungsempfindlichen Oberfläche. Das die Berührung fühlende Mittel berichtet die Berührungen an den Prozessor56 , und der Prozessor56 interpretiert die Berührungen gemäß seiner Programmierung. Zum Beispiel kann der Prozessor56 gemäß einer besonderen Berührung eine Aufgabe starten. Ein eigens vorgesehener Prozessor kann verendet werden, um Berührungen lo kal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. Die berührungsempfindliche Einrichtung kann auf Sensortechnologien beruhen, die folgendes umfassen, aber nicht darauf beschränkt sind: Kapazitivsensoren, Widerstandsensoren, Oberflächenschallwellensensoren, Drucksensoren, optische Sensoren und/oder ähnliches. Weiterhin kann das die Berührung fühlende Mittel auf Einpunktfühlen oder Mehrpunktfühlen basieren. Einpunktfühlen ist in der Lage, nur eine einzige Berührung zu unterscheiden, während Mehrpunktfühlen in der Lage ist, mehrere Berührungen zu unterscheiden, die gleichzeitig erfolgen. - Die Eingabeeinrichtung
70 kann ein Berührungsbildschirm sein, der über oder vor einer Anzeige68 positioniert ist. Der Berührungsbildschirm70 kann in die Anzeigeeinrichtung68 integriert sein, oder es kann sich um eine getrennte Komponente handeln. Der Berührungsbildschirm70 besitzt mehrere Vorteile gegenüber anderen Eingabetechnologien, wie z.B. Berührungsfelder, Mäuse, usw. Zum einen ist der Berührungsbildschirm70 vor der Anzeige68 positioniert, und folglich kann der Nutzer die graphische Nutzeroberfläche69 direkt manipulieren. Zum Beispiel kann der Nutzer einfach seinen Finger über einem Objekt platzieren, das gesteuert werden soll. Bei Berührungsfeldern gibt es eine solche Eins-zu-Eins-Beziehung nicht. Bei Berührungsfeldern ist das Berührungsfeld entfernt von der Anzeige angeordnet, typischerweise in einer anderen Ebene. Zum Beispiel befindet sich die Anzeige typischerweise in einer senkrechten Ebene, und das Berührungsfeld befindet sich typischerweise in einer waagerechten Ebene. Dies macht dessen Benutzung weniger intuitiv und folglich schwieriger im Vergleich zu Berührungsbildschirmen. Zusätzlich zu seiner Eigenschaft als Berührungsbildschirm kann die Eingabeeinrichtung70 eine Mehrpunkteingabeeinrichtung sein. Mehrpunkteingabeeinrichtungen haben Vorteile über herkömmliche Einpunkteinrichtungen dahingehend, dass sie mehr als ein Objekt (Finger) unterscheiden können. Einpunkteinrichtungen sind einfach unfähig, mehrere Objekte zu unterscheiden. Beispielhaft ist ein Mehrpunktberührungsbildschirm, der hier eingesetzt werden kann, in der parallel anhängigen und gemeinsam übertragenenUS-Patentanmeldung Nr. 10/840,862 - Das Computersystem
50 umfasst ebenso Fähigkeiten zur Kopplung mit einer oder mehreren Eingabe-/Ausgabeeinrichtungen80 . Beispielhaft können die Eingabe-/Ausgabeeinrichtungen80 Tastaturen, Druckern, Scannern, Kameras, Lautsprechern und/oder ähnlichem entsprechen. Die Eingabe-/Ausgabeeinrichtungen80 können in das Computersystem50 integriert sein, oder es kann sich um getrennte Komponenten handeln (z.B. Peripheriegeräte). In manchen Fällen können die Eingabe-/Ausgabeeinrichtungen80 über Kabelverbindungen (z.B. Kabel/Anschlüsse) mit dem Computersystem50 verbunden sein. In anderen Fällen können die Eingabe-/Ausgabeeinrichtungen80 über drahtlose Verbindungen mit dem Computersystem80 verbunden sein. Zum Beispiel kann die Datenverbindung PS/2, USB, IR, RF, Bluetooth oder ähnlichem entsprechen. - Gemäß einer Ausführungsform der vorliegenden Erfindung ist das Computersystem
50 für die Erkennung von auf die Eingabeeinrichtung70 angewandten Gesten85 und für die Steuerung von Aspekten des Computersystems50 auf der Grundlage der Gesten85 ausgestaltet. In manchen Fällen ist eine Geste als eine stilisierte Interaktion mit einer Eingabeeinrichtung definiert, die auf einen oder mehrere spezifische Rechenvorgänge abgebildet wird. Die Gesten85 können über diverse Hand- und insbesondere Fingerbewegungen ausgeführt werden. Alternativ oder zusätzlich können die Gesten mit einem Stift ausgeführt werden. In all diesen Fällen empfängt die Eingabeeinrichtung70 die Gesten85 , und der Prozessor56 führt Befehle aus, um Vorgänge durchzuführen, die den Gesten85 zugeordnet sind. Zusätzlich kann der Speicherblock58 ein Gestenbetriebsprogramm88 umfassen, das ein Teil des Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm88 umfasst allgemein einen Satz an Befehlen, der das Auftreten von Gesten85 erkennt, und einen oder mehrere Softwareagenten über die Gesten85 informiert und/oder darüber informiert, welche Handlung(en) in Antwort auf die Gesten85 vorgenommen wird (werden). - Wenn ein Nutzer eine oder mehreren Gesten durchführt, leitet die Eingabeeinrichtung
70 Informationen über die Gesten an den Prozessor56 weiter. Unter Verwendung von Befehlen aus dem Speicher58 , und insbesondere des Gestenbetriebsprogramms88 , interpretiert der Prozessor56 die Gesten85 und steuert verschiedene Komponenten des Computersystems50 , wie z.B. den Speicher58 , eine Anzeige68 und Eingabe-/Ausgabeeinrichtungen80 , auf der Grundlage der Gesten85 . Die Gesten85 können als Befehle zur Durchführung von Aktionen bei im Speicher58 gespeicherten Anwendungen, zur Veränderung auf von der Anzeige68 gezeigten Objekten der graphischen Nutzeroberfläche, zur Veränderung von in dem Speicher58 gespeicherten Daten, und/oder zur Durchführung von Aktionen bei den Eingabe-/Ausgabeeinrichtungen80 identifiziert werden. Beispielhaft können die Befehle einem Zoomen, Mitführen, Bildlauf, Blättern, Drehen, Größe einstellen und ähnlichem zugeordnet sein. Als weitere Beispiele können die Befehle auch dem Folgenden zugeordnet sein: dem Starten eines bestimmten Programms, dem Öffnen einer Datei oder eines Dokuments, dem Betrachten eines Menüs, dem Durchführen einer Auswahl, dem Ausführen von Anweisungen, dem Einloggen in das Computersystem, dem Erlauben des Zugangs zu gesperrten Bereichen des Computersystems für autorisierte Einzelpersonen, dem Laden eines Nutzerprofils, das der vom Nutzer bevorzugten Anordnung der Arbeitsfläche (Desktop) des Rechners zugeordnet ist, und/oder ähnlichem. - Es kann eine große Spanne an verschiedenen Gesten verwendet werden. Beispielhaft kann es sich bei den Gesten um Einzelpunkt- oder Mehrpunktgesten; statische oder dynamische Gesten; kontinuierliche oder segmentierte Gesten; und/oder um ähnliches handeln. Einzelpunktgesten sind solche Gesten, die mit einem einzigen Kontaktpunkt ausgeführt werden, z.B., wird die Geste mit einer einzigen Berührung wie z.B. von einem einzigen Finger, einer Handfläche oder einem Stift ausgeführt. Mehrpunktgesten sind solche Gesten, die mit mehreren Punkten ausgeführt werden können, z.B., wird die Geste mit mehreren Berührungen wie z.B. von mehreren Fingern, Fingern und Handflächen, einem Finger und einem Stift, mehreren Stiften und/oder jeglicher Kombination davon ausgeführt. Statische Gesten sind solche Gesten, die keine Bewegung umfassen, und dynamische Gesten sind solche Gesten, bei denen eine Bewegung vorkommt. Kontinuierliche Gesten sind solche Gesten, die in einem einzigen Streich ausgeführt werden, und segmentierte Gesten sind solche Gesten, die in einer Sequenz von verschiedenen Schritten oder Strichen ausgeführt werden.
- Bei einer Ausführungsform ist das Computersystem
50 zur gleichzeitigen Registrierung mehrerer Gesten konfiguriert, d.h., dass mehrere Gesten gleichzeitig ausgeführt werden können. Beispielhaft kann eine Zoomgeste zur gleichen Zeit wie eine Drehgeste ausgeführt werden, oder eine Drehgeste kann zur gleichen Zeit wie eine Mitführgeste ausgeführt werden. Bei einer besonderen Umsetzung können Zoom-, Dreh- und Mitführgesten alle gleichzeitig erfolgen, um zur gleichen Zeit ein Zoomen, Drehen und Mitführen auszuführen. - Bei einer anderen Ausführungsform ist das System zur sofortigen Erkennung der Gesten konfiguriert, sodass den Gesten zugeordnete Aktionen zur gleichen Zeit wie die Geste umgesetzt werden können, d.h., dass die Geste und die Aktion gleichzeitig nebeneinander erfolgen, anstatt dass es sich um einen Vorgang mit zwei Schritten handelt. Beispielhaft bewegt sich bei einer Bildlaufgeste der Bildschirm mit der Fingerbewegung.
- Bei einer anderen Ausführungsform folgt ein auf der Anzeige
68 präsentiertes Objekt kontinuierlich der auf einem Berührungsbildschirm stattfindenden Geste. Es besteht eine 1-zu-1-Beziehung zwischen der gerade durchgeführten Geste und den auf der Anzeige68 gezeigten Objekten. Zum Beispiel erfolgen mit Durchführung der Geste gleichzeitig Veränderungen an den Objekten, die unterhalb der Geste liegen. Zum Beispiel können während einer Zoomgeste sich die Finger auseinanderspreizen oder schließen, um während des Spreizens ein Heranzoomen des auf der Anzeige68 gezeigten Objekts zu verursachen, und während des Schließens ein Herauszoomen. Während dieses Vorgangs erkennt das Computersystem50 die Nutzereingabe als eine Zoomgeste, bestimmt, welche Handlung erfolgen sollte, und gibt Steuerdaten an die richtige Einrichtung aus, in diesem Fall die Anzeige68 . - Bei einer anderen Ausführungsform verfügt das Computersystem
50 über eine örtliche Sensibilität, wobei Gesten unterschiedliche Dinge bedeuten, wenn sie über unterschiedlichen Flächen der Eingabeeinrichtung68 umgesetzt werden. Zum Beispiel verursacht eine Drehgeste über einem Lautstärkerknopf eine Erhöhung/Senkung der Lautstärke, wohingegen eine Drehgeste über einem Foto eine Drehung des Fotos verursacht. - Bei einer anderen Ausführungsform kann die Anzahl an Fingern, die sich in Kontakt mit dem Berührungsbildschirm befinden, einen Eingabemodus angeben. Zum Beispiel kann eine einzelne Berührung wie z.B. durch einen einzelnen Finger den Wunsch angeben, eine Verfolgung (Tracking) durchzuführen, d.h., Zeiger- oder Kursorbewegungen, oder Auswahlen, wohingegen mehrere Berührungen wie z.B. durch eine Fingergruppe den Wunsch anzeigen können, zu Gestikulieren. Die Anzahl Finger zur Umsetzung der Gestik kann stark variieren. Beispielhaft können zwei Finger einen ersten Gestikmodus angeben, können drei Finger einen dritten Gestikmodus angeben, usw. Alternativ kann irgendeine Anzahl von Fingern, d.h. mehr als einer, für denselben Gestikmodus verwendet werden, der ein oder mehrere Gestensteuerelemente umfassen kann. Die Ausrichtung der Finger kann in ähnlicher Weise eingesetzt werden, um den gewünschten Modus zu bezeichnen. Das Profil des Fingers kann erfasst werden, um verschiedene Modusvorgänge basierend darauf zu erlauben, ob der Nutzer z.B. seinen Daumen oder Zeigefinger verwendet hat.
- Bei einer anderen Ausführungsform kann eine Eingabe während der Durchführung eines durchgezogenen Strichs auf der Eingabeeinrichtung verändert werden, ohne den Strich zu unterbrechen (z.B. ein Abheben von der berührungsempfindlichen Oberfläche). Bei einer Umsetzung kann ein Nutzer von einem Verfolgungs- (oder Auswahl-)Modus zu einem Gestikmodus umschalten, während ein Strich durchgeführt wird. Zum Beispiel kann das Verfolgen oder Auswählen einem einzelnen Finger zugeordnet sein, und kann das Gestikulieren mehreren Fingern zugeordnet sein; folglich kann der Nutzer zwischen Verfolgung/Auswahl und Gestikulieren hin- und herschalten, indem er einen zweiten Finger von dem Berührungsbildschirm abhebt und auf diesem absetzt. Bei einer anderen Umsetzung kann der Nutzer von einem Gestikmodus zu einem anderen Gestikmodus umschalten, während ein Strich ausgeführt wird. Zum Beispiel kann ein Zoomen dem Spreizen eines Fingerpaars zugeordnet sein, und kann ein Drehen dem Drehen des Fingerpaars zugeordnet sein; folglich kann der Nutzer zwischen Zoomen und Drehen hin- und herschalten, indem er bei der Bewegung seiner Finger zwischen Spreizen und Drehen wechselt. Bei noch einer anderen Umsetzung kann die Anzahl an Gesteneingaben verändert werden, während ein Strich ausgeführt wird (z.B. hinzugefügt oder abgezogen werden). Zum Beispiel kann der Nutzer während eines Zoomens, wo die Finger auseinander gespreizt werden, weiterhin seine Finger drehen, um sowohl ein Zoomen als auch ein Drehen auszulösen. Weiterhin kann der Nutzer während des Zoomens und Drehens das Spreizen der Finger abbrechen, sodass nur eine Drehung stattfindet. Mit anderen Worten können die Gesteneingaben kontinuierlich eingegeben werden, entweder gleichzeitig oder nacheinander.
- Bei einer besonderen Ausführungsform löst ein einzelner Finger ein Verfolgen (Tracking) (oder eine Auswahl) aus, und lösen zwei oder mehr Finger in unmittelbarer Nähe zueinander einen Bildlauf oder Mitführen aus. Zwei Finger werden im Allgemeinen bevorzugt, um ein einfaches Hin- und Herschalten zwischen einem und zwei Fingern bereitzustellen, d.h., dass der Nutzer zwischen den Modi sehr leicht umschalten kann, indem er einfach einen zusätzlichen Finger anhebt oder absetzt. Dies hat den Vorteil, dass es intuitiver ist, als andere Formen der Modus Hin- und Herschaltung. Während des Verfolgens (Tracking) wird die Bewegung des Zeigers dadurch gesteuert, dass der Nutzer einen einzelnen Finger auf der berührungsempfindlichen Oberfläche einer berührungsempfindlichen Einrich tung bewegt. Die Sensoranordnung der berührungsempfindlichen Einrichtung interpretiert die Fingerbewegung und erzeugt Signale zur Erzeugung einer entsprechenden Bewegung des Zeigers auf der Anzeige. Während eines Bildlaufs wird die Bewegung des Bildschirms dadurch gesteuert, dass der Nutzer zwei Finger auf der berührungsempfindlichen Oberfläche der berührungsempfindlichen Einrichtung bewegt. Wenn die kombinierten Finger in die senkrechte Richtung bewegt werden, wird die Bewegung als ein senkrechtes Bildlaufereignis interpretiert, und wenn die kombinierten Finger in die waagerechte Richtung bewegt werden, wird die Bewegung als ein waagerechtes Bildlaufereignis interpretiert. Das Gleiche gilt für das Mitführen, obwohl ein Mitführen in alle Richtungen erfolgen kann, anstatt nur der waagerechten und senkrechten Richtungen.
- Der Begriff "Bildlauf" ("scrolling"), so wie er hier verwendet wird, betrifft allgemein das Bewegen von angezeigten Daten oder Bildern (z.B. Text oder Graphiken) durch einen Sichtbereich auf einem Anzeigebildschirm, sodass ein neuer Datensatz (z.B. eine Textzeile oder Graphiken) im Sichtbereich in Sicht kommt. Sobald der Sichtbereich voll ist, erscheint in den meisten Fällen jeder neue Datensatz am Rand des Sichtbereichs, und alle anderen Datensätze bewegen sich eine Position weiter. Das heißt, dass der neue Datensatz für jeden Datensatz erscheint, der sich aus dem Sichtbereich herausbewegt. Im Wesentlichen erlaubt es die Bildlauffunktion einem Nutzer, aufeinanderfolgende Datensätze zu betrachten, die derzeit außerhalb des Sichtbereichs liegen. Der Sichtbereich kann der gesamte Sichtbereich des Anzeigebildschirms sein, oder es kann sich nur um einen Abschnitt des Anzeigebildschirms handeln (z.B. ein Fensterrahmen).
- Wie oben erwähnt, kann der Bildlauf senkrecht (hoch oder runter) oder waagerecht (links oder rechts) umgesetzt sein. Im Falle des senkrechten Bildlaufs, wenn ein Nutzer das Bild nach unten durchläuft, erscheint jeder neue Datensatz am unteren Ende des Sichtbereichs, und alle anderen Datensätze bewegen sich eine Position aufwärts. Wenn der Sichtbereich voll ist, bewegt sich der oberste Datensatz aus dem Sichtbereich heraus. Wenn ein Nutzer nach oben hin durchläuft, erscheint in ähnlicher Weise jeder neue Datensatz am oberen Ende des Sichtbereichs, und alle anderen Datensätze bewegen sich um eine Position nach unten. Wenn der Sichtbereich voll ist, bewegt sich der unterste Datensatz aus dem Sichtbereich heraus.
- Beispielhaft kann der Anzeigebildschirm während des Betriebs eine Liste von Medienobjekten (z.B. Songs) anzeigen. Ein Nutzer ist in der Lage, die Liste an Medienobjekten linear zu durchlaufen, indem er seinen Finger über den Berührungsbildschirm bewegt. Während der Finger sich über den Berührungsbildschirm bewegt, werden die angezeigten Objekte von der Liste an Medienobjekten variiert, sodass der Nutzer in der Lage ist, im Ergebnis die Liste an Medienobjekten zu durchlaufen. In den meisten Fällen ist der Nutzer in der Lage, seine Durchquerung der Liste an Medienobjekten zu beschleunigen, indem er seinen Finger mit höheren Geschwindigkeiten bewegt. Einige Ausfürungsformen, die in Bezug zu dem obigen Beispiel stehen können, sind weiter unten detaillierter beschrieben. Siehe z.B.
6 ,23 und27 . -
2 ist ein Mehrpunktverarbeitungsverfahren100 . Das Mehrpunktverarbeitungsverfahren100 kann z.B. in dem in der1 gezeigten System durchgeführt werden. Das Mehrpunktverarbeitungsverfahren100 beginnt allgemein beim Kasten102 , wo Bilder von einer Mehrpunkteingabeeinrichtung, und insbesondere einem Mehrpunktberührungsbildschirm, ausgelesen werden. Beispielhaft kann der Mehrpunktberührungsbildschirm allgemein dem Mehrpunktberührungsbildschirm entsprechen, der in der parallel anhängigenUS-Patentanmeldung Nr. 10/840,862 - Im Anschluss an den Kasten
102 fährt das Mehrpunktverarbeitungsverfahren100 mit dem Kasten104 fort, wo das Bild in eine Sammlung oder Liste von Merkmalen umgewandelt wird. Jedes Merkmal repräsentiert eine getrennte Eingabe wie z.B. eine Berührung. In den meisten Fällen hat jedes Merkmal seine eigene eindeutige Kennung (ID), x-Koordinate, y-Koordinate, Größe Z, Winkel θ, Fläche A, und ähnliches. Beispielhaft veranschaulichen die3A und3B ein Bild120 zu einem bestimmten Zeitpunkt. Beim Bild120 gibt es zwei Merkmale122 , die auf zwei getrennten Berührungen basieren. Die Berührungen können z.B. von einem Fingerpaar stammen, das den Berührungsbildschirm berührt. Wie es gezeigt ist, umfasst jedes Merkmal122 eine eindeutige Kennung (ID), eine x Koordinate, y Koordinate, Größe Z, einen Winkel θ und eine Fläche A. Genauer gesagt wird das erste Merkmal122A durch ID1, x1, y1, Z1, θ1, A1 repräsentiert, und wird das zweite Merkmal122B durch ID2, x2, y2, Z2, θ2, A2 repräsentiert. Diese Daten können z.B. unter Verwendung eines Mehrberührungsprotokolls ausgegeben werden. - Die Umwandlung von Daten oder Bildern zu Merkmalen kann unter Verwendung von Verfahren erreicht werden, die in der parallel anhängigen
U.S. Patentanmeldung Nr.: 10/840,862 - Im Anschluss an den Kasten
104 fährt das Mehrpunktverarbeitungsverfahren100 mit Kasten106 fort, wo eine Klassifizierung und Gruppierung der Merkmale erfolgt. Während der Klassifizierung wird die Identität jedes Merkmals bestimmt. Z.B. können die Merkmale als ein bestimmter Finger, ein Daumen, eine Handfläche oder ein anderes Objekt klassifiziert werden. Sobald sie klassifiziert sind, können die Merkmale gruppiert werden. Die Art und Weise, in welcher die Gruppen gebildet werden, kann stark variieren. In den meisten Fällen werden die Merkmale auf der Grundlage einiger Kriterien gruppiert (z.B., dass sie ein ähnliches Attribut haben). Z.B. können die in den3A und3B gezeigten zwei Merkmale gruppiert werden, da jedes dieser Merkmale sich in der Nähe zum anderen befindet, oder da sie von derselben Hand stammen. Das Gruppieren kann einen bestimmten Grad an Filterung umfassen, um Merkmale auszufiltern, die nicht Teil des Berührungsereignisses sind. Beim Filtern kann ein Merkmal oder können mehrere Merkmale verworfen werden, weil sie entweder gewisse vorbestimmte Kriterien erfüllen, oder weil sie gewisse Kriterien nicht erfüllen. Beispielhaft kann eines der Merkmale als ein Daumen klassifiziert werden, der sich am Rande eines Tablett-PC's befindet. Da der Daumen verwendet wird, um das Gerät zu halten, anstatt verwendet zu werden, um eine Aufgabe durchzuführen, wird das dadurch erzeugte Merkmal verworfen, das heißt, es wird nicht als Teil des in Verarbeitung befindlichen Berührungsereignisses betrachtet. - Im Anschluss an den Kasten
106 fährt das Mehrpunktverarbeitungsverfahren100 mit Kasten108 fort, wo Schlüsselparameter für die Merkmalsgruppen berechnet werden. Die Schlüsselparameter können den Abstand zwischen Merkmalen, den x/y Schwerpunkt aller Merkmale, die Merkmaldrehung, den Gesamtdruck der Gruppe (z.B. Druck beim Schwerpunkt) und ähnliches umfassen. Wie es in4 gezeigt ist, kann die Berechnung folgendes umfassen: Auffinden des Schwerpunkts C, Zeichnen einer virtuellen Linie130 vom Schwerpunkt C zu jedem Merkmal, Definieren des Abstands D für jede virtuelle Linie (D1 und D2), und dann Bildung des Durchschnitts aus den Abständen D1 und D2. Sobald die Para meter berechnet sind, werden die Parameterwerte berichtet. Die Parameterwerte werden typischer Weise mit einer Gruppenkennung (group identifier, GID) und der Anzahl an Merkmalen innerhalb jeder Gruppe (in diesem Fall drei) berichtet. In den meisten Fällen werden sowohl anfängliche als auch gegenwärtige Parameterwerte berichtet. Die anfänglichen Parameterwerte können auf dem Aufsetzen basieren, das heißt, wenn der Nutzer seine Finger auf dem Berührungsbildschirm aufsetzt, und die gegenwärtigen Werte können auf jeglichem Punkt innerhalb eines Strichs basieren, der nach dem Aufsetzen auftritt. Es versteht sich, dass die Kasten102 bis108 während des Strichs eines Nutzers wiederholt ausgeführt werden, wodurch eine Mehrzahl sequenziell konfigurierter Signale erzeugt wird. Die anfänglichen und gegenwärtigen Parameter können in späteren Schritten verglichen werden, um im System Aktionen durchzuführen. - Im Anschluss an den Kasten
108 fährt der Verfahrensablauf mit dem Kasten110 fort, wo die Gruppe einem Element einer Nutzeroberfläche zugeordnet wird. Nutzeroberflächenelemente sind Felder mit Schaltflächen, Listen, Schieber, Räder, Knöpfe, usw.. Jedes Nutzeroberflächenelement repräsentiert eine Komponente oder ein Steuerelement der Nutzeroberfläche. Die Anwendung hinter dem (den) Nutzeroberflächenelement(en) hat Zugang zu den im Kasten108 berechneten Parameterdaten. Bei einer Umsetzung bewertet die Anwendung die Relevanz der Berührungsdaten für das entsprechende Nutzeroberflächenelement. Die Bewertung kann auf gewissen vorbestimmten Kriterien basieren. Die Bewertung kann das Erzeugen einer Bewertungszahl umfassen, sowie desjenigen Nutzeroberflächenelements, das die höchste Bewertungszahl hat, was ihm den alleinigen Zugang zur Gruppe verschafft. Es kann sogar auch einen gewissen Grad an Hysterese geben (sobald eines der Nutzeroberflächenelemente die Kontrolle dieser Gruppe beansprucht, bleibt die Gruppe bei dem Nutzeroberflächenelement, bis ein anderes Nutzeroberflächenelement eine viel höhere Wertung hat). Beispielhaft kann die Bewertung die Bestimmung der Nähe des Schwerpunkts (oder von Merkmalen) zum Objekt der graphischen Nutzeroberfläche umfassen, das dem Nutzeroberflächenelement zugeordnet ist. - Im Anschluss an den Kasten
110 fährt das Mehrpunktverarbeitungsverfahren100 mit den Kästen112 und114 fort. Die Kästen112 und114 können ungefähr zur gleichen Zeit ausgeführt werden. Aus der Sicht des Nutzers scheint es bei einer Ausführungsform so, als ob die Kästen112 und114 gleichzeitig ausgeführt werden. Beim Kasten112 werden eine oder mehrere Aktionen durchgeführt, auf der Grundlage von Unterschieden zwischen anfänglichen und gegenwärtigen Parameterwerten sowie des Nutzeroberflächenelements, welchem sie zugeordnet sind. Beim Kasten114 wird dem Nutzer eine Rückmeldung bezüglich der einen oder der mehreren Handlungen bereitgestellt, die gerade durchgeführt werden. Beispielhaft kann die Rückmeldung an den Nutzer eine Anzeige-, Audio-, Taktil-Rückmeldung und/oder ähnliches umfassen. -
5 ist ein Parameterberechnungsverfahren150 . Das Parameterberechnungsverfahren150 kann zum Beispiel dem Kasten108 entsprechen, der in der2 gezeigt ist. Das Parameterberechnungsverfahren150 beginnt allgemein beim Kasten152 , wo eine Merkmalsgruppe empfangen wird. Im Anschluss an den Kasten152 fährt das Parameterberechnungsverfahren150 zum Kasten154 fort, wo festgestellt wird, ob die Anzahl an Merkmalen in der Merkmalsgruppe sich verändert hat oder nicht. Zum Beispiel kann sich die Anzahl an Merkmalen verändert haben, weil der Nutzer einen zusätzlichen Finger anhebt oder ablegt. Verschiedene Finger können benötigt werden, um unterschiedliche Steuerungen (z.B. verfolgen, gestikulieren) durchzuführen. Falls die Anzahl an Merkmalen sich verändert hat, fährt das Parameterberechnungsverfahren150 mit dem Kasten156 fort, wo die anfänglichen Parameterwerte berechnet werden. Falls die Anzahl die gleiche bleibt, fährt das Parameterberechnungsverfahren150 mit dem Kasten158 fort, wo die gegenwärtigen Parameterwerte berechnet werden. Anschließend fährt das Parameterberechnungsverfahren150 mit dem Kasten150 fort, wo die anfänglichen und gegenwärtigen Parameterwerte berichtet werden. Beispielhaft können die anfänglichen Parameterwerte den durchschnittlichen anfänglichen Abstand zwischen Punkten (oder Abstand (Mittel) anfänglich) und die gegenwärtigen Parame terwerte den durchschnittlichen gegenwärtigen Abstand zwischen Punkten (oder Abstand (Mittel) gegenwärtig) enthalten. Diese können in nachfolgenden Schritten verglichen werden, um verschiedene Aspekte eines Computersystems zu steuern. - Die obigen Verfahren und Techniken können verwendet werden, um jegliche Anzahl an Objekten und Aktionen einer graphischen Nutzeroberfläche zu implementieren. Zum Beispiel können Gesten kreiert werden, um einen Nutzerbefehl zu erfassen und zu bewirken, der zur Größenanpassung eines Fensters, Durchlaufen einer Anzeige, Drehen eines Objekts, Hinein- oder Herauszoomen in bzw. aus eine angezeigte Ansicht, Löschen oder Einfügen von Text oder anderen Objekten, usw. dient. Gesten können ebenso verwendet werden, um virtuelle Steueroberflächen wie z.B. Lautstärkeknöpfe, Schalter, Schieber, Griffe, Knöpfe, Türen und andere Interaktionselemente aufzurufen und zu manipulieren, die erzeugt werden können, um die menschliche Interaktion mit dem Rechensystem zu erleichtern.
- Um ein die obigen Methodologien verwendendes Beispiel zu nennen, mit Bezug auf die
6A bis6G , wird eine Drehgestik zur Steuerung eines virtuellen Lautstärkeknopfs170 auf einer graphischen Nutzeroberfläche172 einer Anzeige174 eines Tablett-PC's175 beschrieben. Um den Knopf170 zu betätigen, platziert der Nutzer seine Finger176 auf einem Mehrpunktberührungsbildschirm178 . Der virtuelle Steuerknopf kann bereits angezeigt sein, oder die besondere Anzahl, Ausrichtung oder das Profil der Finger beim Aufsetzen, oder die Bewegung der Finger direkt danach, oder eine Kombination dieser und anderer Charakteristiken der Interaktion des Nutzers können dazu führen, dass der virtuelle Steuerknopf angezeigt wird. In jedem Falle assoziiert das Rechensystem eine Fingergruppe mit dem virtuellen Steuerknopf und stellt fest, dass der Nutzer beabsichtigt, den virtuellen Lautstärkeknopf zu verenden. Diese Assoziation kann auch teilweise auf dem Modus oder dem gegenwärtigen Zustand der Recheneinrichtung zum Zeitpunkt der Eingabe basieren. Zum Beispiel kann dieselbe Geste alternativ als eine Lautstärkeknopf-Geste interpretiert werden, falls gerade ein Song auf der Rechen einrichtung läuft, oder als ein Drehbefehl, falls gerade eine Anwendung zur Editierung von Objekten ausgeführt wird. Es kann eine andere Rückmeldung an den Nutzer bereitgestellt werden, einschließlich z.B. eine hörbare oder fühlbare Rückmeldung. - Sobald der Knopf
170 angezeigt wird, wie es in der6A gezeigt ist, können die Finger176 des Nutzers um den Knopf170 herumpositioniert werden, in ähnlicher Weise als ob es sich um einen tatsächlichen Knopf oder Regler handelte, und können dann um den Knopf170 herumgedreht werden, um das Drehen des Knopfes170 zu simulieren. Wiederum kann z.B. eine hörbare Rückmeldung in der Form eines Klickgeräusches oder eine fühlbare Rückmeldung in der Form einer Vibration bereitgestellt werden, während der Knopf170 „gedreht" wird. Der Nutzer kann auch seine andere Hand verwenden, um den Tablett PC175 zu halten. - Wie es in
6B gezeigt ist, erfasst der Mehrpunktberührungsbildschirm178 wenigstens ein Bildpaar. Insbesondere wird beim Absetzen ein erstes Bild180 erzeugt, und wenigstens ein anderes Bild182 wird erzeugt, wenn die Finger176 gedreht werden. Auch wenn nur zwei Bilder gezeigt sind, würde es in den meisten Fällen viel mehr Bilder geben, die Schritt für Schritt zwischen diesen zwei Bildern auftreten. Jedes Bild repräsentiert ein Profil der mit dem Berührungsbildschirm in Kontakt befindlichen Finger zu einem bestimmten Zeitpunkt. Diese Bilder können auch als Berührungsbilder bezeichnet werden. Es wird ersichtlich sein, dass der Begriff „Bild" nicht bedeutet, dass das Profil auf dem Bildschirm178 angezeigt wird (sondern stattdessen durch die berührungsempfindliche Einrichtung verbildlicht wird). Es ist auch zu bemerken, dass, obwohl der Begriff „Bild" verwendet wird, die Daten in anderen Formen vorliegen können, die zu diversen Zeitpunkten für die Berührungsfläche repräsentativ sind. - Wie es in der
6C gezeigt ist, wird jedes der Bilder180 bis182 in eine Sammlung von Merkmalen184 umgewandelt. Jedes Merkmal184 ist einer bestimmten Berührung zugeordnet, wie z.B. von den Spitzen eines jeden Fingers176 , welche den Knopf170 umgeben, sowie dem Daumen der anderen Hand177 , die verwendet wird, um den Tablett PC175 zu halten. - Wie es in der
6D gezeigt ist, werden die Merkmale184 klassifiziert, d.h., jeder Finger/Daumen wird identifiziert, und für jedes der Bilder180 und182 gruppiert. In diesem konkreten Fall werden die dem Knopf170 zugeordneten Merkmale184A gruppiert, um die Gruppe188 zu bilden, und das Merkmal184B , das dem Daumen zugeordnet ist, wird herausgefiltert. Bei alternativen Gestaltungen kann das Daumenmerkmal184B als ein getrenntes Merkmal in Alleinstellung (oder in einer anderen Gruppe) behandelt werden, z.B., um den Eingabe- oder Betriebsmodus des Systems zu ändern, oder eine andere Geste zu implementieren, z.B., eine Schiebergeste, die einem Entzerrungsschieber zugeordnet ist, der auf dem Bildschirm im Bereich des Daumens (oder eines anderen Fingers) angezeigt wird. - Wie es in
6E gezeigt ist, werden für jedes Bild180 und182 die Schlüsselparameter der Merkmalsgruppe188 berechnet. Die dem ersten Bild180 zugeordneten Schlüsselparametern repräsentieren den Anfangszustand, und die Schlüsselparameter des zweiten Bildes182 repräsentieren den gegenwärtigen Zustand. - Wie es ebenso in der
6E gezeigt ist, ist der Knopf170 das der Merkmalsgruppe188 zugeordnete Nutzeroberflächenelement, wegen deren Nähe zum Knopf170 . Anschließend, wie es in6F gezeigt ist, werden die Schlüsselparameterwerte der Merkmalsgruppe188 von jedem Bild180 und182 verglichen, um den Rotationsvektor zu bestimmen, das heißt, dass sich die Merkmalsgruppe vom anfänglichen zum gegenwärtigen Zustand um fünf (5) Grad im Uhrzeigersinn gedreht hat. In der6F ist die anfängliche Merkmalsgruppe (Bild180 ) mit gestrichelten Linien gezeigt, während die gegenwärtige Merkmalsgruppe (Bild182 ) mit durchgezogenen Linien gezeigt ist. - Wie es in der
6G gezeigt ist, erhöht (oder verringert) der Lautsprecher192 des Tablett PC's175 seine Ausgabe auf der Grundlage des Rotationsvektors, gemäß der Drehweite der Finger176 , d.h., eine Erhöhung der Lautstärke um 5% auf der Grundlage einer Drehung von fünf Grad. Die Anzeige174 des Tablett PC's kann ebenfalls die Drehung des Knopf170 gemäß der Drehweite der Finger176 anpassen, d.h., dass die Position des Knopfs170 sich um fünf (5) Grad dreht. In den meisten Fällen erfolgt das Drehen des Knopfs gleichzeitig mit der Drehung der Finger, d.h., dass für jeden Grad an Fingerdrehung sich der Knopf um ein Grad dreht. Im Wesentlichen folgt der virtuelle Steuerknopf der Geste, die auf dem Bildschirm erfolgt. Weiterhin kann eine Audioeinheit194 des Tablett PC's für jede Dreheinheit ein Klickgeräusch bereitstellen, z.B. fünf Klicks bereitstellen, auf der Grundlage einer Drehung von fünf Grad. Außerdem kann eine haptische Einheit196 des Tablett PC's175 ein gewisses Maß an Vibration oder eine andere taktile Rückmeldung für jeden Klick bereitstellen, wodurch ein tatsächlicher Knopf simuliert wird. - Es ist zu bemerken, dass zusätzliche Gesten gleichzeitig zur Geste für den virtuellen Steuerknopf ausgeführt werden können. Zum Beispiel kann unter Verwendung beider Hände mehr als ein virtueller Steuerknopf gleichzeitig gesteuert werden, d.h., eine Hand für jeden virtuellen Steuerknopf. Alternativ oder zusätzlich können eine oder mehrere Schieberleisten gleichzeitig mit dem virtuellen Steuerknopf gesteuert werden, d.h., dass eine Hand den virtuellen Steuerknopf bedient, während wenigstens ein Finger und vielleicht mehr als ein Finger der anderen Hand wenigstens einen Schieber bedient, und möglicherweise mehr als eine Schieberleiste, z.B. eine Schieberleiste für jeden Finger.
- Es ist auch anzumerken, dass, obwohl die Ausführungsform mit Hilfe eines virtuellen Steuerknopfs beschrieben wird, das Nutzeroberflächenelement bei einer anderen Ausführungsform ein virtuelles Bildlaufrad sein kann. Beispielhaft kann das virtuelle Bildlaufrad ein tatsächliches Bildlaufrad nachahmen, wie z.B. solche, die in den
US Patentveröffentlichungen Nr. 2003/0076303 A1 ,2003/0076301 A1 ,2003/0095096 A1 beschrieben sind, die hiermit durch Bezugname alle in die Offenbarung mit aufgenommen werden. Wenn der Nutzer seine Finger auf der Oberfläche des virtuellen Bildlaufrads platziert und eine wirbelartige, drehende oder tangentiale Gestenbewegung ausführt, kann z.B. in Bezug auf eine in einem Fenster angezeigte Objektliste ein Bildlaufvorgang durchgeführt werden. -
7 ist ein Diagramm eines berührungsbasierten Verfahrens200 . Das Verfahren beginnt allgemein beim Kasten202 , wo eine Nutzereingabe, die über einer Mehrpunktsensoreinrichtung erfolgt, erfasst wird. Die Nutzereingabe umfasst eine oder mehrere Berührungseingaben, wobei jede Berührungseingabe eine eindeutige Kennung hat. Im Anschluss an den Kasten202 fährt das berührungsbasierte Verfahren200 mit dem Kasten204 fort, wo die Nutzereingabe als eine Verfolgungs- oder Auswahleingabe klassifiziert wird, wenn die Nutzereingabe eine einzige eindeutige Kennung umfasst (Eingabe mit einer Berührung), oder als eine Gesteneingabe klassifiziert wird, wenn die Nutzereingabe wenigstens zwei eindeutige Kennungen umfasst (mehr als eine Berührungseingabe). Wenn die Nutzereingabe als eine Verfolgungseingabe klassifiziert wird, fährt das berührungsbasierte Verfahren200 mit dem Kasten206 fort, wo eine Verfolgung gemäß der Nutzereingabe durchgeführt wird. Wenn die Nutzereingabe als eine Gesteneingabe klassifiziert wird, fährt das berührungsbasierte Verfahren200 mit dem Kasten208 fort, wo eine oder mehrere Gestensteuerhandlungen gemäß der Nutzereingabe durchgeführt werden. Die Gestensteuerhandlungen basieren zumindest teilweise auf Veränderungen, die mit oder zwischen den wenigstens zwei eindeutigen Kennungen stattfinden. -
8 ist ein Diagramm eines berührungsbasierten Verfahrens250 . Das berührungsbasierte Verfahren250 beginnt allgemein beim Kasten252 , wo ein anfängliches Bild während eines Eingabestrichs auf einer berührungsempfindlichen Oberfläche aufgenommen wird. Im Anschluss an den Kasten252 fährt das berührungsbasierte Verfahren250 mit dem Kasten254 fort, wo auf der Grundlage des anfänglichen Bildes der Berührungsmodus bestimmt wird. Zum Beispiel kann, wenn das anfängliche Bild eine einzige eindeutige Kennung umfasst, der Berührungsmodus einem Verfolgungs-(tracking) oder Auswahlmodus entsprechen. Andererseits kann, falls das Bild mehr als eine eindeutige Kennung umfasst, der Berührungsmodus einem Gestenmodus entsprechen. Im Anschluss an den Kasten254 fährt das berührungsbasierte Verfahren250 mit dem Kasten256 fort, wo ein nächstes Bild während des Eingabestrichs auf der berührungsempfindlichen Oberfläche aufgenommen wird. Typischer Weise werden die Bilder während des Strichs sequenziell aufgenommen, und folglich kann es eine Mehrzahl von Bildern geben, die dem Strich zugeordnet sind. Im Anschluss an den Kasten256 fährt das berührungsbasierte Verfahren250 mit dem Kasten258 fort, wo festgestellt wird, ob sich der Berührungsmodus zwischen der Aufnahme des anfänglichen Bildes und der Aufnahme des nachfolgenden Bildes verändert hat. Falls sich der Berührungsmodus verändert hat, fährt das berührungsbasierte Verfahren250 mit dem Kasten260 fort, wo das nachfolgende Bild als das anfängliche Bild festgelegt wird, und anschließend wird erneut auf der Grundlage des neuen anfänglichen Bildes beim Kasten254 der Berührungsmodus bestimmt. Falls der Berührungsmodus gleichgeblieben ist, fährt das berührungsbasierte Verfahren250 mit dem Kasten262 fort, wo das anfängliche und das nachfolgende Bild verglichen werden und eines oder mehrere Steuersignale auf der Grundlage des Vergleichs erzeugt werden. -
9 ist ein Diagramm eines berührungsbasierten Verfahrens300 . Das berührungsbasierte Verfahren300 beginnt beim Kasten302 , wo ein Objekt der graphischen Nutzeroberfläche ausgegeben wird. Zum Beispiel kann ein Prozessor eine Anzeige anweisen, ein besonderes Objekt der graphischen Nutzeroberfläche anzuzeigen. Im Anschluss an den Kasten302 fährt das berührungsbasierte Verfahren300 mit dem Kasten304 fort, wo über dem Objekt der graphischen Nutzeroberfläche eine Gesteneingabe empfangen wird. Zum Beispiel kann ein Nutzer seine Finger gestenartig auf der Oberfläche des Berührungsbildschirms absetzen oder bewegen und über dem angezeigten Objekt der graphischen Nutzeroberfläche verweilen. Die Gesteneingabe kann eine oder mehrere einzelne Gesten umfassen, die nacheinander erfolgen, oder mehrere Gesten, die gleichzeitig erfolgen. Jede der Gesten hat im Allgemeinen eine ihr zugeordnete besondere Sequenz, Bewegung oder Orientierung. Zum Beispiel kann eine Geste das Auseinanderspreizen der Finger oder das Zusammenführen der Finger, das Drehen der Finger, das Versetzen der Finger, und/oder ähnliches umfassen. - Im Anschluss an den Kasten
304 fährt das berührungsbasierte Verfahren300 mit dem Kasten306 fort, wo das Objekt der graphischen Nutzeroberfläche auf der Grundlage und im Einklang mit der Gesteneingabe modifiziert wird. Modifiziert heißt, dass sich das Objekt der graphischen Nutzeroberfläche gemäß der gerade durchgeführten konkreten Geste oder Gesten verändert. Im Einklang heißt, dass die Änderungen annähernd während der Durchführung der Geste oder Gesten erfolgen. In den meisten Fällen besteht eine eins zu eins Beziehung zwischen der (den) Geste(n) und den beim Objekt der graphischen Nutzeroberfläche erfolgenden Änderungen, und sie erfolgen im Wesentlichen gleichzeitig. Im Wesentlichen folgt das Objekt der graphischen Nutzeroberfläche der Bewegung der Finger. Zum Beispiel kann ein Spreizen der Finger gleichzeitig das Objekt vergrößern, kann ein Schließen der Finger gleichzeitig das Objekt der graphischen Nutzeroberfläche verkleinern, kann ein Drehen der Finger gleichzeitig das Objekt drehen, kann ein Verschieben der Finger ein gleichzeitiges Mitführen oder Durchlaufen des Objekts der graphischen Nutzeroberfläche erlauben. - Bei einer Ausführungsform kann der Kasten
306 die Bestimmung umfassen, welches Objekt der graphischen Nutzeroberfläche der gerade durchgeführten Geste zugeordnet ist, und anschließend die Fixierung des angezeigten Objekts an den über ihm angeordneten Fingern, sodass das Objekt der graphischen Nutzeroberfläche sich gemäß der Gesteneingabe verändert. Indem die Finger mit dem Objekt der graphischen Nutzeroberfläche fixiert oder diesem zugeordnet werden, kann das Objekt der graphischen Nutzeroberfläche sich fortlaufend gemäß dem anpassen, was die Finger auf dem Berührungsbildschirm machen. Oft erfolgt die Be stimmung und Fixierung beim Absetzen, d.h., wenn der Finger auf dem Berührungsbildschirm positioniert ist. -
10 ist ein Diagramm eines Zoom-Gestenverfahrens350 . Die Zoomgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Zoomgestenverfahren350 beginnt allgemein beim Kasten352 , wo die Anwesenheit wenigstens eines ersten Fingers und eines zweiten Fingers gleichzeitig auf einer Berührungsempfindlichen Oberfläche erfasst wird. Die Anwesenheit wenigstens zweier Finger ist darauf festgelegt anzugeben, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt irgendeine Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung dahingehend festgelegt sein, dass sie unabhängig davon wirkt ob zwei, drei, vier oder mehr Finger in Berührung sind, und sogar, wenn die Anzahl sich während der Geste verändert, d.h., es wird zu jeder Zeit während der Gesten nur ein Minimum von zwei Fingern benötigt. - Im Anschluss an den Kasten
352 fährt das Zoomgestenverfahren350 mit dem Kasten354 fort, wo der Abstand zwischen den wenigstens zwei Fingern verglichen wird. Der Abstand kann derjenige von Finger zu Finger sein, oder von jedem Finger zu einem anderen Referenzpunkt, wie z.B. dem Schwerpunkt. Falls sich der Abstand zwischen den zwei Fingern vergrößert (Auseinanderspreizen), wird ein Heranzoomsignal erzeugt, wie es im Kasten356 gezeigt ist. Wenn der Abstand zwischen den zwei Fingen sich verringert (zusammenführen), wird ein Herauszoomsignal erzeugt, wie es im Kasten358 gezeigt ist. In den meisten Fällen wird das Absetzen der Finger diese einem besonderen gerade angezeigten Objekt der graphischen Nutzeroberfläche zuordnen oder damit fixieren. Zum Beispiel kann die berührungsempfindliche Oberfläche ein Berührungsbildschirm sein, und das Objekt der graphischen Nutzeroberfläche kann auf dem Berührungsbildschirm angezeigt sein. Dies erfolgt typischer Weise, wenn wenigstens einer der Finger über dem Objekt der graphischen Nutzeroberfläche positioniert ist. Als Ergebnis kann, wenn die Finger auseinander bewegt werden, das Heranzoomsignal verwendet werden, um die Größe der im Objekt der graphischen Nutzeroberfläche eingebetteten Merkmale zu vergrößern, und, wenn die Finger zusammengekniffen werden, kann das Herauszoomsignal verwendet werden, um die Größe der im Objekt eingebetteten Merkmale zu verringern. Das Zoomen erfolgt typischer Weise innerhalb einer vorbestimmten Grenze, wie z.B. die Peripherie der Anzeige, die Peripherie eines Fensters, dem Rand des Objekts der graphischen Nutzeroberfläche, und/oder ähnlichem. Die eingebetteten Merkmale können über eine Mehrzahl von Lagen ausgebildet sein, wobei jede eine unterschiedliche Zoomstufe repräsentiert. In den meisten Fällen verändert sich die Zoomstärke gemäß dem Abstand zwischen den zwei Objekten. Weiterhin kann das Zoomen typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel, während die Finger auseinander gespreizt oder zusammengeführt werden, zoomt gleichzeitig das Objekt heran oder weg. Obwohl diese Methodologie auf das Zoomen abzielt, ist anzumerken, dass sie auch für das Vergrößern oder Verkleinern verwendet werden kann. Das Zoomgestenverfahren350 kann in graphischen Programmen, wie z.B. Veröffentlichungs-(publishing), Foto- und Zeichenprogrammen besonders nützlich sein. Weiterhin kann das Zoomen eingesetzt werden, um ein Peripheriegerät wie z.B. eine Kamera zu steuern, d.h., dass, wenn die Finger auseinandergespreizt werden, die Kamera herauszoomt, und, wenn die Finger geschlossen werden, die Kamera hereinzoomt. - Die
11A bis11H veranschaulichen eine Zoomsequenz unter Verwendung des oben beschriebenen Verfahrens. Die11A veranschaulicht eine Anzeige, die ein Objekt364 einer graphischen Nutzeroberfläche in der Form einer Karte Nordamerikas präsentiert, mit eingebetteten Ebenen, die gezoomt werden können. In manchen Fällen wird, wie gezeigt, das Objekt der graphischen Nutzeroberfläche innerhalb eines Fensters positioniert, das eine Grenze des Objekts364 der graphischen Nutzeroberfläche bildet. Die11B veranschaulicht einen Nutzer, der seine Finger366 über einer Region Nordamerikas368 , insbesondere die ver ten Staaten370 und ganz besonders Kalifornien372 positioniert. Um Kalifornien372 heran zu zoomen, beginnt der Nutzer damit, seine Finger366 auseinander zu spreizen, wie es in der11C gezeigt ist. Mit dem weiteren Auseinanderspreizen der Finger366 (der Abstand vergrößert sich) zoomt die Karte weiterhin Nordkalifornien374 heran, dann eine bestimmte Region von Nordkalifornien374 , dann das Suchtgebiet376 , dann die Halbinsel378 (z.B. das Gebiet zwischen San Franzisko und der San Jose Gegend), und dann die Stadt von San Carlos380 , die sich zwischen San Franzisko und San Jose befindet, wie es in den11D bis11H veranschaulicht ist. Um aus San Carlos380 heraus und zurück nach Nordamerika368 zu zoomen, werden die Finger366 wieder gemäß der oben beschriebenen Sequenz, aber in umgekehrter Reihenfolge, geschlossen. -
12 ist ein Diagramm eines Mitführverfahrens400 . Die Mitführgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Mitführverfahren400 beginnt allgemein beim Kasten402 , wo die Anwesenheit wenigstens eines ersten Objekts und eines zweiten Objekts auf einer berührungsempfindlichen Oberfläche gleichzeitig erfasst wird. Die Anwesenheit wenigstens zweier Finger ist dahingehend festgelegt, dass sie angibt, dass die Berührung eine Gestenberührung ist, anstatt einer Verfolgungs-(tracking)-berührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst wenn die Anzahl während der Geste wechselt, d.h., es nur ein Minimum von zwei Finger benötigt. Im Anschluss an den Kasten402 fährt das Mitführverfahren400 zum Kasten404 fort, wo die Position der zwei Objekte, wenn die Objekte gemeinsam über den Berührungsbildschirm bewegt werden, überwacht wird. Im Anschluss an den Kasten404 fährt das Mitführverfahren400 mit dem Kasten406 fort, wo ein Mitführsignal erzeugt wird, wenn die Position der zwei Objekte sich im Verhältnis zu einer Anfangsposition verändert. In den meisten Fällen wird das Absetzen der Finger die Finger einem bestimmten auf dem Berührungsbildschirm angezeigten Objekt der graphischen Nutzeroberflächen zuordnen oder sie mit diesen fixieren. Typischer Weise, wenn wenigstens einer der Finger über dem Bild auf dem Objekt der graphischen Nutzeroberfläche positioniert ist. Daraus ergibt sich, dass, wenn die Finger gemeinsam über dem Berührungsbildschirm bewegt werden, das Mitführsignal verwendet werden kann, um das Bild in Richtung der Finger zu verschieben. In den meisten Fällen ändert sich das Ausmaß des Mitführens gemäß der Strecke, um welche sich die zwei Objekte bewegen. Weiterhin kann das Mitführen typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Objekte erfolgen. Zum Beispiel, während sich die Finger bewegen, bewegt sich das Objekt zeitgleich mit den Fingern. - Die
13A bis13D veranschaulichen eine Mitführsequenz, die auf dem oben beschriebenen Mitführverfahren400 basiert. Unter Verwendung der Karte der11 veranschaulicht13A einen Nutzer, der seine Finger366 über der Karte positioniert. Beim Absetzen werden die Finger366 mit der Karte fixiert. Wie es in der13B gezeigt ist, wird, wenn die Finger366 senkrecht nach oben bewegt werden, die gesamte Karte364 nach oben bewegt, wobei veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte364 innerhalb des Sichtbereichs platziert werden. Wie es in der13C gezeigt ist, wird, wenn die Finger366 waagerecht zur Seite bewegt werden, die gesamte Karte364 zur Seite bewegt, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie es in13D gezeigt ist, wird, wenn die Finger366 diagonal bewegt werden, die gesamte Karte364 diagonal bewegt, wodurch veranlasst wird, dass bisher gesehene Abschnitte der Karte364 außerhalb des Sichtbereichs platziert werden, und ungesehene Abschnitte der Karte innerhalb des Sichtbereichs platziert werden. Wie man erkennt, folgt die Bewegung der Karte364 der Bewegung der Finger366 . Dieser Prozess ist ähnlich dem Verschieben eines Blatt Papiers entlang eines Tisches. Der durch die Finger auf das Papier ausgeübte Druck fixiert das Papier an den Fingern, und wenn die Finger über den Tisch verschoben werden, bewegt sich das Stück Papier mit ihnen. -
14 ist ein Diagramm eines Drehverfahrens450 . Die Drehgeste kann auf einem Mehrpunktberührungsbildschirm ausgeführt werden. Das Drehverfahren450 beginnt allgemein beim Kasten452 , wo die Anwesenheit eines ersten Objekts und eines zweiten Objekts gleichzeitig erfasst wird. Die Anwesenheit von wenigstens zwei Fingern ist dahin gehend festgelegt, dass sie angibt, dass die Berührung eine gestenartige Berührung ist, anstatt einer Verfolgungsberührung, die auf einem Finger basiert. In manchen Fällen gibt die Anwesenheit von nur zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. In anderen Fällen gibt jegliche Anzahl von mehr als zwei Fingern an, dass die Berührung eine gestenartige Berührung ist. Tatsächlich kann die gestenartige Berührung derart konfiguriert sein, dass sie wirkt, unabhängig davon, ob zwei, drei, vier oder mehr Finger sich in Berührung befinden, und selbst wenn sich die Anzahl während der Geste verändert, d.h., das nur ein Minimum von zwei Fingern benötigt wird. - Im Anschluss an den Kasten
452 fährt das Drehverfahren450 mit dem Kasten454 fort, wo der Winkel eines jeden Fingers festgelegt wird. Typischer Weise werden die Winkel in Bezug zu einem Referenzpunkt bestimmt. Im Anschluss an den Kasten454 fährt das Drehverfahren450 mit dem Kasten456 fort, wo ein Drehsignal erzeugt wird, wenn der Winkel wenigstens eines der Objekte sich im Verhältnis zum Bezugspunkt ändert. In den meisten Fällen wird das Absetzen der Finger die Finger einem bestimmten auf dem Berührungsbildschirm angezeigten Objekt der graphischen Nutzeroberfläche zuordnen, oder sie mit diesem fixieren. Typischer Weise wird, wenn wenigstens einer der Finger über dem Bild auf dem Objekt der graphischen Nutzeroberfläche positioniert ist, das Objekt der graphischen Nutzeroberfläche den Fingern zugeordnet oder an diesen fixiert. Es ergibt sich daraus, dass, wenn die Finger gedreht werden, das Drehsignal verwendet werden kann, um das Objekt in Richtung der Fingerdrehung zu drehen (z.B. im Uhrzeigersinn oder gegen den Uhrzeigersinn). In den meisten Fällen ändert sich das Ausmaß der Drehung des Objekts gemäß dem Ausmaß der Fingerdrehung, d.h., dass wenn die Finger sich um fünf Grad bewegen, das Objekt das gleiche tut. Weiterhin kann die Drehung typischer Weise im Wesentlichen gleichzeitig mit der Bewegung der Finger erfolgen. Zum Beispiel, während sich die Finger drehen, dreht sich das Objekt gleichzeitig mit den Fingern. - Die
15A bis15C veranschaulichen eine Drehsequenz, die auf dem oben beschriebenen Verfahren basiert. Unter Verwendung der Karte der11 veranschaulicht die15A einen Nutzer, der seine Finger366 über der Karte364 positioniert. Beim Absetzen werden die Finger366 mit der Karte364 fixiert. Wie es in der15B gezeigt ist, wird, wenn die Finger366 im Urzeigersinn gedreht werden, die gesamte Karte364 im Urzeigersinn gedreht, gemäß dem Drehen der Finger366 . Wie es in der15C gezeigt ist, wird, wenn die Finger366 entgegen dem Uhrzeigersinn gedreht werden, die gesamte Karte364 gegen den Urzeigersinn gedreht, gemäß den drehenden Fingern366 . - Es ist anzumerken, dass die in den
10 bis15 beschriebenen Verfahren während desselben gestenartigen Strichs umgesetzt sein können. Das heißt, dass Zoomen, Drehen und Mitführen alle während des gestenartigen Strichs ausgeführt werden können, der ein Spreizen, Drehen und Verschieben der Finger umfassen kann. Zum Beispiel wird beim Absetzen wenigstens zweier Finger das angezeigte Objekt (die Karte) den zwei Fingern zugeordnet oder an diesen fixiert. Um zu zoomen kann der Nutzer die Finger spreizen oder zusammenführen. Um zu drehen, kann der Nutzer seine Finger drehen. Um mitzuführen, kann der Nutzer seine Finger verschieben. Jede dieser Aktionen kann gleichzeitig innerhalb einer kontinuierlichen Bewegung stattfinden. Zum Beispiel kann der Nutzer seine Finger spreizen und schließen, während er sie über dem Berührungsbildschirm dreht und verschiebt. Alternativ kann der Nutzer jede dieser Bewegungen segmentieren, ohne den gestenartigen Strich zurücksetzen zu müssen. Zum Beispiel kann der Nutzer als erstes seine Finger spreizen, dann seine Finger drehen, dann seine Finger schließen, dann seine Finger verschieben usw. -
16 ist ein Diagramm eines Verfahrens500 zum Betreiben einer graphischen Nutzeroberfläche. Das Betriebsverfahren500 für die graphische Nutzeroberfläche ist dafür ausgelegt, um in einer graphischen Nutzeroberfläche hervortretende Steuerelemente auszulösen. Das Betriebsverfahren500 für eine graphische Nutzeroberfläche beginnt allgemein bei einem Kasten502 , wo die Anwesenheit eines Objekts wie z.B. eines Fingers oder Daumens erfasst wird. Dies kann z.B. durch Verwendung eines Berührungsbildschirms erreicht werden. Im Anschluss an den Kasten502 fährt das Betriebsverfahren500 für eine graphische Nutzeroberfläche mit dem Kasten504 fort, wo das Objekt erkannt wird (die Identität des Objekts wird herausgefunden). Das Objekt kann unter einer Mehrzahl von Objekten erkannt werden. Siehe z.B. oben, den Kasten104 der2 . - Im Anschluss an den Kasten
504 fährt das Betriebsverfahren500 für eine graphische Nutzeroberfläche mit dem Kasten506 fort, wo ein Bild in der Nähe des Objekts erzeugt wird. Typischer Weise basiert das Bild auf dem erkannten Objekt. Das Bild kann Fenster, Felder, Dialogfenster, Menüs, Ikons, Knöpfe, Zeiger, Bildlaufbalken, usw. umfassen. In manchen Fällen kann der Nutzer das Bild (oder darin eingebettete Merkmal) auswählen und aktivieren, um Funktionen und Aufgaben zu initiieren. Beispielhaft kann das Bild ein Element einer Nutzeroberfläche oder eine Gruppe von Elementen einer Nutzeroberfläche sein (z.B., ein oder mehrere Knöpfe, die ein Fenster öffnen, schließen, minimieren oder maximieren). Bei dem Bild kann es sich auch um eins oder mehrere Ikons handeln, die ein besonderes Programm oder Dateien starten, die sich öffnen, wenn sie ausgewählt werden. Zusätzlich kann das Bild nicht interaktivem Text und Graphiken entsprechen. In den meisten Fällen wird das Bild solange angezeigt wie das Objekt erfasst wird, oder es kann während einer vorher eingestellten Zeitspanne angezeigt werden, d.h., dass es nach einer Zeitspanne abgelaufen ist und entfernt wird. - Bei einer besonderen Ausführungsform umfasst das Bild eine oder mehrere Steueroptionen, die durch den Nutzer ausgewählt werden können. Die Steueroptionen können einen oder mehrere Steuerknöpfe umfassen, um diverse Aufgaben umzusetzen. Zum Beispiel kann dass Steueroptionsfenster Steuerknöpfe zum Musikhören umfassen, wie z.B. Abspielen, Pause, Suchlauf und Menü.
- Die
17A bis17E veranschaulichen eine Sequenz mit hervortretendem Steuerelement, die das oben beschriebene Verfahren einsetzt. Wie es in der17A gezeigt ist, verwendet ein Nutzer510 einen Tablett PC512 und hält folglich den Tablett PC512 mit einer Hand514 während er mit der anderen Hand516 navigiert (z.B. verfolgen (tracking), gestikulieren). Wie es in der17B gezeigt ist, die eine Nahansicht des den Tablett PC512 haltenden Nutzers ist, ist ein Abschnitt des Daumens der haltenden Hand514 über dem Berührungsbildschirm520 positioniert. Wie es in17C gezeigt ist, erkennt der Tablett PC512 den Daumen und zeigt in der Nähe des Daumen ein Steuerfeld522 an. Das Steuerfeld522 umfasst diverse Knöpfe524 , die durch den Daumen des Nutzers ausgewählt werden können, um in dem Tablett PC512 Aufgaben zu initiieren. Wie es in der17D gezeigt ist, wird, während der Tablett PC512 gehalten wird, der Daumen über einem der Knöpfe524 ausgestreckt, welcher anschließend angetippt wird, wodurch die dem Knopf524 zugeordnete Aufgabe ausgewählt wird. Beispielhaft kann die Aufgabe dem Starten eines Programms oder dem Zugriff zu einem Netzwerk oder dem Ändern des Betriebsmodus der Einrichtung zugeordnet sein. Das Steuerfeld522 und die Knöpfe524 können verwendet werden, um den Eingabemodus des Berührungsbildschirms520 zu ändern, sodass z.B. die identische Geste, die mit den Fingern der anderen Hand des Nutzers ausgeführt wird, mehrere Bedeutungen haben kann, in Abhängigkeit davon, welcher der Knöpfe524 ausgewählt ist. Wie es in der17E gezeigt ist, kann, wenn der Daumen vom Berührungsbildschirm520 wegbewegt wird, das Steuerfeld522 ablaufen und verschwinden. Alternativ kann das Steuerfeld unter Verwendung herkömmlicher Schließikons oder -knöpfe geschlossen werden. - Die
18 ist ein Diagramm eines Betriebsverfahrens550 für eine graphische Nutzeroberfläche. Das Betriebverfahren550 für eine graphische Nutzeroberfläche ist dafür ausgelegt, das Zoomen von Zielen auszulösen. Das Betriebsverfahren550 für eine graphische Nutzeroberfläche beginnt allgemein bei einem Kasten552 , wo ein Steuerfeld in Form eines Elements einer graphischen Nutzeroberfläche angezeigt wird. Das Steuerfeld enthält einen oder mehrere Steuerknöpfe, die recht nahe bei einander liegen, und die verwendet werden können, um Aktionen auszuführen. Das Steuerfeld kann z.B. Steuerknöpfe wie etwa Maximieren, Minimieren, Schließen und ähnliches umfassen. Im Anschluss an den Kasten552 fährt das Betriebsverfahren550 für eine graphische Nutzeroberfläche mit dem Kasten554 fort, wo das Steuerfeld vergrößert wird, oder wenigstens einer der Steuerknöpfe vergrößert wird, während einer Zeitspanne, über welche die Anwesenheit eines Objekts über dem Steuerfeld oder einem der Steuerknöpfe erfasst wird. Indem Fall, wo das Steuerfeld vergrößert wird, wird jeder der Steuerknöpfe vergrößert, wodurch deren Auswahl viel leichter gemacht wird. In dem Fall, wo nur der Steuerknopf vergrößert wird, würde der Nutzer entscheiden, ob dies der richtige Knopf ist, und falls dies der Fall ist, den vergrößerten Steuerknopf auswählen, oder den Prozess erneut starten, sodass der geeignete Steuerknopf präsentiert wird. In den meisten Fällen entspricht die Größe der Steuerknöpfe der Größe des Fingers, sodass sie durch das Objekt leicht ausgewählt werden können. Im Anschluss an den Kasten554 fährt das Betriebsverfahren550 für eine graphische Nutzeroberfläche mit dem Kasten556 fort, wo ein dem ausgewählten Steuerknopf zugeordnetes Steuersignal erzeugt wird, wenn die Anwesenheit des Objekts über einem der vergrößerten Steuerknöpfe erfasst wird. - Die
19A bis19D veranschaulichen eine Sequenz zum Zoomen eines Ziels unter Verwendung des oben beschriebenen Betriebsverfahrens550 für eine graphische Nutzeroberfläche. Wie es in der19A gezeigt ist, platziert ein Nutzer510 seinen Finger576 über ein Steuerfeld578 . Da die Knöpfe580 des Steuerfelds578 , in welchem sie enthalten sind, kleiner sind als der Finger576 und nahe bei einander liegen, ist es für den Nutzer510 schwierig, direkt eine Auswahl vorzu nehmen, ohne möglicherweise einen unerwünschten Knopf580 zu drücken, z.B., ein Knopf neben dem gewünschten Knopf. Beispielhaft kann der Finger576 zwei oder mehr Knöpfe580 abdecken. Wie es in19B gezeigt ist, wird wenigstens ein Abschnitt des Steuerfeldes578 vergrößert, der die darin enthaltenen Knöpfe580 enthält, wenn der Nutzer seinen Daumen über dem Steuerfeld platziert. Wie es in19C gezeigt ist, sobald das Steuerfeld seinen vergrößerten Zustand erreicht hat, kann der Nutzer einen der vergrößerten Knöpfe auswählen, der nun näher an der Größe des Daumens liegt. Beispielhaft kann der Nutzer den gewünschten Steuerknopf antippen. Wie es in der19D gezeigt ist, verringert sich das Steuerfeld auf seine Anfangsgröße, nachdem der Knopf ausgewählt ist, oder nach einer vorbestimmten Zeitspanne, während welcher keine Auswahl erfolgt ist (es läuft zum Beispiel ab), oder wenn der Nutzer seinen Finger von dem Steuerfeld wegbewegt. -
20 ist ein Diagramm eines Betriebsverfahrens600 einer graphischen Nutzeroberfläche. Das Betriebsverfahren600 einer graphischen Nutzeroberfläche ist dafür ausgelegt, das Blättern einer Seite auszulösen. Das Betriebsverfahren600 einer graphischen Nutzeroberfläche beginnt allgemein beim Kasten602 , wo eine Seite unter einer Vielzahl von Seiten in einer graphischen Nutzeroberfläche angezeigt wird. Beispielhaft können die Seiten einem elektronischen Buch zugeordnet sein. Im Anschluss an den Kasten602 fährt das Betriebsverfahren600 einer graphischen Nutzeroberfläche mit dem Kasten604 fort, wo die Anwesenheit eines Objekts (oder von Objekten) in einem vorbestimmten Bereich über der Seite erfasst wird. Der vorbestimmte Bereich kann z.B. dem Bereich entsprechen, wo die Seitenzahl angezeigt ist. Im Anschluss an den Kasten604 führt das Betriebsverfahren600 einer graphischen Nutzeroberfläche mit dem Kasten606 fort, wo ein Signal für ein Seitenblättern erzeugt wird, wenn das Objekt (oder die Objekte) innerhalb des vorbestimmten Bereichs verschoben wird. Die Verschiebung ist dafür ausgelegt, einen Finger zu simulieren, der in einem wirklichen papiergebundenen Buch die Seite umblättert. Die Richtung der Verschiebung gibt an, ob innerhalb der Liste an Seiten zur nächsten oder vorhergehenden Seite gegangen werden soll. Zum Beispiel wird dann, wenn der Finger von rechts nach links geführt wird, ein Signal für eine Seite rückwärts erzeugt, und wenn der Finger von links nach rechts geführt wird, wird ein Signal für eine Seite vorwärts erzeugt. Das Betriebsverfahren600 für eine graphische Nutzeroberfläche kann auf mehrere Arten verbessert werden. Wenn mehrere Finger geführt werden, dann kann dies z.B. ein Signal zum Umblättern erzeugen, das größer als eine Seite ist. Zum Beispiel entspricht das Führen von zwei Fingern einem Umblättern von zwei Seiten, entspricht das Führen von drei Finger dem Umblättern von drei Seiten, usw. Oder ein Führen von zwei Fingern entspricht einem Umblättern von zehn Seiten, ein Führen von drei Fingern entspricht einem Umblättern von fünfzig Seiten, usw. -
21A –21D veranschaulichen eine Sequenz zum Seitenblättern unter Verwendung des oben beschriebenen Betriebsverfahrens600 für eine grafische Nutzeroberfläche. Wie es in der21A gezeigt ist, bei der es sich um eine Nahansicht eines Nutzers510 handelt, der einen Tablett PC512 hält, führt der Nutzer seinen Finger über die Seitenzahl in eine Richtung zur linken Seite der Seite630 hin. Wie es in21B gezeigt ist, erkennt der Tablett PC512 die geführte Bewegung und die Richtung der geführten Bewegung im Bereich der Seitenzahl, und folglich zeigt der Tablett PC512 die nächste Seite einer Gruppe von Seiten an. Dies kann wiederholt durchgeführt werden, um die Gruppe an Seiten zu durchstreifen. Wie es in21C gezeigt ist, führt der Nutzer seinen Finger576 über die Seitenzahl in eine Richtung zur rechten Seite der Seite630 hin. Wie es in21D gezeigt ist, erkennt der Tablett PC512 die geführte Bewegung und die Richtung der geführten Bewegung im Bereich der Seitenzahl, und folglich zeigt der Tablett PC512 die vorherige Seite einer Gruppe an Seiten an. Dies kann wiederholt durchgeführt werden, um die Gruppe an Seiten zu durchstreifen. -
22 ist ein Diagramm eines Betriebsverfahrens650 für eine grafische Nutzeroberfläche. Das Betriebsverfahren650 für eine grafische Nutzeroberfläche ist dafür ausgelegt, um typischerweise während eines Bildlaufs- oder Mitführvorgangs eine Trägheit zu bewirken. Die Trägheit wird im Allgemeinen als die Nei gung definiert, die ein sich im Stillstand befindlicher Körper hat, im Stillstand zu bleiben, oder, die ein sich in Bewegung befindlicher Körper hat, in Bewegung entlang einer geraden Linie zu verbleiben, es sei denn, er wird durch eine äußere Kraft gestört. In dieser besonderen Ausführungsform sind der grafischen Nutzeroberfläche oder einem Abschnitt davon Trägheitseigenschaften zugeordnet, bei denen es sich um dessen Widerstand gegenüber einer Bewegungsänderungsrate handelt. Bei einer grafischen Nutzeroberfläche mit hohen Trägheitseigenschaften wird die Beschleunigung der grafischen Nutzeroberfläche für eine gegebene Eingabe gering sein. Andererseits, wenn die grafische Nutzeroberfläche geringe Trägheitseigenschaften hat, wird die Beschleunigung für eine gegebene Eingabe hoch sein. - Das Betriebsverfahren
650 für eine grafische Nutzeroberfläche beginnt allgemein beim Kasten652 , wo ein grafisches Bild auf einer grafischen Nutzeroberfläche angezeigt wird. Im Anschluss an den Kasten652 fährt das Betriebsverfahren650 für eine grafische Nutzeroberfläche mit dem Kasten654 fort, wo ein Bildlauf- oder Mitführstrich auf einer berührungsempfindlichen Oberfläche erfasst wird. Beispielhaft kann der Strich ein Linear- oder Drehstrich sein. Bei einem Linearstrich folgt typischerweise die Richtung des Bildlaufs oder des Mitführens der Richtung des Strichs. Bei einem Drehstrich (siehe6 ) wird der Drehstrich typischerweise in eine lineare Eingabe umgewandelt, wobei eine Bewegung im Uhrzeigersinn senkrecht nach oben und eine Bewegung gegen den Uhrzeigersinn senkrecht nach unten entsprechen kann. Im Anschluss an den Kasten654 fährt der Verfahrensablauf mit dem Kasten656 fort, wo die Geschwindigkeit und Richtung des Bildlauf- oder Mitführstrichs bestimmt wird. Im Anschluss an den Kasten656 fährt das Betriebsverfahren650 für eine grafische Nutzeroberfläche mit dem Kasten658 fort, wo das Bild gemäß der Geschwindigkeit und Richtung des Bildlaufs- oder Mitführstrichs sowie zugeordneter Trägheitseigenschaften bewegt wird. Im Anschluss an den Kasten658 fährt das Betriebsverfahren650 für eine grafische Nutzeroberfläche mit dem Kasten660 fort, wo die Bewegung des Bildes fortwährt, selbst wenn der Mitführstrich oder Bildlaufstrich nicht mehr erfasst wird. - Wenn z.B. der Nutzer seinen Finger von der berührungsempfindlichen Oberfläche abhebt, fährt die Bildlauf- oder Mitführfunktion fort, als ob der Bildlauf- oder Mitführstrich weiterhin ausgeführt würde. In manchen Fällen wird die Bewegung des Bildes endlos fortgeführt, bis irgendeine Brems-(Stoppen oder Verlangsamen)-Steuerung erfolgt. Diese besondere Methodik simuliert Schwerelosigkeit. In anderen Fällen wird die Bewegung des Bildes gemäß dem zugeordneten Betriebsverfahren
650 für eine grafische Nutzeroberfläche mit Trägheit verlangsamt. Metaphorisch gesprochen kann das Bild einem Stück Papier entsprechen, das sich über eine Tischplatte bewegt. Um das Stück Papier zu bewegen, übt der Nutzer auf das Papier eine Kraft in die gewünschte Richtung aus. Wenn der Nutzer seinen Finger vom Papier abhebt, wird das Papier weiterhin über einen gewissen Zeitraum entlang der Tischplatte in die gewünschte Richtung gleiten. Das Ausmaß des Gleitens nach dem Abheben des Fingers hängt allgemein unter anderem von dessen Masse, der durch den Finger angewandten Kraft, der zwischen dem Papier und der Tischplatte bestehenden Reibungskraft, usw. ab. Wie man weiß, stoppt bei der herkömmlichen Umsetzung eines Bildlaufs und Mitführens der Bildlauf oder das Mitführen, wenn die Finger abgehoben werden. Im Gegensatz dazu bewegt sich unter Verwendung der oben erwähnten Methodik der Bildlauf oder das Mitführen weiter, wenn die Finger abgehoben werden. - Das Betriebsverfahren
650 für eine grafische Nutzeroberfläche kann zusätzlich die Kasten A und B umfassen. Im Kasten A wird ein Objekt, wie z.B. ein Finger, auf der berührungsempfindlichen Oberfläche erfasst, wenn sich das Bild ohne Hilfe des Objekts bewegt (Kasten660 ). Im Kasten B wird die Bewegung des Bildes gestoppt, wenn das Objekt erfasst wird, d.h. dass die neue Berührung als ein Bremsmittel dient. Unter Verwendung der obigen Metapher drückt der Nutzer, während das Stuck Papier über die Tischplatte gleitet, seinen Finger auf das Papier, wodurch dessen Bewegung gestoppt wird. - Die
23A bis23D veranschaulichen eine Trägheitssequenz unter Verwendung des oben beschriebenen Verfahrens. Die23A veranschaulicht eine Anzeige, die eine grafische Nutzeroberfläche678 mit einem Fenster679 präsentiert, das eine Liste680 von Medienelementen681 aufweist. Das Fenster679 und die Liste680 können z.B. einem Steuerfenster und einer Musikliste entsprechen, die sich in iTunesTM finden, das durch Apple Computer, Inc. aus Cupertino, Kalifornien, hergestellt wird. Wie es in23B gezeigt ist, wird, wenn der Nutzer seinen Finger oder seine Finger576 über den Berührungsbildschirm520 gleiten lässt, ein senkrechter Bildlauf, der Medienelemente nach oben oder nach unten durch das Fenster bewegt, umgesetzt. Die Richtung des Bildlaufs kann derselben Richtung wie der Fingerbewegung folgen (wie es gezeigt ist) oder es kann in die entgegen gesetzte Richtung gehen. Bei einer besonderen Ausführungsform wird ein einzelner Finger verwendet, um die Medienelemente in der Liste auszuwählen, und es werden zwei Finger verwendet, um die Liste zu durchlaufen. - Ein Bildlauf betrifft allgemein das Bewegen von angezeigten Daten oder Bildern (z.B. Medienelemente
681 ) über eine Ansichtsfläche auf einem Anzeigebildschirm, so dass ein neuer Datensatz (z.B. Medienelemente681 ) in der Ansichtsfläche in Sicht kommt. Sobald die Ansichtsfläche voll ist, erscheint in den meisten Fällen jeder neue Datensatz am Rand der Ansichtsfläche, und alle anderen Datensätze bewegen sich um eine Position weiter. Das heißt, dass der neue Datensatz für jeden Datensatz erscheint, der sich aus der Ansichtsfläche heraus bewegt. Im Wesentlichen erlauben es diese Funktionen einem Nutzer, sich einander anschließende Datensätze zu betrachten, die sich gegenwärtig außerhalb der Ansichtsfläche befinden. In den meisten Fällen kann der Nutzer die Durchquerung der Datensätze beschleunigen, indem er seinen Finger mit höherer Geschwindigkeit bewegt. Beispiele für das Durchlaufen von Listen können in denUS-Patentveröffentlichungen Nr.: 2003/0076303A1 ,2003/0076301 A1 ,2003/0095096A1 gefunden werden, die hiermit durch Verweis in die Offenbarung aufgenommnen werden. - Wie es in der
23C gezeigt ist, bewegen sich die angezeigten Daten weiter, selbst wenn der Finger vom Berührungsbildschirm entfernt wird. Die fortlaufende Bewegung basiert zumindest teilweise auf der vorhergehenden Bewegung. Zum Beispiel kann der Bildlauf in der gleichen Richtung und mit derselben Geschwindigkeit fortfahren. In manchen Fällen verlangsamt sich der Bildlauf mit der Zeit, d.h., dass die Geschwindigkeit der Durchquerung der Medienelemente sich immer mehr verlangsamt, bis der Bildlauf schlussendlich anhält, wodurch eine statische Liste verbleibt. Beispielhaft kann jedes neue Medienelement, das in die Ansichtsfläche gebracht wird, die Geschwindigkeit inkrementell verringern. Alternativ oder zusätzlich, wie es in der23D gezeigt ist, beenden die angezeigten Daten ihre Bewegung, wenn der Finger576 zurück auf den Berührungsbildschirm520 gesetzt wird. Das heißt, dass das erneute Absetzen des Fingers auf dem Berührungsbildschirm ein Bremsen umsetzen kann, das die fortlaufend wirkende Bewegung stoppt oder verlangsamt. Obwohl diese Sequenz auf einen senkrechten Bildlauf gerichtet ist, ist anzumerken, dass dies nicht eine Beschränkung ist und dass ein waagerechter Bildlauf sowie ein Mitführen unter Verwendung der oben beschriebenen Verfahren ausgeführt werden können. -
24 ist ein Diagramm eines Betriebssystems700 für eine grafische Nutzeroberfläche. Das Verfahren700 ist dafür ausgelegt, eine Tastatur zu simulieren. Das Verfahren beginnt allgemein beim Kasten702 , wo auf der Anzeige eine Tastatur präsentiert wird. Im Anschluss an den Kasten702 fährt der Verfahrensvorgang mit dem Kasten704 fort, wo die Anwesenheit eines ersten Objekts über einer ersten Taste und gleichzeitig eines zweiten Objekts über einer zweiten Taste auf einem Berührungsbildschirm erfasst wird. Der Berührungsbildschirm ist über oder vor der Anzeige positioniert. Beispielhaft kann die Anzeige eine Flüssigkristallanzeige (LCD) sein und kann der Berührungsbildschirm ein Mehrpunkt-Berührungsbildschirm sein. Im Anschluss an den Kasten704 fährt der Verfahrensvorgang mit dem Kasten706 fort, wo ein oder mehrere gleichzeitige Steuersignale erzeugt werden, wenn das erste Objekt über der ersten Taste erfasst wird, und wenn gleichzeitig das zweite Objekt über der zweiten Taste erfasst wird. - Bei einer Ausführungsform wird nur ein einziges Steuersignal erzeugt, wenn das erste Objekt über der ersten Taste erfasst wird, und wenn gleichzeitig das zweite Objekt über der zweiten Taste erfasst wird. Beispielhaft kann die erste Taste eine Umschalttaste sein, und kann die zweite Taste eine Symboltaste (z.B. Buchstaben, Zahlen) sein. Auf diese Weise wirkt die Tastatur wie eine herkömmliche Tastatur, d.h., dass es dem Nutzer erlaubt ist, mehrere Tasten gleichzeitig auszuwählen, um das Symbol zu ändern, d.h. Kleinschrift/Großschrift. Die Tasten können auch der Steuerungstaste, der Alt-Taste, der Escape-Taste, der Funktionstaste und Ähnlichern entsprechen.
- Bei einer anderen Ausführungsform wird für jede betätigte Taste (Tastenberührung), die gleichzeitig erfolgt, ein Steuersignal erzeugt. Zum Beispiel können Zeichengruppen gleichzeitig getippt werden. In manchen Fällen kann die hinter der Tastatur ablaufende Anwendung dafür konfiguriert sein, die Reihenfolge der Zeichen auf der Grundlage einiger vorbestimmter Kriterien zu bestimmen. Zum Beispiel kann die Anwendung, obwohl die Zeichen durcheinander sein können, die richtige Reihenfolge der Zeichen auf der Grundlage von Rechtschreibung, Verwendung, Kontext und Ähnlichem bestimmen.
- Obwohl nur zwei Tasten beschrieben sind, ist anzumerken, dass zwei Tasten keine Beschränkung darstellen und dass mehr als zwei Tasten gleichzeitig betätigt werden können, um ein oder mehrere Steuersignale zu erzeugen. Zum Beispiel kann eine Control-Alt-Delete-Funktionalität umgesetzt sein, oder es können größere Zeichengruppen gleichzeitig getippt werden.
- Die
25A bis25D veranschaulichen eine Tastatursequenz unter Verwendung des oben beschriebenen Verfahrens. Die25A veranschaulicht eine Anzeige, die ein Objekt730 einer grafischen Nutzeroberfläche in der Form einer Tastatur präsentiert. Wie es in der25B gezeigt ist, positioniert ein Nutzer seine Finger576 über dem Mehrpunkt-Berührungsbildschirm520 über das Keyboard730 , um Daten in ein Textverarbeitungsprogramm einzugeben. Beispielhaft kann der Nut zer einen seiner Finger576A auf der Q-Taste platzieren, um ein klein geschriebenes „q" im Textverarbeitungsprogramm zu erzeugen. Wie es in der25C gezeigt ist, platziert der Nutzer, wenn er entscheidet, dass ein Buchstabe groß geschrieben sein soll, einen Finger576B auf der Umschalttaste und einen anderen Finger576A auf dem gewünschten Buchstaben (wie es durch die Pfeile gezeigt ist). Wie in25D gezeigt ist, entfernt der Nutzer einfach, um weiter in Kleinschrift zu schrieben, seinen Finger576B von der Umschalttaste und platziert seinen Finger576A über einem gewünschten Buchstaben (wie es durch den Pfeil angegeben ist). - Die
26 ist ein Diagramm eines Betriebsverfahrens750 für eine grafische Nutzeroberfläche. Das Verfahren750 ist dafür ausgelegt, ein Bildlaufrad zu simulieren, wie diejenigen, die in denUS-Patentveröffentlichungen Nr.: 2003/0076303 A1 ,2003/0076301 A1 ,2003/0095096 A1 beschrieben sind, wobei alle hiermit per Verweis in die Offenbarung aufgenommen werden. Das Verfahren beginnt allgemein beim Kasten752 , wo ein virtuelles Bildlaufrad auf der Anzeige präsentiert wird. In manchen Fällen kann das virtuelle Bildlaufrad in seiner Mitte einen virtuellen Knopf umfassen. Das virtuelle Bildlaufrad ist für die Umsetzung eines Bildlaufs, wie z.B. durch eine Liste, konfiguriert, und der Knopf ist zur Umsetzung von Auswahlen, wie z.B. in der Liste abgelegter Elemente, konfiguriert. Im Anschluss an den Kasten752 fährt das Verfahren mit dem Kasten754 fort, wo die Anwesenheit wenigstens eines ersten Fingers, und insbesondere eines ersten und eines zweiten Fingers (um zwischen Verfolgung und Gestikulieren zu unterscheiden) über dem virtuellen Bildlaufrad auf einem Berührungsbildschirm erfasst wird. Der Berührungsbildschirm ist über oder vor der Anzeige positioniert. Beispielhaft kann die Anzeige eine Flüssigkristallanzeige (LCD) sein, und kann der Berührungsbildschirm ein Mehrpunkt-Berührungsbildschirm sein. Im Anschluss an den Kasten754 fährt das Verfahren mit dem Kasten756 fort, wo die anfängliche Position der Finger auf dem virtuellen Bildlaufrad festgelegt wird. Beispielhaft kann der Winkel der Finger im Verhältnis zu einem Referenzpunkt bestimmt werden (z.B. 12 Uhr, 6 Uhr, usw.). Im Anschluss an den Kasten756 fährt das Verfahren750 mit dem Kasten758 fort, wo ein Drehsignal erzeugt wird, wenn der Winkel der Finger sich im Verhältnis zum Bezugspunkt ändert. In den meisten Fällen assoziiert, verbindet oder fixiert das Absetzen der Finger die Finger (oder den Finger) mit dem virtuellen Bildlaufrad, wenn die Finger über dem virtuellen Bildlaufrad positioniert sind. Es ergibt sich daraus, dass, wenn die Finger gedreht werden, das Drehsignal verwendet werden kann, um das virtuelle Bildlaufrad in die Richtung der Fingerdrehung (z.B. im Uhrzeigersinn, gegen den Uhrzeigersinn) zu drehen. In den meisten Fällen variiert das Ausmaß der Raddrehung gemäß dem Ausmaß der Fingerdrehung, d.h., dass, wenn die Finger sich um fünf Grad bewegen, das Rad dasselbe tut. Weiterhin erfolgt die Drehung typischerweise im Wesentlichen gleichzeitig mit der Bewegung der Finger. Zum Beispiel dreht sich das Bildlaufrad gleichzeitig mit den Fingern, während sich die Finger drehen. - In manchen Fällen können die Grundsätze der Trägheit, wie oben beschrieben, auf das virtuelle Bildlaufrad angewandt werden. In solchen Fällen dreht sich das virtuelle Bildlaufrad weiter, wenn die Finger (oder einer der Finger) vom virtuellen Bildlaufrad abgehoben werden, und kommt langsam über eine virtuelle Reibung zum Halt. Alternativ oder zusätzlich kann die fortlaufende Drehung gestoppt werden, indem die Finger (oder der entfernte Finger) zurück auf das Bildlaufrad platziert werden, wodurch die Drehung des virtuellen Bildlaufrads gebremst wird.
- Die
27A bis27D veranschaulichen eine Sequenz eines Bildlaufrads unter Verwendung des oben beschriebenen Verfahrens. Die27A veranschaulicht eine Anzeige, die ein Bildlaufrad präsentiert. Das Bildlaufrad kann als Teil eines Programms automatisch angezeigt werden, oder es kann angezeigt werden, wenn eine bestimmte Geste ausgeführt wird. Beispielhaft kann während des Betriebs eines Musikprogramms (wie z.B. iTunes, das durch Apple Computer, Inc. aus Cupertino, Kalifornien, hergestellt wird) das virtuelle Bildlaufrad auf der grafische Nutzeroberfläche des Musikprogramms erscheinen, wenn zwei Finger auf dem Berührungsbildschirm platziert werden, anstatt eines Fingers, der typischerweise im Musikprogramm zur Verfolgung (tracking) eingesetzt wird. In manchen Fällen erscheint das virtuelle Bildlaufrad nur, wenn zwei Finger auf einem vorbestimmten Bereich in der grafische Nutzeroberfläche platziert werden. Wie es in der27B gezeigt ist, positioniert ein Nutzer seine Finger über dem Mehrpunkt-Berührungsbildschirm520 über dem Bildlaufrad. Ab einem bestimmten Zeitpunkt sind die Finger mit dem Bildlaufrad fixiert. Dies kann z.B. beim Absetzen erfolgen. Wie es in der27C gezeigt ist, wird das Bildlaufrad, wenn die Finger im Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern im Uhrzeigersinn gedreht. Wie es in der27D gezeigt ist, wird das virtuelle Bildlaufrad, wenn die Finger entgegen dem Uhrzeigersinn gedreht werden, gemäß den drehenden Fingern entgegen dem Uhrzeigersinn gedreht. Alternativ kann die Drehung des virtuellen Bildlaufrads auch mit der linearen Bewegung der Finger in tangentialer Weise gedreht werden. - Es ist anzumerken, dass, obwohl ein Oberflächenbildlaufrad gezeigt ist, die wesentlichen Elemente davon auf herkömmlichere Bildlaufräder angewandt werden können, die virtuell basiert sind. Zum Beispiel Bildlaufräder, deren Achse parallel zum Anzeigebildschirm verläuft und welche durch den Anzeigebildschirm hindurch hervorzustehen scheinen, wie es in der
28 gezeigt ist. Bei dieser besonderen Umsetzung wird jedoch eine lineare Bewegung der Finger eingesetzt, um das virtuelle Bildlaufrad zu drehen. - Die verschiedenen Aspekte, Ausführungsformen, Umsetzungen oder Merkmale der Erfindung können getrennt oder in irgendeiner Kombination verwendet werden.
- Die Erfindung wird vorzugsweise durch Hardware, Software oder einer Kombination von Hardware und Software umgesetzt. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium verkörpert sein. Das computerlesbare Medium ist jegliche Datenspeichereinrichtung, die Daten speichern kann, die anschließend durch ein Computersystem ausgelesen werden können. Beispiele von computerlesbaren Medien umfassen Nur-Lese-Speicher, Speicher mit wahlfreiem Zugriff, CD-ROMS, DVDs, Magnetbänder, optische Datenspeichereinrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkgekoppelte Computersysteme verteilt sein, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.
- Obwohl diese Erfindung in Form von mehreren bevorzugten Ausführungsformen beschrieben wurde, gibt es Veränderungen, Permutierungen und Äquivalente, die innerhalb des Rahmens dieser Erfindung fallen. Zum Beispiel, obwohl die Erfindung in erster Linie auf Berührungsbildschirme gerichtet wurde, ist anzumerken, dass in manchen Fällen auch Berührungsfelder anstatt Berührungsbildschirme eingesetzt werden können. Es können auch andere Typen von berührungsempfindlichen Einrichtungen verwendet werden. Es ist auch anzumerken, dass es sehr viele alternative Arten der Umsetzung der Verfahren und Vorrichtungen der vorliegenden Erfindung gibt. Es ist folglich beabsichtigt, dass die folgenden angefügten Ansprüche so ausgelegt werden, dass sie alle solche Änderungen, Permutierungen und Äquivalente umfassen, wie sie innerhalb des wahren Geistes und Umfangs der vorliegenden Erfindung fallen.
Claims (12)
- Eine in der Hand haltbare elektronische Vorrichtung, mit: einem Mobiltelefon; einer Medienabspieleinrichtung; einer berührungsempfindlichen Eingabeoberfläche; einer Anzeige, welche mit der berührungsempfindlichen Eingabeoberfläche zumindest teilweise überlappt; einer listenbasierten Nutzeroberfläche, die eine Liste an Medienobjekten umfasst, die der Medienabspieleinrichtung zur Verfügung stehen, wobei jedes Medienobjekt in einer oder mehreren horizontalen Linien beschrieben ist, wobei die Liste eine vertikale Ansammlung von horizontalen Linien ist; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche gekoppelt ist, um so Steueranweisungen zu empfangen, die das Mobiltelefon und die Medienabspieleinrichtung betreffen, wobei die Steueranweisungen wenigstens eine Angabe umfassen, die einer ersten Geste zugeordnet ist, wobei die erste Geste eine Bewegung eines Objekts umfasst, die allgemein senkrecht im Verhältnis zur listenbasierten Nutzeroberfläche und nahe der berührungsempfindlichen Eingabeoberfläche ist; und einem Softwaremodul, das dafür angepasst ist, innerhalb der Prozessoreinheit ausgeführt zu werden, und die listenbasierte Nutzeroberfläche dazu zu veranlassen, beim Auftreten der ersten Geste und während eines gewissen Zeitraums danach durchzulaufen.
- In der Hand haltbare Vorrichtung nach Anspruch 1, wobei die Medienabspieleinrichtung eine Musikabspieleinrichtung ist.
- In der Hand haltbare Vorrichtung nach Anspruch 1, wobei ein Medienobjekt ein Musikobjekt ist.
- In der Hand haltbare Vorrichtung nach Anspruch 1, wobei das Softwaremodul weiterhin dafür angepasst ist, das Durchlaufen bei Auswahl eines Medienobjekts zu stoppen.
- In der Hand haltbare Vorrichtung nach Anspruch 1, wobei das Objekt ein Finger ist.
- Eine in der Hand haltbare elektronische Vorrichtung, mit: einem Mobiltelefon; einer Medienabspieleinrichtung mit einer listenbasierten Nutzeroberfläche, wobei die listenbasierte Nutzeroberfläche eine vertikale Liste an horizontalen Linien umfasst, wobei jede Linie die Beschreibung eines Medienobjekts aufweist; einer berührungsempfindlichen Eingabeoberfläche, die dafür angepasst ist, eine Steuerung sowohl des Mobiltelefons als auch der Medienabspieleinrichtung bereitzustellen; einer Prozessoreinheit, die mit der berührungsempfindlichen Eingabeoberfläche operativ gekoppelt ist und dafür programmiert ist, Angaben zu empfangen, die Eingaben auf der berührungsempfindlichen Eingabeoberfläche zugeordnet sind, wobei solche Angaben wenigstens eine Gestenangabe umfassen, die einer Bewegung eines Objekts allgemein rechtwinklig zur listenbasierten Nutzeroberfläche zugeordnet ist, wobei die Prozessoreinheit weiterhin dafür programmiert ist, bei Erhalt der Gestenangabe und während eines gewissen Zeitraums danach ein Durchlaufen der listenbasierten Nutzeroberfläche zu verursachen; und einer Anzeigeeinrichtung, die mit der Prozessoreinheit operativ gekoppelt ist, und dafür konfiguriert ist, die listenbasierte Nutzeroberfläche zu präsentieren.
- In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Prozessoreinheit weiterhin dafür programmiert ist, eine Angabe bezüglich einer ersten Berührung auf der berührungsempfindlichen Eingabeoberfläche zu erhalten, die sich in der Nähe eines Medienobjekts befindet, und in Antwort auf die erste Berührung die Auswahl des Medienobjekts zu veranlassen.
- In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Medienabspieleinrichtung eine Musikabspieleinrichtung umfasst.
- In der Hand haltbare Vorrichtung nach Anspruch 6, wobei ein Medienobjekt ein Musikobjekt umfasst.
- In der Hand haltbare Vorrichtung nach Anspruch 6, wobei die Prozessoreinheit weiterhin dafür programmiert ist, eine Angabe bezüglich einer ersten Berührung auf der berührungsempfindlichen Oberfläche während des Durchlaufs zu erhalten, und in Antwort auf die erste Berührung eine Beendigung des Durchlaufs zu verursachen.
- In der Hand haltbare Vorrichtung nach Anspruch 6, wobei das Objekt einen Finger umfasst.
- In der Hand haltbare Vorrichtung nach Anspruch 6, weiterhin mit einem persönlichen digitalen Assistenten.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US59248304P | 2004-07-30 | 2004-07-30 | |
US10/903,964 | 2004-07-30 | ||
US10/903,964 US8479122B2 (en) | 2004-07-30 | 2004-07-30 | Gestures for touch sensitive input devices |
US60/592,483 | 2004-07-30 | ||
PCT/US2005/025657 WO2006020305A2 (en) | 2004-07-30 | 2005-07-19 | Gestures for touch sensitive input devices |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202005021427U1 true DE202005021427U1 (de) | 2008-02-14 |
Family
ID=35908005
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202005021492U Expired - Lifetime DE202005021492U1 (de) | 2004-07-30 | 2005-07-19 | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung |
DE202005021427U Expired - Lifetime DE202005021427U1 (de) | 2004-07-30 | 2005-07-19 | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202005021492U Expired - Lifetime DE202005021492U1 (de) | 2004-07-30 | 2005-07-19 | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung |
Country Status (6)
Country | Link |
---|---|
EP (4) | EP2000893B1 (de) |
JP (3) | JP4763695B2 (de) |
KR (4) | KR100958491B1 (de) |
CN (1) | CN103365595B (de) |
DE (2) | DE202005021492U1 (de) |
WO (1) | WO2006020305A2 (de) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8199125B2 (en) | 2008-12-26 | 2012-06-12 | Fujifilm Corporation | Information display apparatus, information display method and recording medium |
DE102011116187A1 (de) * | 2011-10-14 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle |
US9285908B2 (en) | 2009-03-16 | 2016-03-15 | Apple Inc. | Event recognition |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US9323335B2 (en) | 2008-03-04 | 2016-04-26 | Apple Inc. | Touch event model programming interface |
US9389712B2 (en) | 2008-03-04 | 2016-07-12 | Apple Inc. | Touch event model |
US9483121B2 (en) | 2009-03-16 | 2016-11-01 | Apple Inc. | Event recognition |
US9529519B2 (en) | 2007-01-07 | 2016-12-27 | Apple Inc. | Application programming interfaces for gesture operations |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
DE102008032451C5 (de) * | 2008-07-10 | 2017-10-19 | Rational Ag | Anzeigeverfahren und Gargerät hierfür |
US9798459B2 (en) | 2008-03-04 | 2017-10-24 | Apple Inc. | Touch event model for web pages |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
DE112009000002B4 (de) | 2008-03-04 | 2020-01-09 | Apple Inc. | Verarbeitung von Berührungsereignissen für Webseiten |
US10963142B2 (en) | 2007-01-07 | 2021-03-30 | Apple Inc. | Application programming interfaces for scrolling |
Families Citing this family (566)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9513744B2 (en) | 1994-08-15 | 2016-12-06 | Apple Inc. | Control systems employing novel physical controls and touch screens |
US8610674B2 (en) | 1995-06-29 | 2013-12-17 | Apple Inc. | Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics |
GB9722766D0 (en) | 1997-10-28 | 1997-12-24 | British Telecomm | Portable computers |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7760187B2 (en) | 2004-07-30 | 2010-07-20 | Apple Inc. | Visual expander |
US9239673B2 (en) | 1998-01-26 | 2016-01-19 | Apple Inc. | Gesturing with a multipoint sensing device |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US7614008B2 (en) | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
US9529440B2 (en) | 1999-01-25 | 2016-12-27 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
US7469381B2 (en) | 2007-01-07 | 2008-12-23 | Apple Inc. | List scrolling and document translation, scaling, and rotation on a touch-screen display |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US7312785B2 (en) | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US8339379B2 (en) * | 2004-04-29 | 2012-12-25 | Neonode Inc. | Light-based touch screen |
US7333092B2 (en) | 2002-02-25 | 2008-02-19 | Apple Computer, Inc. | Touch pad for handheld device |
US7193609B2 (en) | 2002-03-19 | 2007-03-20 | America Online, Inc. | Constraining display motion in display navigation |
US7656393B2 (en) | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US7669134B1 (en) | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US9060770B2 (en) | 2003-05-20 | 2015-06-23 | Ethicon Endo-Surgery, Inc. | Robotically-driven surgical instrument with E-beam driver |
US8059099B2 (en) | 2006-06-02 | 2011-11-15 | Apple Inc. | Techniques for interactive input to portable electronic devices |
US8381135B2 (en) | 2004-07-30 | 2013-02-19 | Apple Inc. | Proximity detector in handheld device |
US7653883B2 (en) | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
KR100958491B1 (ko) * | 2004-07-30 | 2010-05-17 | 애플 인크. | 터치 감지 입력 장치용 모드 기반 그래픽 사용자 인터페이스 |
KR100958490B1 (ko) * | 2004-07-30 | 2010-05-17 | 애플 인크. | 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법 |
US20100231506A1 (en) * | 2004-09-07 | 2010-09-16 | Timothy Pryor | Control of appliances, kitchen and home |
US8225231B2 (en) | 2005-08-30 | 2012-07-17 | Microsoft Corporation | Aggregation of PC settings |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7958456B2 (en) | 2005-12-23 | 2011-06-07 | Apple Inc. | Scrolling list with floating adjacent index symbols |
US7786975B2 (en) | 2005-12-23 | 2010-08-31 | Apple Inc. | Continuous scrolling list with acceleration |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US7812826B2 (en) | 2005-12-30 | 2010-10-12 | Apple Inc. | Portable electronic device with multi-touch input |
US20070152983A1 (en) | 2005-12-30 | 2007-07-05 | Apple Computer, Inc. | Touch pad with symbols based on mode |
KR100823083B1 (ko) * | 2006-02-09 | 2008-04-18 | 삼성전자주식회사 | 터치스크린을 구비한 문서 표시장치의 문서 교정 방법 및그 장치 |
JP5210497B2 (ja) * | 2006-04-12 | 2013-06-12 | クラリオン株式会社 | ナビゲーション装置 |
KR100771626B1 (ko) | 2006-04-25 | 2007-10-31 | 엘지전자 주식회사 | 단말기 및 이를 위한 명령 입력 방법 |
US20070257891A1 (en) * | 2006-05-03 | 2007-11-08 | Esenther Alan W | Method and system for emulating a mouse on a multi-touch sensitive surface |
US9063647B2 (en) | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
US9198084B2 (en) | 2006-05-26 | 2015-11-24 | Qualcomm Incorporated | Wireless architecture for a traditional wire-based protocol |
US8022935B2 (en) | 2006-07-06 | 2011-09-20 | Apple Inc. | Capacitance sensing electrode with integrated I/O mechanism |
US9360967B2 (en) | 2006-07-06 | 2016-06-07 | Apple Inc. | Mutual capacitance touch sensing device |
US8743060B2 (en) | 2006-07-06 | 2014-06-03 | Apple Inc. | Mutual capacitance touch sensing device |
CN1885717B (zh) * | 2006-07-11 | 2014-04-02 | 汕头市夏野电器有限公司 | 一种用于产生改变电路参数的控制信号的感应拨盘以及含有该感应拨盘的电路参数控制装置 |
JP2008033695A (ja) * | 2006-07-29 | 2008-02-14 | Sony Corp | 表示内容のスクロール方法、スクロール装置およびスクロールプログラム |
US7907117B2 (en) | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
KR100781706B1 (ko) | 2006-08-16 | 2007-12-03 | 삼성전자주식회사 | 휴대 단말기의 리스트 스크롤 장치 및 방법 |
US7940250B2 (en) | 2006-09-06 | 2011-05-10 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US8842074B2 (en) | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
CN101529874A (zh) * | 2006-09-06 | 2009-09-09 | 苹果公司 | 用于具有触摸屏显示器的便携式多功能设备的电话呼入管理 |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US9304675B2 (en) * | 2006-09-06 | 2016-04-05 | Apple Inc. | Portable electronic device for instant messaging |
US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US8106856B2 (en) | 2006-09-06 | 2012-01-31 | Apple Inc. | Portable electronic device for photo management |
AU2012100655B4 (en) * | 2006-09-06 | 2013-01-24 | Apple Inc. | Touch screen device, method, and graphical user interface for determining commands by applying heuristics |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8564543B2 (en) | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
US7581186B2 (en) | 2006-09-11 | 2009-08-25 | Apple Inc. | Media manager with integrated browsers |
GB2480777B (en) * | 2006-09-11 | 2012-01-04 | Apple Inc | Media player with image-based browsing |
US7890863B2 (en) * | 2006-10-04 | 2011-02-15 | Immersion Corporation | Haptic effects with proximity sensing |
US8147316B2 (en) | 2006-10-10 | 2012-04-03 | Wms Gaming, Inc. | Multi-player, multi-touch table for use in wagering game systems |
US8274479B2 (en) | 2006-10-11 | 2012-09-25 | Apple Inc. | Gimballed scroll wheel |
KR100770936B1 (ko) * | 2006-10-20 | 2007-10-26 | 삼성전자주식회사 | 문자 입력 방법 및 이를 위한 이동통신단말기 |
US7856605B2 (en) | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US8570278B2 (en) | 2006-10-26 | 2013-10-29 | Apple Inc. | Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker |
JP2008158842A (ja) * | 2006-12-25 | 2008-07-10 | Xanavi Informatics Corp | 地図表示装置 |
KR101515767B1 (ko) * | 2006-12-27 | 2015-04-28 | 임머숀 코퍼레이션 | 진동 촉각 피드백을 통한 가상 디텐트 |
US8130203B2 (en) | 2007-01-03 | 2012-03-06 | Apple Inc. | Multi-touch input discrimination |
US7855718B2 (en) * | 2007-01-03 | 2010-12-21 | Apple Inc. | Multi-touch input discrimination |
AU2011253700B2 (en) * | 2007-01-05 | 2013-08-29 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US7956847B2 (en) * | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US8214768B2 (en) * | 2007-01-05 | 2012-07-03 | Apple Inc. | Method, system, and graphical user interface for viewing multiple application windows |
US20080165149A1 (en) * | 2007-01-07 | 2008-07-10 | Andrew Emilio Platzer | System, Method, and Graphical User Interface for Inputting Date and Time Information on a Portable Multifunction Device |
US7978182B2 (en) | 2007-01-07 | 2011-07-12 | Apple Inc. | Screen rotation gestures on a portable multifunction device |
US8788954B2 (en) | 2007-01-07 | 2014-07-22 | Apple Inc. | Web-clip widgets on a portable multifunction device |
US8689132B2 (en) | 2007-01-07 | 2014-04-01 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying electronic documents and lists |
US7844915B2 (en) | 2007-01-07 | 2010-11-30 | Apple Inc. | Application programming interfaces for scrolling operations |
US20080165151A1 (en) * | 2007-01-07 | 2008-07-10 | Lemay Stephen O | System and Method for Viewing and Managing Calendar Entries |
US9001047B2 (en) * | 2007-01-07 | 2015-04-07 | Apple Inc. | Modal change based on orientation of a portable multifunction device |
US7966578B2 (en) * | 2007-01-07 | 2011-06-21 | Apple Inc. | Portable multifunction device, method, and graphical user interface for translating displayed content |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US8612857B2 (en) | 2007-01-08 | 2013-12-17 | Apple Inc. | Monitor configuration for media device |
US8607144B2 (en) | 2007-01-08 | 2013-12-10 | Apple Inc. | Monitor configuration for media device |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR101420419B1 (ko) | 2007-04-20 | 2014-07-30 | 엘지전자 주식회사 | 전자기기와 그 데이터 편집방법 및 이동통신단말기 |
KR20080101484A (ko) * | 2007-05-18 | 2008-11-21 | 엘지전자 주식회사 | 이동통신 단말기 및 그 제어방법 |
US8436815B2 (en) | 2007-05-25 | 2013-05-07 | Microsoft Corporation | Selective enabling of multi-input controls |
US8201096B2 (en) | 2007-06-09 | 2012-06-12 | Apple Inc. | Browsing or searching user interfaces and other aspects |
US8185839B2 (en) | 2007-06-09 | 2012-05-22 | Apple Inc. | Browsing or searching user interfaces and other aspects |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
US9954996B2 (en) | 2007-06-28 | 2018-04-24 | Apple Inc. | Portable electronic device with conversation management for incoming instant messages |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
EP2017756A1 (de) * | 2007-07-20 | 2009-01-21 | BrainLAB AG | Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung |
KR101395780B1 (ko) * | 2007-07-27 | 2014-05-16 | 삼성전자주식회사 | 촉각 감지를 위한 압력 센서 어레이 장치 및 방법 |
US8683378B2 (en) | 2007-09-04 | 2014-03-25 | Apple Inc. | Scrolling techniques for user interfaces |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8122384B2 (en) | 2007-09-18 | 2012-02-21 | Palo Alto Research Center Incorporated | Method and apparatus for selecting an object within a user interface by performing a gesture |
US8098235B2 (en) | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
US8633915B2 (en) | 2007-10-04 | 2014-01-21 | Apple Inc. | Single-layer touch-sensitive display |
EP2053497A1 (de) * | 2007-10-26 | 2009-04-29 | Research In Motion Limited | Textauswahl über einen berührungsempfindlichen Bildschirm einer tragbaren Mobilkommunikationsvorrichtung |
US9274698B2 (en) | 2007-10-26 | 2016-03-01 | Blackberry Limited | Electronic device and method of controlling same |
EP2060970A1 (de) * | 2007-11-12 | 2009-05-20 | Research In Motion Limited | Benutzerschnittstelle für ein Gerät mit Touchscreen |
US8416198B2 (en) | 2007-12-03 | 2013-04-09 | Apple Inc. | Multi-dimensional scroll wheel |
TW200925966A (en) * | 2007-12-11 | 2009-06-16 | J Touch Corp | Method of controlling multi-point controlled controller |
KR20090070491A (ko) * | 2007-12-27 | 2009-07-01 | 엔에이치엔(주) | 터치스크린을 이용한 화면 제어 장치 및 방법 |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8230360B2 (en) | 2008-01-04 | 2012-07-24 | Apple Inc. | User interface for selection from media collection |
US20090174676A1 (en) * | 2008-01-04 | 2009-07-09 | Apple Inc. | Motion component dominance factors for motion locking of touch sensor data |
US9372576B2 (en) | 2008-01-04 | 2016-06-21 | Apple Inc. | Image jaggedness filter for determining whether to perform baseline calculations |
US8327272B2 (en) | 2008-01-06 | 2012-12-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US8405621B2 (en) | 2008-01-06 | 2013-03-26 | Apple Inc. | Variable rate media playback methods for electronic devices with touch interfaces |
KR101224588B1 (ko) * | 2008-01-24 | 2013-01-22 | 삼성전자주식회사 | 멀티포인트 스트록을 감지하기 위한 ui 제공방법 및 이를적용한 멀티미디어 기기 |
CN102124424A (zh) * | 2008-01-31 | 2011-07-13 | 安普赛德股份有限公司 | 数据输入装置、数据输入方法和数据输入程序及记录有该程序的记录介质 |
US20090207140A1 (en) * | 2008-02-19 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Identifying and responding to multiple time-overlapping touches on a touch panel |
US20090213083A1 (en) * | 2008-02-26 | 2009-08-27 | Apple Inc. | Simulation of multi-point gestures with a single pointing device |
US8201109B2 (en) | 2008-03-04 | 2012-06-12 | Apple Inc. | Methods and graphical user interfaces for editing on a portable multifunction device |
US8205157B2 (en) | 2008-03-04 | 2012-06-19 | Apple Inc. | Methods and graphical user interfaces for conducting searches on a portable multifunction device |
US8650507B2 (en) | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
KR101007045B1 (ko) * | 2008-03-12 | 2011-01-12 | 주식회사 애트랩 | 접촉센서 장치 및 이 장치의 포인팅 좌표 결정 방법 |
US9454256B2 (en) | 2008-03-14 | 2016-09-27 | Apple Inc. | Sensor configurations of an input device that are switchable based on mode |
EP2104027B1 (de) * | 2008-03-19 | 2013-10-23 | BlackBerry Limited | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeoberfläche und Verfahren zur Bestimmung einer benutzerseitig ausgewählten Eingabe |
US9448721B2 (en) | 2008-03-19 | 2016-09-20 | Blackberry Limited | Electronic device including touch-sensitive input device and method of determining selection |
KR101460127B1 (ko) | 2008-03-27 | 2014-11-10 | 삼성전자주식회사 | 저항막 방식 터치스크린의 멀티 터치 인식 방법 및 이를이용하는 휴대 단말기 |
CN101897233A (zh) * | 2008-03-27 | 2010-11-24 | 三菱电机株式会社 | 感应加热烹饪器 |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
DE102008017716A1 (de) * | 2008-04-07 | 2009-10-08 | Volkswagen Ag | Anzeige- und Bedienvorrichtung für ein Kraftfahrzeug sowie Verfahren zum Betreiben einer solchen |
US20090254855A1 (en) * | 2008-04-08 | 2009-10-08 | Sony Ericsson Mobile Communications, Ab | Communication terminals with superimposed user interface |
DE102008022752A1 (de) * | 2008-05-08 | 2009-11-12 | Volkswagen Ag | Verfahren zur Bestimmung mindestens einer Berührungsposition einer berührungssensitiven Vorrichtung sowie entsprechend ausgestaltete berührungssensitive Einrichtung und Fahrzeug |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9035891B2 (en) | 2008-05-16 | 2015-05-19 | International Business Machines Corporation | Multi-point touch-sensitive sensor user interface using distinct digit identification |
US9035886B2 (en) | 2008-05-16 | 2015-05-19 | International Business Machines Corporation | System and apparatus for a multi-point touch-sensitive sensor user interface using distinct digit identification |
KR101439554B1 (ko) * | 2008-06-19 | 2014-09-11 | 주식회사 케이티 | 터치 입력 인식 방법 및 이를 수행하는 장치 |
KR101498623B1 (ko) | 2008-06-25 | 2015-03-04 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
US8241912B2 (en) | 2008-06-26 | 2012-08-14 | Wms Gaming Inc. | Gaming machine having multi-touch sensing device |
US8754855B2 (en) * | 2008-06-27 | 2014-06-17 | Microsoft Corporation | Virtual touchpad |
KR100984826B1 (ko) * | 2008-07-03 | 2010-10-20 | 주식회사 엘지유플러스 | 휴대용 단말기 및 그의 사용자 인터페이스 방법 |
DE102008032450B4 (de) | 2008-07-10 | 2023-11-02 | Rational Ag | Anzeigeverfahren und Gargerät hierfür |
DE102008032448B4 (de) | 2008-07-10 | 2023-11-02 | Rational Ag | Anzeigeverfahren und Gargerät hierfür |
WO2010008088A1 (ja) * | 2008-07-17 | 2010-01-21 | 日本電気株式会社 | 情報処理装置、プログラムを記録した記憶媒体及びオブジェクト移動方法 |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
DE102008038897A1 (de) * | 2008-08-13 | 2010-02-18 | Deutsche Telekom Ag | Mobiltelefon mit Menüführung auf dem Bildschirm |
JP5501509B2 (ja) * | 2008-09-03 | 2014-05-21 | キヤノン株式会社 | 情報処理装置、その動作方法及びプログラム |
US20100064261A1 (en) * | 2008-09-09 | 2010-03-11 | Microsoft Corporation | Portable electronic device with relative gesture recognition mode |
RU2520400C2 (ru) * | 2008-09-12 | 2014-06-27 | Конинклейке Филипс Электроникс Н.В. | Навигация в графическом пользовательском интерфейсе на карманных устройствах |
KR20100033202A (ko) * | 2008-09-19 | 2010-03-29 | 삼성전자주식회사 | 디스플레이 장치 및 상기 디스플레이 장치의 제어 방법 |
FR2936326B1 (fr) * | 2008-09-22 | 2011-04-29 | Stantum | Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts |
US20100073303A1 (en) * | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
US20100077431A1 (en) * | 2008-09-25 | 2010-03-25 | Microsoft Corporation | User Interface having Zoom Functionality |
US8284170B2 (en) | 2008-09-30 | 2012-10-09 | Apple Inc. | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor |
US9395867B2 (en) | 2008-10-08 | 2016-07-19 | Blackberry Limited | Method and system for displaying an image on an electronic device |
KR101033280B1 (ko) * | 2008-10-23 | 2011-05-09 | (주)오로라 디자인랩 | 다접점 터치센서를 이용하는 스위치 및 그 제어방법 |
US8477103B2 (en) | 2008-10-26 | 2013-07-02 | Microsoft Corporation | Multi-touch object inertia simulation |
US8466879B2 (en) | 2008-10-26 | 2013-06-18 | Microsoft Corporation | Multi-touch manipulation of application objects |
DE602008006738D1 (de) * | 2008-10-29 | 2011-06-16 | Giga Byte Comm Inc | Verfahren und Vorrichtung zum Umschalten eines Touchscreens einer tragbaren elektronischen Vorrichtung |
CN103500032B (zh) * | 2008-10-30 | 2016-12-28 | 日本电气株式会社 | 便携式终端设备、数据操纵处理方法和数据操纵处理程序 |
KR101029627B1 (ko) * | 2008-10-31 | 2011-04-15 | 에스케이텔레시스 주식회사 | 터치스크린이 구비된 이동통신 단말기의 기능구현방법 및 장치 |
US8502785B2 (en) * | 2008-11-12 | 2013-08-06 | Apple Inc. | Generating gestures tailored to a hand resting on a surface |
US20100123676A1 (en) * | 2008-11-17 | 2010-05-20 | Kevin Scott Kirkup | Dual input keypad for a portable electronic device |
JP5174626B2 (ja) * | 2008-11-17 | 2013-04-03 | 株式会社ゼンリンデータコム | 地図表示装置、地図表示方法、およびコンピュータプログラム |
US8584031B2 (en) | 2008-11-19 | 2013-11-12 | Apple Inc. | Portable touch screen device, method, and graphical user interface for using emoji characters |
JPWO2010067537A1 (ja) | 2008-12-08 | 2012-05-17 | シャープ株式会社 | 操作受付装置及びコンピュータプログラム |
KR101531363B1 (ko) | 2008-12-10 | 2015-07-06 | 삼성전자주식회사 | 이차원 인터랙티브 디스플레이에서 가상 객체 또는 시점을 제어하는 방법 |
US9398089B2 (en) | 2008-12-11 | 2016-07-19 | Qualcomm Incorporated | Dynamic resource sharing among multiple wireless devices |
US9959870B2 (en) | 2008-12-11 | 2018-05-01 | Apple Inc. | Speech recognition involving a mobile device |
BRPI0823080B1 (pt) * | 2008-12-29 | 2020-08-04 | Hewlett-Packard Development Company, L.P | Sistema para a utilização de uma interface de usuário baseada em gestos, método para a utilização de uma interface de usuário baseada em gestos e meio legível por computador |
KR101596499B1 (ko) * | 2009-01-14 | 2016-02-23 | 삼성전자주식회사 | 휴대용 기기의 키 입력 방법 및 장치 |
KR101544364B1 (ko) * | 2009-01-23 | 2015-08-17 | 삼성전자주식회사 | 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법 |
US8922521B2 (en) | 2009-02-02 | 2014-12-30 | Apple Inc. | Switching circuitry for touch sensitive display |
JP5347589B2 (ja) * | 2009-03-10 | 2013-11-20 | 株式会社オートネットワーク技術研究所 | 操作装置 |
US10705701B2 (en) | 2009-03-16 | 2020-07-07 | Apple Inc. | Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate |
US8589374B2 (en) | 2009-03-16 | 2013-11-19 | Apple Inc. | Multifunction device with integrated search and application selection |
US8566044B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8839155B2 (en) | 2009-03-16 | 2014-09-16 | Apple Inc. | Accelerated scrolling for a multifunction device |
US8255830B2 (en) | 2009-03-16 | 2012-08-28 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
JP2010218422A (ja) * | 2009-03-18 | 2010-09-30 | Toshiba Corp | 情報処理装置および情報処理装置の制御方法 |
JP5146389B2 (ja) * | 2009-04-03 | 2013-02-20 | ソニー株式会社 | 情報処理装置、および推定方法 |
US8593410B2 (en) | 2009-04-10 | 2013-11-26 | Apple Inc. | Touch sensor panel design |
KR101056088B1 (ko) * | 2009-04-20 | 2011-08-10 | (주)빅트론닉스 | 터치패널 입력장치, 방법 및 이를 이용한 모바일 기기 |
KR100974910B1 (ko) * | 2009-05-12 | 2010-08-09 | 우효준 | 터치 장치 제어방법, 이를 이용하는 터치 장치 |
US9354751B2 (en) | 2009-05-15 | 2016-05-31 | Apple Inc. | Input device with optimized capacitive sensing |
EP2254032A1 (de) * | 2009-05-21 | 2010-11-24 | Research In Motion Limited | Tragbare elektronische Vorrichtung und Steuerverfahren dafür |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120311585A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Organizing task items that represent tasks to perform |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9009612B2 (en) | 2009-06-07 | 2015-04-14 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
FR2946768B1 (fr) * | 2009-06-11 | 2012-02-10 | Sagem Defense Securite | Procede d'entree tactile d'instructions de commande d'un programme d'ordinateur et systeme pour la mise en oeuvre de ce procede |
US8957874B2 (en) | 2009-06-29 | 2015-02-17 | Apple Inc. | Touch sensor panel design |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9264248B2 (en) | 2009-07-02 | 2016-02-16 | Qualcomm Incorporated | System and method for avoiding and resolving conflicts in a wireless mobile display digital interface multicast environment |
JP2011013990A (ja) * | 2009-07-03 | 2011-01-20 | Pioneer Electronic Corp | コンテンツ再生装置 |
US8872771B2 (en) | 2009-07-07 | 2014-10-28 | Apple Inc. | Touch sensing device having conductive nodes |
JP2011028345A (ja) * | 2009-07-22 | 2011-02-10 | Olympus Imaging Corp | 条件変更装置、カメラ、携帯機器、およびプログラム |
JP5669169B2 (ja) * | 2009-07-28 | 2015-02-12 | Necカシオモバイルコミュニケーションズ株式会社 | 端末装置及びプログラム |
DE102010026291A1 (de) | 2009-08-06 | 2011-02-10 | Volkswagen Ag | Kraftfahrzeug |
JP5482023B2 (ja) * | 2009-08-27 | 2014-04-23 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9176962B2 (en) | 2009-09-07 | 2015-11-03 | Apple Inc. | Digital media asset browsing with audio cues |
KR101691823B1 (ko) | 2009-09-09 | 2017-01-02 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
FR2950168B1 (fr) | 2009-09-11 | 2012-03-23 | Milibris | Terminal mobile a ecran tactile |
EP3855297A3 (de) | 2009-09-22 | 2021-10-27 | Apple Inc. | Vorrichtung, verfahren und grafische benutzeroberfläche zur manipulation von benutzerschnittstellenobjekten |
US9310907B2 (en) | 2009-09-25 | 2016-04-12 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8766928B2 (en) | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8799826B2 (en) | 2009-09-25 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for moving a calendar entry in a calendar application |
US8624933B2 (en) | 2009-09-25 | 2014-01-07 | Apple Inc. | Device, method, and graphical user interface for scrolling a multi-section document |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
NO332170B1 (no) | 2009-10-14 | 2012-07-16 | Cisco Systems Int Sarl | Anordning og fremgangsmate for kamerakontroll |
US20110090155A1 (en) * | 2009-10-15 | 2011-04-21 | Qualcomm Incorporated | Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input |
KR20110047349A (ko) * | 2009-10-30 | 2011-05-09 | 주식회사 팬택 | 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법 |
US8957918B2 (en) * | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
JP2011106946A (ja) * | 2009-11-17 | 2011-06-02 | Hioki Ee Corp | 波形表示装置および波形表示方法 |
JP5568970B2 (ja) * | 2009-11-30 | 2014-08-13 | ソニー株式会社 | 情報処理装置、情報処理方法及びそのプログラム |
US20110138284A1 (en) * | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
US9582238B2 (en) | 2009-12-14 | 2017-02-28 | Qualcomm Incorporated | Decomposed multi-stream (DMS) techniques for video display systems |
US8358281B2 (en) | 2009-12-15 | 2013-01-22 | Apple Inc. | Device, method, and graphical user interface for management and manipulation of user interface elements |
US20110148786A1 (en) * | 2009-12-18 | 2011-06-23 | Synaptics Incorporated | Method and apparatus for changing operating modes |
US8698762B2 (en) | 2010-01-06 | 2014-04-15 | Apple Inc. | Device, method, and graphical user interface for navigating and displaying content in context |
JP5572397B2 (ja) * | 2010-01-06 | 2014-08-13 | 京セラ株式会社 | 入力装置、入力方法および入力プログラム |
US8438504B2 (en) | 2010-01-06 | 2013-05-07 | Apple Inc. | Device, method, and graphical user interface for navigating through multiple viewing areas |
JP4932010B2 (ja) * | 2010-01-06 | 2012-05-16 | 株式会社スクウェア・エニックス | ユーザインタフェース処理装置、ユーザインタフェース処理方法、およびユーザインタフェース処理プログラム |
US8736561B2 (en) | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
US20110163967A1 (en) * | 2010-01-06 | 2011-07-07 | Imran Chaudhri | Device, Method, and Graphical User Interface for Changing Pages in an Electronic Document |
EP2343503A1 (de) * | 2010-01-07 | 2011-07-13 | Navigon AG | Verfahren zum Betrieb eines Navigationsgeräts |
CN102123132A (zh) * | 2010-01-08 | 2011-07-13 | 阿尔卡特朗讯 | 为用户终端提供通信的方法及装置 |
US9542001B2 (en) | 2010-01-14 | 2017-01-10 | Brainlab Ag | Controlling a surgical navigation system |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
EP2348392A1 (de) * | 2010-01-21 | 2011-07-27 | Research In Motion Limited | Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür |
KR101304321B1 (ko) * | 2010-01-22 | 2013-09-11 | 전자부품연구원 | 싱글 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기 |
DE202011111062U1 (de) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Vorrichtung und System für eine Digitalkonversationsmanagementplattform |
US8677268B2 (en) | 2010-01-26 | 2014-03-18 | Apple Inc. | Device, method, and graphical user interface for resizing objects |
US8539386B2 (en) | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for selecting and moving objects |
US8539385B2 (en) | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for precise positioning of objects |
KR100990833B1 (ko) * | 2010-01-28 | 2010-11-04 | 김준 | 터치 장치 제어방법, 이를 이용하는 터치 장치 |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
EP2367097B1 (de) * | 2010-03-19 | 2017-11-22 | BlackBerry Limited | Tragbare elektronische Vorrichtung und Steuerungsverfahren dafür |
US8756522B2 (en) | 2010-03-19 | 2014-06-17 | Blackberry Limited | Portable electronic device and method of controlling same |
US20110246875A1 (en) * | 2010-04-02 | 2011-10-06 | Symantec Corporation | Digital whiteboard implementation |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
US8881060B2 (en) | 2010-04-07 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for managing folders |
WO2011130919A1 (en) | 2010-04-23 | 2011-10-27 | Motorola Mobility, Inc. | Electronic device and method using touch-detecting surface |
DE202010006302U1 (de) | 2010-04-30 | 2010-09-30 | Wagner, Amina | Halter für einen tragbaren Tablet-Computer mit einer Anzeigevorrichtung |
JP5230684B2 (ja) * | 2010-05-13 | 2013-07-10 | パナソニック株式会社 | 電子機器、表示方法、及びプログラム |
JP5010714B2 (ja) | 2010-05-21 | 2012-08-29 | 株式会社東芝 | 電子機器、入力制御プログラム、及び入力制御方法 |
JP5533254B2 (ja) * | 2010-05-24 | 2014-06-25 | アイシン・エィ・ダブリュ株式会社 | 情報表示装置、情報表示方法及びプログラム |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
US8707195B2 (en) | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
KR101685145B1 (ko) * | 2010-06-09 | 2016-12-09 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
JP5598104B2 (ja) * | 2010-06-10 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理方法及びコンピュータプログラム |
KR101102326B1 (ko) * | 2010-06-11 | 2012-01-05 | 한국과학기술원 | 터치스크린 제어장치, 방법, 이를 포함하는 전자 기기 및 이를 위한 기록매체 |
US8933910B2 (en) | 2010-06-16 | 2015-01-13 | Panasonic Intellectual Property Corporation Of America | Information input apparatus, information input method, and program |
CN102314297B (zh) * | 2010-07-07 | 2016-04-13 | 腾讯科技(深圳)有限公司 | 一种窗口对象惯性移动方法及实现装置 |
US8972903B2 (en) * | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
US8922499B2 (en) | 2010-07-26 | 2014-12-30 | Apple Inc. | Touch input transitions |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
US8972879B2 (en) | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
JP5482549B2 (ja) * | 2010-08-03 | 2014-05-07 | 富士通株式会社 | 表示装置、表示方法、および、表示プログラム |
US8593418B2 (en) * | 2010-08-08 | 2013-11-26 | Qualcomm Incorporated | Method and system for adjusting display content |
KR20120019244A (ko) * | 2010-08-25 | 2012-03-06 | 삼성전자주식회사 | 휴대 단말기의 복합 속성 제어 방법 및 이를 지원하는 휴대 단말기 |
JP5725767B2 (ja) * | 2010-08-31 | 2015-05-27 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US9747270B2 (en) | 2011-01-07 | 2017-08-29 | Microsoft Technology Licensing, Llc | Natural input for spreadsheet actions |
JPWO2012043360A1 (ja) * | 2010-09-29 | 2014-02-06 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、その制御方法及びプログラム |
KR101743632B1 (ko) | 2010-10-01 | 2017-06-07 | 삼성전자주식회사 | 휴대용 단말기에서 전자책 페이지 넘김 장치 및 방법 |
US9678572B2 (en) | 2010-10-01 | 2017-06-13 | Samsung Electronics Co., Ltd. | Apparatus and method for turning e-book pages in portable terminal |
EP2437151B1 (de) | 2010-10-01 | 2020-07-08 | Samsung Electronics Co., Ltd. | Vorrichtung und Verfahren zum Blättern von e-Book-Seiten in einem tragbaren Endgerät |
KR20120035748A (ko) * | 2010-10-06 | 2012-04-16 | 삼성전자주식회사 | 인쇄옵션 표시방법 및 인쇄옵션 표시장치 |
KR101915615B1 (ko) | 2010-10-14 | 2019-01-07 | 삼성전자주식회사 | 모션 기반 사용자 인터페이스 제어 장치 및 방법 |
KR101199970B1 (ko) | 2010-10-29 | 2012-11-12 | 전남대학교산학협력단 | 멀티 터치 특징정보 추출방법 및 그 멀티 터치 특징정보를 이용한 멀티 터치 제스처 인식방법 |
US9092135B2 (en) | 2010-11-01 | 2015-07-28 | Sony Computer Entertainment Inc. | Control of virtual object using device touch interface functionality |
EP2645207A1 (de) | 2010-11-24 | 2013-10-02 | Nec Corporation | Eingabevorrichtung und steuerverfahren für die eingabevorrichtung |
JP5479414B2 (ja) * | 2010-11-24 | 2014-04-23 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
KR101645685B1 (ko) * | 2010-12-20 | 2016-08-04 | 애플 인크. | 이벤트 인식 |
KR101729523B1 (ko) | 2010-12-21 | 2017-04-24 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
ES2392419B1 (es) | 2010-12-27 | 2013-10-22 | BSH Electrodomésticos España S.A. | Dispositivo de aparato doméstico, aparato doméstico con un dispositivo de aparato doméstico, y procedimiento para la puesta en funcionamiento de un dispositivo de aparato doméstico. |
KR101662726B1 (ko) * | 2010-12-29 | 2016-10-14 | 삼성전자주식회사 | 전자 기기의 스크롤 방법 및 장치 |
US9423951B2 (en) | 2010-12-31 | 2016-08-23 | Microsoft Technology Licensing, Llc | Content-based snap point |
CA2823388A1 (en) * | 2011-01-06 | 2012-07-12 | Tivo Inc. | Method and apparatus for gesture based controls |
US9787725B2 (en) | 2011-01-21 | 2017-10-10 | Qualcomm Incorporated | User input back channel for wireless displays |
US8964783B2 (en) | 2011-01-21 | 2015-02-24 | Qualcomm Incorporated | User input back channel for wireless displays |
US9065876B2 (en) | 2011-01-21 | 2015-06-23 | Qualcomm Incorporated | User input back channel from a wireless sink device to a wireless source device for multi-touch gesture wireless displays |
US20130013318A1 (en) | 2011-01-21 | 2013-01-10 | Qualcomm Incorporated | User input back channel for wireless displays |
US9413803B2 (en) | 2011-01-21 | 2016-08-09 | Qualcomm Incorporated | User input back channel for wireless displays |
US10135900B2 (en) | 2011-01-21 | 2018-11-20 | Qualcomm Incorporated | User input back channel for wireless displays |
US10108386B2 (en) | 2011-02-04 | 2018-10-23 | Qualcomm Incorporated | Content provisioning for wireless back channel |
US9503771B2 (en) | 2011-02-04 | 2016-11-22 | Qualcomm Incorporated | Low latency wireless display for graphics |
EP2492788B1 (de) * | 2011-02-24 | 2015-07-15 | ST-Ericsson SA | Zoomverfahren |
US9547428B2 (en) | 2011-03-01 | 2017-01-17 | Apple Inc. | System and method for touchscreen knob control |
EP2500814B1 (de) * | 2011-03-13 | 2019-05-08 | LG Electronics Inc. | Transparente Anzeigevorrichtung und Verfahren zu deren Betrieb |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9383917B2 (en) | 2011-03-28 | 2016-07-05 | Microsoft Technology Licensing, Llc | Predictive tiling |
RU2611977C2 (ru) | 2011-05-09 | 2017-03-01 | Конинклейке Филипс Н.В. | Вращение объекта на экране |
JP2012247861A (ja) * | 2011-05-25 | 2012-12-13 | Panasonic Corp | タッチスクリーン装置、タッチ操作入力方法及びプログラム |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9032338B2 (en) | 2011-05-30 | 2015-05-12 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating and editing text |
US9092130B2 (en) | 2011-05-31 | 2015-07-28 | Apple Inc. | Devices, methods, and graphical user interfaces for document manipulation |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8751971B2 (en) | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
US8959459B2 (en) | 2011-06-15 | 2015-02-17 | Wms Gaming Inc. | Gesture sensing enhancement system for a wagering game |
JP5855862B2 (ja) | 2011-07-07 | 2016-02-09 | オリンパス株式会社 | 撮像装置、撮像方法およびプログラム |
US20130227398A1 (en) * | 2011-08-23 | 2013-08-29 | Opera Software Asa | Page based navigation and presentation of web content |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
JP5805473B2 (ja) * | 2011-09-02 | 2015-11-04 | クラリオン株式会社 | 操作装置 |
US8922575B2 (en) | 2011-09-09 | 2014-12-30 | Microsoft Corporation | Tile cache |
US9557909B2 (en) | 2011-09-09 | 2017-01-31 | Microsoft Technology Licensing, Llc | Semantic zoom linguistic helpers |
US10353566B2 (en) | 2011-09-09 | 2019-07-16 | Microsoft Technology Licensing, Llc | Semantic zoom animations |
US20130067398A1 (en) * | 2011-09-09 | 2013-03-14 | Theresa B. Pittappilly | Semantic Zoom |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US9244802B2 (en) | 2011-09-10 | 2016-01-26 | Microsoft Technology Licensing, Llc | Resource user interface |
EP2756379A1 (de) * | 2011-09-13 | 2014-07-23 | Newman Infinite, Inc. | Vorrichtung, verfahren und computerlesbares speichermedium zur handhabung eines benutzerschnittstellenelements |
US9851889B2 (en) | 2011-09-16 | 2017-12-26 | Kt Corporation | Apparatus and method for rotating a displayed image by using multi-point touch inputs |
US9274642B2 (en) * | 2011-10-20 | 2016-03-01 | Microsoft Technology Licensing, Llc | Acceleration-based interaction for multi-pointer indirect input devices |
US9658715B2 (en) | 2011-10-20 | 2017-05-23 | Microsoft Technology Licensing, Llc | Display mapping modes for multi-pointer indirect input devices |
US8933896B2 (en) | 2011-10-25 | 2015-01-13 | Microsoft Corporation | Pressure-based interaction for indirect touch input devices |
KR101279518B1 (ko) * | 2011-10-26 | 2013-06-28 | 엘지전자 주식회사 | 이동 단말기 및 그의 스크린 제어방법 |
KR101880653B1 (ko) * | 2011-10-27 | 2018-08-20 | 삼성전자 주식회사 | 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법 |
US9372612B2 (en) * | 2011-10-31 | 2016-06-21 | Microsoft Technology Licensing, Llc | Exposing inertial snap points |
US9053083B2 (en) | 2011-11-04 | 2015-06-09 | Microsoft Technology Licensing, Llc | Interaction between web gadgets and spreadsheets |
US9367230B2 (en) * | 2011-11-08 | 2016-06-14 | Microsoft Technology Licensing, Llc | Interaction models for indirect interaction devices |
US9141280B2 (en) | 2011-11-09 | 2015-09-22 | Blackberry Limited | Touch-sensitive display method and apparatus |
WO2013080444A1 (ja) * | 2011-11-29 | 2013-06-06 | パナソニック株式会社 | 表示制御装置、表示制御方法、および表示制御プログラム |
US9389679B2 (en) | 2011-11-30 | 2016-07-12 | Microsoft Technology Licensing, Llc | Application programming interface for a multi-pointer indirect touch input device |
JP5776525B2 (ja) * | 2011-12-05 | 2015-09-09 | 株式会社デンソー | 入力装置 |
JP5798903B2 (ja) * | 2011-12-13 | 2015-10-21 | 日本電信電話株式会社 | 情報入力システムとそのプログラム |
JP5880024B2 (ja) * | 2011-12-22 | 2016-03-08 | 株式会社バッファロー | 情報処理装置及びプログラム |
DE102011056940A1 (de) | 2011-12-22 | 2013-06-27 | Bauhaus Universität Weimar | Verfahren zum Betrieb einer mehrfachberührungsfähigen Anzeige und Vorrichtung mit einer mehrfachberührungsfähigen Anzeige |
US9525998B2 (en) | 2012-01-06 | 2016-12-20 | Qualcomm Incorporated | Wireless display with multiscreen service |
JP5957893B2 (ja) | 2012-01-13 | 2016-07-27 | ソニー株式会社 | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
JP6196017B2 (ja) | 2012-01-13 | 2017-09-13 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
EP2804372A4 (de) | 2012-01-13 | 2015-09-16 | Sony Corp | Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren sowie computerprogramm |
US9007323B2 (en) * | 2012-02-03 | 2015-04-14 | Panasonic Intellectual Property Management Co., Ltd. | Haptic feedback device, method for driving haptic feedback device, and drive program |
KR101725073B1 (ko) | 2012-02-06 | 2017-04-11 | 핫헤드 게임즈 인크. | 카드 상자 및 팩의 가상 개봉 |
JP5936183B2 (ja) | 2012-02-07 | 2016-06-15 | オリンパス株式会社 | 撮影機器 |
JP5797580B2 (ja) * | 2012-02-16 | 2015-10-21 | シャープ株式会社 | 入力制御装置、電子機器、入力制御方法、プログラムおよび記録媒体 |
JP2013178658A (ja) * | 2012-02-28 | 2013-09-09 | Nikon Corp | 画像処理装置及びプログラム、並びに電子カメラ |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
JP5817613B2 (ja) * | 2012-03-23 | 2015-11-18 | 株式会社デンソー | 入力装置 |
JP2013210944A (ja) * | 2012-03-30 | 2013-10-10 | Hitachi Solutions Ltd | 画面操作機能を有する装置 |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
WO2013154341A1 (ko) * | 2012-04-10 | 2013-10-17 | Ahn Jae Seok | 모바일 단말에서 디지털 컨텐트를 스크롤하는 방법 및 이를 위한 모바일 단말 장치 |
JP6004716B2 (ja) * | 2012-04-13 | 2016-10-12 | キヤノン株式会社 | 情報処理装置およびその制御方法、コンピュータプログラム |
US9329723B2 (en) | 2012-04-16 | 2016-05-03 | Apple Inc. | Reconstruction of original touch image from differential touch image |
WO2013155590A1 (en) * | 2012-04-18 | 2013-10-24 | Research In Motion Limited | Systems and methods for displaying information or a feature in overscroll regions on electronic devices |
US9086732B2 (en) | 2012-05-03 | 2015-07-21 | Wms Gaming Inc. | Gesture fusion |
JP2013238955A (ja) * | 2012-05-14 | 2013-11-28 | Sharp Corp | 携帯情報端末 |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
CN102799347B (zh) * | 2012-06-05 | 2017-01-04 | 北京小米科技有限责任公司 | 应用于触屏设备的用户界面交互方法、装置及触屏设备 |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
JP5877374B2 (ja) | 2012-06-13 | 2016-03-08 | パナソニックIpマネジメント株式会社 | 操作表示装置、プログラム |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
JP2014010777A (ja) * | 2012-07-02 | 2014-01-20 | Fujitsu Ltd | 表示プログラム、表示方法、及び情報処理装置 |
WO2014010543A1 (ja) * | 2012-07-09 | 2014-01-16 | Necカシオモバイルコミュニケーションズ株式会社 | 情報処理装置、入力受付方法及びプログラム |
JP2012234569A (ja) * | 2012-08-09 | 2012-11-29 | Panasonic Corp | 電子機器、表示方法、及びプログラム |
CN102819417B (zh) * | 2012-08-16 | 2015-07-15 | 小米科技有限责任公司 | 一种图片显示处理方法及装置 |
US9507513B2 (en) | 2012-08-17 | 2016-11-29 | Google Inc. | Displaced double tap gesture |
KR101343591B1 (ko) | 2012-09-03 | 2013-12-19 | 엘지전자 주식회사 | 휴대 전자기기 및 이의 제어방법 |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
KR101405822B1 (ko) * | 2012-09-18 | 2014-06-11 | 주식회사 인프라웨어 | 터치기반 편집 어플을 위한 시각적 편집보조 제공 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체 |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
JP6159069B2 (ja) * | 2012-09-27 | 2017-07-05 | 京セラ株式会社 | 表示装置 |
WO2014050957A1 (ja) | 2012-09-27 | 2014-04-03 | 京セラ株式会社 | 表示装置、制御方法および制御プログラム |
CN103729107A (zh) * | 2012-10-15 | 2014-04-16 | 中兴通讯股份有限公司 | 一种悬浮对象的实现方法与装置 |
US20140109016A1 (en) * | 2012-10-16 | 2014-04-17 | Yu Ouyang | Gesture-based cursor control |
US8949735B2 (en) | 2012-11-02 | 2015-02-03 | Google Inc. | Determining scroll direction intent |
KR101468970B1 (ko) * | 2012-11-30 | 2014-12-04 | 주식회사 인프라웨어 | 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치 |
JP6033061B2 (ja) * | 2012-11-30 | 2016-11-30 | Kddi株式会社 | 入力装置およびプログラム |
JP2014112335A (ja) * | 2012-12-05 | 2014-06-19 | Fuji Xerox Co Ltd | 情報処理装置及びプログラム |
KR20140078853A (ko) * | 2012-12-18 | 2014-06-26 | 삼성전자주식회사 | 증강현실시스템 및 그 제어방법 |
WO2014103634A1 (ja) | 2012-12-26 | 2014-07-03 | グリー株式会社 | 表示処理方法及び情報装置 |
US20140189603A1 (en) * | 2012-12-28 | 2014-07-03 | Darryl L. Adams | Gesture Based Partition Switching |
JP5385450B2 (ja) * | 2012-12-28 | 2014-01-08 | 株式会社ゼンリンデータコム | 地図表示装置 |
US10691230B2 (en) | 2012-12-29 | 2020-06-23 | Apple Inc. | Crown input for a wearable electronic device |
KR102072582B1 (ko) * | 2012-12-31 | 2020-02-03 | 엘지전자 주식회사 | 듀얼 디스플레이 방법 및 장치 |
JPWO2014112029A1 (ja) * | 2013-01-15 | 2017-01-19 | 日立マクセル株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
WO2014111959A2 (en) | 2013-01-21 | 2014-07-24 | Keypoint Technologies India Pvt. Ltd. | Text input system and method |
IN2013CH00469A (de) | 2013-01-21 | 2015-07-31 | Keypoint Technologies India Pvt Ltd | |
JP5835240B2 (ja) * | 2013-01-28 | 2015-12-24 | カシオ計算機株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN103970646B (zh) | 2013-01-29 | 2016-12-28 | 国际商业机器公司 | 一种用于操作序列的自动分析方法及其系统 |
US10199051B2 (en) | 2013-02-07 | 2019-02-05 | Apple Inc. | Voice trigger for a digital assistant |
DE102013101339A1 (de) * | 2013-02-12 | 2014-08-14 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Bedienelement |
EP2963530A4 (de) * | 2013-02-27 | 2016-10-26 | Alps Electric Co Ltd | Betriebsdetektionsvorrichtung |
KR102117086B1 (ko) * | 2013-03-08 | 2020-06-01 | 삼성디스플레이 주식회사 | 단말기 및 그의 조작 방법 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR102157332B1 (ko) * | 2013-03-15 | 2020-09-17 | 삼성전자주식회사 | 전자 장치에서 줌 기능을 제어하기 위한 방법 및 장치 |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
JP6264370B2 (ja) * | 2013-04-02 | 2018-01-24 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102114608B1 (ko) * | 2013-04-02 | 2020-06-05 | 엘지전자 주식회사 | 멀티 스크린 디바이스 및 그 제어 방법 |
US20140306910A1 (en) * | 2013-04-15 | 2014-10-16 | Qualcomm Incorporated | Id tracking of gesture touch geometry |
JP5742870B2 (ja) * | 2013-04-17 | 2015-07-01 | カシオ計算機株式会社 | 電子機器およびプログラム |
US8997013B2 (en) * | 2013-05-31 | 2015-03-31 | Google Inc. | Multiple graphical keyboards for continuous gesture input |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
CN110442699A (zh) | 2013-06-09 | 2019-11-12 | 苹果公司 | 操作数字助理的方法、计算机可读介质、电子设备和系统 |
KR101809808B1 (ko) | 2013-06-13 | 2017-12-15 | 애플 인크. | 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법 |
US10664652B2 (en) | 2013-06-15 | 2020-05-26 | Microsoft Technology Licensing, Llc | Seamless grid and canvas integration in a spreadsheet application |
CN105408842A (zh) | 2013-07-17 | 2016-03-16 | Touchcard株式会社 | 图像显示系统以及输入装置 |
JP6211327B2 (ja) * | 2013-07-22 | 2017-10-11 | アルプス電気株式会社 | 入力装置 |
DE112014003653B4 (de) | 2013-08-06 | 2024-04-18 | Apple Inc. | Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen |
KR20150019352A (ko) | 2013-08-13 | 2015-02-25 | 삼성전자주식회사 | 전자장치에서 그립상태를 인지하기 위한 방법 및 장치 |
US9886141B2 (en) | 2013-08-16 | 2018-02-06 | Apple Inc. | Mutual and self capacitance touch measurements in touch panel |
US10503388B2 (en) | 2013-09-03 | 2019-12-10 | Apple Inc. | Crown input for a wearable electronic device |
JP6138641B2 (ja) | 2013-09-13 | 2017-05-31 | 株式会社Nttドコモ | 地図情報表示装置、地図情報表示方法、及び地図情報表示プログラム |
JP5948294B2 (ja) * | 2013-09-25 | 2016-07-06 | 京セラドキュメントソリューションズ株式会社 | タッチパネル装置、及びこれを備えた画像形成装置 |
AU2013404001B2 (en) | 2013-10-30 | 2017-11-30 | Apple Inc. | Displaying relevant user interface objects |
JP2015099526A (ja) * | 2013-11-20 | 2015-05-28 | 富士通株式会社 | 情報処理装置および情報処理プログラム |
JP6222830B2 (ja) * | 2013-12-27 | 2017-11-01 | マクセルホールディングス株式会社 | 画像投射装置 |
JPWO2015121964A1 (ja) * | 2014-02-14 | 2017-03-30 | 富士通株式会社 | 入力装置 |
JP2017068291A (ja) * | 2014-02-14 | 2017-04-06 | アルプス電気株式会社 | 入力方法、及び入力装置 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10936120B2 (en) | 2014-05-22 | 2021-03-02 | Apple Inc. | Panel bootstraping architectures for in-cell self-capacitance |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
EP3480811A1 (de) | 2014-05-30 | 2019-05-08 | Apple Inc. | Verfahren zur eingabe von mehreren befehlen mit einer einzigen äusserung |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10255267B2 (en) | 2014-05-30 | 2019-04-09 | Apple Inc. | Device, method, and graphical user interface for a predictive keyboard |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9978043B2 (en) | 2014-05-30 | 2018-05-22 | Apple Inc. | Automatic event scheduling |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9898162B2 (en) | 2014-05-30 | 2018-02-20 | Apple Inc. | Swiping functions for messaging applications |
US9971500B2 (en) | 2014-06-01 | 2018-05-15 | Apple Inc. | Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application |
WO2015189922A1 (ja) | 2014-06-11 | 2015-12-17 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
CN116243841A (zh) | 2014-06-27 | 2023-06-09 | 苹果公司 | 尺寸减小的用户界面 |
US10289251B2 (en) | 2014-06-27 | 2019-05-14 | Apple Inc. | Reducing floating ground effects in pixelated self-capacitance touch screens |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9880655B2 (en) | 2014-09-02 | 2018-01-30 | Apple Inc. | Method of disambiguating water from a finger touch on a touch sensor panel |
WO2016036510A1 (en) | 2014-09-02 | 2016-03-10 | Apple Inc. | Music user interface |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
CN107077260B (zh) | 2014-09-22 | 2020-05-12 | 苹果公司 | 触摸控制器和用于触摸传感器面板的方法 |
US10025684B2 (en) | 2014-09-24 | 2018-07-17 | Microsoft Technology Licensing, Llc | Lending target device resources to host device computing environment |
US9769227B2 (en) | 2014-09-24 | 2017-09-19 | Microsoft Technology Licensing, Llc | Presentation of computing environment on multiple devices |
US10448111B2 (en) | 2014-09-24 | 2019-10-15 | Microsoft Technology Licensing, Llc | Content projection |
US20160088060A1 (en) * | 2014-09-24 | 2016-03-24 | Microsoft Technology Licensing, Llc | Gesture navigation for secondary user interface |
US10635296B2 (en) | 2014-09-24 | 2020-04-28 | Microsoft Technology Licensing, Llc | Partitioned application presentation across devices |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
CN112379792A (zh) | 2014-10-27 | 2021-02-19 | 苹果公司 | 像素化自电容水排斥 |
JP5966125B2 (ja) * | 2014-11-12 | 2016-08-10 | 株式会社ユピテル | 車両用情報表示装置 |
JP2016099871A (ja) * | 2014-11-25 | 2016-05-30 | アルパイン株式会社 | 情報機器およびその操作方法、操作プログラム |
KR101619888B1 (ko) | 2014-11-28 | 2016-05-12 | 현대자동차주식회사 | 터치 인식 기능을 구비한 차량 및 그 제어방법과 내비게이션 |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
EP3037783B1 (de) * | 2014-12-23 | 2019-09-25 | Alpine Electronics, Inc. | Informationsverarbeitungsvorrichtung, insbesondere Navigationssystem, Verfahren und Vorrichtung zur Informationsverarbeitung |
US20160202865A1 (en) | 2015-01-08 | 2016-07-14 | Apple Inc. | Coordination of static backgrounds and rubberbanding |
CN107209602B (zh) | 2015-02-02 | 2020-05-26 | 苹果公司 | 柔性自电容和互电容触摸感测系统架构 |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10488992B2 (en) | 2015-03-10 | 2019-11-26 | Apple Inc. | Multi-chip touch architecture for scalability |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
WO2016157330A1 (ja) | 2015-03-27 | 2016-10-06 | 日本電気株式会社 | モバイル監視装置、プログラム、及び制御方法 |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101882B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Movement between multiple views |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
CN104991645A (zh) * | 2015-06-24 | 2015-10-21 | 宇龙计算机通信科技(深圳)有限公司 | 光标控制方法及装置 |
JP6511352B2 (ja) * | 2015-07-03 | 2019-05-15 | 株式会社エクシング | 楽曲検索装置及び楽曲検索用プログラム |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10365773B2 (en) | 2015-09-30 | 2019-07-30 | Apple Inc. | Flexible scan plan using coarse mutual capacitance and fully-guarded measurements |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
KR20170064901A (ko) * | 2015-12-02 | 2017-06-12 | 엘지전자 주식회사 | 모바일 디바이스 및 그 제어 방법 |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US20170177204A1 (en) * | 2015-12-18 | 2017-06-22 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Centering gesture to enhance pinch-to-zoom gesture on touchscreens |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
JP2017138738A (ja) | 2016-02-02 | 2017-08-10 | 富士通テン株式会社 | 入力装置、表示装置および入力装置の制御方法 |
US9871962B2 (en) | 2016-03-04 | 2018-01-16 | RollCall, LLC | Movable user interface shutter button for camera |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9919213B2 (en) * | 2016-05-03 | 2018-03-20 | Hothead Games Inc. | Zoom controls for virtual environment user interfaces |
JP6681110B2 (ja) * | 2016-05-09 | 2020-04-15 | 株式会社コーエーテクモゲームス | ユーザインターフェース処理プログラム及び記録媒体 |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10620812B2 (en) | 2016-06-10 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for managing electronic communications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
DK201670595A1 (en) | 2016-06-11 | 2018-01-22 | Apple Inc | Configuring context-specific user interfaces |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
AU2017100670C4 (en) | 2016-06-12 | 2019-11-21 | Apple Inc. | User interfaces for retrieving contextually relevant media content |
DK201670580A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Wrist-based tactile time feedback for non-sighted users |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
US10004991B2 (en) | 2016-06-28 | 2018-06-26 | Hothead Games Inc. | Systems and methods for customized camera views in virtualized environments |
US10010791B2 (en) | 2016-06-28 | 2018-07-03 | Hothead Games Inc. | Systems and methods for customized camera views and customizable objects in virtualized environments |
KR101726549B1 (ko) * | 2016-06-29 | 2017-04-12 | 정상문 | 모바일 실시간 시뮬레이션 게임에서의 터치 조작 방식 |
AU2017208277B2 (en) | 2016-09-06 | 2018-12-20 | Apple Inc. | Back of cover touch sensors |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
JP6249073B2 (ja) * | 2016-09-28 | 2017-12-20 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
JP6181833B1 (ja) * | 2016-09-29 | 2017-08-16 | 株式会社ゲオインタラクティブ | 画像表示装置及び画像表示用プログラム |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
CN106955489B (zh) * | 2017-02-14 | 2018-05-11 | 网易(杭州)网络有限公司 | 一种控制手机游戏中信息显示的交互方法及装置 |
US10386965B2 (en) | 2017-04-20 | 2019-08-20 | Apple Inc. | Finger tracking in wet environment |
US11431836B2 (en) | 2017-05-02 | 2022-08-30 | Apple Inc. | Methods and interfaces for initiating media playback |
US10992795B2 (en) | 2017-05-16 | 2021-04-27 | Apple Inc. | Methods and interfaces for home media control |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
US10928980B2 (en) | 2017-05-12 | 2021-02-23 | Apple Inc. | User interfaces for playing and managing audio items |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
CN111343060B (zh) | 2017-05-16 | 2022-02-11 | 苹果公司 | 用于家庭媒体控制的方法和界面 |
US20220279063A1 (en) | 2017-05-16 | 2022-09-01 | Apple Inc. | Methods and interfaces for home media control |
JP6567233B2 (ja) | 2017-06-20 | 2019-08-28 | 三菱電機株式会社 | タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム |
CN107608621A (zh) * | 2017-10-12 | 2018-01-19 | 北京元心科技有限公司 | 触点信息的处理方法、装置和终端 |
EP3503026A1 (de) * | 2017-12-20 | 2019-06-26 | Koninklijke Philips N.V. | Vorrichtung, system und verfahren zur interaktion mit gefässbildern |
DK180171B1 (en) | 2018-05-07 | 2020-07-14 | Apple Inc | USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT |
TWI666574B (zh) * | 2018-05-22 | 2019-07-21 | 義隆電子股份有限公司 | 判斷觸控裝置上之觸控物件力道及觸控事件的方法 |
JP7004629B2 (ja) * | 2018-09-25 | 2022-01-21 | 富士フイルム株式会社 | 画像表示制御装置、画像表示制御装置の作動プログラム、及び作動方法 |
US20200333925A1 (en) * | 2019-04-19 | 2020-10-22 | Microsoft Technology Licensing, Llc | System and method for navigating interfaces using touch gesture inputs |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
DK201970535A1 (en) | 2019-05-06 | 2020-12-21 | Apple Inc | Media browsing user interface with intelligently selected representative media items |
TWI728361B (zh) | 2019-05-15 | 2021-05-21 | 和碩聯合科技股份有限公司 | 用於一電子裝置的快速資料瀏覽方法 |
KR102436985B1 (ko) | 2019-05-31 | 2022-08-29 | 애플 인크. | 오디오 미디어 제어를 위한 사용자 인터페이스 |
US11010121B2 (en) | 2019-05-31 | 2021-05-18 | Apple Inc. | User interfaces for audio media control |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
US10996761B2 (en) | 2019-06-01 | 2021-05-04 | Apple Inc. | User interfaces for non-visual output of time |
DK202070612A1 (en) | 2020-02-14 | 2021-10-26 | Apple Inc | User interfaces for workout content |
US11662867B1 (en) | 2020-05-30 | 2023-05-30 | Apple Inc. | Hover detection on a touch sensor panel |
US11416136B2 (en) | 2020-09-14 | 2022-08-16 | Apple Inc. | User interfaces for assigning and responding to user inputs |
US11392291B2 (en) | 2020-09-25 | 2022-07-19 | Apple Inc. | Methods and interfaces for media control with dynamic feedback |
KR20220042558A (ko) * | 2020-09-28 | 2022-04-05 | 주식회사 딥바이오 | 병리 이미지 분석 결과 출력 방법 및 이를 수행하는 컴퓨팅 시스템 |
CN112396590B (zh) * | 2020-11-25 | 2022-07-15 | 中南大学 | 一种半自磨入磨矿石块度检测方法、设备及介质 |
WO2024064235A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Touchscreen jog wheel user interface element |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3301079B2 (ja) * | 1990-06-18 | 2002-07-15 | ソニー株式会社 | 情報入力装置、情報入力方法、情報処理装置及び情報処理方法 |
JPH0454523A (ja) * | 1990-06-21 | 1992-02-21 | Hitachi Aic Inc | タッチパネル |
US6028271A (en) * | 1992-06-08 | 2000-02-22 | Synaptics, Inc. | Object position detector with edge motion feature and gesture recognition |
US5612719A (en) | 1992-12-03 | 1997-03-18 | Apple Computer, Inc. | Gesture sensitive buttons for graphical user interfaces |
JPH07230352A (ja) * | 1993-09-16 | 1995-08-29 | Hitachi Ltd | タッチ位置検出装置及びタッチ指示処理装置 |
US5583946A (en) | 1993-09-30 | 1996-12-10 | Apple Computer, Inc. | Method and apparatus for recognizing gestures on a computer system |
JP3546337B2 (ja) * | 1993-12-21 | 2004-07-28 | ゼロックス コーポレイション | 計算システム用ユーザ・インタフェース装置及びグラフィック・キーボード使用方法 |
US5798760A (en) * | 1995-06-07 | 1998-08-25 | Vayda; Mark | Radial graphical menuing system with concentric region menuing |
JPH09146708A (ja) * | 1995-11-09 | 1997-06-06 | Internatl Business Mach Corp <Ibm> | タッチパネルの駆動方法及びタッチ入力方法 |
US5825308A (en) * | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
US5825352A (en) * | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
JP3280559B2 (ja) * | 1996-02-20 | 2002-05-13 | シャープ株式会社 | ジョグダイアルの模擬入力装置 |
US5874948A (en) * | 1996-05-28 | 1999-02-23 | International Business Machines Corporation | Virtual pointing device for touchscreens |
JPH1039748A (ja) * | 1996-07-18 | 1998-02-13 | Koonet:Kk | 電子式地図システム、それを用いた情報提供装置及び記憶媒体 |
JPH1173271A (ja) * | 1997-08-28 | 1999-03-16 | Sharp Corp | 指示装置、処理装置および記憶媒体 |
US6433801B1 (en) * | 1997-09-26 | 2002-08-13 | Ericsson Inc. | Method and apparatus for using a touch screen display on a portable intelligent communications device |
JPH11133816A (ja) * | 1997-10-27 | 1999-05-21 | Canon Inc | 画像形成装置、設定情報入力方法および記憶媒体 |
US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
KR100595924B1 (ko) * | 1998-01-26 | 2006-07-05 | 웨인 웨스터만 | 수동 입력 통합 방법 및 장치 |
US6211856B1 (en) * | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
US6278443B1 (en) * | 1998-04-30 | 2001-08-21 | International Business Machines Corporation | Touch screen with random finger placement and rolling on screen to control the movement of information on-screen |
US6429846B2 (en) * | 1998-06-23 | 2002-08-06 | Immersion Corporation | Haptic feedback for touchpads and other touch controls |
US20020018051A1 (en) * | 1998-09-15 | 2002-02-14 | Mona Singh | Apparatus and method for moving objects on a touchscreen display |
JP2000163193A (ja) * | 1998-11-25 | 2000-06-16 | Seiko Epson Corp | 携帯情報機器及び情報記憶媒体 |
JP4542637B2 (ja) * | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
US6246395B1 (en) * | 1998-12-17 | 2001-06-12 | Hewlett-Packard Company | Palm pressure rejection method and apparatus for touchscreens |
US6639584B1 (en) * | 1999-07-06 | 2003-10-28 | Chuang Li | Methods and apparatus for controlling a portable electronic device using a touchpad |
JP2001134382A (ja) * | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
JP4803883B2 (ja) * | 2000-01-31 | 2011-10-26 | キヤノン株式会社 | 位置情報処理装置及びその方法及びそのプログラム。 |
JP2001230992A (ja) * | 2000-02-18 | 2001-08-24 | Nidec Copal Corp | 画像表示装置及びその制御方法 |
JP2001356878A (ja) * | 2000-06-14 | 2001-12-26 | Hitachi Ltd | アイコン制御方法 |
JP4543513B2 (ja) * | 2000-07-17 | 2010-09-15 | ソニー株式会社 | 双方向通信システム、表示装置、ベース装置および双方向通信方法 |
US6570557B1 (en) * | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
JP4686886B2 (ja) * | 2001-04-06 | 2011-05-25 | ソニー株式会社 | 情報処理装置 |
JP2003173237A (ja) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
JP2003123992A (ja) | 2001-10-17 | 2003-04-25 | Ushio Inc | キセノン放電ランプ点灯装置 |
US7345671B2 (en) * | 2001-10-22 | 2008-03-18 | Apple Inc. | Method and apparatus for use of rotational user inputs |
US7312785B2 (en) * | 2001-10-22 | 2007-12-25 | Apple Inc. | Method and apparatus for accelerated scrolling |
US7084856B2 (en) | 2001-10-22 | 2006-08-01 | Apple Computer, Inc. | Mouse having a rotary dial |
GB0201074D0 (en) * | 2002-01-18 | 2002-03-06 | 3G Lab Ltd | Graphic user interface for data processing device |
JP3951727B2 (ja) * | 2002-02-06 | 2007-08-01 | 松下電器産業株式会社 | 情報処理装置 |
JP3847641B2 (ja) * | 2002-02-28 | 2006-11-22 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法 |
US7466307B2 (en) * | 2002-04-11 | 2008-12-16 | Synaptics Incorporated | Closed-loop sensor on a solid-state object position detector |
US20030193481A1 (en) * | 2002-04-12 | 2003-10-16 | Alexander Sokolsky | Touch-sensitive input overlay for graphical user interface |
US8570277B2 (en) * | 2002-05-16 | 2013-10-29 | Sony Corporation | Inputting method and inputting apparatus |
US7789756B2 (en) * | 2002-09-13 | 2010-09-07 | Igt | Wagering gaming device having simulated control of movement of game functional elements |
GB0222094D0 (en) * | 2002-09-24 | 2002-10-30 | Koninkl Philips Electronics Nv | Graphical user interface navigation method and apparatus |
US20040095311A1 (en) * | 2002-11-19 | 2004-05-20 | Motorola, Inc. | Body-centric virtual interactive apparatus and method |
KR20040057131A (ko) * | 2002-12-24 | 2004-07-02 | 삼성전자주식회사 | 터치스크린에서 지정위치 확대 기능을 갖는 휴대용 모바일기기 및 그 확대 방법 |
US7337634B2 (en) * | 2003-01-09 | 2008-03-04 | General Electric Company | Washer/dryer touch sensitive graphical user interface |
US7411575B2 (en) * | 2003-09-16 | 2008-08-12 | Smart Technologies Ulc | Gesture recognition method and touch system incorporating the same |
KR100958491B1 (ko) * | 2004-07-30 | 2010-05-17 | 애플 인크. | 터치 감지 입력 장치용 모드 기반 그래픽 사용자 인터페이스 |
-
2005
- 2005-07-19 KR KR1020097009093A patent/KR100958491B1/ko active IP Right Grant
- 2005-07-19 EP EP08016449.4A patent/EP2000893B1/de not_active Not-in-force
- 2005-07-19 JP JP2007523644A patent/JP4763695B2/ja not_active Expired - Fee Related
- 2005-07-19 KR KR1020077005010A patent/KR100984596B1/ko active IP Right Grant
- 2005-07-19 KR KR1020117031565A patent/KR101270847B1/ko active IP Right Grant
- 2005-07-19 EP EP16184609.2A patent/EP3121697A1/de not_active Withdrawn
- 2005-07-19 WO PCT/US2005/025657 patent/WO2006020305A2/en active Application Filing
- 2005-07-19 DE DE202005021492U patent/DE202005021492U1/de not_active Expired - Lifetime
- 2005-07-19 EP EP05772499.9A patent/EP1774429B1/de active Active
- 2005-07-19 JP JP2007523645A patent/JP2008508601A/ja active Pending
- 2005-07-19 CN CN201310178622.9A patent/CN103365595B/zh active Active
- 2005-07-19 EP EP08016450.2A patent/EP2000894B1/de not_active Not-in-force
- 2005-07-19 DE DE202005021427U patent/DE202005021427U1/de not_active Expired - Lifetime
- 2005-07-19 KR KR1020087022704A patent/KR101128572B1/ko active IP Right Grant
-
2010
- 2010-03-23 JP JP2010065759A patent/JP5456529B2/ja active Active
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9529519B2 (en) | 2007-01-07 | 2016-12-27 | Apple Inc. | Application programming interfaces for gesture operations |
US11954322B2 (en) | 2007-01-07 | 2024-04-09 | Apple Inc. | Application programming interface for gesture operations |
US11449217B2 (en) | 2007-01-07 | 2022-09-20 | Apple Inc. | Application programming interfaces for gesture operations |
US10963142B2 (en) | 2007-01-07 | 2021-03-30 | Apple Inc. | Application programming interfaces for scrolling |
US10613741B2 (en) | 2007-01-07 | 2020-04-07 | Apple Inc. | Application programming interface for gesture operations |
US10175876B2 (en) | 2007-01-07 | 2019-01-08 | Apple Inc. | Application programming interfaces for gesture operations |
US9665265B2 (en) | 2007-01-07 | 2017-05-30 | Apple Inc. | Application programming interfaces for gesture operations |
US9575648B2 (en) | 2007-01-07 | 2017-02-21 | Apple Inc. | Application programming interfaces for gesture operations |
US9971502B2 (en) | 2008-03-04 | 2018-05-15 | Apple Inc. | Touch event model |
DE112009000001B4 (de) * | 2008-03-04 | 2021-01-14 | Apple Inc. | Berührungsmodell für Webseiten |
US9389712B2 (en) | 2008-03-04 | 2016-07-12 | Apple Inc. | Touch event model |
US11740725B2 (en) | 2008-03-04 | 2023-08-29 | Apple Inc. | Devices, methods, and user interfaces for processing touch events |
US9690481B2 (en) | 2008-03-04 | 2017-06-27 | Apple Inc. | Touch event model |
US9720594B2 (en) | 2008-03-04 | 2017-08-01 | Apple Inc. | Touch event model |
US10936190B2 (en) | 2008-03-04 | 2021-03-02 | Apple Inc. | Devices, methods, and user interfaces for processing touch events |
DE112009000002B4 (de) | 2008-03-04 | 2020-01-09 | Apple Inc. | Verarbeitung von Berührungsereignissen für Webseiten |
US9798459B2 (en) | 2008-03-04 | 2017-10-24 | Apple Inc. | Touch event model for web pages |
US10521109B2 (en) | 2008-03-04 | 2019-12-31 | Apple Inc. | Touch event model |
DE112009000003B4 (de) * | 2008-03-04 | 2019-11-21 | Apple Inc. | Programmierschnittstelle für ein Berührungsereignismodell |
US9323335B2 (en) | 2008-03-04 | 2016-04-26 | Apple Inc. | Touch event model programming interface |
DE102008032451C5 (de) * | 2008-07-10 | 2017-10-19 | Rational Ag | Anzeigeverfahren und Gargerät hierfür |
US8199125B2 (en) | 2008-12-26 | 2012-06-12 | Fujifilm Corporation | Information display apparatus, information display method and recording medium |
US9285908B2 (en) | 2009-03-16 | 2016-03-15 | Apple Inc. | Event recognition |
US9965177B2 (en) | 2009-03-16 | 2018-05-08 | Apple Inc. | Event recognition |
US9311112B2 (en) | 2009-03-16 | 2016-04-12 | Apple Inc. | Event recognition |
US10719225B2 (en) | 2009-03-16 | 2020-07-21 | Apple Inc. | Event recognition |
US9483121B2 (en) | 2009-03-16 | 2016-11-01 | Apple Inc. | Event recognition |
US11755196B2 (en) | 2009-03-16 | 2023-09-12 | Apple Inc. | Event recognition |
US11163440B2 (en) | 2009-03-16 | 2021-11-02 | Apple Inc. | Event recognition |
US10732997B2 (en) | 2010-01-26 | 2020-08-04 | Apple Inc. | Gesture recognizers with delegates for controlling and modifying gesture recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
US9298363B2 (en) | 2011-04-11 | 2016-03-29 | Apple Inc. | Region activation for touch sensitive surface |
DE102011116187A1 (de) * | 2011-10-14 | 2013-04-18 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle |
US11429190B2 (en) | 2013-06-09 | 2022-08-30 | Apple Inc. | Proxy gesture recognizer |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
Also Published As
Publication number | Publication date |
---|---|
EP1774429B1 (de) | 2018-06-06 |
JP2010170573A (ja) | 2010-08-05 |
KR101270847B1 (ko) | 2013-06-05 |
JP5456529B2 (ja) | 2014-04-02 |
CN103365595B (zh) | 2017-03-01 |
JP4763695B2 (ja) | 2011-08-31 |
KR101128572B1 (ko) | 2012-04-23 |
EP2000893A2 (de) | 2008-12-10 |
KR20070039613A (ko) | 2007-04-12 |
EP3121697A1 (de) | 2017-01-25 |
WO2006020305A3 (en) | 2007-05-24 |
KR20090050109A (ko) | 2009-05-19 |
EP2000894A2 (de) | 2008-12-10 |
EP2000894A3 (de) | 2009-01-14 |
KR100958491B1 (ko) | 2010-05-17 |
CN103365595A (zh) | 2013-10-23 |
EP2000893B1 (de) | 2016-09-21 |
KR20120014067A (ko) | 2012-02-15 |
WO2006020305A2 (en) | 2006-02-23 |
JP2008508601A (ja) | 2008-03-21 |
EP2000893A3 (de) | 2009-01-14 |
KR20080096593A (ko) | 2008-10-30 |
DE202005021492U1 (de) | 2008-05-08 |
KR100984596B1 (ko) | 2010-09-30 |
EP2000894B1 (de) | 2016-10-19 |
EP1774429A2 (de) | 2007-04-18 |
JP2008508600A (ja) | 2008-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202005021427U1 (de) | Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung | |
DE202007018368U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
DE202007014957U1 (de) | Multimediakommunikationseinrichtung mit Berührungsbildschirm, der auf Gesten zur Steuerung, Manipulierung und Editierung von Mediendateien reagiert | |
US20180059928A1 (en) | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices | |
DE102013111978B4 (de) | Identifikation und Verwendung von Gesten in der Nähe eines Sensors | |
DE112008004156B4 (de) | System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür | |
DE202007013923U1 (de) | Mehrfachereignis-Eingabesystem | |
DE112007000278T5 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE112013002381T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts | |
DE202008007847U1 (de) | Geschwindigkeits-/Positionsmodus-Translation | |
DE112010003602T5 (de) | System und Verfahren zum Anzeigen, Navigieren und Auswählen von elektronischgespeichertem Inhalt auf einem Multifunktionshandgerät | |
DE202015006055U1 (de) | Benutzeroberfläche zum Empfangen von Benutzereingaben | |
DE202011110722U1 (de) | Tragbare elektronische Vorrichtung mit scrollbarem Bereich | |
DE112010002760T5 (de) | Benutzerschnittstelle | |
DE202008001338U1 (de) | Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung | |
DE112012007203T5 (de) | Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren | |
DE202008000261U1 (de) | Vielfach-Berührungsdatenfussionssystem | |
DE112009001281T5 (de) | Navigieren zwischen Aktivitäten in einem Computergerät | |
DE112013002387T5 (de) | Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle | |
DE102010028983A1 (de) | Zweidimensionale Berührungssensoren | |
DE102008063354A1 (de) | Selektive Rückweisung von Berührungskontakten in einem Randbereich einer Berührungsoberfläche | |
DE202012101741U1 (de) | Berührungssensorgerät mit mehreren Oberflächen und einer Detektion von Benutzeraktivitäten | |
DE102013007250A1 (de) | Verfahren zur Gestensteuerung | |
DE112011100087T5 (de) | Gestenerkennung auf einer tragbaren Vorrichtung mit einem kraftempfindlichen Gehäuse | |
DE102011016389A1 (de) | Multimodus-Berührungsbildschirm-Benutzeroberfläche für eine mehrstufige Berührungsbildschirmvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |
Effective date: 20080320 |
|
R150 | Term of protection extended to 6 years |
Effective date: 20081006 |
|
R151 | Term of protection extended to 8 years | ||
R151 | Term of protection extended to 8 years |
Effective date: 20110729 |
|
R152 | Term of protection extended to 10 years |
Effective date: 20130731 |
|
R071 | Expiry of right |