DE112007000278T5 - Gesturing with a multipoint scanning device - Google Patents

Gesturing with a multipoint scanning device Download PDF

Info

Publication number
DE112007000278T5
DE112007000278T5 DE112007000278T DE112007000278T DE112007000278T5 DE 112007000278 T5 DE112007000278 T5 DE 112007000278T5 DE 112007000278 T DE112007000278 T DE 112007000278T DE 112007000278 T DE112007000278 T DE 112007000278T DE 112007000278 T5 DE112007000278 T5 DE 112007000278T5
Authority
DE
Germany
Prior art keywords
gesture
touch
input
finger
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112007000278T
Other languages
German (de)
Inventor
Wayne Carl San Francisco Westerman
Steve Porter San Jose Hotelling
Myra San Mateo Haggerty
Bas San Francisco Ording
Nima South San Fransciso Parivar
Duncan Robert San Francisco Kerr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE112007000278T5 publication Critical patent/DE112007000278T5/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Elektronisches System umfassend:
eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt;
ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.
Electronic system comprising:
a multi-point sampling device that provides a multipoint sampling area for receiving inputs from one or more objects;
a gesture module configured to determine a gesture set for a particular input device received by the multipoint scan region of the multipoint sensing device, to monitor the particular input device for one or more gesture events contained in the gesture set and to initiate input actions associated with a gesture input Gesture event are associated when the gesture event is performed with the input device.

Figure 00000001
Figure 00000001

Description

KREUZVERWEIS AUF VERWANDTE ANMELDUNGENCROSS REFERENCE TO RELATED REGISTRATIONS

Diese Anmeldung beansprucht die Priorität der vorläufigen U. S. Patentanmeldung Nr. 60/763,605, eingereicht am 30. Januar 2006, mit dem Titel "GESTIKULIEREN MIT EINER MEHRPUNKT-ABTASTVORRICHTUNG", die hierin per Verweis mit eingebunden wird.These Registration claims the priority of the provisional U.S. Patent Application No. 60 / 763,605, filed January 30 2006, entitled "GESTURING WITH A MULTI-POINT SENSING DEVICE", which is incorporated herein by reference.

Diese Anmeldung bezieht sich auch auf die folgenden Patentanmeldungen, die jeweils hierin per Verweis mit eingebunden werden:

  • U. S. Patenanmeldung Nr. 10/903,964, eingereicht am 330. Juli 2004 mit dem Titel "GESTEN FÜR BERÜHRUNGSEMPFINDLICHE EINGABEVORRICHTUNGEN";
  • U. S. Patentanmeldung Nr. 11/015,434, eingereicht am 17. Dezember 2004 mit dem Titel "VERFAHREN UND VORRICHTUNG ZUM INTEGRIEREN MANUELLER EINGABE", die die Priorität des U. S. Patents: 6,323,846 beansprucht, erteilt am 27. November 2001, welches die Priorität der vorläufigen U. S. Patentanmeldung Nr. 60/072,509 beansprucht, eingereicht am 26. Januar 1998;
  • U. S. Patentanmeldung Nr. 10/654,108, eingereicht am 2. September 2003 mit dem Titel 'BEIDHÄNDIGE MAUS";
  • U. S. Patentanmeldung Nr. 10/789,676, eingereicht am 27. Februar 2004 mit dem Titel "FORM DETEKTIERENDE EINGABEVORRICHTUNG";
  • U. S. Patentanmeldung Nr. 10/840,862, eingereicht am 6. Mai 2004 mit dem Titel "MEHRPUNKT-BERÜHRUNGSBILDSCHIRM";
  • U. S. Patentanmeldung Nr. 11/115,539, eingereicht am 26. April 2005 mit dem Titel "HANDHALTBARE ELEKTRONISCHE VORRICHTUNG MIT MEHRFACHBERÜHRUNGS-ABTASTVORRICHTUNGEN";
  • U. S. Patentanmeldung Nr. 11/241,839, eingereicht am 30. Juli 2004 mit dem Titel "NÄHEDETEKTOR IN HANDHALTBARER VORRICHTUNG";
  • Vorläufige U. S. Patentanmeldung Nr. 60/658,777, eingereicht am 4. März 2005 mit dem Titel "MULTIFUNKTIONALE HANDHALTBARE VORRICHTUNG";
  • U. S. Patentanmeldung Nr. 10/903,964, eingereicht am 30. Juli 2004 mit dem Titel "GESTEN FÜR BERÜHRUNGSEMPFINDLICHE EINGABE-VORRICHTUNGEN";
  • U. S. Patentanmeldung Nr. 11/038,590, eingereicht am 18. Januar 2005 mit dem Titel "MODUSBASIERTE GRAPHISCHE BENUTZERSCHNITTSTELLEN FÜR BERÜHRUNGSEMPFINDLICHE EINGABEVORRICHTUNGEN";
  • U. S. Patentanmeldung Nr. 117048,264, eingereicht am 31. Januar 2005 mit dem Titel "GESTEN FÜR BERÜHRUNGSEMPFINDLICHE EINGABE-VORRICHTUNGEN";
  • U. S. Patentanmeldung Nr. 11/228,737, eingereicht am 16. September 2005 mit dem Titel "AKTIVIEREN VIRTUELLER TASTEN EINER VIRTUELLEN BERÜHRUNGSBILDSCHIRM-TASTATUR";
  • U. S. Patentanmeldung Nr. 11/228,758, eingereicht am 16. September 2005 mit dem Titel "VIRTUELLE EINGABEVORRICHTUNGSANORDNUNG AUF EINER BERÜHRUNGSBILDSCHIRM-BENUTZERSCHNITTSTELLE";
  • U. S. Patentanmeldung Nr. 11/228,700, eingereicht am 16. September 2005 mit dem Titel "OPERATION EINES COMPUTERS MIT BERÜHRUNGS-BILDSCHIRM-SCHNITTSTELLE";
  • U. S. Patentanmeldung Nr. 10/927,925, eingereicht am 26. August 2004 mit dem Titel "VIRTUELLER ERWEITERER";
  • U. S. Patentanmeldung Nr. 10/927,575, eingereicht am 25. August 2004 mit dem Titel "BREITES BERÜHRUNGSFELD AUF EINEM TRAGBAREN COMPUTER";
  • U. S. Patentanmeldung Nr. 11/619,553, eingereicht am 3. Januar 2007 mit dem Titel "WÖRTERBUCH FÜR MEHRFACHBERÜHRUNGSGESTEN" und
  • U. S. Patentanmeldung Nr. 11/619,571, eingereicht am 3. Januar 2007 mit dem Titel "WÖRTERBUCH FÜR MEHRFACHBERÜHRUNGSGESTEN".
This application also relates to the following patent applications, each incorporated herein by reference:
  • U.S. Patent Application No. 10 / 903,964, filed July 330, 2004, entitled "GESTURES FOR TOUCH-SENSITIVE INPUT DEVICES";
  • US Patent Application No. 11 / 015,434 filed on Dec. 17, 2004, entitled "METHOD AND DEVICE FOR INTEGRATING MANUAL INPUT", which is the priority of US Patents: 6,323,846 granted November 27, 2001, which claims priority to US Provisional Patent Application No. 60 / 072,509, filed January 26, 1998;
  • US Patent Application No. 10 / 654,108, filed on September 2, 2003, entitled "BRAID MOUSE";
  • U.S. Patent Application No. 10 / 789,676, filed February 27, 2004, entitled "FORM DETECTING INPUT DEVICE";
  • U.S. Patent Application No. 10 / 840,862 filed May 6, 2004, entitled "MULTIPURPOSE TOUCH SCREEN";
  • U.S. Patent Application No. 11 / 115,539, filed April 26, 2005, entitled "HANDMARKABLE ELECTRONIC DEVICE WITH MULTIPLE TOUCH SCREENS";
  • U.S. Patent Application No. 11 / 241,839, filed July 30, 2004, entitled "Sewing Detector in Hand-held Device";
  • Preliminary US Patent Application No. 60 / 658,777, filed March 4, 2005, entitled "MULTIFUNCTIONAL HAND-HELD DEVICE";
  • U.S. Patent Application No. 10 / 903,964, filed July 30, 2004, entitled "GESTURES FOR TOUCH SENSITIVE INPUT DEVICES";
  • US Patent Application No. 11 / 038,590, filed January 18, 2005, entitled "MODE-BASED GRAPHIC USER INTERFACES FOR TOUCH-SENSITIVE INPUT DEVICES";
  • U.S. Patent Application No. 117048,264, filed January 31, 2005, entitled "GESTURES FOR TOUCH SENSITIVE INPUT DEVICES";
  • US Patent Application No. 11 / 228,737, filed September 16, 2005, entitled "ACTIVATING VIRTUAL TOPS OF A VIRTUAL TOUCH SCREEN KEYBOARD";
  • US Patent Application No. 11 / 228,758, filed September 16, 2005, entitled "VIRTUAL INPUT DEVICE ARRANGEMENT ON A TOUCH SCREEN USER INTERFACE";
  • US Patent Application No. 11 / 228,700, filed September 16, 2005, entitled "OPERATING A COMPUTER WITH A TOUCH SCREEN INTERFACE";
  • U.S. Patent Application No. 10 / 927,925, filed August 26, 2004, entitled "VIRTUAL EXTENDER";
  • US Patent Application No. 10 / 927,575, filed on August 25, 2004, entitled "WIDE TOUCH FIELD ON A PORTABLE COMPUTER";
  • US Patent Application No. 11 / 619,553, filed January 3, 2007, entitled "DICTIONARY FOR MULTIPLE TOUGHEST GESTURES" and US Ser
  • US Patent Application No. 11 / 619,571, filed January 3, 2007, entitled "DICTIONARY FOR MULTILAYER GESTURES".

HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION

1. GEBIET DER ERFINDUNG1. FIELD OF THE INVENTION

Die vorliegende Erfindung bezieht sich allgemein auf Gestikulieren, das sich auf Mehrpunktabtastvorrichtungen bezieht.The The present invention relates generally to gesturing, which refers to multipoint scanning devices.

2. BESCHREIBUNG DER VERWANDTEN TECHNIK2. DESCRIPTION OF THE RELATED TECHNIQUE

Es gibt heute mehrere Arten von Eingabevorrichtungen zum Durchführen von Operationen in einem Computersystem. Die Operationen entsprechen im Allgemeinen dem Bewegen eines Cursors und dem Anwählen auf einem Anzeigebildschirm. Die Operationen können auch Blättern, Scrollen, Schwenken, Zoomen usw. umfassen. Zum Beispiel können die Eingabevorrichtungen Knöpfe, Schalter, Tastaturen, Mäuse, Rollkugeln, Berührungsfelder, Joysticks, Berührungsbildschirme und ähnliches umfassen. Jede dieser Vorrichtungen hat Vorteile und Nachteile, die berücksichtigt werden müssen, wenn das Computersystem entworfen wird.It Today there are several types of input devices to perform of operations in a computer system. The operations correspond to Generally moving a cursor and dialing on a display screen. The operations can also Scroll, scroll, pan, zoom, and so on. To the For example, the input devices may be buttons, Switches, keyboards, mice, rolling balls, touch pads, joysticks, Touch screens and the like include. Each of these devices has advantages and disadvantages that are considered need to be when designing the computer system.

Mit Berührungsfeldern entspricht die Bewegung des Eingabezeigers den relativen Bewegungen des Fingers (oder Stifts) des Benutzers, wenn der Finger entlang einer Oberfläche des Berührungsfeldes bewegt wird. Berührungsbildschirme andererseits sind eine Art von Anzeigebildschirm, der ein berührungsempfindliches durchsichtiges Feld hat, das den Bildschirm bedeckt. Wenn er einen Berührungsbildschirm verwendet, macht ein Benutzer eine Auswahl auf dem Anzeigebildschirm durch direktes Zeigen auf GUI Objekte auf dem Bildschirm (normalerweise mit einem Stift oder Finger). Im Allgemeinen erkennt die Berührungsvorrichtung die Berührung und die Position der Berührung, und das Computersystem interpretiert die Berührung und führt danach eine Aktion auf der Grundlage des Berührungsereignisses durch.With touch pads, the movement of the input pointer corresponds to the relative movements of the user's finger (or stylus) as the finger is moved along a surface of the touchpad. On the other hand, touch screens are a type of display screen that has a touch-sensitive translucent panel that covers the screen. If he has a touch A user makes a selection on the display screen by directly pointing to GUI objects on the screen (usually with a pen or finger). In general, the touch device recognizes the touch and position of the touch, and the computer system interprets the touch and then performs an action based on the touch event.

Um zusätzliche Funktionalität zur Verfügung zu stellen, wurden Gesten mit einigen dieser Eingabevorrichtungen implementiert. Zum Beispiel können in Berührungsfeldern Anwahlen gemacht werden, wenn ein oder mehrfaches Tippen auf der Oberfläche des Berührungsfeldes detektiert wird. In manchen Fällen kann auf jedem Abschnitt des Berührungsfeldes getippt werden, und in anderen Fällen kann auf einen bestimmten Abschnitt des Berührungsfeldes getippt werden. Über Anwahlen hinaus kann Scrollen durch Verwendung einer Fingerbewegung am Rand des Berührungsfeldes veranlasst werden.Around additional functionality available too gestures have been implemented with some of these input devices. For example, in touchpad selections be made when one or more taps on the surface of the Touchpad is detected. In some cases can be typed on any section of the touchpad, and in other cases may be on a particular section be touched the touchpad. About selections In addition, scrolling can be accomplished by using a finger gesture on the edge of the finger Touch field be prompted.

Leider ist Gestikulieren stark durch die Tatsache beschränkt, dass die meisten Berührungstechnologien nur in der Lage sind, einen einzigen Punkt zu berichten, selbst wenn mehrere Objekte auf der Abtastoberfläche platziert sind. Das heißt sie entbehren der Fähigkeit, mehrere Kontaktpunkte gleichzeitig nach zu verfolgen. In Widerstands- und Kapazitätstechnologien wird ein Durchschnitt aller gleichzeitig auftretenden Berührungspunkte bestimmt und ein einziger Punkt, der irgendwo zwischen die Berührungspunkte fällt, wird berichtet. In Oberflächenwellen- und Infrarottechnologien ist es wegen Maskierung unmöglich, die exakte Position von mehreren Berührungspunkten zu unterscheiden, die auf dieselbe horizontale oder vertikale Linie fallen. In beiden Fällen werden fehlerhafte Ergebnisse erzeugt.Unfortunately gesturing is severely limited by the fact that most touch technologies only able are to report a single point, even if multiple objects placed on the scanning surface. This means they lack the ability to make multiple contact points simultaneously to track. In resistance and capacitance technologies becomes an average of all concurrent points of contact determined and a single point somewhere between the points of contact falls, is reported. In surface wave and Infrared technology is impossible because of masking to distinguish the exact position from multiple points of contact, which fall on the same horizontal or vertical line. In both cases erroneous results are generated.

Auf der Grundlage des oben gesagten gibt es einen Bedarf für Mehrpunkt-Abtastvorrichtungen und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen.On Based on the above, there is a need for Multi-point scanning devices and methods for implementing Gestures with multipoint scanners.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Die Erfindung bezieht sich in einer Ausführungsform auf ein elektronisches System. Das elektronische System umfasst eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunkt-Abtastgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt. Das elektronische System umfasst auch ein Gestenmodul, das konfiguriert ist, um einen Satz an Gesten für eine gegebene Eingabeanordnung zu bestimmen, die durch das Mehrpunkt-Abtastgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, um die gegebene Eingabeanordnung für ein oder mehrere Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen auszulösen, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung ausgeführt wird. Die Eingabeanordnung kann z. B. eine Anordnung von Fingern und/oder anderen Teilen der Hand sein.The Invention relates in one embodiment to a electronic system. The electronic system comprises a multipoint scanning device, which is a multipoint scan area for receiving inputs from one or multiple objects. The electronic System also includes a gesture module that is configured to be one Set of gestures to determine for a given input device which are received by the multipoint scanning area of the multi-point scanning apparatus becomes the given input arrangement for one or more Monitor gesture events included in the gesture set are and trigger input actions with a gesture event are associated when the gesture event with the input device is performed. The input device can, for. B. an arrangement from fingers and / or other parts of the hand.

Die Erfindung bezieht sich in einer anderen Ausführungsform auf ein Gestensteuerungsverfahren. Das Verfahren umfasst Detektieren mehrerer Punkte innerhalb eines Abtastgebiets zur gleichen Zeit. Das Verfahren umfasst auch Bestimmen eines Akkords, wenn einer oder mehrere Punkte innerhalb des Abtastgebiets detektiert werden. Der Akkord ist eine spezielle Anordnung von Punkten innerhalb des Abtastgebiets. Das Verfahren umfasst weiterhin Bestimmen eines Gestensatzes, der Befehle mit einem oder mehreren Gestenereignissen verbindet. Das Verfahren umfasst weiterhin Überwachen von Punkten für Gestenereignisse. Weiterhin umfasst das Verfahren Ausführen eines Befehls, der mit dem Gestenereignis in Verbindung steht, wenn ein Gestenereignis erkannt wird.The Invention relates in another embodiment on a gesture control process. The method includes detecting multiple points within a scan area at the same time. The method also includes determining a chord if one or several points within the scanning area are detected. Of the Chord is a special arrangement of points within the scanning area. The method further comprises determining a gesture set that Combine commands with one or more gesture events. The procedure further includes monitoring points for gesture events. Furthermore, the method comprises executing a command, which communicates with the gesture event when a gesture event is recognized.

Die Erfindung bezieht sich in einer anderen Ausführungsform auf eine Steueroperation. Die Steueroperation umfasst Detektieren einer Berührung oder Beinahe-Berührung. Die Operation umfasst auch Bestimmen eines Gestensatzes für die Berührung. Der Gestensatz umfasst ein oder mehrere Gestenereignisse zum Auslösen oder Einleiten eines Befehls. Die Operation umfasst weiterhin Überwachen der Berührung für ein Gestenereignis. Die Operation umfasst zusätzlich Einleiten eines Befehls, wenn ein Gestenereignis, das mit dem Gestensatz assoziiert ist, ausgeführt wird.The Invention relates in another embodiment to a control operation. The control operation includes detecting a touch or near-touch. The operation also includes determining a gesture set for the touch. The gesture set includes one or more gesture events for triggering or initiating a command. The operation also includes monitoring the Touch for a gesture event. The operation includes additionally initiating a command when a gesture event, that is associated with the gesture set is executed.

Die Erfindung bezieht sich in einer anderen Ausführungsform auf eine Gestenoperation. Die Operation umfasst Überwachen einer Berührungsbewegung. Die Operation umfasst auch Unterscheiden der Berührungsbewegung zwischen einem ersten und zweiten Zustand. Die Operation umfasst weiterhin Durchführen einer ersten Aktion, wenn die Berührungsbewegung mit dem ersten Zustand assoziiert wird. Die Operation umfasst zusätzlich Durchführen einer zweiten Aktion, wenn die Bewegung mit dem zweiten Zustand assoziiert wird.The Invention relates in another embodiment on a gesture operation. The operation includes monitoring a touch movement. The operation also includes distinguishing the Contact movement between a first and second state. The operation further includes performing a first Action when the touch movement with the first state is associated. The operation also includes performing a second action when the movement associated with the second state becomes.

Die Erfindung bezieht sich in einer weiteren Ausführungsform auf eine Steueroperation. Die Steueroperation umfasst zur Verfügung Stellen einer ersten Eingabevorrichtung und einer zweiten Eingabevorrichtung, die von der ersten Eingabe vorrichtung verschieden ist. Die erste Eingabevorrichtung umfasst eine Objektabtastungsvorrichtung wie etwa eine Berührungsabtastungsvorrichtung zum Liefern von Eingabeereignissen. Die Operation umfasst auch Überwachen der ersten Eingabevorrichtung nach Eingabeereignissen. Die Operation umfasst weiterhin simultanes Überwachen der zweiten Eingabevorrichtung für Eingabeereignisse. Die Operation umfasst darüber hinaus Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der ersten Eingabevorrichtung assoziiert sind. Weiterhin umfasst das Verfahren gleichzeitiges Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der zweiten Eingabevorrichtung assoziiert sind.The invention relates in a further embodiment to a control operation. The control operation includes providing a first input device and a second input device different from the first input device. The first input device comprises an object-scanning device, such as a touch-scanning device, for providing input events. The operation also includes monitoring the first input device for input events. The operation further includes simultaneous monitoring of the second input device for input events. The operation further includes performing input operations in accordance with input events associated with the first input device. Furthermore, the method comprises concurrently performing input operations in accordance with input events associated with the second input device.

Die Erfindung bezieht sich in einer weiteren Ausführungsform auf eine Steueroperation. Die Steueroperation liefert eine Liste von Eingabefunktionen. Die Eingabefunktionen haben Befehle und Gestenereignisse, die mit den Befehlen verbunden sind. Die Befehle stehen mit der Eingabefunktion in Verbindung. Die Operation umfasst auch Zuordnen von Eingabefunktionen zu Akkorden. Die Operation umfasst darüber hinaus das Verbinden einer Eingabefunktion mit einem Akkord, wenn der Akkord erkannt wird.The Invention relates in a further embodiment to a control operation. The control operation provides a list of input functions. The input functions have commands and gesture events, which are connected to the commands. The commands are available with the Input function in connection. The operation also includes mapping from input functions to chords. The operation includes about it adding an input function to a chord when the chord is recognized.

Die Erfindung bezieht sich in einer weiteren Ausführungsform auf ein Steuerfeld. Das Steuerfeld umfasst Anzeigen eines Menüs von Eingabefunktionen. Das Steuerfeld umfasst auch Anzeigen eines Gestensatzes, der Befehle zeigt, die mit einer ausgewählten Eingabefunktion assoziiert sind, und Gestenereignisse, die den Befehlen zugeordnet sind. Die Steueroperation umfasst weiterhin Anzeigen einer Liste von Akkorden. Um eine Gestenabbildung einzurichten, wählt ein Benutzer eine gewünschte Eingabefunktion aus einer Liste von Eingabefunktionen und wählt einen gewünschten Akkord aus der Liste von Akkorden.The Invention relates in a further embodiment on a control panel. The control panel includes displaying a menu of input functions. The control panel also includes displays of a gesture set, shows the commands with a selected input function and gesture events associated with the commands are. The control operation further includes displaying a list of chords. To set up a gesture image, select a user a desired input function from a List of input functions and selects a desired one Chord from the list of chords.

Die Erfindung bezieht sich in einer weiteren Ausführungsform auf ein Gestenentwurfsverfahren. Das Entwurfsverfahren umfasst zur Verfügung Stellen einer Liste von Akkorden und Anordnen der Akkorde vom Einfachsten bis zum Schwierigs ten. Das Entwurfsverfahren umfasst auch Anordnen der Frequenz von Operationen von am häufigsten bis am wenigsten häufig. Das Entwurfsverfahren umfasst weiterhin Zuordnen der einfachsten Akkorde mit den häufigsten Operationen und Zuordnen der schwierigsten Akkorde mit den seltensten Operationen. Das Entwurfsverfahren kann zusätzlich Feineinstellung von Akkord-/Operationsgruppierung umfassen.The Invention relates in a further embodiment on a gesture design process. The design process includes the Providing a list of chords and arranging the chords from the simplest to the most difficult. The design process also includes arranging the frequency of operations of most frequently least often. The design process continues to include Mapping the simplest chords with the most common operations and assigning the most difficult chords with the rarest operations. The design process may additionally fine tune Chord / operation grouping include.

Die Erfindung bezieht sich in einer weiteren Ausführungsform auf eine Gestenoperation. Die Gestenoperation umfasst das Detektieren eines ersten Fingers. Die Gestenoperation umfasst auch Bestimmen des Zustands des Fingers. Der Zustand des Fingers kann z. B. bewegend oder fest stehend sein. Die Gestenoperation umfasst weiterhin Detektieren eines oder mehrerer zusätzlicher Finger. Zum Beispiel kann ein zweiter Finger detektiert werden. Die Gestenoperation umfasst darüber hinaus Bestimmen des Zustands der zusätzlichen Finger. Der Zustand der zusätzlichen Finger kann z. B. sein, dass sie anwesend sind, oder nicht. Weiterhin umfasst das Verfahren Implementieren verschiedener Eingabemodi, die auf der zeitlichen Zuordnung von Zuständen des ersten und der zusätzlichen Finger relativ zueinander basieren. Die verschiedenen Modi können z. B. Zeigemodi, Ziehmodi und ähnliche sein.The Invention relates in a further embodiment on a gesture operation. The gesture operation involves detecting a first finger. The gesture operation also includes determining the condition of the finger. The state of the finger can z. B. moving or be stuck. The gesture operation further includes detecting a or several additional fingers. For example, a second finger are detected. The gesture operation includes about it In addition, determining the state of the additional fingers. The state of the additional finger can z. B. be that they are present or not. Furthermore, the method comprises implementing different input modes based on the temporal assignment of States of the first and the additional fingers based on each other. The different modes can z. As pointing modes, drawing modes and the like.

KURZE BESCHREIBUNG DER ZEICHNUNGENBRIEF DESCRIPTION OF THE DRAWINGS

Die Erfindung wird leicht durch die folgende detaillierte Beschreibung in Verbindung mit den angehängten Zeichnungen verstanden werden, wobei gleiche Beziehungszeichen gleiche strukturelle Elemente bezeichnen, und in denen:The The invention will become readily apparent from the following detailed description in conjunction with the appended drawings where the same relational signs are the same structural elements denote and in which:

1 eine Gestensteueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 1 a gesture control operation in accordance with an embodiment of the present invention;

2 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 2 a control operation in accordance with an embodiment of the present invention;

3 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 3 a control operation in accordance with an embodiment of the present invention;

4 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 4 a control operation in accordance with an embodiment of the present invention;

5 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 5 a control operation in accordance with an embodiment of the present invention;

6 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 6 a control operation in accordance with an embodiment of the present invention;

7 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 7 a gesture operation in accordance with an embodiment of the present invention;

8 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 8th a gesture operation in accordance with an embodiment of the present invention;

9 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 9 a gesture operation in accordance with an embodiment of the present invention;

10 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 10 a gesture operation in accordance with an embodiment of the present invention;

11 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 11 a gesture operation in accordance with an embodiment of the present invention;

12 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 12 a gesture operation in agreement mood with an embodiment of the present invention;

13 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 13 a gesture operation in accordance with an embodiment of the present invention;

14 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 14 a gesture operation in accordance with an embodiment of the present invention;

15 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 15 a gesture operation in accordance with an embodiment of the present invention;

16 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 16 a gesture operation in accordance with an embodiment of the present invention;

17 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 17 a gesture operation in accordance with an embodiment of the present invention;

18 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 18 a gesture operation in accordance with an embodiment of the present invention;

19 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 19 a gesture operation in accordance with an embodiment of the present invention;

20 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 20 a control operation in accordance with an embodiment of the present invention;

21 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 21 a control operation in accordance with an embodiment of the present invention;

22 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 22 a control operation in accordance with an embodiment of the present invention;

23 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 23 a control operation in accordance with an embodiment of the present invention;

24 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 24 a control operation in accordance with an embodiment of the present invention;

25 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 25 a control operation in accordance with an embodiment of the present invention;

26 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 26 a control operation in accordance with an embodiment of the present invention;

27 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 27 a control operation in accordance with an embodiment of the present invention;

28 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 28 a control operation in accordance with an embodiment of the present invention;

29A bis G Diagramme eines Steuerfeldes in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung sind; 29A to G are diagrams of a control panel in accordance with an embodiment of the present invention;

30 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 30 a control operation in accordance with an embodiment of the present invention;

31 ein Verfahren zum Gestenzuordnen in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 31 a gesture assigning method in accordance with an embodiment of the present invention;

32 ein Gestenzuordnungsverfahren in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 32 a gesture assignment method in accordance with an embodiment of the present invention;

33 ein Verfahren zur Gestenrückführung in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 33 is a method of gesture feedback in accordance with an embodiment of the present invention;

34 ein Diagramm eines Gestenbetrachtungsfensters in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 34 Fig. 10 is a diagram of a gesture viewing window in accordance with an embodiment of the present invention;

35 ein Tastaturverfahren, das über einen Berührungsbildschirm implementiert wird, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 35 a keyboard method implemented via a touch screen in accordance with an embodiment of the present invention;

36 ein Gestenentwurfsverfahren in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 36 a gesture design method in accordance with an embodiment of the present invention;

37 eine Matrix zum Bewerten von Akkorden in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 37 is a matrix for evaluating chords in accordance with an embodiment of the present invention;

38 eine Matrix zum Einordnen der Operationshäufigkeit für ein paar Operationen in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 38 a matrix for ranking the frequency of operations for a few operations in accordance with an embodiment of the present invention;

39 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 39 a control operation in accordance with an embodiment of the present invention;

40 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 40 a control operation in accordance with an embodiment of the present invention;

41 eine Steueroperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 41 a control operation in accordance with an embodiment of the present invention;

42 ein Diagramm einer Gestentafel in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 42 Fig. 12 is a diagram of a gesture board in accordance with an embodiment of the present invention;

43 ein Diagramm einer Gestentafel in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 43 Fig. 12 is a diagram of a gesture board in accordance with an embodiment of the present invention;

44 ein Diagramm einer Gestentafel in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 44 Fig. 12 is a diagram of a gesture board in accordance with an embodiment of the present invention;

45 ein Diagramm eines Gestensatzes in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 45 Figure 12 is a diagram of a gesture set in accordance with an embodiment of the present invention;

46 ein Diagramm eines Gestensatzes in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 46 Figure 12 is a diagram of a gesture set in accordance with an embodiment of the present invention;

47 ein Diagramm eines Gestensatzes in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 47 Figure 12 is a diagram of a gesture set in accordance with an embodiment of the present invention;

48 ein Diagramm eines Gestensatzes in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 48 Figure 12 is a diagram of a gesture set in accordance with an embodiment of the present invention;

49 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 49 a gesture operation in accordance with an embodiment of the present invention;

50 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 50 a gesture operation in accordance with an embodiment of the present invention;

51 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 51 a gesture operation in accordance with an embodiment of the present invention;

52 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 52 a gesture operation in accordance with an embodiment of the present invention;

53 eine Gestenoperation in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 53 a gesture operation in accordance with an embodiment of the present invention;

54 ein Blockdiagramm eines elektronischen Systems in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung ist; 54 Fig. 10 is a block diagram of an electronic system in accordance with an embodiment of the present invention;

DETAILLIERTE BESCHREIBUNG DER ERFINDUNGDETAILED DESCRIPTION THE INVENTION

Gesten und Verfahren des Implementierens von Gesten mit Abtastvorrichtungen werden offenbart. Genauer werden Gesten und Verfahren zum Implementieren von Gesten mit Mehrpunkt-Abtastvorrichtungen offenbart. Mehrpunkt-Abtastvorrichtungen haben eine Reihe von Vorteilen gegenüber herkömmlichen Einzelpunktvorrichtungen, dadurch, dass sie mehr als ein Objekt (Finger) gleichzeitig oder fast gleichzeitig unterscheiden können. In den meisten Fällen überwachen Mehrpunkt-Abtastvorrichtungen und Systeme, die solche Vorrichtungen verwenden, eine Oberfläche bezüglich eines Berührungs- oder Beinahe-Berührungsereignisses. Wenn solch ein Ereignis auftritt, kann sie das/die unterschiedliche(n) Kontaktgebiet(e) bestimmen und die Art der Ereignisse über ihre geometrischen Merkmale und ihre geometrische Anordnung identifizieren. Sobald sie identifiziert sind, werden Berührungs- oder Beinahe-Berührungsereignisse überwacht, um zu bestimmen, ob sie mehreren Gestenereignissen entsprechen.gestures and method of implementing gestures with scanners are revealed. Specifically, gestures and methods for implementing gestures with multipoint scanners. Have multi-point scanners a number of advantages over conventional ones Single-point devices, in that they are more than one object (Finger) at the same time or almost simultaneously. In most cases, multi-point scanners monitor and systems using such devices have a surface with respect to a touch or near-touch event. When such an event occurs, it may have the different Contact area (s) determine and the type of events over identify their geometric features and their geometric arrangement. As soon as you are identified, touch or near-touch events are monitored, to determine if they correspond to multiple gesture events.

Ein Gestenereignis kann als eine stilisierte Interaktion mit der Abtastoberfläche definiert werden, die einer oder mehreren speziellen Berechnungsoperationen zugeordnet wird. Gestenereignisse können durch verschiedene Hand-, insbesondere Fingerbewegungen, Tippen, Drücke, Verweilzeiten und/oder ähnliches gemacht werden. Da die Oberfläche auf Mehrpunkttechnologie basiert, kann komplexes Gestikulieren mit jeder beliebigen Anzahl an Fingern oder anderen Kontaktabschnitten der Hand durchgeführt werden. In der Tat kann daher eine große Gestensprache entwickelt werden, die analog zur Zeichensprache ist. Gestensprache (oder Abbildung) kann z. B. einen Befehlssatz umfassen, der eine Kontaktanordnung (z. B. Akkorde) erkennt, das Auftreten von Gestenereignissen (z. B. Bewegungen) erkennt und einen oder mehrere Softwareagenten über die Gestenereignisse informiert und/oder darüber, welche Aktion(en) als Antwort auf die Gestenereignisse durchzuführen ist/sind. Beispiele für Mehrpunktgestikulieren kann z. B. in den U. S. Patentanmeldungen Nr. 10/903,964, 11/038,590 und 11/015,434 gefunden werden, die alle hierin per Verweis mit eingebunden werden.One Gesture event may be considered a stylized interaction with the sensing surface be defined, the one or more special calculation operations is assigned. Gesture events can be different Hand, especially finger movements, typing, pressures, dwell times and / or the like. Because the surface based on multipoint technology, can be complex gesturing with any number of fingers or other contact sections to be done by hand. In fact, therefore, one can great gesture language to be developed, which is analogous to sign language is. Gestural language (or figure) can z. B. a command set comprising a contact arrangement (e.g., chords) that detects Recognition of gesture events (eg movements) and recognizes one or multiple software agents via the gesture events informed and / or about which action (s) in response to perform on the gesture events is / are. Examples for multipoint gesturing, for example, In U.S. Patent Application Nos. 10 / 903,964, 11 / 038,590 and 11 / 015,434 are found, all be incorporated herein by reference.

Ein weites Feld von verschiedenen Gesten kann mit Mehrpunkt-Abtastvorrichtungen verwendet werden. Zum Beispiel kann eine Geste eine Einzelpunkt- oder eine Mehrpunktgeste sein; eine statische oder dynamische Geste, eine kontinuierliche oder segmentierte Geste; und/oder ähnliches. Einzelpunktgesten sind diejenigen Gesten, die mit einem einzigen Kontaktpunkt ausgeführt werden, z. B. wird die Geste mit einer einzigen Berührung wie beispielsweise von einem einzigen Finger, einer Handfläche oder einem Stift durchgeführt. Mehrpunktgesten sind diejenigen Gesten, die mit mehreren Punkten durchgeführt werden können, z. B. wird die Geste mit mehreren Berührungen, wie beispielsweise von mehreren Fingern, Fingern und Handflächen, einem Finger und einem Stift, mehreren Stiften und/oder irgendeiner Kombination davon durchgeführt werden. Statische Gesten können diejenigen Gesten sein, die im Wesentlichen keine Ges tenereignisse (z. B. Akkorde) umfassen, und dynamische Gesten können diejenigen Gesten sein, die signifikante Gestenereignisse (z. B. Bewegungen, Tippen usw.) umfassen.A wide array of different gestures can be used with multipoint scanners. For example, a gesture may be a single-point or a multi-point gesture; a static or dynamic gesture, a continuous or segmented gesture; and / or the like. Single-point gestures are those gestures that are performed with a single point of contact, e.g. For example, the gesture is performed with a single touch such as from a single finger, palm or stylus. Multipoint gestures are those gestures that can be performed with multiple points, e.g. For example, the gesture will be performed with multiple touches, such as multiple fingers, fingers and palms, a finger and a stylus, multiple styluses, and / or any combination thereof. Static gestures can be those gestures that occur in the Essentially, there are no Geste events (eg, chords), and dynamic gestures can be those gestures that involve significant gesture events (eg, movements, typing, etc.).

Kontinuierliche Gesten können diejenigen Gesten sein, die in einem einzigen Zug durchgeführt werden, und segmentierte Gesten können diejenigen Gesten sein, die in einer Abfolge von unterschiedlichen Schritten oder Zügen durchgeführt werden. Obwohl hier mehrere Beispiele gegeben werden, sollte erkannt werden, dass dies beispielhaft und nicht zur Beschränkung ist.continuous Gestures can be those gestures that are in a single gesture Train can be performed, and segmented gestures can those gestures that are in a sequence of different Steps or trains are performed. Even though Here are several examples to be given, it should be recognized that this is exemplary and not restrictive.

Mehrpunkt-Abtastvorrichtungen können auf verschiedene Weisen implementiert werden, einschließlich – aber nicht beschränkt auf – Standardgrößen-Berührfelder, große erweiterte Handflächenfelder, Berührungsbildschirme, berührungsempfindliche Gehäuse, usw. Weiterhin können Mehrpunkt-Abtastvorrichtungen auf vielen Formfaktoren angebracht werden, einschließlich – aber nicht beschränkt auf – Tabletcomputer, Laptopcomputer, Desktopcomputer sowie handhaltbare Computervorrichtungen wie etwa Mediensabspieler, PDA's, Mobiltelefone und ähnliches. Die Mehrpunktabtastvorrichtungen können auch auf dedizierten Eingabegeräten wie etwa Berührungsbildschirmmonitoren, Tastaturen, Navigationsfeldern, Tablets, Mäusen und ähnlichen gefunden werden. Beispiele für Mehrpunkt-Abtastvorrichtungen können in den U. S. Patentanmeldungen Nr. 10/840,862, 10/927,575 gefunden werden, die hier alle per Verweis mit eingebunden werden.Multipoint sensing can be implemented in several ways, including - but not limited to - standard size touch fields, large expanded palm panels, touch screens, touch-sensitive housing, etc. Continue can multi-point scanners on many form factors be attached, including - but not limited to - tablet computers, laptop computers, Desktop computers and handheld computer devices such as Media players, PDAs, mobile phones and the like. The Multipoint scanning devices can also be dedicated Input devices such as touchscreen monitors, Keyboards, navigation panels, tablets, mice and the like found become. Examples of multipoint scanning devices may be in U.S. Patent Application Nos. 10 / 840,862, 10 / 927,575 will be included here by reference.

Mehrere Ausführungsformen werden jetzt unten unter Bezugnahme auf die 1 bis 54 diskutiert werden. Die Fachleute werden jedoch leicht erkennen, dass die hierin gegebene detaillierte Beschreibung in Bezug auf diese Figuren zu Erklärungszwecken dient, da sich die Erfindung über diese beschränkten Ausführungsformen hinaus erstreckt.Several embodiments will now be described below with reference to FIGS 1 to 54 to be discussed. However, those skilled in the art will readily appreciate that the detailed description given herein with respect to these figures is for explanatory purposes, as the invention extends beyond these limited embodiments.

1 zeigt die illustrative Gestensteueroperation 10, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 10 kann bei Block 12 beginnen, wo eine Mehrpunkt-Abtastvorrichtung zur Verfügung gestellt wird. Die Mehrpunkt-Abtastvorrichtung ist in der Lage, mehrere Kontakt- oder Beinahe-Kontaktpunkte gleichzeitig zu detektieren. Die Mehrpunktabtastvorrichtung kann z. B. eine Mehrpunkt-Abtastoberfläche umfassen, die in der Lage ist, simultan mehrere Objekte auf der Berührungsoberfläche abzutasten. Alternativ oder zusätzlich kann die Mehrpunkt-Abtastvorrichtung Fähigkeiten des Abtastens von Objekten umfassen, die in großer Nähe zu einer Oberfläche sind, aber die Oberfläche nicht berühren (z. B. Nähe-Abtastung). Die Mehrpunkt-Abtastvorrichtung kann als ein Berührungsbildschirm, Berührungsfeld, eine berührungsempfindliche Handflächenablage, ein berührungsempfindliches Gehäuse und/ähnliches implementiert werden. 1 shows the illustrative gesture control operation 10 in accordance with an embodiment of the present invention. The operation 10 can at block 12 begin where a multipoint scanner is provided. The multipoint scanner is capable of detecting multiple contact or near contact points simultaneously. The multi-point scanning device may, for. B. comprise a multipoint sensing surface capable of simultaneously scanning multiple objects on the touch surface. Alternatively or additionally, the multi-point scanning device may include capabilities of scanning objects that are in close proximity to a surface but that do not touch the surface (eg, proximity scan). The multi-point scanning device may be implemented as a touch screen, touch pad, touch-sensitive palm rest, touch-sensitive housing, and the like.

Dem Block 12 folgend kann die Operation nach Block 14 übergehen, wo eine Bestimmung gemacht wird, ob eine Berührung oder Beinahe-Berührung durch die Mehrpunkt-Abtastvorrichtung detektiert wird. Wenn keine Berührung detektiert wird, kann die Operation warten. Wenn eine Berührung detektiert wird, kann die Operation zu Block 16 weitergehen, wo ein Akkord bestimmt wird, der mit der Berührung assoziiert ist. Ein Akkord kann z. B. eine bestimmte Anordnung von Kontakten oder Beinahe-Kontakten sein, die irgendeiner Eingabefunktionalität zugeordnet ist. Im Allgemeinen werden, wenn Objekte nahe oder auf einer berührungsempfindlichen Oberfläche platziert werden, Kontaktstellen erzeugt, und diese Kontaktstellen bilden ein Muster, das identifiziert werden kann. Das Muster kann mit irgendeiner Auswahl von Objekten gemacht werden, einschließlich z. B. mechanischen Merkmalen wie etwa Stiften oder Stempeln und/oder Abschnitten einer oder mehrerer Hände, wie etwa Finger, Daumen, Handfläche, Knöchel usw.The block 12 Following the operation after block 14 where a determination is made as to whether a touch or near-touch is detected by the multi-point sensing device. If no touch is detected, the operation may wait. If a touch is detected, the operation may block 16 continue where a chord associated with the touch is determined. A chord can be z. A particular arrangement of contacts or near-contacts associated with any input functionality. In general, when objects are placed near or on a touch-sensitive surface, pads are created, and these pads form a pattern that can be identified. The pattern can be made with any selection of objects, including e.g. Mechanical features such as pins or punches and / or portions of one or more hands such as fingers, thumb, palm, ankles, etc.

Der Akkord kann stark variieren und kann von vielen Faktoren abhängen, einschließlich der Größe der Berührungsoberfläche, ob die Berührungsoberfläche ein Berührungsbildschirm oder ein Berührungsfeld ist, usw. Weiterhin können die Akkorde auf einer Anzahl an unbekannten Kontakten oder einer speziellen Anordnung von bekannten Kontakten basieren. Die Akkorde können weiterhin dar auf basieren, ob die Kontakte nahe beieinander, in einer neutralen Position oder weit verstreut sind. Die Akkorde können weiterhin darauf basieren, ob die Kontakte aneinanderliegend oder voneinander versetzt sind. Die Kontakte können weiterhin darauf basieren, ob sie von einer linken und/oder rechten Hand sind.Of the Chord can vary widely and may depend on many factors including the size of the touch surface, whether the touch surface is a touch screen or a touchpad, etc. Furthermore the chords on a number of unknown contacts or one based special arrangement of known contacts. The chords can continue to be based on whether the contacts are close together, in a neutral position or widely scattered. The chords can still be based on whether the contacts adjacent or offset from each other. The contacts can continue to be based on whether they are from a left and / or right Hand are.

Bestimmen des Akkords kann Analysieren der Berührung (des Bildes, das durch Objekte erzeugt wird, die die Berührungsoberfläche berühren oder beinahe berühren) und Erkennen einer bestimmten Anordnung von Kontakten umfassen. Genauer kann die Bestimmung Klassifizieren oder Identifizieren der Kontakte über geometrische Merkmale eines jeden Kontakts sowie der geometrischen Anordnung von Kontakten umfassen, und dann Bezug nehmen auf eine Datenbank erwarteter Akkorde (z. B. Gestenabbildung). Wenn die Kontaktanordnung mit einem erwarteten Akkord übereinstimmt, dann kann angenommen werden, dass die Kontaktanordnung der erwartete Akkord ist. Diese Schritte können auch Filtern umfassen. Zum Beispiel können manche Kontakte in Wirklichkeit nicht Teil eines Akkords sein. Zum Beispiel können im Fall eines Handflächenberührungsfeldes Kontakte, die durch die Handfläche gebildet werden, ignoriert werden, da sie als Auflagefläche für die Finger der Hand dienen (z. B. sehr unbequem, Handflächen über der Berührungsoberfläche, während langen Zeitabschnitten zu halten).Determining the chord may include analyzing the touch (the image created by objects that touch or nearly touch the touch surface) and detecting a particular arrangement of contacts. Specifically, the determination may include classifying or identifying the contacts about geometric features of each contact, as well as the geometric arrangement of contacts, and then referencing a database of expected chords (eg, gesture mapping). If the contact arrangement matches an expected chord, then it can be assumed that the contact arrangement is the expected chord. These steps may also include filtering. For example, some contacts may not actually be part of a chord. For example, in the case of a palm touch panel, contacts formed by the palm can be ignored as they serve as a bearing surface for the fingers of the hand (e.g. convenient to hold palms over the touch surface for long periods of time).

Im Fall eines Tablett PCs mit einem Berührungsbildschirm können Kontakte, die vom Daumen mindestens einer Hand gebildet werden, ignoriert werden, da sie in erster Linie dazu verwendet werden, den Tablett PC zu halten.in the Case of a tablet PC with a touch screen can Contacts formed by the thumb of at least one hand, be ignored because they are used primarily to to hold the tablet PC.

Beispiele von Einhandakkorden werden unten in Tabelle 1 gezeigt. Es sollte erkannt werden, dass die Tabelle 1 keine erschöpfende Liste ist und dass sie als Beispiel und nicht als Beschränkung gezeigt wird. Zum Beispiel kann die Handfläche als ein Kontakt gezählt werden und irgendeiner der in Tabelle 1 gezeigten Kombinationen hinzugefügt werden, um mehr Akkorde zu erzeugen. Es sollte weiterhin bemerkt werden, dass viele Akkordkombinationen mehr gebildet werden können, indem die Liste von Tabelle 1 mit derselben Liste von der gegenüberliegen den Hand kombiniert wird. Es sollte auch bemerkt werden, dass, obwohl es viele Kombinationen gibt, manche Akkorde nicht machbar sein können, aus unterschiedlichen Gründen, einschließlich Benutzerfreundlichkeit, Ergonomie, Intuitivität usw.Examples One-handed chords are shown in Table 1 below. It should be recognized that Table 1 is not an exhaustive list is and that they are as an example and not as a limitation will be shown. For example, the palm can act as a contact and any of those shown in Table 1 Combinations are added to create more chords. It should also be noted that many chord combinations are more can be formed by the list of Table 1 with the same list from the opposite hand combined becomes. It should also be noted that although there are many combinations There are some chords that can not be made from different ones Reasons, including ease of use, Ergonomics, intuitiveness, etc.

Sobald der Akkord bestimmt wurde, kann die Operation nach Block 18 weitergehen, wo ein Gestensatz, der Aktionen mit einem oder mehreren Gestenereignissen verbindet, bestimmt wird. Ein Gestensatz kann eine Abbildung sein, die Aktionen mit Gestenereignissen verbindet. Der Gestensatz kann vom bestimmten Akkord abhängen, aber er kann auch von anderen Faktoren abhängen, einschließlich Stelle des Akkords, offene Anwendung, Zustand oder Modus der Anwendung, andere Berührungsmerkmale usw. Im Wesentlichen wählt der Akkord einen Eingabekanal aus, wobei jeder Kanal einen unterschiedlichen Gestensatz damit assoziiert hat. Aus Organisationsgründen und zur Benutzerfreundlichkeit sind in manchen Fällen die Kanäle mit einer bestimmten Eingabefunktionalität, wie etwa Navigationsoperationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Formatierungsoperationen, Werkzeugoperationen, Webbrowsingoperationen usw. assoziiert. Jede dieser Eingabefunktionalitäten kann einen assoziierten Befehlssatz haben, der mit den Gestenereignissen verbunden ist.Once the chord has been determined, the operation may block 18 go on, where a gesture set that connects actions to one or more gesture events is determined. A gesture set can be an image that associates actions with gesture events. The gesture set may depend on the particular chord, but it may also depend on other factors including location of the chord, open application, state or mode of the application, other touch characteristics, etc. Essentially, the chord selects an input channel, each channel having a different gesture set associated with it. For organization and ease of use, in some cases the channels are associated with a particular input functionality, such as navigation operations, file operations, editing operations, view operations, formatting operations, tool operations, web browsing operations, and so on. Each of these input functionalities may have an associated instruction set associated with the gesture events.

Die Aktionen können Zustandsbefehle oder manipulative Befehle sein. Ein Zustandsbefehl ist ein einzelner implementierter Befehl. Beispiele für Zustandbefehle umfassen Neu, Öffnen, Schließen, Löschen, Umbenennen, Alle Auswählen, Ausschneiden, Kopieren, Einfügen, Rückgängig, Wiederholen, Gruppieren/Gruppierung Auflösen, Kursiv, Fett, Unterstreichen, Vorheriger/Nächster, Abspielen/Pause, Stumm usw. Weitere Beispiele von Zustandskommandos umfassen das Starten eines bestimmten Programms, das Starten eines bestimmten Modus eines Programms, das Starten einer Webseite, das Öffnen einer Werkzeugleiste, das Öffnen eines Menüs, Pfeiltastenbedienung, Löschtaste, Leerzeichen, Eingabetaste, Tabulator, Feststelltaste, Funktionen, Zoomen, Vergrößern/Verkleinern, Blättern, Lautstärke usw. Ein manipulativer Befehl ist ein Be fehl, der ununterbrochen das ausgewählte Objekt manipuliert. Beispiele von manipulativen Befehlen umfassen Zeigen, Nachverfolgen, Ziehen, Scrollen, Schwenken, Zoomen, Größeneinstellung, Dehnen, Blättern, Lautstärke usw. Es sollte erkannt werden, dass diese Beispiele keine Beschränkung sind, und dass andere Befehle verwendet werden können.The Actions can be state commands or manipulative commands be. A state command is a single implemented command. Examples of state commands include New, Open, Close, Delete, Rename, Select All, Cut, Copy, Paste, Undo, Repeat, Group / Group Dissolve, Italic, Fat, Underline, Previous / Next, Play / Pause, Mute etc. Other examples of state commands include starting of a particular program, starting a particular mode of a Program, starting a webpage, opening a Toolbar, opening a menu, arrow keys, Delete key, space, enter, tab, caps lock, Functions, Zoom, Zoom In / Zoom Out, Scroll, Volume, etc. A manipulative command is a command, which continuously manipulates the selected object. Examples manipulative commands include pointing, tracking, dragging, Scrolling, panning, zooming, resizing, Stretching, scrolling, volume, etc. It should be recognized will be that these examples are not limiting, and that other commands can be used.

Wie oben bemerkt, kann ein Gestenereignis irgendeine stilisierte physische Aktion sein, die auf oder oberhalb der Berührungsoberfläche durchgeführt wird. Beispiele von Gestenereignissen können z. B. Bewegungen, Tippen, Druckveränderungen, Verweilen usw. umfassen. In manchen Fällen können die Gestenereignisse durch den Akkord durchgeführt werden. In anderen Fällen können die Gestenereignisse durch eine Untermenge des Akkords durchgeführt werden. In anderen Fällen können die Gestenereignisse durch neue Kontakte zusätzlich zum oder getrennt vom anfänglichen Akkord durchgeführt werden. Gestenereignisse werden unten detaillierter beschrieben werden.As As noted above, a gesture event can be any stylized physical Be action on or above the touch surface is carried out. Examples of gesture events may e.g. As movements, typing, pressure changes, lingering, etc. include. In some cases, the gesture events be performed by the chord. In other cases The gesture events can be represented by a subset of the chord be performed. In other cases you can the gesture events through new contacts in addition to or be performed separately from the initial chord. Gesture events will be described in more detail below.

In Block 20 kann die Berührung bezüglich Gestenereignissen überwacht werden und in Block 22 kann eine Bestimmung gemacht werden, ob Gestenereignisse erkannt werden oder nicht.In block 20 the touch can be monitored for gesture events and in block 22 a determination can be made as to whether gesture events are recognized or not.

Das Erkennen der Gestenereignisse kann. Analysieren der Berührungseigenschaften von Kontakten umfassen (Kontakte, die mit dem Akkord assoziiert sind und/oder neue Kontakte), Identifizieren eines bestimmten Musters und Bezug nehmen auf den Gestensatz und seine Liste von erwarteten Gestenereignissen. Wenn das Muster mit einem erwarteten Gestenereignis übereinstimmt, dann kann angenommen werden, dass das Muster das erwartete Gestenereignis ist. Die Berührungscharakteristik kann z. B. Berücksichtigungen erster Ordnung umfassen, wie Bewegung, Tippen, Druckänderung, Verweilen und Berücksichtigungen zweiter Ordnung, wie etwa Geschwindigkeit (absolute oder relative), Richtung (absolute oder relative), Ausrichtung (absolute oder relative), Größe (absolute oder relative), Dauer (absolute oder relative), Form (absolute oder relative), Länge (absolute oder relative) und/oder ähnliches.The Recognition of gesture events can. Analyze the touch properties of contacts (contacts associated with the chord are and / or new contacts), identifying a particular pattern and reference to the gesture set and its list of expected Gesture events. If the pattern matches an expected gesture event, then it can be assumed that the pattern is the expected gesture event is. The contact characteristic may, for. B. Considerations first order, such as movement, typing, pressure change, Lingering and second-order considerations, such as Speed (absolute or relative), direction (absolute or relative), orientation (absolute or relative), size (absolute or relative), duration (absolute or relative), form (absolute or relative), length (absolute or relative) and / or the like.

In einer Ausführungsform können Gestenereignisse so entworfen oder ausgewählt werden, dass sie von anderen Gestenereignissen unterscheidbar sind, um Überlagerungen oder Fehler beim Erkennen des Gestenereignisses zu vermeiden (z. B. will man typischerweise Gestenereignisse einfach von anderen Gestenereignissen unterschieden haben).In In one embodiment, gesture events designed or chosen to be different from others Gesture events are distinguishable to overlays or to avoid errors in recognizing the gesture event (e.g. For example, you typically want gesture events from others Gesture events have distinguished).

Nochmals, Gestenereignisse können als Bewegung, Tippen, Druck, Verweilen usw. klassifiziert werden. Wenn sie Bewegung sind, können die Gestenereignisse wie folgt beispielhaft dargestellt werden: Gleiten in irgendeine Richtung, ein langsames lineares Streichen nach rechts, links, oben und unten; ein schnelles lineares Umschnalzen nach rechts, links, oben und unten; eine langsame Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn; eine schnelle Rotation im Uhrzeigersinn oder gegen den Uhrzeigersinn, Zusammenziehen oder Entfalten zweier oder mehrerer Kontakte (z. B. Spreizen und Schließen einer Trennung zwischen Kontakten). Wenn sie ein Tippen sind, können die Gestenereignisse weiterhin beispielhaft erläutert werden wie folgt: ½ Tippen, ganzes Tippen, mehrfaches Tippen, schnelles Tippen, langsames Tippen usw. Wenn sie Druck sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als leichtes Drücken oder starkes Drücken. Wenn sie Verweilen sind, können die Gestenereignisse weiterhin beispielhaft dargestellt werden als langes stationäres Anhalten oder kurzes stationäres Anhalten. Es sollte erkannt werden, dass diese Liste keine Beschränkung ist und dass Gestenereignisse auf andere Weisen oder mit anderen Ausrichtungen klassifiziert werden können. Zum Beispiel sind lineare Bewegungsgesten nicht auf rechts, links, oben und unten beschränkt und können weiterhin rechts oben, links oben, rechts unten, links unten umfassen.Again, Gesture events can be as movement, typing, pressure, lingering etc. are classified. If they are exercise, you can the gesture events are exemplified as follows: Sliding in any direction, slow linear brushing to the right, left, up and down; a quick linear snap to the right, left, up and down; a slow clockwise rotation or counterclockwise; a fast clockwise rotation or counterclockwise, contracting or unfolding two or multiple contacts (for example, spreading and closing a Separation between contacts). If you are a typist, you can the gesture events will continue to be exemplified as follows: ½ typing, all typing, multiple typing, fast Typing, slow typing, and so on. If they're printing, you can the gesture events continue to be exemplified as light pressure or strong pressure. If you The gesture events can continue to be exemplary be presented as a long stationary arrest or short one stationary arrest. It should be recognized that this List is not a restriction and that gesture events be classified in other ways or with other orientations can. For example, linear motion gestures are not on limited right and left, up and down and can continue to include top right, top left, bottom right, bottom left.

Die Gestenereignisse können grundlegend oder fortgeschritten sein. Grundlegende Gesten können diejenigen Gesten mit einer Aktion sein, wie z. B. Streichen linear nach rechts. Fortgeschrittene Gesten können diejenigen Gesten mit mehreren Aktionen sein, wie z. B. Streichen linear nach rechts gefolgt von einem Tippen oder Streichen linear nach rechts; langes Anhalten, Streichen linear nach links; oder Drehen gegen den Uhrzeigersinn mit erhöhtem oder verringertem Druck. Fortgeschrittene Gesten können eine beliebige Anzahl an Aktionen umfassen. Grundlegende Gesten können aus Benutzerfreundlichkeits- und Verarbeitungskomplexitätsgründen verwendet werden.The Gesture events can be basic or advanced be. Basic gestures can be those gestures with be an action, such as B. Swipe linear to the right. advanced Gestures can be those gestures with multiple actions such as B. Swipe linearly to the right followed by a tap or swipe linearly to the right; long stop, stroke linear to the left; or turning counterclockwise with raised or reduced pressure. Advanced gestures can be one include any number of actions. Basic gestures can for ease of use and processing complexity reasons be used.

Wenn ein Gestenereignis erkannt wird, kann die Operation zu Block 24 weitergehen, wo die mit den Gestenereignissen assoziierte(n) Aktion(en) durchgeführt werden. Block 24 kann Bezug nehmen auf den Gestensatz und Auffinden der Aktion(en), die mit den erkannten Gestenereignissen assoziiert ist/sind umfassen. Sobald sie aufgefunden ist/sind, kann/können die Aktion(en) initiiert werden. Wenn die Aktion ein Zustandsbefehl ist, kann der Befehl jedes Mal initiiert werden, wenn das Gestenereignis durchgeführt wird (das Gestenereignis arbeitet z. B. als Schaltfläche). In manchen Fällen kann das Gestenereignis so entworfen werden, dass es sich wiederholende Zustandsbefehle erzeugt. Wenn der Benutzer z. B. das Gestenereignis ausdehnt oder fortsetzt, können mehrere Zustandsbefehle initiiert werden. Dies kann in einem Spielmodus zum schnellen Feuern oder in einem Editiermodus hilfreich sein, wenn Arbeit rückgängig gemacht wird oder in einem Blättermodus, wenn durch Seiten geblättert wird. Wenn z. B. ein einzelner Rückgängig-Befehl durch ein schnelles lineares Streichen nach rechts initiiert wird, kann ein sich wiederholender Rückgängig-Befehl durch ein schnelles lineares Streichen gefolgt von einem langsamen linearen Streichen in einer kontinuierlichen Bewegung (während Berührung) initiiert werden. In diesem Beispiel kann der Rückgängig-Befehl in Übereinstimmung mit dem langsamen linearen Streichen wiederholt initiiert werden (z. B. wird der Rückgängig-Befehl alle 100 Millisekunden während des langsamen linearen Streichens ausgelöst). Wenn die Aktion ein manipulativer Befehl ist, kann der Befehl kontinuierlich während des Gestenereignisses erzeugt werden (z. B. eins zu eins Übereinstimmung zwischen Befehl und Gestenereignis). Wenn der Befehl z. B. Scrollen ist, kann Scrollen solan ge durchgeführt werden, wie das Gestenereignis durchgeführt wird und in Übereinstimmung mit den Gestenereigniseigenschaften (z. B. Geschwindigkeit, Richtung usw.).If a gesture event is detected, the operation may block 24 proceed where the action (s) associated with the gesture events are performed. Block 24 may refer to the gesture set and find the action (s) associated with the detected gesture events. Once found, the action (s) can be initiated. If the action is a status command, the command may be initiated each time the gesture event is performed (eg, the gesture event works as a button). In some cases, the gesture event may be designed to generate repetitive state commands. If the user z. For example, as the gesture event expands or continues, multiple state commands may be initiated. This can be helpful in a fast fire play mode or in an edit mode when undoing work or in a scrolling mode when scrolling through pages. If z. For example, if a single undo command is initiated by a fast linear swipe to the right, a repeating undo command can be initiated by a fast linear swipe followed by a slow linear swipe in a continuous motion (during touch). In this example, the undo command may be repeatedly initiated in accordance with the slow linear swipe (eg, the undo command is fired every 100 milliseconds during slow linear swipe). If the action is a manipulative command, the command may be generated continuously during the gesture event (eg, one-to-one correspondence between command and gesture event). If the command z. Scrolling, scrolling may be performed as the gesture event is performed and in accordance with the gesture event properties (eg, speed, direction, etc.).

Nach Block 24 kann die Operation nach Block 26 weitergehen, wo eine Bestimmung gemacht wird, ob ein Schaltereignis ausgeführt wurde oder nicht. Ein Schaltereignis kann sich auf ein Ereignis beziehen, das die Operation zurücksetzt oder einen Akkordwechsel initiiert. Das Schaltereignis kann auf unterschiedliche Arten implementiert werden. Zum Beispiel kann es implementiert werden, indem alle Kontakte während einer vorbestimmten Zeitspanne entfernt werden (z. B. Heben der Hand von der Berührungsoberfläche). Es kann auch durch Ändern des Basisakkords während der Berührung implementiert werden (z. B. Hinzufügen/Entfernen von Kontakten). Es kann auch durch Hinzufügen/Entfernen von Kontakten der gegenüberliegenden Hand implementiert werden (z. B. Absetzen eines oder mehrerer Finger mit der gegenüberliegenden Hand, während die andere Hand noch berührt). Es kann auch durch Anhalten implementiert werden (z. B. wenn die Kontakte während einer vorher gesetzten Zeitspanne stationär bleiben). Es kann auch durch eine Tasteneingabe oder ein Tastenklicken von einer Standardtastatur oder Maus implementiert werden. Es kann auch durch ein Gestenereignis implementiert werden. Wenn ein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block 12. Wenn kein Schaltereignis aufgetreten ist, geht die Operation zurück nach Block 20.After block 24 can the operation after block 26 continue where a determination is made as to whether or not a switching event has been executed. A switching event may refer to an event that resets the operation or initiates a chord change. The switching event can be implemented in different ways. For example, it may be implemented by removing all contacts for a predetermined period of time (eg, raising the hand from the touch surface). It can also be implemented by changing the base chord during touch (for example, adding / removing contacts). It can also be implemented by adding / removing contacts of the opposite hand (eg, putting one or more fingers on the opposite hand while the other hand is still touching). It can also be implemented by pausing (for example, if the contacts remain stationary for a set period of time). It can also be implemented by keystroke or key click from a standard keyboard or mouse. It can also be implemented by a gesture event. If a switching event has occurred, the operation goes back to block 12 , If no switching event has occurred, the operation goes back to block 20 ,

Tabelle 1 – Beispiele für einhändige AkkordeTable 1 - Examples of one-handed chords

Unbekannte Kontakte – Standardanordnung (keine Handfläche oder Handfläche ignoriert)Unknown contacts - standard arrangement (no palm or palm ignored)

  • Beliebiger FingerAny finger
  • Beliebige zwei FingerAny two fingers
  • Beliebige drei FingerAny three fingers
  • Beliebige vier FingerAny four fingers
  • Daumen + beliebiger FingerThumb + any finger
  • Daumen + beliebige zwei FingerThumb + any two fingers
  • Daumen + beliebige drei FingerThumb + any three fingers
  • Daumen + vier FingerThumb + four fingers

Unbekannte Kontakte – variierte Anordnung (keine Handfläche oder Handfläche ignoriert)Unknown contacts - varied Arrangement (no palm or palm ignored)

  • Zwei nebeneinander liegende FingerTwo fingers lying next to each other
  • Zwei nicht nebeneinander liegende FingerTwo non-adjacent fingers
  • Zwei nebeneinander liegende Finger + ein nicht angrenzender FingerTwo adjacent fingers + one not adjacent finger
  • Daumen + zwei nebeneinander liegende FingerThumb + two fingers next to each other
  • Daumen + zwei nicht nebeneinander liegende FingerThumb + two non-adjacent fingers
  • Daumen + zwei nebeneinander liegende Finger + ein nicht angrenzender FingerThumb + two adjacent fingers + one not adjacent finger
  • Beliebige zwei nebeneinander liegende Finger geschlossenAny two adjacent fingers closed
  • Beliebige zwei nebeneinander liegende Finger gespreiztAny two fingers spread apart
  • Beliebige drei nebeneinander liegende Finger geschlossenAny three adjacent fingers closed
  • Beliebige drei nebeneinander liegende Finger gespreiztAny three fingers spread next to each other
  • Vier nebeneinander liegende Finger geschlossenFour fingers next to each other closed
  • Vier nebeneinander liegende Finger gespreiztFour fingers spread next to each other
  • Daumen + zwei nebeneinander liegende Finger geschlossenThumb + two fingers next to each other closed
  • Daumen + zwei nebeneinander liegende Finger gespreiztThumb + two fingers spread apart
  • Daumen + drei nebeneinander liegende Finger geschlossenThumb + three fingers next to each other closed
  • Daumen + drei nebeneinander liegende Finger gespreiztThumb + three fingers spread next to each other
  • Daumen + vier nebeneinander liegende Finger geschlossenThumb + four fingers next to each other closed
  • Daumen + vier nebeneinander liegende Finger gespreiztThumb + four fingers spread apart

Bekannte Kontakte (keine Handfläche oder Handfläche ignoriert)Known contacts (no palm or palm ignored)

  • Zeigefingerindex finger
  • Mittelfingermiddle finger
  • Ringfingerring finger
  • Kleiner FingerPinkie finger
  • Zeigefinger + MittelfingerIndex finger + middle finger
  • Zeigefinger + RingfingerIndex finger + ring finger
  • Zeigefinger + kleiner FingerIndex finger + little finger
  • Mittelfinger + RingfingerMiddle finger + ring finger
  • Mittelfinger + kleiner FingerMiddle finger + little finger
  • Ringfinger + kleiner FingerRing finger + little finger
  • Daumen + ZeigefingerThumb + index finger
  • Daumen + MittelfingerThumb + middle finger
  • Daumen + RingfingerThumb + ring finger
  • Daumen + kleiner FingerThumb + little finger
  • Daumen + Zeigefinger + MittelfingerThumb + index finger + middle finger
  • Daumen + Zeigefinger + RingfingerThumb + index finger + ring finger
  • Daumen + Zeigefinger + kleiner FingerThumb + index finger + little finger
  • Daumen + Mittelfinger + RingfingerThumb + middle finger + ring finger
  • Daumen + Mittelfinger + kleiner FingerThumb + middle finger + little finger
  • Daumen + Ringfinger + kleiner FingerThumb + ring finger + little finger
  • Zeigefinger + Mittelfinger + RingfingerIndex finger + middle finger + ring finger
  • Zeigefinger + Mittelfinger + kleiner FingerIndex finger + middle finger + little finger
  • Zeigefinger + Ringfinger + kleiner FingerIndex finger + ring finger + little finger
  • Mittelfinger + Ringfinger + kleiner FingerMiddle finger + ring finger + little finger
  • Daumen + Zeigefinger + Mittelfinger + RingfingerThumb + index finger + middle finger + ring finger
  • Daumen + Zeigefinger + Mittelfinger + kleiner FingerThumb + index finger + middle finger + little finger
  • Daumen + Zeigefinger + Ringfinger + kleiner FingerThumb + index finger + ring finger + little finger
  • Daumen + Mittelfinger + Ringfinger + kleiner FingerThumb + middle finger + ring finger + little finger
  • Zeigefinger + Mittelfinger + Ringfinger + kleiner FingerIndex finger + middle finger + ring finger + little finger
  • Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner FingerThumb + index finger + middle finger + ring finger + little finger

Sonstige (Handfläche nach unten)Other (palm down)

  • Finger zu Faust geschlossen oder zu Handfläche gewickeltFinger closed to fist or palm wound
  • Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltIndex finger + remaining fingers closed to fist or wrapped to palm
  • Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handflä che gewickeltIndex finger + middle finger + remaining fingers closed to fist or wrapped to palm
  • Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickeltIndex finger + middle finger + ring finger + little finger too Fist closed or wrapped to palm
  • Daumen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + remaining fingers closed to fist or closed Palm wrapped
  • Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger + remaining fingers closed to fist or wrapped to palm
  • Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger + middle finger + remaining fingers too Fist closed or wrapped to palm
  • Daumen + kleiner Finger + Mittelfinger + Ringfinger + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + little finger + middle finger + ring finger + smaller Finger closed to fist or wrapped to palm
  • Daumen + Zeigefinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger + remaining fingers closed to fist or wrapped to palm
  • Daumen + Zeigefinger + Mittelfinger + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger + middle finger + remaining fingers too Fist closed or wrapped to palm
  • Daumen + Zeigefinger + Mittelfinger + Ringfinger + kleiner Finger zu Faust ge schlossen oder zu Handfläche gewickeltThumb + index finger + middle finger + ring finger + little finger closed to fist or wrapped to palm

Sonstigeother

  • Rechte HandseiteRight hand side
  • Linke HandseiteLeft hand side
  • HandrückseiteHand back
  • Handvorderseite (ganze)Hand front (whole)

Sonstige (Knöchel nach unten – Fausthieb)Other (ankle down - fist blow)

  • Finger zu Faust geschlossen oder zu Handfläche gewickeltFinger closed to fist or palm wound
  • Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltIndex finger open + remaining fingers closed to fist or wrapped to palm
  • Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickelt Index finger open + middle finger open + remaining fingers too Fist closed or wrapped to palm
  • Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger geschlossen oder zu Faust gewickeltIndex finger open + middle finger open + ring finger open + little finger closed or wrapped in a fist
  • Daumen + Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + fingers closed to fist or palm wound
  • Daumen + Zeigefinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger open + remaining fingers closed to fist or wrapped to palm
  • Daumen + Zeigefinger offen + Mittelfinger offen + übrige Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger open + middle finger open + left Finger closed to fist or wrapped to palm
  • Daumen + Zeigefinger offen + Mittelfinger offen + Ringfinger offen + kleiner Finger zu Faust geschlossen oder zu Handfläche gewickeltThumb + index finger open + middle finger open + ring finger open + little finger closed to fist or palm wound

2 zeigt eine illustrative Steueroperation 50 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation kann bei Block 52 beginnen, wo eine Berührung oder Beinahe-Berührung detektiert wird. 2 shows an illustrative control operation 50 in accordance with an embodiment of the present invention. The surgery may be at block 52 begin where a touch or near-touch is detected.

Nach Block 52 kann die Operation zu Block 54 weitergehen, wo ein Gestensatz für die Berührung bestimmt wird. Der Gestensatz kann von vielen Faktoren abhängen, einschließlich Berührungscharakteristik, Berührungsort, Anwendung, Anwendungsmodus oder ähnliches. In den meisten Fällen basiert der Gestensatz zumindest teilweise auf der Kontaktanordnung beim Absetzen.After block 52 can block the operation 54 go on where a gesture set is determined for the touch. The gesture set may depend on many factors, including touch characteristics, touch location, application, application mode, or the like. In most cases, the gesture set will be based, at least in part, on the contact placement during weaning.

Nach Block 54 kann die Operation zu Block 56 weitergehen, wo die Berührung bezüglich Gestenereignissen überwacht wird, die mit denn Gestensatz assoziiert sind. Der Gestensatz kann ein oder mehrere Gestenereignisse zum Auslösen oder Initialisieren eines Befehls umfassen (Befehle können z. B. an bestimmte Gestenereignisse gebunden oder mit ihnen verbunden sein).After block 54 can block the operation 56 continue where touch is monitored for gesture events associated with gestures. The gesture set may include one or more gesture events for initiating or initializing a command (eg, commands may be tied to or associated with certain gesture events).

Nach Block 56 kann die Operation zu Block 58 weitergehen, wo ein oder mehrere Befehle initiiert werden, wenn Gestenereignisse durchgeführt werden. Zum Beispiel kann ein Benutzer eine bestimmte Fingeranordnung gleiten lassen, um ein Scrollereignis hervorzurufen oder zu initiieren.After block 56 can block the operation 58 continue where one or more commands are initiated when gesture events are performed. For example, a user may slip a particular finger arrangement to invoke or initiate a scrolling event.

3 zeigt eine illustrative Steueroperation 60 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation 60 kann z. B. dem Block 54 in 2 entsprechen. Die Steueroperation 60 kann bei Block 62 beginnen, wo die anfängliche Kontaktanordnung erkannt wird. Danach kann in Block 64 die anfängliche Kontaktanordnung mit einem gespeicherten Satz an Kontaktanordnungen verglichen werden. Zum Beispiel kann das System auf eine Gestenabbildung Bezug nehmen, die eine Liste von anfänglichen Kontaktanordnungen umfasst und Gestensätze, die ihnen zugeordnet sind. Wenn es eine Übereinstimmung gibt, kann die Operation nach Block 66 weitergehen, wo der Gestensatz geladen wird, der der erkannten anfänglichen Kontaktanordnung zugeordnet ist. 3 shows an illustrative control operation 60 in accordance with an embodiment of the present invention. The control operation 60 can z. B. the block 54 in 2 correspond. The control operation 60 can at block 62 begin where the initial contact arrangement is detected. After that, in block 64 comparing the initial contact arrangement with a stored set of contact arrangements. For example, the system may refer to a gesture map that includes a list of initial contact arrangements and gesture sets associated with them. If there is a match, the operation may block 66 continue where the gesture set associated with the detected initial contact arrangement is loaded.

4 zeigt eine illustrative Steueroperation 70 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation 70 kann bei Block 72 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 74 die Stelle der Berührung bestimmt werden. Danach kann in Block 76 die Kontaktanordnung, die mit der Berührung assoziiert ist, bestimmt werden (z. B. Berührungsmuster). Danach kann in Block 78 die aktive Anwendung bestimmt werden. Danach kann in Block 80 der aktuelle Zustand der Anwendung bestimmt werden (z. B. aktueller Modus). Danach kann in Block 82 ein geeigneter Gestensatz gesetzt oder ausgewählt werden, auf der Grundlage von einem oder mehreren bestimmten Attributen, die oben erwähnt wurden (Blöcke 74 bis 80). Unter Verwendung der bestimmten Attribute kann ein System z. B. auf eine gespeicherte Gestenabbildung Bezug nehmen, die jedem der oben erwähnten Attribute einen bestimmten Gestensatz zuordnet. Die gespeicherte Gestenabbildung kann standardmäßig erzeugt werden oder sie kann durch den Benutzer anpassbar sein. Der Benutzer kann z. B. ein Steuerfeld verwenden, um Einstellungen zu ändern, die mit der Gestenabbildung verbunden sind, oder eine Trainingssequenz verwenden, um die Gestenabbildung zu programmieren. 4 shows an illustrative control operation 70 in accordance with an embodiment of the present invention. The control operation 70 can at block 72 begin where a touch is detected. After that, in block 74 the location of the touch will be determined. After that, in block 76 the contact arrangement associated with the touch can be determined (eg, touch pattern). After that, in block 78 the active application will be determined. After that, in block 80 the current state of the application can be determined (eg current mode). After that, in block 82 an appropriate gesture set may be set or selected based on one or more particular attributes mentioned above (blocks 74 to 80 ). Using the determined attributes, a system can e.g. For example, refer to a stored gesture map that associates each of the attributes mentioned above with a particular gesture set. The stored gesture image may be generated by default or it may be user-customizable. The user can z. For example, use a control panel to change settings associated with gesture mapping, or use a training sequence to program gesture mapping.

5 zeigt eine illustrative Steueroperation 100 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 102 beginnen, wo eine Bestimmung gemacht wird, ob eine Berührung detektiert wurde oder nicht. Wenn eine Berührung detektiert wurde, kann die Operation nach Block 104 weitergehen, wo die Kontaktanordnung erkannt wird. Block 104 kann die Unterblöcke 106 und 108 enthalten. In Block 106 wird eine Bestimmung gemacht, ob die Kontaktstellen genau identifiziert werden können. Beispielsweise ob eine Kontaktstelle ein Zeigefinger oder ein Daumen oder eine Handfläche sein kann. Wenn sie nicht genau identifiziert werden können, dann kann die Operation nach Block 108 weitergehen, wo eine Anzahl an Kontaktstellen bestimmt wird. Beispielsweise, ob es zwei Kontaktstellen gibt, drei Kontaktstellen usw. Nach Block 104 kann die Operation nach Block 110 weitergehen, wo die erkannte Kontaktanordnung mit gespeicherter Kontaktanordnung in einer Gestenabbildung verglichen wird. Wenn es keine Übereinstimmung gibt, dann kann die Operation nach Block 102 zurückgehen. Wenn es eine Übereinstimmung gibt, dann kann die Operation nach Block 112 weitergehen, wo nach Bezugnahme auf die Gestenabbildung der Gestensatz, der mit der anfänglichen Kontaktanordnung assoziiert ist, geladen wird. Danach kann in Block 116 die Berührung bezüglich Gestenereignissen überwacht werden, die mit dem Gestensatz assoziiert sind. Wenn ein Gestenereignis durchgeführt wird, kann die Operation nach Block 118 weitergehen, wo der mit dem Gestenereignis assoziierte Befehl ausgeführt wird. 5 shows an illustrative control operation 100 in accordance with an embodiment of the present invention. The control operation can be at block 102 begin where a determination is made as to whether a touch has been detected or not. If a touch has been detected, the operation may go to block 104 go on where the contact arrangement is detected. block 104 can the subblocks 106 and 108 contain. In block 106 a determination is made as to whether the contact points can be accurately identified. For example, if a contact point can be an index finger or a thumb or a palm. If they can not be accurately identified, then the operation may be after block 108 continue where a number of contact points are determined. For example, if there are two contact points, three contact points, etc. After block 104 can the operation after block 110 continue where the recognized contact arrangement is compared with stored contact arrangement in a gesture map. If there is no match, then the operation can go to block 102 decline. If there is an agreement mood gives, then the operation after block 112 continue where, after reference to the gesture map, the gesture set associated with the initial contact layout is loaded. After that, in block 116 the touch is monitored for gesture events associated with the gesture set. When a gesture event is performed, the operation may proceed to block 118 proceed where the gesture associated with the gesture event is executed.

6 zeigt eine illustrative Steueroperation 120 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation 120 kann bei Block 122 beginnen, wo eine Berührung oder Beinahe-Berührung detektiert wird. Danach kann in Block 124 ein Akkord für die Berührung bestimmt werden. Danach kann in Block 126 die Eingabefunktionalität bestimmt werden, die mit dem Akkord assoziiert ist. Die Eingabefunktionalität kann eine Operation oder Gruppe von Operationen beschreiben. Beispiele für Operationen umfassen Navigationsoperationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Einfügeoperationen, Formatierungsoperationen, Werkzeugoperationen, Weboperationen usw. Die Eingabefunktionalität kann weiterhin auf Umgebungsbedingungen beruhen, einschließlich der Akkordposition auf der Berührungsoberfläche, Anwendungen, Modi usw. Danach kann in Block 128 der Gestensatz, der mit der Eingabefunktionalität assoziiert ist, aktiviert oder geladen werden. Ein Gestensatz kann eine Gruppe von Gestenereignissen sein, die jeweils mit einer unterschiedlichen Aktion assoziiert sind, die sich auf die Eingabefunktionalität bezieht. Das Gestenereignis kann durch den anfänglichen Akkord alleine durchgeführt werden, entweder als eine Gruppe, eine Untermenge der Gruppe oder relativ zu einem anderen. Alternativ können sie durch Objekte durchgeführt werden, die nicht mit dem Akkord assoziiert sind (z. B. Kontaktstellen, die hinzugefügt werden, nachdem der Basisakkord gesetzt ist). Das Gestenereignis kann Parameter erster Ordnung umfassen, wie etwa Bewegung, Tippen, Verweilen, Druck und/oder ähnliches. Das Gestenereignis kann auch Parameter zweiter Ordnung umfassen, die die Parameter erster Ordnung definieren, wie etwa Geschwindigkeit, Richtung, Form, zeitliche Abfolge/Dauer, Länge und/oder ähnliches. Danach können in Block 130 Aktionen, die mit den Gestenereignissen assoziiert sind, implementiert werden, wenn die Gestenereignisse durchgeführt werden. 6 shows an illustrative control operation 120 in accordance with an embodiment of the present invention. The control operation 120 can at block 122 begin where a touch or near-touch is detected. After that, in block 124 a chord to be determined for the touch. After that, in block 126 determine the input functionality associated with the chord. The input functionality may describe an operation or group of operations. Examples of operations include navigation operations, file operations, editing operations, view operations, insert operations, formatting operations, tool operations, web operations, etc. The input functionality may continue to be based on environmental conditions, including the touchpad chord position, applications, modes, and so forth 128 the gesture set associated with the input functionality is activated or loaded. A gesture set may be a group of gesture events, each associated with a different action related to the input functionality. The gesture event may be performed by the initial chord alone, either as a group, a subset of the group, or relative to another. Alternatively, they may be performed by objects that are not associated with the chord (eg, pads added after the base chord is set). The gesture event may include first order parameters such as motion, typing, lingering, pressure and / or the like. The gesture event may also include second order parameters that define first order parameters such as speed, direction, shape, timing / duration, length, and / or the like. After that, in block 130 Actions associated with the gesture events are implemented when the gesture events are performed.

7 zeigt eine illustrative Gestenoperation 140 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 140 kann bei Block 142 beginnen, wo eine Berührung detektiert wird. Nach Block 144 kann die Operation nach Block 144 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block 146 der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block 146 kann die Operation nach Block 148 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz enthält Gestenereignisse, die mit einer beliebigen Kontaktanordnung während der Berührung durchgeführt werden können. Danach kann in Block 150 die Berührung bezüglich eines Gestenereignisses überwacht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch eine beliebige Kontaktanordnung durchgeführt wird, kann die Operation nach Block 152 weitergehen, wo die Steuerung/der Befehl, die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn kein Gestenereignis durchgeführt wurde, kann die Operation nach Block 154 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation nach Block 150 zurückgehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block 142 gehen. Das heißt ein Anheben gefolgt von einer Berührung setzt den Akkord und damit den Gestensatz zurück. 7 shows an illustrative gesture operation 140 in accordance with an embodiment of the present invention. The operation 140 can at block 142 begin where a touch is detected. After block 144 can the operation after block 144 continue where a contact arrangement is detected. After that, in block 146 the chord associated with the recognized contact arrangement is determined. After block 146 can the operation after block 148 continue where the gesture set associated with the chord is loaded. The gesture set contains gesture events that can be performed with any contact arrangement during the touch. After that, in block 150 monitoring the touch for a gesture event performed by any contact arrangement. When a gesture event is performed by any contact arrangement, the operation may proceed to block 152 continue where the control / command associated with the gesture event is initiated. If no gesture event has been performed, the operation may move to block 154 go on where a determination is made as to whether a touch is still detected or not. If a touch is still detected, the operation may block 150 decline. If a touch is not detected, the operation may go back to block 142 walk. That is, a lift followed by a touch resets the chord and thus the gesture set.

Das oben in 7 beschriebene Modell zur Auswahl des anfänglichen Akkords erlaubt es einem Benutzer vorteilhafterweise, zusätzliche Finger anzuheben oder fallen zu lassen, ohne den Gestensatz zu berühren. Dies ist ergonomischer dadurch, dass ein Benutzer, der in einem Basisakkord von zwei Fingern startet, die übrigen drei Finger fallen lassen kann, so dass alle fünf Finger die Hand stützen. Als ein Ergebnis kann Gestikulieren während längerer Zeitabschnitte durchgeführt werden. Im Wesentlichen werden Veränderungen am Basisakkord ignoriert. Weiterhin ermöglicht es Benutzern, Zeigen/Ziehen, Scrollen in Berührungsoberflächen mit begrenztem Platz zu erweitern, indem er alle bis auf einen Finger anhebt und andere Finger zum Ziel gehen oder gleiten lässt.The above in 7 The initial chord selection model described advantageously allows a user to lift or drop additional fingers without touching the gesture set. This is more ergonomic in that a user who starts in a base chord of two fingers can drop the remaining three fingers so that all five fingers support the hand. As a result, gesturing can be performed during longer periods of time. Essentially, changes to the base chord are ignored. Furthermore, it allows users to expand / collapse scrolling into limited-surface touch surfaces by raising all but one finger and allowing other fingers to reach or slide to their destination.

8 zeigt eine illustrative Gestenoperation 160 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 160 kann bei Block 162 beginnen, wo eine Bestimmung gemacht wird, ob 2 nebeneinander liegende Finger detektiert werden oder nicht. Wenn dies so ist, kann die Operation nach Block 164 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nicht, kann die Operation nach Block 166 weitergehen, wo eine Bestimmung gemacht wird, ob 3 nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 168 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein, kann die Operation nach Block 170 weitergehen, wo eine Bestimmung gemacht wird, ob ein Daumen und zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 172 weiter gehen, wo sekundäre Ziehoperationen durchgeführt werden. Wenn nein, kann die Operation zurück nach Block 162 weitergehen. Dieser Prozess kann jedes Mal zurückgesetzt werden, wenn alle Finger von der Berührungsoberfläche abgehoben werden (z. B. Berührung wird nicht mehr detektiert). 8th shows an illustrative gesture operation 160 in accordance with an embodiment of the present invention. The operation 160 can at block 162 begin where a determination is made as to whether 2 adjacent fingers are detected or not. If so, the operation may block 164 continue where pointing operations are performed in accordance with motion. If not, the operation may block 166 go on, where a determination is made as to whether 3 adjacent fingers are detected or not. If so, the operation may go to block 168 proceed where pulling operations are performed in accordance with movement. If not, the operation may be after block 170 go on where a determination is made as to whether a thumb and two adjacent fingers are detected or not. If so, the operation may go to block 172 continue where secondary drag operations are performed. If not, the operation can go back to block 162 continue. This process can be reset every time all fingers are lifted off the touch surface (eg touch is no longer detected).

9 zeigt eine illustrative Gestenoperation 180 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 180 kann bei Block 182 beginnen, wo ein Basisakkord bestimmt wird. Danach kann die Operation drei verschiedene Prozesse entweder getrennt oder gleichzeitig durchführen (parallele Blöcke 184 bis 188). In Block 184 kann Bewegung mit dem Basisakkord detektiert werden. Danach können in Block 190 Zeigeoperationen in Übereinstimmung mit der Bewegung durchgeführt werden. In Block 186 kann ein neuer erster Finger detektiert werden. Das heißt ein neuer erster Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden (zusätzlich zum Basisakkord). Danach kann in Block 192 ein erster Befehl jedes Mal initiiert werden, wenn der neue erste Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen ersten Fingers durchführen. In Block 188 kann ein neuer zweiter Finger detektiert werden (zusätzlich zum Basisakkord). Das heißt, ein neuer zweiter Finger, der nicht mit dem Basisakkord assoziiert ist, kann detektiert werden. Danach kann in Block 194 ein zweiter Befehl jedes Mal initiiert werden, wenn der neue zweite Finger detektiert wird. In manchen Fällen kann ein Benutzer sich wiederholende Befehle durch ununterbrochenes Tippen des neuen zweiten Fingers durchführen, oder einfach dadurch, dass der Finger unten gehalten wird. Die in 9 beschriebene Operation wird manchmal Modell zur Auswahl des aktuellen Akkords genannt. 9 shows an illustrative gesture operation 180 in accordance with an embodiment of the present invention. The operation 180 can at block 182 begin where a base chord is determined. Thereafter, the operation may perform three different processes either separately or simultaneously (parallel blocks 184 to 188 ). In block 184 movement can be detected with the base chord. After that, in block 190 Pointing operations are performed in accordance with the movement. In block 186 a new first finger can be detected. That is, a new first finger that is not associated with the base chord can be detected (in addition to the base chord). After that, in block 192 a first command is initiated each time the new first finger is detected. In some cases, a user may perform repetitive commands by continuously tapping the new first finger. In block 188 a new second finger can be detected (in addition to the base chord). That is, a new second finger that is not associated with the base chord can be detected. After that, in block 194 a second command is initiated each time the new second finger is detected. In some cases, a user may perform repetitive commands by tapping the new second finger continuously, or simply by holding the finger down. In the 9 The described operation is sometimes called a model for selecting the current chord.

In einem Beispiel von 9 kann der Basisakkord 3 Finger sein (entweder Zeigefinger-Mittelfinger-Ringfinger oder Daumen-Mittelfinger-Ringfinger). Somit können drei Finger für Zeigeoperationen verwendet werden. Weiterhin kann der neue erste Finger der Daumen oder Zeigefinger sein, wenn der Daumen bereits Teil der Basis ist. Somit können der Daumen oder der Zeigefinger den ersten Be fehl initiieren. Weiterhin kann der neue zweite Finger der kleine Finger sein. Somit kann der kleine Finger den zweiten Befehl initiieren.In an example of 9 can the base chord 3 Be fingers (either index finger middle finger ring finger or thumb middle finger ring finger). Thus, three fingers can be used for pointing operations. Furthermore, the new first finger may be the thumb or forefinger if the thumb is already part of the base. Thus, the thumb or forefinger can initiate the first loading. Furthermore, the new second finger can be the little finger. Thus, the little finger can initiate the second command.

Das obige Beispiel kann in Spielmodi nützlich sein. Der Basisakkord kann zum Zeigen verwendet werden, der erste neue Finger kann zum Auslösen verwendet werden und der zweite neue Finger kann für einen Waffenwechsel verwendet werden. Alternativ kann in Standardmodi der Basisakkord zum Zeigen verwendet werden, der erste neue Finger kann zum primären Klicken und Ziehen verwendet werden und der zweite neue Finger kann für ein sekundäres Klicken und Ziehen verwendet werden. Die drei Finger Unterstützung liefert ausreichende Unterstützung sowohl in Spiel- als auch Standardmodi.The The above example may be useful in game modes. The basic chord can be used to pointing, the first new finger can to Triggering can be used and the second new finger can to be used for a weapon change. Alternatively, you can in standard modes the base chord can be used for pointing, the First new fingers can be used for primary clicking and dragging can be used and the second new finger can be for one Secondary click and drag are used. The three Finger support provides adequate support in both game and standard modes.

10 zeigt eine illustrative Gestenoperation 200 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 200 kann bei Block 202 beginnen, wo eine Berührung detektiert wird. Nach Block 204 kann die Operation nach Block 204 weitergehen, wo eine Kontaktanordnung erkannt wird. Danach kann in Block 206, der Akkord, der mit der erkannten Kontaktanordnung assoziiert ist, bestimmt werden. Nach Block 206 kann die Operation nach Block 208 weitergehen, wo der Gestensatz, der mit dem Akkord assoziiert ist, geladen wird. Der Gestensatz kann Gestenereignisse enthalten, die mit jeder beliebigen Kontaktanordnung während der ersten Berührung durchgeführt werden können. Danach kann in Block 210 die Berührung bezüglich eines Gestenereignisses überbracht werden, das durch eine beliebige Kontaktanordnung durchgeführt wird. Wenn ein Gestenereignis durch irgendeine Kontaktanordnung durchgeführt wurde, kann die Operation nach Block 212 weitergehen, wo die Steuerung/der Befehl die/der mit dem Gestenereignis assoziiert ist, initiiert wird. Wenn ein Gestenereignis nicht durchgeführt wurde, kann die Operation nach Block 214 weitergehen, wo eine Bestimmung gemacht wird, ob der Basisakkord oder die aktuelle Kontaktanordnung während der Berührung angehalten wurde. Wenn ja, kann angenommen werden, dass die Pause ein Akkordwechselereignis ist und die Operation kann zurück nach Block 204 weitergehen. Wenn nein, kann die Operation nach Block 216 weitergehen, wo eine Bestimmung gemacht wird, ob eine Berührung immer noch detektiert wird, oder nicht. Wenn eine Berührung immer noch detektiert wird, kann die Operation zurück nach Block 210 gehen. Wenn eine Berührung nicht detektiert wird, kann die Operation zurück nach Block 202 weitergehen. 10 shows an illustrative gesture operation 200 in accordance with an embodiment of the present invention. The operation 200 can at block 202 begin where a touch is detected. After block 204 can the operation after block 204 continue where a contact arrangement is detected. After that, in block 206 , the chord associated with the recognized contact arrangement is determined. After block 206 can the operation after block 208 continue where the gesture set associated with the chord is loaded. The gesture set may include gesture events that may be performed with any contact arrangement during the first touch. After that, in block 210 the touch is conveyed with respect to a gesture event performed by any contact arrangement. If a gesture event has been performed by any contact arrangement, the operation may proceed to block 212 continue where the controller / command associated with the gesture event is initiated. If a gesture event has not been performed, the operation may move to block 214 go on, where a determination is made as to whether the base chord or the current contact arrangement has been paused during the touch. If so, it can be assumed that the pause is a chord change event and the operation can go back to block 204 continue. If not, the operation may be after block 216 go on where a determination is made as to whether a touch is still detected or not. If a touch is still detected, the operation may go back to block 210 walk. If a touch is not detected, the operation may go back to block 202 continue.

In dem in 10 beschriebenen Modell zur Auswahl des Anhaltens können Wechsel nur stattfinden, wenn die Originalfinger angehalten werden oder sich ziemlich langsam bewegen. Somit können Benutzer von einem Finger hin zu Fünf-Finger-Zeigen entspannen, solange das Fingersenken mitten in einem Zeigezug ist.In the in 10 Changeover selection model described above can only take place when the original fingers are stopped or move rather slowly. Thus, users can relax from a finger to five-finger pointing as long as the finger-down is in the middle of a pointing move.

11 zeigt eine illustrative Gestenoperation 220 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 220 kann bei Block 222 beginnen, wo eine Bestimmung gemacht wird, ob 1 Finger detektiert wird oder nicht. Wenn ja kann die Operation nach Block 224 weitergehen, wo Zeigeoperationen in Übereinstimmung mit Bewegung durchgeführt werden. Wenn nein, kann die Operation nach Block 226 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 228 weitergehen, wo Ziehoperationen in Übereinstimmung mit Bewegung durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block 230 weitergehen, wo eine Bestimmung gemacht wird, ob zwei nicht-nebeneinander liegende Finger detektiert werden oder nicht. Wenn ja, kann die Operation nach Block 232 weitergehen, wo sekundäre Ziehoperationen durchgeführt werden. In manchen Fällen kann Ziehsperre/-Erweiterung durch Klicken initiiert werden und in anderen Fällen wird es durch Fallenlassen des Daumens initiiert (zwei nicht-nebeneinander liegende Finger + Daumen). Wenn nein, kann die Operation nach Block 234 weitergehen, wo eine Bestimmung gemacht wird, ob drei oder vier Finger detektiert werden oder nicht. Wenn ja, kann Scrollen in Übereinstimmung mit Bewegung initiiert werden (Block 236). Wenn nein, kann die Operation zurück nach Block 222 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (z. B. Berührung wird nicht mehr detektiert), oder wenn der Akkord für einen Moment angehalten wird. 11 shows an illustrative gesture operation 220 in accordance with an embodiment of the present invention. The operation 220 can at block 222 begin where a determination is made whether 1 finger is detected or not. If so, the operation may be after block 224 continue where pointing operations are performed in accordance with motion. If not, the operation may be after block 226 go on where a determination is made, whether two next to each other lying fingers are detected or not. If so, the operation may go to block 228 proceed where pulling operations are performed in accordance with movement. In some cases, the pull lock / extension can be initiated by clicking and in other cases it is initiated by dropping the thumb (two adjacent fingers + thumbs). If not, the operation may be after block 230 go on where a determination is made as to whether or not two non-adjacent fingers are detected. If so, the operation may go to block 232 continue where secondary drag operations are performed. In some cases, the pull lock / extension can be initiated by clicking and in other cases it is initiated by dropping the thumb (two non-adjacent fingers + thumbs). If not, the operation may be after block 234 go on where a determination is made whether three or four fingers are detected or not. If so, scrolling can be initiated in accordance with motion (block 236 ). If not, the operation can go back to block 222 continue. This process can be reset every time all fingers are lifted off the touch surface (eg, touch is no longer detected), or when the chord is paused for a moment.

12 zeigt eine illustrative Gestenoperation 240 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 240 kann bei Block 242 beginnen, wo eine Bestimmung gemacht wird, ob 5 Finger detektiert werden oder nicht. Wenn ja kann die Operation weiter nach Block 244 gehen, wo Zeigen initiiert wird, bis alle Finger von der Berührungsoberfläche abgehoben werden. In Block 246 wird eine Bestimmung gemacht, ob einer der 5 Finger ein Abheben und Tippen während dem Zeigen macht oder nicht. Wenn ja, kann ein Klicken durchgeführt werden (Block 248). In Block 250 wird eine Bestimmung gemacht, ob zwei der fünf Finger ein Abheben und Tippen während des Zeigens machen oder nicht. Wenn ja, kann Ziehen durchgeführt werden (Block 252). Danach wird in Block 253 eine Bestimmung gemacht, ob ein oder zwei der 5 Finger ein Abheben und Tippen während des Ziehens machen oder nicht. Wenn ja, kann ein Fallenlassen durchgeführt werden (Block 254). Wenn nein, kann das Ziehen weitergehen. Nach den Blöcken 250 und 254 kann die Operation zurück nach Block 244 weitergehen. Dieser Prozess kann jedes Mal, wenn alle Finger von der Berührungsoberfläche abgehoben werden, zurückgesetzt werden (d. h. Berührung wird nicht mehr detektiert) oder wenn der Akkord für einen Moment angehalten wird. 12 shows an illustrative gesture operation 240 in accordance with an embodiment of the present invention. The operation 240 can at block 242 begin where a determination is made as to whether 5 fingers are detected or not. If so, the operation can continue to block 244 go where pointing is initiated until all fingers are lifted off the touch surface. In block 246 a determination is made as to whether or not one of the 5 fingers makes a lift and a tap while pointing. If so, a click can be performed (block 248 ). In block 250 a determination is made as to whether or not two of the five fingers take off and tap during pointing. If so, pulling can be done (block 252 ). After that, in block 253 a determination is made as to whether one or two of the five fingers make a lift and tap while dragging or not. If so, dropping can be performed (block 254 ). If not, pulling can continue. After the blocks 250 and 254 can the operation back to block 244 continue. This process can be reset every time all fingers are lifted off the touch surface (ie, touch is no longer detected) or when the chord is paused for a moment.

In einer alternativen Ausführungsform von 12 kann Anheben und Tippen eines links orientierten Fingers des Fünf-Finger-Basisakkords ein Klicken der linken Taste und ein Anheben und Tippen eines rechts orientierten Fingers des Basisakkords kann ein Klicken der rechten Taste initiieren.In an alternative embodiment of 12 For example, lifting and tapping a left-oriented finger of the five-finger base chord may require clicking the left button, and raising and tapping a right-oriented finger of the base chord may initiate a click of the right button.

13 zeigt die illustrative Gestenoperation 260 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 260 kann bei Block 262 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 264 die Seite des kleinen Fingers erkannt werden. Die Seite des kleinen Fingers erzeugt eine lange (stark exzentrische) horizontale Kontaktstelle, die von allen anderen Kontakten (mit Ausnahme möglicherweise eines abgeflachten Daumens) verschieden ist. So kann das Gestensystem in der Lage sein, horizontal exzentrische aber dünne Kontakte konsistent als einen kleinen Finger (oder möglicherweise einen Daumen) zu klassifizieren. Danach kann in Block 266 ein Streichen mit der Seite des kleinen Fingers detektiert werden. 13 shows the illustrative gesture operation 260 in accordance with an embodiment of the present invention. The operation 260 can at block 262 begin where a touch is detected. After that, in block 264 the side of the little finger can be recognized. The side of the little finger creates a long (highly eccentric) horizontal pad which is different from all other contacts (except possibly a flattened thumb). Thus, the gesture system may be able to classify horizontally eccentric but thin contacts consistently as a small finger (or possibly a thumb). After that, in block 266 a strike with the side of the little finger are detected.

Danach kann in Block 268 eine Steuerung oder ein Befehl durchgeführt werden, die/der mit dein streichenden kleinen Finger assoziiert ist.After that, in block 268 a control or command associated with your stroking little finger.

Wischen mit der Seite des kleinen Fingers kann für einfache Steuergesten, wie Lautstärke hoch/runter, Schlafen, Bildschirmschoner usw. nützlich sein. Das Streichen mit der Seite des kleinen Fingers hat die Einfachheit, eine Berührung mit der Seite des kleinen Fingers, während sie als vom normalen 1-Fingerspitzen-Zeigen/-Klicken unterschiedlich erkennbar ist. Es ist auch sehr ergonomisch, weil während des Berührens mit der Seite des kleinen Fingers der Daumen gerade nach oben in die Luft zeigt. Dies ist die neutralste komfortable aller Handgelenkspositionen.Wipe with the side of the little finger can be used for simple control gestures, like volume up / down, sleep, screensaver etc. be useful. Painting with the side of the small one Fingers has the simplicity of having a touch to the side of the little finger as she than from the normal 1-fingertip pointing / -clicking is recognizable differently. It is also very ergonomic because while touching with the side of the small one Fingers showing the thumb straight up in the air. This is the most neutral comfortable of all wrist positions.

14 zeigt eine illustrative Gestenoperation 280 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 280 kann bei Block 282 beginnen, wo eine Gestensatzabbildung Hochgleiten nach Freilegen und Heruntergleiten nach Instrumententafel zur Verfügung gestellt wird. 14 shows an illustrative gesture operation 280 in accordance with an embodiment of the present invention. The operation 280 can at block 282 Start where a thumbnail picture is provided of high-slip after uncovering and sliding down to instrument panel.

Instrumententafel ist ein Steuerfeld, das anpassbare Vorrichtungen (Minianwendungen) enthält, die dem Benutzer sofort Informationen bringen – Wettervorhersagen, Aktienkurse, Gelbe Seiten, Fluglinienflüge, Sportergebnisse usw. In den meisten Fällen wird die Instrumententafel in Sicht gebracht, wenn sie aktiviert wird, und wenn sie deaktiviert wird, wird die Instrumententafel aus der Sicht ent fernt. Der Benutzer kann aktuelle und zeitnahe Information aus dem Internet mit einem Tastenklick erhalten und sie dann sofort verschwinden lassen, wenn die Taste losgelassen wird.dashboard is a control panel that provides customizable gadgets (gadgets) that provides the user with instant information - weather forecasts, Stock prices, yellow pages, airline flights, sports scores etc. In most cases, the dashboard is in View brought when activated, and when disabled the instrument panel is removed from view. The user can provide up-to-date and timely information from the internet with one Key click and then let them disappear immediately, if the button is released.

Darlegen ist ein Fensterverwaltungsprogramm. Fensterverwaltungsprogramme sind konfiguriert, um beim Navigieren durch oder Abschwächen eines Fensterdurcheinanders zu helfen (der Zustand, in dem es schwierig ist, Dokumente zu finden oder den Schreibtisch zu sehen, weil es so viele offene Fenster und/oder Anwendungen gibt). Darlegen kann drei verschiedene Operationsmodi haben oder von ihnen ausgewählt werden, die durch Gestikulieren gesteuert werden können. Der erste Modus ist Alle Fenster oder Kachel, Skaliere und Zeige alle. Wenn in diesem Modus gearbeitet wird, werden alle offenen Fenster gekachelt und so skaliert, dass all die offenen Fenster gleichzeitig innerhalb des Anzeigebildschirms gesehen werden können. Das heißt Durchführen der spezifizierten Geste kachelt sofort alle offenen Fenster – skaliert sie herunter und ordnet sie schön an, so dass der Benutzer den Inhalt in jedem Fenster betrachten kann. Die Skalierungsmenge oder Skalierungsrate kann an irgendeine Eigenschaft der Geste gebunden sein, wie z. B. Druck oder Geschwindigkeit. Der zweite Modus ist Anwendungsfenster oder Hebe Aktuelle Anwendung hervor. Dieser Modus arbeitet ähnlich dem ersten Modus, außer dass er nur auf einer bestimmten Anwendung arbeitet. Zum Beispiel kann das Durchführen einer bestimmten Geste sofort die offenen Fenster einer bestimmten Anwendung kacheln, während es verursacht, dass alle anderen offenen Anwendungen zu einem Grauton abblenden. Der dritte Modus ist Schreibtisch oder Verstecke Alle. In diesem Modus werden alle offenen Fenster zu den Bildschirmrändern bewegt, wodurch der Schreibtisch geöffnet wird. Das heißt Durchühren der bestimmten Geste kann alle offenen Fenster verbergen, wodurch dem Benutzer sofortiger Zugang zu seinem Schreibtisch gegeben wird.Expose is a window manager. Window management programs are konfigu to help navigate through or alleviate window clutter (the condition in which it is difficult to find documents or to see the desk because there are so many open windows and / or applications). Expose can have or be selected from three different modes of operation that can be controlled by gesturing. The first mode is All windows or Tile, Scale and Show all. When working in this mode, all open windows are tiled and scaled so that all the open windows can be seen simultaneously within the display screen. That is, performing the specified gesture immediately tilts all open windows - scales them down and arranges them nicely so that the user can view the content in each window. The scaling quantity or scaling rate may be tied to any property of the gesture, such as a mouse. Pressure or speed. The second mode is Application Window or Lift Current Application. This mode works similar to the first mode, except that it only works on a specific application. For example, performing a particular gesture may immediately tile the open windows of a particular application while causing all other open applications to dimming to a gray tone. The third mode is Desk or Hide All. In this mode, all open windows are moved to the edges of the screen, which opens the desktop. That is, passing the particular gesture may hide all open windows, giving the user instant access to his desk.

Danach können in Block 284 die Operationen Erkennen eines Basisakkords beinhalten (z. B. zwei oder mehr Finger). Danach kann in Block 286 eine Bestimmung gemacht werden, ob ein Hochgleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 288 weitergehen, wo Alle Darlegen geöffnet wird. Danach kann in Block 290 eine Bestimmung gemacht werden, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 292 weitergehen, wo Alle Darlegen geschlossen wird. Danach kann die Operation zurück nach Block 286 weitergehen. Unter Bezugnahme auf Block 286 kann die Operation dann, wenn ein Hochgleiten durch den Basisakkord nicht detektiert wird, nach Block 294 weitergehen, wo eine Bestimmung gemacht werden kann, ob ein Heruntergleiten mit dem Basisakkord detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 296 weitergehen, wo Instrumententafel geöffnet wird. Danach kann in Block 298 eine Bestimmung gemacht werden, ob ein Hochgleiten detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 300 weitergehen, wo Instrumententafel geschlossen wird. Danach kann die Operation zurück nach Block 286 weitergehen. Unter Bezugnahme zurück auf Block 294 kann die Operation, wenn ein Heruntergleiten nicht detektiert wird, nach Block 301 weitergehen, wo eine Bestimmung gemacht wird, ob sich der Akkord geändert hat. Zum Beispiel Wegheben eines Fingers. Wenn sich der Akkord geändert hat, kann die Operation nach Block 302 weitergehen, wo Zeigen mit dem geänderten Akkord durchgeführt wird. Danach kann in Block 304 eine Bestimmung gemacht werden, ob der Akkord in den Basisakkord zurück geändert wurde oder nicht. Wenn ja, kann die Operation zurück nach Block 286 weitergehen. Die Gestenoperation 280 wird manchmal Abbrechen in gegenüberliegende Richtung genannt.After that, in block 284 the operations include detecting a base chord (eg, two or more fingers). After that, in block 286 a determination is made as to whether high glide is detected with the base chord or not. If so, the operation may go to block 288 Continue where All Expose is opened. After that, in block 290 a determination is made as to whether or not a slide-down with the base chord is detected. If so, the operation may go to block 292 Continue where All Expose is closed. After that, the operation can go back to block 286 continue. With reference to block 286 For example, if high-slip is not detected by the base chord, the operation may move to block 294 go on, where a determination can be made as to whether or not a downshift with the base chord is detected. If so, the operation may go to block 296 go on, where instrument panel is opened. After that, in block 298 a determination is made as to whether high-slip is detected or not. If so, the operation may go to block 300 continue where the instrument panel is closed. After that, the operation can go back to block 286 continue. Referring back to block 294 if the operation is not detected, the operation may move to block 301 continue where a determination is made as to whether the chord has changed. For example, raising a finger. If the chord has changed, the operation may move to block 302 continue where pointing is performed with the changed chord. After that, in block 304 a determination is made as to whether the chord has been changed back to the base chord or not. If so, the operation can go back to block 286 continue. The gesture operation 280 sometimes called Cancel in opposite direction.

In zusätzlichen Ausführungsformen kann die in 14 gezeigte Operation so modifiziert werden, dass sie Streichen nach rechts und links umfasst, die jeweils mit einer unterschiedlichen Funktionalität von Darlegen assoziiert sind.In additional embodiments, the in 14 The operation shown may be modified to include right and left swipe, each associated with a different functionality of exposition.

Eine statische Befehlsgeste ist eine Geste, die durch einfaches Platzieren einer bestimmten Kontaktanordnung auf einer Berührungsoberfläche durchgeführt wird. Ein Befehl wird initiiert, wenn die bestimmte Kontaktanordnung beim Auftreffen identifiziert wird. Es gibt keine Gestenereignisse, die der anfänglichen Platzierung folgen. Der Befehl wird einfach erzeugt, wenn die Berührung detektiert wird. Die statische Befehlsgeste kann analog eine Zeichensprache sein, wo spezifische Handanordnungen unterschiedliche Dinge bedeuten. Im Zusammenhang mit einer statischen Befehlsgeste initiiert jede Handanordnung (oder unterschiedliche Kontaktanordnung) einen unterschiedlichen Befehl.A static command gesture is a gesture made by simply placing a particular contact arrangement performed on a contact surface becomes. A command is initiated when the particular contact arrangement is identified at the impact. There are no gesture events that follow the initial placement. The command will simply generated when the touch is detected. The static Command gesture may analogously be a sign language where specific Hand arrangements mean different things. In connection with a static command gesture initiates each hand arrangement (or different contact arrangement) a different command.

15 zeigt die illustrative Gestenoperation 310 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation 310 kann bei Block 312 beginnen, wo eine Berührung oder eine benahe Berührung an einer Berührungsoberfläche detektiert wird. Nach Block 312 kann die Operation nach Block 314 weitergehen, wo eine Kontaktstellenanordnung, die mit der Berührung assoziiert ist, identifiziert wird. Die Kontaktstellenanordnung kann durch eine oder zwei Hände gemacht werden, oder alternativ oder zusätzlich durch Elemente wie einen Stift oder Stempel. Wenn die Kontaktstellen durch die Hand erzeugt werden, können sie durch irgendeinen Abschnitt der Hand gemacht werden, inklusive Finger, Handflächen usw., und weiterhin durch irgendeine Ausrichtung der Hand, durch irgendeine Position der Finger relativ zueinander und durch irgendeine Ausrichtung von Fingern. Wie erkannt werden sollte, werden verschiedene Handausrichtungen und verschiedene Fingerpositionen/-Ausrichtungen eine unterschiedliche Kontaktstellenanordnung erzeugen. Beispiele von verschiedenen Ausrichtungen umfassen offene Hand nach unten, offene Hand nach oben, offene Hand mit der Seite nach unten (Daumen oben), geschlossene Hand – Handfläche unten, geschlossene Hand – Handrücken, geschlossene Hand – Knöchel, geschlossene Hand – mit der Seite nach unten. Beispiele von verschiedenen Fingerpositionen umfassen gespreizt, neutral, gruppiert, usw. Jede Kontaktanordnung kann in Betracht gezogen werden (Zeichensprache). 15 shows the illustrative gesture operation 310 in accordance with an embodiment of the present invention. The gesture operation 310 can at block 312 begin where a touch or a near touch is detected on a touch surface. After block 312 can the operation after block 314 continue where a pad assembly associated with the touch is identified. The pad arrangement may be made by one or two hands, or alternatively or additionally by elements such as a pin or punch. When the pads are created by hand, they can be made through any portion of the hand, including fingers, palms, etc., and further by any orientation of the hand, any position of the fingers relative to each other, and any alignment of fingers. As should be appreciated, various hand orientations and different finger positions / orientations will produce a different pad arrangement. Examples of different orientations include open hand down, of fene hand up, open hand side down (thumb up), closed hand - palm down, closed hand - back of hand, closed hand - knuckle, closed hand - side down. Examples of different finger positions include spread, neutral, grouped, etc. Each contact arrangement can be considered (sign language).

Nach Block 314 kann die Operation nach Block 316 weitergehen, wo ein Befehl, der an eine bestimmnte Kontaktanordnung gebunden ist, initiiert wird, wenn die bestimmte Kontaktanordnung identifiziert wird. Die Befehle können stark variieren.After block 314 can the operation after block 316 continue where an instruction bound to a particular contact arrangement is initiated when the particular contact arrangement is identified. The commands can vary greatly.

16 zeigt eine illustrative Gestenoperation 320 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation 320 kann bei Block 322 beginnen, wo eine Berührung bezüglich Bewegung überwacht wird. Die Berührung kann z. B. als eine spezielle Kontaktanordnung ausgeführt sein. Wenn es Bewegung gibt, kann die Gestenoperation weitergehen nach Block 324, wo die Bewegung zwischen einem Schnalzen und einen Streichen unterschieden wird. Ein Schnalzen kann eine schnelle kurze Bewegung sein. Ein Streichen kann eine längere langsame Bewegung sein. Wenn die Bewegung ein Schnalzen ist, dann kann eine erste Aktion durchgeführt werden, wenn das Schnalzen detektiert wird (Block 326). Wenn die Bewegung Streichen ist, dann kann eine zweite Aktion durchgeführt werden, wenn das Streichen detektiert wird (Block 328). 16 shows an illustrative gesture operation 320 in accordance with an embodiment of the present invention. The gesture operation 320 can at block 322 begin where a touch is monitored for movement. The touch can z. B. be designed as a special contact arrangement. If there is movement, the gesture operation can continue to block 324 where the movement is distinguished between a click and a swipe. A click can be a quick short move. A swipe can be a slow, slow movement. If the movement is a click, then a first action may be taken when the click is detected (Block 326 ). If the movement is cancel, then a second action may be taken if the strike is detected (block 328 ).

17 zeigt eine illustrative Gestenoperation 330 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation 330 kann bei Block 332 beginnen, wo eine Berührung auf einer Berührungsoberfläche detektiert wird (z. B. Berührungsfeld, Berührungsbildschirm, usw.). Nach Block 332 kann die Operation nach Block 334 weitergehen, wo zwei Kontakte, die mit der Berührung assoziiert sind, identifiziert werden. Danach kann die Operation in Block 336 Überwachung der Berührung bezüglich eines Gestenereignisses umfassen. In Block 338 kann ein Drehbefehl initiiert werden, wenn ein erster Kontakt stationär ist und der zweite Kontakt um den ersten Kontakt gedreht wird. 17 shows an illustrative gesture operation 330 in accordance with an embodiment of the present invention. The gesture operation 330 can at block 332 begin where a touch is detected on a touch surface (e.g., touch pad, touch screen, etc.). After block 332 can the operation after block 334 continue where two contacts associated with the touch are identified. After that, the operation in block 336 Monitoring the touch for a gesture event. In block 338 For example, a spin command may be initiated when a first contact is stationary and the second contact is rotated about the first contact.

Viele Benutzer halten mehrere Fenster gleichzeitig offen. Dies ermöglicht ihnen, zwischen Fenstern, wie benötigt, hin und her zu gehen. Dies kann nützlich sein, wenn sie von einem Fenster kopieren und in ein anderes Fenster einfügen. In einem typischen Prozess würde der Benutzer eines der Fenster auswählen, wodurch er das Fenster aktiviert, und dann Aktionen mit dem Fenster ausführen. Der Benutzer würde dann ein anderes Fenster auswählen, wodurch er das neue Fenster aktiviert und das alte Fenster deaktiviert und dann Aktionen mit dem neuen Fenster ausführen. Dies ist umständlich und besteht aus vielen Schatten. Um dies zu beseitigen, stellt die vorliegende Erfindung ein Verfahren in 18 zur Verfügung, das dem Benutzer die Möglichkeit gibt, zwischen Fenstern ohne Aktivieren und Deaktivieren hin und her zu gehen. Die Fenster werden aktiv, wenn sich ein Zeigemechanismus über dem Fenster befindet. Der Zeigemechanismus kann ein Zeiger oder Cursor im Fall eines Berührungsfeldes sein oder ein Finger im Fall eines Berührungsbildschirms.Many users keep multiple windows open at the same time. This allows them to go back and forth between windows as needed. This can be useful when copying from one window and pasting into another window. In a typical process, the user would select one of the windows, thereby enabling the window, and then performing actions with the window. The user would then select another window, which activates the new window and deactivates the old window and then performs actions with the new window. This is awkward and consists of many shadows. To remedy this, the present invention provides a method 18 which allows the user to toggle between windows without enabling and disabling them. The windows become active when a pointing mechanism is over the window. The pointing mechanism may be a pointer or cursor in the case of a touchpad or a finger in the case of a touchscreen.

18 zeigt eine illustrative Gestenoperation 340 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation 340 umfasst das zur Verfügung stellen mehrerer Fenster 342. Die Fenster können z. B. geöffnete Programme auf einer Schreibtischoberfläche sein. Danach kann die Operation in Block 344 Detektieren eines Zeigemechanismus über dem ersten Fenster umfassen. Im Fall eines Berührungsfeldes kann der Zeigemechanismus z. B. ein Cursor sein. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Danach kann in Block 346 die Berührung überwacht werden, um zu bestimmen, ob ein Akkord, der mit dem Zeigemechanismus assoziiert ist, dargeboten wurde. Im Fall eines Berührungsfeldes kann dies bewerkstelligt werden, nachdem der Cursor über dem Fenster platziert ist. Im Fall eines Berührungsbildschirms kann dies bewerkstelligt werden, während der Finger über dem Fenster positioniert ist. Danach kann in Block 348 ein Gestensatz, der mit dem Akkord und dem ersten Fenster assoziiert ist, initiiert werden (z. B. hängt der Gestensatz sowohl vom Akkord als auch vom Fenster ab). Danach können in Block 350 Aktionen im ersten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden. Danach kann in Block 352 die Operation Detektieren eines Zeigemechanismus über dem zweiten Fenster umfassen. Dies kann zu einem von Block 344 unterschiedlichem Zeitpunkt bewerkstelligt werden oder es kann gleichzeitig mit Block 344 geschehen. Der Zeigemechanismus kann derselbe Zeigemechanismus sein, der für das erste Fenster verwendet wird (z. B. wird der Zeigemechanismus von einem Fenster in das andere bewegt) oder alternativ kann der Zeigemechanismus ein zweiter Zeigemechanismus sein (z. B. zweiter Cursor oder zweiter Finger). Danach kann in Block 354 die Berührungsoberfläche überwacht werden, um zu bestimmen, ob ein Akkord, der mit dem zweiten Zeigemechanismus assoziiert ist, dargeboten wurde. Danach kann in Block 356 ein Gestensatz, der mit dem Akkord und dem zweiten Fenster assoziiert ist, initiiert werden. Danach können in Block 358 Aktionen im zweiten Fenster durchgeführt werden, wenn Gestenereignisse, die mit dem Gestensatz assoziiert sind, auf der Berührungsoberfläche durchgeführt werden. 18 shows an illustrative gesture operation 340 in accordance with an embodiment of the present invention. The gesture operation 340 includes making several windows available 342 , The windows can z. B. be open programs on a desk surface. After that, the operation in block 344 Detecting detecting a pointing mechanism over the first window. In the case of a touchpad, the pointing mechanism may e.g. B. be a cursor. In the case of a touch screen, the pointing mechanism may be a finger or a finger group. After that, in block 346 the touch is monitored to determine if a chord associated with the pointing mechanism has been presented. In the case of a touchpad, this can be done after the cursor is placed over the window. In the case of a touchscreen, this can be accomplished while the finger is positioned over the window. After that, in block 348 a gesture set associated with the chord and the first window are initiated (eg, the gesture set depends on both the chord and the window). After that, in block 350 Actions in the first window are performed when gesture events associated with the gesture set are performed on the touch surface. After that, in block 352 the operation comprises detecting a pointing mechanism over the second window. This can be one of block 344 be accomplished at different times or it may be simultaneously with block 344 happen. The pointing mechanism may be the same pointing mechanism used for the first window (eg, the pointing mechanism is moved from one window to the other), or alternatively, the pointing mechanism may be a second pointing mechanism (eg, second cursor or second finger). , After that, in block 354 the touch surface may be monitored to determine if a chord associated with the second pointing mechanism has been presented. After that, in block 356 a gesture set associated with the chord and the second window are initiated. After that, in block 358 Actions in the second window are performed when gesture events associated with the gesture set are performed on the touch surface.

In einem Beispiel von 18, das einen Berührungsbildschirm verwendet, kann der Benutzer, wenn ein Benutzer Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über das erste Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann auch Finger von einer zweiten Hand über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen.In an example of 18 using a touch screen, when a user performs copying and pasting, the user can position his / her fingers from one hand over the first window and select an object to be copied. Thereafter, the user may make a copy gesture over the first window. The user may also position fingers from a second hand over the second window and select a location to insert. Thereafter, the user may perform an insertion gesture over the second window.

In einem anderen Beispiel von 18, in dem ein Berührungsbildschirm verwendet wird, kann ein Benutzer, wenn der Benutzer ein Kopieren und Einfügen durchführt, seinen/seine Finger von einer Hand über dem ersten Fenster positionieren und ein zu kopierendes Objekt anwählen. Danach kann der Benutzer eine Kopiergeste über dem ersten Fenster durchführen. Der Benutzer kann dann seine Hand zum zweiten Fenster bewegen. Der Benutzer kann seine Finger über dem zweiten Fenster positionieren und eine Stelle zum Einfügen auswählen. Danach kann der Benutzer eine Einfügegeste über dem zweiten Fenster durchführen.In another example of 18 in which a touch screen is used, when the user performs a copy and paste operation, a user can position his / her fingers from one hand over the first window and select an object to be copied. Thereafter, the user may make a copy gesture over the first window. The user can then move his hand to the second window. The user can place their fingers over the second window and select a place to insert. Thereafter, the user may perform an insertion gesture over the second window.

19 zeigt eine illustrative Gestenoperation 360 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Gestenoperation kann bei Block 364 beginnen, wo die Kontaktanordnung, die mit einer ersten Hand assoziiert ist, erkannt wird. Nach Block 364 kann die Operation nach Block 366 weitergehen, wo ein Gestensatz auf der Grundlage einer Kontaktanordnung, die mit der ersten Hand assoziiert ist, geladen wird. Nach Block 366 kann die Operation nach Block 368 weitergehen, wo eine zweite Kontaktanordnung, die mit einer zweiten Hand assoziiert ist, erkannt wird. Nach Block 368 kann die Operation nach Block 370 weitergehen, wo der Gestensatz der ersten Kontaktanordnung auf der Grundlage der zweiten Kontaktanordnung geändert oder modifiziert wird. Wie erkannt werden sollte, kann die zweite Hand verwendet werden, um schnell zwischen verschiedenen Gestensätzen wie benötigt zu modulieren. Dies kann auch eine größere Bandbreite an möglichen Gestensätzen ermöglichen. Wenn z. B. die erste Hand fünf Gestensätze auf der Grundlage der Fingeranzahl zur Verfügung stellen kann und die zweite Hand fünf Modifizierer auf der Grundlage der Fingeranzahl liefern kann, dann können 100 Gestensätze erzeugt werden. 19 shows an illustrative gesture operation 360 in accordance with an embodiment of the present invention. The gesture operation may be at block 364 begin where the contact assembly associated with a first hand is detected. After block 364 can the operation after block 366 continue where a gesture set is loaded based on a contact arrangement associated with the first hand. After block 366 can the operation after block 368 continue where a second contact arrangement associated with a second hand is detected. After block 368 can the operation after block 370 continue where the gesture set of the first contact arrangement is changed or modified on the basis of the second contact arrangement. As should be appreciated, the second hand can be used to quickly modulate between different gesture sets as needed. This may also allow for a wider range of possible gesture sets. If z. For example, if the first hand can provide five gesture sets based on the number of fingers and the second hand can provide five modifiers based on the number of fingers, then 100 gesture sets can be generated.

Um ein Beispiel von 19 zu zitieren, wo ein Berührungsfeld verwendet wird, kann der Benutzer zwei Finger auf dem Berührungsfeld platzieren und dadurch einen Gestensatz initiieren, der mit den zwei Fingern assoziiert ist. Der Benutzer kann Gestenereignisse unter Verwendung der zwei Finger durchführen. Der Benutzer kann entscheiden, dass er eine Aktion durchführen muss, die nicht vom Zwei-Finger-Gestensatz angeboten wird. Der Benutzer kann daher zwei Finger von der gegenüberliegenden Hand heruntersetzen. Dies kann einen völlig neuen Gestensatz laden, der durch die erste Hand durchzuführen ist.To give an example of 19 To quote where a touchpad is used, the user can place two fingers on the touchpad and thereby initiate a gesture set associated with the two fingers. The user can perform gesture events using the two fingers. The user may decide that he must perform an action that is not offered by the two-finger gesture set. The user can therefore lower two fingers from the opposite hand. This can load a completely new gesture set to be done by the first hand.

20 zeigt eine illustrative Steueroperation 380 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 382 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Zum Beispiel kann eine Maus mit einem Laptop Computer verbunden sein, der ein Berührungsfeld umfasst. Nach Block 382 kann die Operation nach Block 384 weitergehen, wo die Maus bezüglich Mausereignissen überwacht wird (z. B. Bewegen eines Cursors, Tastenklicken, Scrollen). Gleichzeitig kann in Block 386 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. In Block 388 können Mausoperationen in Übereinstimmung mit Mausereignissen durchgeführt werden. Gleichzeitig können in Block 390 Gestenoperationen in Übereinstimmung mit Gestenereignissen durchgeführt werden. 20 shows an illustrative control operation 380 in accordance with an embodiment of the present invention. The control operation can be at block 382 begin where a mouse and a touch surface are provided. For example, a mouse may be connected to a laptop computer that includes a touchpad. After block 382 can the operation after block 384 continue where the mouse is monitored for mouse events (e.g., moving a cursor, key clicking, scrolling). At the same time, in block 386 the touch surface is monitored for gesture events. In block 388 Mouse operations may be performed in accordance with mouse events. At the same time, in block 390 Gesture operations are performed in accordance with gesture events.

Dieses Verfahren ermöglicht es einem Benutzer, eine Maus mit einer Hand zu steuern, während er mit der gegenüberliegenden Hand Gesten durchführt. Der Benutzer kann daher produktiver sein.This Method allows a user to use a mouse Hand to steer while he is facing the opposite Hand gestures. The user can therefore be more productive.

In einem Beispiel von 20 kann in einem Tabellenkalkulationsprogramm ein Benutzer Zellen unter Verwendung der Maus anwählen, dann eine Kopiergeste mit der gegenüberliegenden Hand auf einer Berührungsoberfläche durchführen. Der Benutzer kann dann durch die Tabelle unter Verwendung einer Scroll- oder Streichgeste scrollen oder streichen. Sobald eine gewünschte Stelle gefunden wird, kann der Benutzer die gewünschten Zellen oder Zelle zum Einfügen unter Verwendung der Maus anwählen und dann eine Einfügegeste durchführen.In an example of 20 For example, in a spreadsheet program, a user may select cells using the mouse, then make a copy gesture with the opposite hand on a touch surface. The user can then scroll or swipe through the table using a scroll or swipe gesture. Once a desired location is found, the user can select the desired cell or cell for insertion using the mouse and then perform an insertion gesture.

21 zeigt eine illustrative Steueroperation 400 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 402 beginnen, wo eine Maus und eine Berührungsoberfläche zur Verfügung gestellt werden. Nach Block 402 kann die Operation nach Block 404 weitergehen, wo die Maus bezüglich Mausereignissen (z. B. Bewegen eines Cursors, Tasten, Klicken, Scrollen) überwacht wird. Gleichzeitig kann in Block 406 die Berührungsoberfläche bezüglich Gestenereignissen überwacht werden. Danach kann in Block 408 der Mausmodus auf der Grundlage einer Berührung oder Gestenereignissen geändert werden, die auf der Berührungsoberfläche durchgeführt werden. Zum Beispiel kann die berührende Hand verwendet werden, um die Funktionalität der Maus, die mit der anderen Hand bedient wird, zu modifizieren. Zum Beispiel kann die Anwesenheit eines Fingers auf der Berührungsoberfläche die Maus von einem Nachverfolgungsmodus in einen Scrollmodus wechseln lassen. 21 shows an illustrative control operation 400 in accordance with an embodiment of the present invention. The control operation can be at block 402 begin where a mouse and a touch surface are provided. After block 402 can the operation after block 404 continue where the mouse is monitored for mouse events (eg, moving a cursor, clicking, clicking, scrolling). At the same time, in block 406 the touch surface is monitored for gesture events. After that, in block 408 the mouse mode may be changed based on a touch or gesture events made on the touch surface. For example, the touching hand can be used to control the functionality of the mouse operated with the other hand, to modify. For example, the presence of a finger on the touch surface may cause the mouse to switch from a tracking mode to a scrolling mode.

22 zeigt eine illustrative Steueroperation 410 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation kann bei Block 412 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Nach Block 412 kann die Operation nach Block 414 weitergehen, wo die erste Kontaktanordnung erkannt wird. Dies kann z. B. mit einer ersten Hand erreicht werden. Gleichzeitig kann in den Blöcken 416 und 418 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block 420 kann der Gestensatz für die erste Kontaktanordnung geladen werden. Gleichzeitig kann in Block 422 der Gestensatz für die zweite Kontaktanordnung geladen werden. In Block 424 kann die erste Berührung bezüglich erster Gestenereignisse überwacht werden. Gleichzeitig kann in Block 426 die zweite Berührung bezüglich zweiter Gestenereignisse überwacht werden. In Block 428 können Aktionen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block 430 Aktionen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden. 22 shows an illustrative control operation 410 in accordance with an embodiment of the present invention. The surgery may be at block 412 begin where a first touch on a touch surface is detected. After block 412 can the operation after block 414 continue where the first contact arrangement is detected. This can be z. B. can be achieved with a first hand. At the same time in the blocks 416 and 418 a second touch on the touch surface are detected and a second contact arrangement can be detected. This can be z. B. can be achieved with a second hand. In block 420 For example, the gesture set for the first contact arrangement can be loaded. At the same time, in block 422 the gesture set for the second contact arrangement are loaded. In block 424 For example, the first touch may be monitored for first gesture events. At the same time, in block 426 the second touch is monitored for second gesture events. In block 428 For example, actions associated with the first gesture events may be implemented when the first gesture events are performed. At the same time, in block 430 Actions associated with the second gesture events are implemented when the second gesture events are performed.

23 zeigt eine illustrative Steueroperation 440 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 440 kann bei Block 442 starten, wo ein GUI Objekt angezeigt wird. Danach können in Block 444 mehrere Zeiger an verschiedenen Punkten des angezeigten GUI Objekts detektiert werden. Im Fall eines Berührungsbildschirms können die ersten Zeiger (ein) Finger von einer ersten Hand sein und der zweite Zeiger kann (ein) Finger von einer zweiten Hand sein. Im Fall eines Berührungsfeldes kann der erste Zeiger ein Cursor sein, der von einer ersten Hand gesteuert wird und der zweite Zeiger kann ein Cursor sein, der von einer zweiten Hand gesteuert wird. Sobald die Zeiger detektiert sind, können die Zeiger auf das angezeigte Objekt in Block 445 arretiert werden. Dies kann z. B. durch Anhalten erreicht werden. Zum Beispiel kann der Benutzer die Zeiger an Punkten auf dem GUI Objekt positionieren und dann dort innehalten, bis die Zeiger arretiert sind. Danach kann in Block 446 die Position der Zeiger relativ zu ihrer arretierten Position überwacht werden. Danach kann in Block 448 das angezeigte Objekt modifiziert werden, wenn die Position eines oder mehrerer Zeiger relativ zu seiner arretierten Position bewegt wird. Zum Bei spiel können die Attribute des GUI Objekts, die z. B. Ausrichtung, Größe und Form umfassen, modifiziert werden. 23 shows an illustrative control operation 440 in accordance with an embodiment of the present invention. The operation 440 can at block 442 start where a GUI object is displayed. After that, in block 444 several pointers are detected at different points of the displayed GUI object. In the case of a touch screen, the first pointers may be a finger of a first hand and the second pointer may be a finger of a second hand. In the case of a touchpad, the first pointer may be a cursor controlled by a first hand and the second pointer may be a cursor controlled by a second hand. Once the hands are detected, the pointers to the displayed object in block 445 be arrested. This can be z. B. be achieved by stopping. For example, the user may position the pointers at points on the GUI object and then pause there until the hands are locked. After that, in block 446 the position of the pointers are monitored relative to their locked position. After that, in block 448 the displayed object may be modified when the position of one or more pointers is moved relative to its locked position. For example, the attributes of the GUI object, the z. As alignment, size and shape include modified.

Um ein Beispiel von 23 zu zitieren, kann der Benutzer, um ein Objekt zu drehen, seine Zeiger auf das GUI Objekt positionieren und einen oder zwei Zeiger rotieren, wenn sie arretiert sind. Das GUI Objekt kann der Rotation des einen oder der zwei Zeiger folgen, wodurch seine Ausrichtung geändert wird. Um seine Größe zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und die zwei Zeiger zusammen oder voneinander wegschieben, wenn sie arretiert sind. Wenn sie zusammengeschoben werden, kann die Größe des Objekts verringert werden. Wenn sie auseinandergeschoben werden, kann die Größe des Objekts vergrößert werden. Um seine Form zu ändern, kann der Benutzer die Zeiger auf dem GUI Objekt positionieren und einen Zeiger nach oben, unten, rechts, links schieben, wenn er arretiert ist. Wenn er vom Objekt weggeschoben wird, kann das Objekt in der Schieberichtung größer gemacht werden. Wenn er zum Objekt hingeschoben wird, kann das Objekt in der Schieberichtung kleiner gemacht werden.To give an example of 23 For example, to rotate an object, the user can position their pointers on the GUI object and rotate one or two pointers when locked. The GUI object may follow the rotation of the one or two pointers, thereby changing its orientation. To resize, the user can position the pointers on the GUI object and push the two pointers together or away from each other when locked. When they are pushed together, the size of the object can be reduced. When they are pushed apart, the size of the object can be increased. To change its shape, the user can position the pointers on the GUI object and move a pointer up, down, right, left when locked. If it is pushed away from the object, the object can be made larger in the sliding direction. If it is pushed towards the object, the object can be made smaller in the sliding direction.

24 zeigt eine illustrative Steueroperation 450 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation kann bei Block 452 beginnen, wo eine erste Berührung auf einer Berührungsoberfläche detektiert wird. Dies kann z. B. durch eine erste Hand erreicht werden. Nach Block 452 kann die Operation nach Block 454 weitergehen, wo die erste Kontaktanordnung, die mit der ersten Berührung assoziiert ist, erkannt wird. Gleichzeitig kann in den Blöcken 456 und 458 eine zweite Berührung auf der Berührungsoberfläche detektiert werden und eine zweite Kontaktanordnung kann erkannt werden. Dies kann z. B. mit einer zweiten Hand erreicht werden. In Block 460 kann die erste Berührung bezüglich ersten Gestenereignissen überwacht werden. Gleichzeitig kann in Block 462 die zweite Berührung bezüglich zweiten Gestenereignissen überwacht werden. In Block 464 können Zeigeoperationen, die mit den ersten Gestenereignissen assoziiert sind, implementiert werden, wenn die ersten Gestenereignisse durchgeführt werden. Gleichzeitig können in Block 466 Zeigeoperationen, die mit den zweiten Gestenereignissen assoziiert sind, implementiert werden, wenn die zweiten Gestenereignisse durchgeführt werden. 24 shows an illustrative control operation 450 in accordance with an embodiment of the present invention. The surgery may be at block 452 begin where a first touch on a touch surface is detected. This can be z. B. can be achieved by a first hand. After block 452 can the operation after block 454 continue where the first contact arrangement associated with the first touch is detected. At the same time in the blocks 456 and 458 a second touch on the touch surface are detected and a second contact arrangement can be detected. This can be z. B. can be achieved with a second hand. In block 460 For example, the first touch may be monitored for first gesture events. At the same time, in block 462 the second touch is monitored for second gesture events. In block 464 For example, pointing operations associated with the first gesture events may be implemented when the first gesture events are performed. At the same time, in block 466 Pointing operations associated with the second gesture events are implemented when the second gesture events are performed.

25 zeigt eine illustrative Steueroperation 470 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 472 beginnen, wo eine Gruppe von anwählbaren Gegenständen angezeigt wird. Die Gruppe von anwählbaren Gegenständen kann z. B. eine Farbpalette oder eine Werkzeugleiste sein. Nach Block 472 kann die Operation nach Block 474 weitergehen, wo ein erster Zeigemechanismus über der Gruppe von selektierbaren Gegenständen detektiert wird. Im Fall eines Berührungsbildschirms kann der Zeigemechanismus ein Finger oder eine Fingergruppe sein. Im Fall eines Berührungsfeldes kann der Zeigemechanismus ein Cursor oder ein Werkzeug sein, das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block 476 kann der Gegenstand unter dem ersten Zeigemechanismus aktiviert (angewählt) werden. Der aktivierte Gegenstand kann auf der Position des Zeigemechanismus beruhen. Eine visuelle Rückmeldung kann so bereit gestellt werden, dass der Benutzer eine Bestätigung seiner Auswahl erhält. Zum Beispiel kann der aktivierte Gegenstand hervorgehoben werden, wenn der erste Zeigemechanismus über dem Gegenstand positioniert wird. In Block 478 kann ein zweiter Zeigemechanismus gleichzeitig über einem Fenster detektiert werden (z. B. arbeiten beide Zeigemechanismen gleichzeitig). Das Fenster kann z. B. eine Leinwand in einem Zeichen – oder Malprogramm sein. Im Fall eines Berührungsbildschirms kann der zweite Zeigemechanismus ein Finger oder eine Fingergruppe sein (von der gegenüberliegenden Hand wie der erste Zeigemechanismus). Im Fall eines Berührungsfelds kann der zweite Zeigemechanismus ein Cursor oder Werkzeug sein, der/das durch einen Finger oder eine Fingergruppe gesteuert wird. In Block 480 kann der angewählte Gegenstand auf den zweiten Zeigemechanismus angewendet werden. Zum Beispiel kann im Fall einer Werkzeugleiste die Werkzeugfunktionalität des zweiten Zeigemechanismus auf dem angewählten Gegenstand basieren. Weiterhin kann im Fall eines Berührungsfeldes das Werkzeug-UI Element sich mit der Funktionalität ändern, so dass der Benutzer weiß, welches Werkzeug aktiv ist (z. B. Bleistift, Pinsel usw.). Im Fall einer Palette kann die Ausgabe des zweiten Zeigermechanismus auf dem ausgewählten Gegenstand basieren. Wenn z. B. im Fall des Malens der Benutzer eine Farbe auf der Palette auswählt, wechselt die Ausgabe des zweiten Zeigers zu dieser Farbe. Der Benutzer kann daher die Farbe, die auf die Leinwand angewendet wird, sofort während einer Maloperation anpassen. 25 shows an illustrative control operation 470 in accordance with an embodiment of the present invention. The control operation can be at block 472 begin where a group of selectable items is displayed. The group of selectable items may, for. B. a color palette or a toolbar. After block 472 can the operation after block 474 continue where a first pointing mechanism detek over the group of selectable objects is being done. In the case of a touch screen, the pointing mechanism may be a finger or a finger group. In the case of a touchpad, the pointing mechanism may be a cursor or a tool controlled by a finger or a finger group. In block 476 The item can be activated (selected) under the first pointing mechanism. The activated item may be based on the position of the pointing mechanism. A visual feedback may be provided so that the user receives a confirmation of his selection. For example, the activated item may be highlighted when the first pointing mechanism is positioned over the item. In block 478 For example, a second pointing mechanism may be simultaneously detected over a window (eg, both pointing mechanisms operate simultaneously). The window can z. B. be a canvas in a drawing or painting program. In the case of a touch screen, the second pointing mechanism may be a finger or a finger group (from the opposite hand as the first pointing mechanism). In the case of a touchpad, the second pointing mechanism may be a cursor or tool controlled by a finger or a finger group. In block 480 the selected item can be applied to the second pointing mechanism. For example, in the case of a toolbar, the tool functionality of the second pointing mechanism may be based on the selected item. Furthermore, in the case of a touchpad, the tool UI element may change with functionality so that the user knows which tool is active (eg, pencil, brush, etc.). In the case of a palette, the output of the second pointing mechanism may be based on the selected item. If z. For example, if, in the case of painting, the user selects a color on the palette, the output of the second pointer changes to that color. The user can therefore adjust the color applied to the canvas immediately during a painting operation.

26 zeigt eine illustrative Steueroperation 500 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 502 beginnen, wenn eine Gruppe von Mediengegenständen angezeigt wird. Die Mediengegenstände können z. B. Lieder, Videoclips, Filme, Fotos, Spiele und ähnliches sein. Die Mediengegenstände können z. B. durch ein Medienverwaltungsprogramm gesteuert werden. iPhoto und iTunes hergestellt von Apple Inc. aus Cupertino, sind Beispiele für Medienverwaltungsprogramme. In Block 504 kann ein Zeigemechanismus über einem Gegenstand detektiert werden und dadurch den Gegenstand hervorheben. Der Zeigemechanismus kann z. B. durch eine Maus oder einen Handakkord (dominante Hand) gesteuert werden. In Block 506 kann eine Berührung auf einer Berührungsoberfläche detektiert werden. Die Berührung kann durch die Hand durchgeführt werden, die der Hand, die mit dem Zeigemechanismus assoziiert ist, gegenüberliegt. Danach kann in Block 508 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Danach können in Block 510 Metadaten, die an die erkannte Kontaktanordnung gebunden sind, in den hervorgehobenen Gegenstand eingefügt werden. Jede der Kontaktanordnungen kann verschiedene Metadaten haben. Zum Beispiel kann ein einzelner Finger erste Metadaten haben, zwei Finger können zweite Metadaten haben, drei Finger können dritte Metadaten haben, vier Finger können vierte Metadaten haben, fünf Finger können fünfte Metadaten haben, usw. Die Metadaten für jede Kontaktanordnung können sich auf dieselbe Funktionalität beziehen oder sie können völlig verschiedene Funktionalitäten haben. 26 shows an illustrative control operation 500 in accordance with an embodiment of the present invention. The control operation can be at block 502 begin when a group of media items is displayed. The media items can z. As songs, video clips, movies, photos, games and the like. The media items can z. B. be controlled by a media management program. iPhoto and iTunes, manufactured by Apple Inc. of Cupertino, are examples of media management programs. In block 504 For example, a pointing mechanism may be detected over an object and thereby highlight the object. The pointing mechanism can, for. B. be controlled by a mouse or a hand chord (dominant hand). In block 506 For example, a touch on a touch surface may be detected. The touch may be performed by the hand opposite the hand associated with the pointing mechanism. After that, in block 508 the contact arrangement associated with the contact can be recognized. After that, in block 510 Metadata bound to the recognized contact arrangement are inserted into the highlighted object. Each of the contact arrangements may have different metadata. For example, a single finger may have first metadata, two fingers may have second metadata, three fingers may have third metadata, four fingers may have fourth metadata, five fingers may have fifth metadata, and so on. The metadata for each contact arrangement may have the same functionality or they can have completely different functionalities.

Um ein Beispiel von 26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu bewerten oder einzuordnen. Zum Beispiel kann ein einzelner Finger eine 1 Stern Einordnung an ein Lied binden, zwei Finger können eine 2 Stern Einordnung an ein Lied binden, drei Finger können eine 3 Stern Einordnung an ein Lied binden, vier Finger können eine 4 Stern Einordnung an ein Lied binden und fünf Finger können eine 5 Stern Einordnung an ein Lied binden.To give an example of 26 To cite, the above process can be used to rate or classify media items. For example, a single finger can bind a 1-star cast to a song, two fingers can bind a 2-star cast to a song, three fingers can bind a 3-star cast to a song, four fingers can bind a 4-star cast to a song and five fingers can tie a 5 star arrangement to a song.

Um ein weiteres Beispiel von 26 zu zitieren, kann der obige Prozess verwendet werden, um Mediengegenstände zu identifizieren. Zum Beispiel kann ein einzelner Finger eine erste Person (z. B. Ehefrau Darcy) an ein Foto binden, ein zweiter Finger kann eine zweite Person (z. B. Tochter Halley) an ein Foto binden, ein dritter Finger kann eine dritte Person (z. B. Cousin Camden) an ein Foto binden, ein vierter Finger kann eine vierte Person (Onkel Chance) an ein Foto binden und ein fünfter Finger kann eine fünfte Person (z. B. Großmutter Shery) an ein Foto binden. Tippen kann verwendet werden, um die Liste zu vergrößern. Zum Beispiel kann die Anzahl an Fingern beim ersten Absetzen der Anzahl an Fingern beim zweiten Absetzen hinzugefügt werden, um eine endgültige Kontaktanordnung zu erzeugen. Drei Finger gefolgt von zwei Fingern können immer noch die fünfte Person bedeuten. Während fünf Finger und ein Finger (im ganzen 6 Finger) eine sechste Person (z. B. Großmutter Terry) an ein Foto binden können. Weiterhin können fünf Finger und zwei Finger eine siebte Person (z. B. Hund Prima) an ein Foto binden, fünf Finger und drei Finger können eine achte Person (Freundin Lisa) an ein Foto binden, fünf Finger und vier Finger können eine neunte Person an ein Foto binden und fünf Finger und fünf Finger können eine zehnte Person an ein Foto binden. Alternativ können die Metadaten nicht mit einer Person sondern mit einer anderen Eigenschaft von Fotos assoziiert werden (z. B. Ferien, Kalifornien, Landschaft, Familie usw.).For another example of 26 To cite, the above process can be used to identify media objects. For example, a single finger may bind a first person (eg, wife Darcy) to a photo, a second finger may bind a second person (eg, daughter Halley) to a photo, a third finger may be a third person ( eg cousin Camden) to a photo, a fourth finger can bind a fourth person (Uncle Chance) to a photo and a fifth finger can bind a fifth person (eg grandmother Shery) to a photo. Tap can be used to enlarge the list. For example, the number of fingers at the first settling of the number of fingers at the second settling may be added to produce a final contact arrangement. Three fingers followed by two fingers can still mean the fifth person. While five fingers and one finger (6 fingers in total) can bind a sixth person (eg grandmother Terry) to a photo. Furthermore, five fingers and two fingers can bind a seventh person (eg, dog Prima) to a photo, five fingers and three fingers can bind an eighth person (friend Lisa) to a photo, five fingers and four fingers can hold a ninth person bind to a photo and five fingers and five fingers can bind a tenth person to a photo. Alternatively, the metadata may not be associated with a person but with another property of photos (eg vacation, California, landscape, family, etc.).

Im Allgemeinen kann es das Medienverwaltungsprogramm verlangen, in einen Metadaten-Einfügungsmodus gebracht zu werden. Dies kann herkömmlicher Weise durch Steuerung auf dem Bildschirm oder alternativ durch den Akkord erreicht werden, der mit dem Zeigemechanismus verbunden ist.in the Generally, it may require the media management program to work in to be brought into a metadata insertion mode. This can be done conventionally by controlling on the screen or alternatively be achieved by the chord associated with the pointing mechanism connected is.

27 zeigt eine illustrative Steueroperation 520 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 522 beginnen, wo ein Steuerobjekt angezeigt wird. Das Steuerobjekt kann z. B. eine Schaltfläche, Wählscheibe, Schieber, Schalter usw. auf dem Bildschirm sein. In Block 524 kann eine Berührung über dem Steuerobjekt detektiert werden. Danach kann in Block 526 die Kontaktanordnung, die mit der Berührung assoziiert ist, erkannt werden. Im Block 527 kann eine Bestimmung gemacht werden, ob die Kontaktanordnung mit der Kontaktanordnung, die mit Steuerung des Steuerobjekts assoziiert ist, übereinstimmt oder nicht. Wenn sie nicht übereinstimmt, kann die Operation nach Block 528 weitergehen, wo die Berührung ignoriert wird. Wenn sie übereinstimmt, kann die Operation nach Block 530 weitergehen, wo die Berührung bezüglich eines Gestenereignisses überwacht wird, das mit Steuern des Steuerobjekts assoziiert ist. Wenn ein Gestenereignis durchgeführt wird, kann die damit assoziierte Aktion auf das Steuerobjekt angewendet werden, so dass das Steuerobjekt seine Befehle erzeugen kann (Block 432). 27 shows an illustrative control operation 520 in accordance with an embodiment of the present invention. The control operation can be at block 522 begin where a control object is displayed. The control object can, for. As a button, dial, slide, switch, etc. on the screen. In block 524 a touch above the control object can be detected. After that, in block 526 the contact arrangement associated with the contact can be recognized. In the block 527 a determination may be made as to whether or not the contact arrangement agrees with the contact arrangement associated with control of the control object. If it does not match, the operation may block 528 go on where the touch is ignored. If it matches, the operation may block 530 continue where the touch is monitored for a gesture event associated with controlling the control object. When a gesture event is performed, the action associated therewith can be applied to the control object so that the control object can generate its commands (Block 432 ).

In einer Ausführungsform von 27 kann eine Kontaktanordnung, die das Steuern des Steuerobjekts initiiert, auf mehreren Kontakten basieren, während die Kontaktanordnung, die ignoriert wird, auf einem einzelnen Kontakt basieren kann.In one embodiment of 27 For example, a contact arrangement that initiates control of the control object may be based on multiple contacts, while the contact arrangement that is ignored may be based on a single contact.

28 zeigt eine illustrative Steueroperation 540 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation 540 kann unter Verwendung eines Steuerfelds, wie dem in 29 gezeigten durchgeführt werden. Die Operation kann bei Block 542 beginnen, wo eine Liste von Eingabefunktionen zur Verfügung gestellt wird. Die Eingabefunktionen können Befehle und Gestenereignisse haben, die mit den Befehlen verbunden sind. Die Befehle können sich auf die Eingabefunktionen beziehen. Wenn die Eingabefunktion z. B. Editieren ist, dann können die Befehle Abbrechen, Rückgängig, Einfügen, Rückwärts-Tabulator, Kopieren, Tabulator, Ausschneiden, Wiederherstellen und Alles Anwählen sein. Die Gestenereignisse können Aktionen sein, die durch einen Ak kord durchgeführt werden. Die Gestenereignisse können Rotationen umfassen (im Uhrzeigersinn und gegen den Uhrzeigersinn), Verschiebungen als eine Gruppe (hoch, herunter, rechts, links), Verschiebungen relativ zueinander (gespreizt, geschlossen), Tippen usw. Die Gestenereignisse können mit Befehlen auf eine intuitive Weise verbunden werden. Zum Beispiel kann der Ausschneidebefehl durch Schließen der Finger zueinander ähnlich einer Ausschneideaktion initiiert werden. Weiterhin sind komplementäre Befehle (Ausschneiden, Einfügen) typischerweise mit komplementären Gestenereignissen (Spreizen/Schließen) verbunden. In Block 544 kann die Eingabefunktion einem bestimmten Akkord zugeordnet werden. Ein Akkord kann eine Fingeranordnung sein. Die Akkorde können in einer Liste angezeigt werden, so dass der Benutzer einen bestimmten Akkord hervorhebt und dann eine bestimmte Eingabefunktion auswählt. Akkorde können mehreren Eingabefunktionen zugeordnet werden. 28 shows an illustrative control operation 540 in accordance with an embodiment of the present invention. The control operation 540 can be done using a control field like the one in 29 be performed shown. The surgery may be at block 542 begin where a list of input functions is provided. The input functions may have commands and gesture events associated with the commands. The commands may refer to the input functions. If the input function z. For example, if you are editing, the commands can be Cancel, Undo, Paste, Backward Tab, Copy, Tab, Cut, Restore, and Select All. The gesture events may be actions performed by an accord. The gesture events may include rotations (clockwise and counterclockwise), shifts as a group (up, down, right, left), shifts relative to each other (spread, closed), jogging, etc. The gesture events may be linked to commands in an intuitive manner become. For example, the clip command may be initiated by closing the fingers to each other similar to a clip action. Furthermore, complementary instructions (cut, paste) are typically associated with complementary gesture events (spreading / closing). In block 544 The input function can be assigned to a specific chord. A chord can be a finger arrangement. The chords can be displayed in a list so that the user highlights a particular chord and then selects a particular input function. Chords can be assigned to multiple input functions.

In Block 544 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Menü von Eingabefunktionen auswählt und dann einen Akkord aus einer Menüliste von Akkorden auswählt (z. B. hebe Eingabefunktion hervor und wähle dann Akkord aus). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zukünftige Operationen gebunden werden (Block 546). In manchen Fällen kann das Ackordmenü eine Angabe der Eingabefunktion umfassen, die ihn zugeordnet ist. In dieser speziellen Ausführungsform können Befehle bereits Gestenereignissen zugeordnet sein.In block 544 For example, the user may assign input functions to a particular chord by selecting an input function from a menu of input functions and then selecting a chord from a menu list of chords (eg, highlight input function and then select Chord). Once the chord is selected, the input function to that chord can be bound for future operations (Block 546 ). In some cases, the shortcut menu may include an indication of the input function associated with it. In this particular embodiment, commands may already be associated with gesture events.

Die 29A bis G sind Diagramme eines Steuerfelds 550 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. 29A zeigt ein grundlegendes Steuerfeld, während 29B bis 29G mehrere Beispiele einer Steuerfeldausführungsform zeigen.The 29A to G are diagrams of a control panel 550 in accordance with an embodiment of the present invention. 29A shows a basic control panel while 29B to 29G show several examples of a control panel embodiment.

Wie in 29A gezeigt, kann das Steuerfeld 550 eine Gestenabbildungssteuerung 552 in der Form eines herunterziehbaren Fensters umfassen. Wenn ein Benutzer das herunterziehbare Fenster auswählt, können dem Benutzer eine oder mehrere Gestenabbildungsoptionen dargelegt werden. Dem Benutzer kann eine Standardeinstellung dargelegt werden (normalerweise durch den Hersteller gesetzt), oder alternativ kann der Benutzer eine Benutzereinstellung wählen, so dass er seine eigene Gestenabbildung bilden kann. Es kann mehr als eine Benutzerabbildung geben. Zum Beispiel können verschiedene Benutzer unterschiedliche Abbildungen erzeugen. Wenn ein Benutzer das Steuerfeld öffnet, kann er die gewünschte Benutzerabbildung durch Auswählen der Gestenabbildungssteuerung und dann Bewegen durch die Liste an Benutzerabbildungen über eine Hervorhebungsleiste auswählen. Sobald eine gewünschte Abbildung gefunden wird, kann der Benutzer sie einfach hervorheben und dann ein erstes Klicken durchführen, um die gewünschte Gestenabbildung einzustellen. Danach kann der Benutzer ihre Einstellungen ändern.As in 29A The control panel can be shown 550 a gesture mapping control 552 in the form of a pull-down window. When a user selects the pull-down window, one or more gesture-mapping options may be presented to the user. The user may be presented with a default setting (normally set by the manufacturer) or, alternatively, the user may select a user setting so that he can make his own gesture mapping. There may be more than one user picture. For example, different users can create different pictures. When a user opens the control panel, he can select the desired user image by selecting gesture gesture control and then moving through the list of user images via a highlight bar. Once a desired image is found, the user can simply highlight it and then make a first click to set the desired gesture image. After that, the user can change their settings.

Das Steuerfeld 550 kann auch ein Menü von Eingabefunktionen 554 umfassen, auch in der Form eines Fensters zum Herunterziehen. Wenn ein Benutzer das Fenster zum Herunterziehen auswählt, kann dem Benutzer eine Liste von einer oder mehreren Eingabefunktionen dargestellt werden. Die Eingabefunktionen können z. B. keine, Zeigen, Zeigen/Klick, Scrollen, Scrollen und sekundärer Klick, primärer Klick und Ziehen, sekundärer Klick und Ziehen, Fenster bewegen, Freilegen und Instrumententafel, Webbrowseroperationen, Editieroperationen, Dateioperationen und ähnliches umfassen. Um eine der Eingabefunktionen hervorzuheben, kann dem Benutzer eine Hervorhebungsleiste zur Verfügung gestellt werden, die durch die Liste in Übereinstimmung mit den Benutzersteuerungen läuft.The control panel 550 can also have a menu of input functions 554 also in the form of a window for pulling down. When a user selects the pull down window, the user can be presented with a list of one or more input functions. The input functions can, for. No, show, show / click, scroll, scroll and secondary click, primary click and drag, secondary click and drag, move window, uncover and dashboard, web browser operations, edit operations, file operations, and the like. To highlight one of the input functions, the user can be provided with a highlight bar that runs through the list in accordance with the user controls.

Steuerfeld 550 kann auch einen Gestensatzabschnitt 556 umfassen, der Befehle zeigt, die mit der Eingabefunktion assoziiert sind, die hervorgehoben ist und Gestenereignisse, die den Befehlen zugeordnet sind. Der Gestensatzabschnitt kann nur der Rückmeldung dienen, aber er kann auch die Funktionalität des Zuordnens von Befehlen zu Gestenereignissen (oder umgekehrt) umfassen. Obwohl das Fenster stark abgewandelt werden kann, kann das Fenster in der dargestellten Ausführungsform getrennte Felder enthalten, von denen jedes ein Gestenereignis und einen Befehl enthält, der damit assoziiert ist. In dieser Ausführungsform können die Felder in einer 3×3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle für jede Eingabefunktion geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn angeordnet sein, Ausbreiten kann gegenüber Zusammenziehen angeordnet sein, Linksstreichen kann gegenüber Rechtsstreichen angeordnet sein, Streichen nach oben kann gegenüber Streichen nach unten angeordnet sein. Wenn möglich, können komplementäre Befehle mit gegenüberliegenden Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden.control field 550 can also have a gesture set section 556 comprising commands associated with the input function that is highlighted and gesture events associated with the commands. The gesture set portion may only serve feedback, but may also include the functionality of associating commands with gesture events (or vice versa). Although the window may be greatly modified, in the illustrated embodiment, the window may contain separate fields, each containing a gesture event and a command associated therewith. In this embodiment, the fields may be laid out in a 3x3 matrix and therefore there may be 9 different gesture events and 9 different commands for each input function. In most cases, opposite gesture events may be placed opposite each other. For example, counterclockwise rotation may be counterclockwise rotation, spreading may be arranged against contraction, left-side brushing may be opposite to kick-offs, swipe-up may be facing down swipe. If possible, complementary commands can be linked to opposite gesture events, making them more intuitive.

Steuerfeld 550 kann auch ein Akkordmenü 558 umfassen. Die Akkorde können übereinander angeordnet sein und sich durch ein Fenster mittels einer Scrollleiste bewegen. Die Akkorde können Textidentifikatoren sowie Akkordidentifikatoren enthalten, die Beispiele zeigen, wie der Akkord zu machen ist. In der dargestellten Ausführungsform kann der Akkordindikator die Form einer Hand haben, wobei abgedunkelte Kreise die Finger abdecken, die verwendet werden, um den Akkord zu machen. Die Akkorde können auch Textidentifikatoren für die Eingabefunktion haben, die dem Akkord zugeordnet ist.control field 550 can also be a chord menu 558 include. The chords can be stacked and move through a window using a scroll bar. The chords may contain text identifiers as well as chord identifiers that show examples of how to make the chord. In the illustrated embodiment, the chord indicator may be in the shape of a hand, with darkened circles covering the fingers used to make the chord. The chords may also have text identifiers for the input function associated with the chord.

In einer Ausführungsform kann der Benutzer, um die Gestenabbildung einzurichten, eine Eingabefunktion hervorheben und dann zum Akkordmenü verschieben. Beim Akkordmenü angekommen, kann der Benutzer einen gewünschten Akkord für diese Eingabefunktion auswählen, indem er die Akkordliste durchläuft, den gewünschten Akkord hervorhebt und dann ein Auswahlereignis, wie z. B. über einen Klick durchführt. Danach kann die Eingabefunktion dem Akkord zugeordnet werden. In manchen Fällen kann, sobald der Benutzer die Eingabefunktion dem Akkord zuordnet, der Eingabefunktionsidentifikator im Akkordmenü zusammen mit dem Akkord untergebracht werden. Weiterhin kann die Eingabefunk tion einen Identifikator enthalten, der anzeigt, dass sie zugewiesen wurde. Zum Beispiel kann ein Haken durch die zugewiesene Eingabefunktion platziert werden. Während Operationen kann, wenn ein Benutzer die Fingeranordnung, die im Akkordmenü gezeigt ist, auf der Mehrpunkt-Berührungsoberfläche platziert, die Fingeranordnung als der Akkord erkannt werden, und danach kann der Gestensatz, der mit der Eingabefunktion assoziiert ist, die dem Akkord zugewiesen ist, als der primäre oder aktive Gestensatz gesetzt werden.In In one embodiment, the user may view the gesture image to set up, highlight an input function and then move to the chord menu. When the chord menu arrived, the user can choose a desired Select chord for this input function by he goes through the chord list, the desired one Chord highlights and then a selection event such. B. over make a click. After that, the input function be assigned to the chord. In some cases, as soon as the user assigns the input function to the chord, the input function identifier in the chord menu together with the chord. Furthermore, the input function may contain an identifier, indicating that it has been assigned. For example, there may be a catch be placed by the assigned input function. While Operations can occur when a user places the finger assembly in the Chord menu is shown on the multipoint touch surface placed, the finger arrangement can be recognized as the chord, and after that, the gesture set associated with the input function is assigned to the chord as the primary or active gesture set.

29B zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktionsinstrumententafel freilegen dem 4-Finger-Akkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Freilegen/Instrumententafeleingabefunktion assoziiert sind, und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Streichen nach oben Alles Freilegen einleiten, ein Streichen nach rechts kann Schreibtisch Freilegen einleiten, ein Streichen nach links kann Anwendungen Freilegen einleiten und ein Streichen nach unten kann Instrumententafel einleiten. 29B FIG. 15 shows an example in which the input function menu can be opened and the user can allocate the input-function-instrument panel to associate with the 4-finger chord. Furthermore, the gesture set may show the commands associated with the exposure / instrument panel input function and the gesture events used to initiate the commands. For example, swiping up can initiate all uncovering, swiping right can initiate desktop uncovering, swiping left can initiate applications uncovering, and swipe down can initiate instrument panel.

29C zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion primärer Klick und Ziehen dem 3-Fingerakkord zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Klick und Ziehen assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in jede Richtung verwendet werden, um ein Objekt zu ziehen und ein Tippen kann verwendet werden, um ein Klicken einzuleiten. 29C shows an example in which the input function menu can be opened and the user can assign the input function primary click and drag to the 3-finger chord. Furthermore, the gesture set may show the commands associated with the click and drag input functions and the gesture events used to initiate the commands. For example, directional moves in each direction can be used to draw an object, and jogging can be used to initiate a click.

29D zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Dateioperation dem Akkord Daumen + 1 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Eingabefunktion Dateioperation assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Rotati onsstreichen gegen den Uhrzeigersinn verwendet werden, um Öffnen einzuleiten, ein Rotationsstreichen im Uhrzeigersinn kann verwendet werden, um Schließen einzuleiten, Spreizen kann für Neu und Zusammenziehen kann für Speichern verwendet werden. 29D shows an example in which the input function menu can be opened and the user can assign the input function file operation to the chord thumb + 1 finger. Furthermore, the gesture set may show the commands associated with the file operation input function and the gesture events used to initiate the commands. For example, a counterclockwise rotation can be used can be used to initiate close, a clockwise spin can be used to initiate close, spreading can be used for new, and contracting can be used for save.

29E zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Eingabefunktion Editieroperationen dem Akkord Daumen + 2 Finger zuordnen kann. Weiterhin kann der Gestensatz die Kommandos zeigen, die mit der Editieroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Streichen nach oben Rückgängig einleiten, ein Streichen nach rechts kann Tabulator einleiten, ein Streichen nach links kann Rückwärts-Tabulator Anwendungen einleiten und ein Streichen nach unten kann Wiederherstellen einleiten. Weiterhin kann ein Rotationsstreichen gegen den Uhrzeigersinn Abbrechen einleiten, ein Rotationsstreichen im Uhrzeigersinn kann Alles Auswählen einleiten, Spreizen kann Einfügen einleiten und Zusammenziehen kann Ausschneiden einleiten. Weiterhin kann ein Tippen Kopieren einleiten. 29E shows an example in which the input function menu can be opened and the user can assign the input function editing operations the chord thumb + 2 fingers. Furthermore, the gesture set may show the commands associated with the edit operation input function and the gesture events used to initiate the commands. For example, a swipe may initiate undo, a swipe to the right may initiate a tab, a swipe to the left may initiate backward tab applications, and a swipe down may initiate restoring. Furthermore, a counter-clockwise rotation swipe may initiate abort, a clockwise rotation swipe may initiate all-select, spreading may initiate insertion, and contraction may initiate cut-off. Furthermore, typing can initiate copying.

29F zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Webbrowseroperationseingabefunktion dem Akkord Daumen + 3 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Webbrowseroperationseingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel kann ein Streichen nach oben Anhalten einleiten, ein Streichen nach rechts kann Vor einleiten, ein Streichen nach links kann Rück einleiten, ein Streichen nach unten kann Neuladen einleiten. Weiterhin kann ein Streichen nach links oben Startseite einleiten, ein Streichen nach rechts oben kann Hervorheben einleiten, ein Streichen nach links unten kann Suchen einleiten und ein Streichen nach rechts unten kann Lesezeichen einleiten. 29F shows an example in which the input function menu can be opened and the user can assign the web browser operation input function to the finger + 3 finger accord. Furthermore, the gesture set may show the commands associated with the web browser operation input function and the gesture events used to initiate the commands. For example, a swipe to the top may initiate pause, a swipe to the right may precede, a swipe to the left may initiate back, a swipe down may initiate reload. Furthermore, swiping to the top left may initiate startup, swiping to the top right can initiate highlighting, swiping to the bottom left can initiate searches, and swiping to the bottom right can initiate bookmarks.

29G zeigt ein Beispiel, in dem das Eingabefunktionsmenü geöffnet werden kann und der Benutzer die Zeige Eingabefunktion dem Akkord Daumen + 4 Finger zuordnen kann. Weiterhin kann der Gestensatz die Befehle zeigen, die mit der Zeige Eingabefunktion assoziiert sind und die Gestenereignisse, die verwendet werden, um die Befehle einzuleiten. Zum Beispiel können Richtungsbewegungen in irgendeine Richtung zum Zeigen verwendet werden. 29G shows an example in which the input function menu can be opened and the user can assign the pointing input function to the chord thumb + 4 fingers. Furthermore, the gesture set may show the commands associated with the pointing input function and the gesture events used to initiate the commands. For example, directional movements in any direction may be used for pointing.

30 zeigt eine illustrative Steueroperation 580 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation 580 kann unter Verwendung eines Steuerfeldes, wie dem in 29 gezeigten durchgeführt werden. Die Operation kann in Block 582 beginnen, wo eine Liste an Eingabefunktionen zur Verfügung gestellt werden kann. Im Block 584 kann eine Liste an Befehlen zur Verfügung gestellt werden, die mit den Eingabefunktionen assoziiert sind. In Block 586 kann eine Akkordliste zur Verfügung gestellt werden. In Block 588 kann eine Liste von Gestenereignissen zur Verfügung gestellt werden, die mit den Akkorden assoziiert sind. Im Block 590 kann die Eingabefunktion einem Akkord zugeordnet werden (oder umgekehrt). Im Block 592 können die Befehle den Gestenereignissen zugeordnet werden. In einer alternativen Operation kann die Operation 580 umfassen, eine Liste aller zur Verfügung stehenden Befehle zu liefern, anstatt eine Liste mit einer bestimmten Eingabefunktion assoziiert zu haben. Der Benutzer kann der Eingabefunktion irgendeinen Befehl zuordnen. Auch in einer alternativen Operation kann die Operation umfassen, eine Liste aller zur Verfügung stehender Gestenereignisse zu liefern, anstatt eine Liste mit einem bestimmten Akkord assoziiert zu haben. Der Benutzer kann irgendein Gestenereignis dem Akkord zuweisen. 30 shows an illustrative control operation 580 in accordance with an embodiment of the present invention. The control operation 580 can be done using a control panel, like the one in 29 be performed shown. The surgery can be in block 582 begin where a list of input functions can be provided. In the block 584 a list of commands associated with the input functions may be provided. In block 586 a chord list can be made available. In block 588 may be provided a list of gesture events associated with the chords. In the block 590 the input function can be assigned to a chord (or vice versa). In the block 592 The commands can be assigned to the gesture events. In an alternative operation, the operation may be 580 include providing a list of all available commands instead of having a list associated with a particular input function. The user can assign any command to the input function. Also in an alternative operation, the operation may include providing a list of all available gesture events rather than having a list associated with a particular chord. The user can assign any gesture event to the chord.

Unter Bezugnahme auf 29 kann der Benutzer Eingabefunktionen einem bestimmten Akkord zuordnen, indem er eine Eingabefunktion aus einem Eingabefunktionsmenü auswählt und dann einen Akkord aus einer Akkordmenüliste auswählt. (z. B. Eingabefunktion hervorheben und dann Akkord auswählen). Sobald der Akkord ausgewählt ist, kann die Eingabefunktion an diesen Akkord für zu künftige Operationen gebunden werden. In manchen Fällen kann das Akkordmenü eine Anzeige der Eingabefunktion umfassen, die ihm zugeordnet sind. Weiterhin kann der Benutzer Befehle Gestenereignissen zuordnen, indem er die Befehle über eine Geste zieht. Zum Beispiel kann der Benutzer einen bestimmten Befehl auswählen und ziehen und lässt ihn über dem gewünschten Gestenereignis fallen. Danach kann das Gestenereignis für zukünftige Operationen gebunden werden.With reference to 29 For example, the user may assign input functions to a particular chord by selecting an input function from an input function menu and then selecting a chord from a chord menu list. (for example, highlight Input and then select Chord). Once the chord is selected, the input function to that chord can be bound for future operations. In some cases, the chord menu may include an indication of the input function associated therewith. Furthermore, the user can assign commands to gesture events by dragging the commands over a gesture. For example, the user may select and drag a particular command and drop it over the desired gesture event. Thereafter, the gesture event may be bound for future operations.

31 zeigt ein illustratives Gestenabbildungsverfahren 600 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Abbilden 600 kann bei Block 602 beginnen, wo das System in einen Gestenabbildungsmodus gebracht wird. Sobald es im Gestenabbildungsmodus ist, kann eine Berührung in Block 604 detektiert werden. Danach kann in Block 606 die Anordnung der Kontakte gespeichert werden, die mit der Berührung assoziiert sind. Zum Beispiel kann ein Bild der Kontaktanordnung erzeugt werden. Danach kann in Block 608 die Berührung auf ein Gestenereignis hin überwacht werden. Danach kann in Block 610 das Gestenereignis gespeichert werden. Danach kann in Block 612 ein Befehl der Kontaktanordnung/dem Gestenereignis zugewiesen werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann, und indem das Gestenereignis durchgeführt wird. 31 shows an illustrative gesture mapping method 600 in accordance with an embodiment of the present invention. The picture 600 can at block 602 begin where the system is placed in a gesture mapping mode. Once it is in gesture imaging mode, a touch can be in block 604 be detected. After that, in block 606 the arrangement of the contacts associated with the touch are stored. For example, an image of the contact arrangement may be generated. After that, in block 608 the touch is monitored for a gesture event. After that, in block 610 the gesture event will be saved. After that, in block 612 be assigned a command of the contact arrangement / the gesture event. Once it is out of the gesture mapping mode, the command can be initiated by moving the contact assembly off is set that it can be recognized and by the gesture event is performed.

32 zeigt ein illustratives Gestenabbildungsverfahren 620 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Gestenabbildungsverfahren 620 kann bei Block 622 beginnen, wo ein Befehlsmenü geöffnet werden kann. Das Befehlsmenü kann irgendeines der Menüs sein, die in der Kopfleiste einer Anwendung gefunden werden (z. B. Datei, Bearbeiten, Ansicht, Einfügen, Format, Werkzeuge, usw.). Wenn das Befehlsmenü geöffnet wird, kann eine Befehlsliste angezeigt werden (Block 624). Nach Block 624 kann eine Hervorhebungsleiste über einen Befehl in der Befehlsliste über eine Benutzersteuerung bewegt werden. Danach kann in Block 626 eine Berührung auf einer Berührungsoberfläche detektiert werden, während ein Befehl hervorgehoben ist. Danach kann in Block 628 die Kontaktanordnung, die der Berührung zugeordnet ist, abgebildet und gespeichert werden. Danach kann in Block 630 die Berührung bezüglich eines Gestenereignisses überwacht werden. Danach kann in Block 632 ein Gestenereignis abgebildet und gespeichert werden, wenn es durchgeführt wird. Danach können in Block 634 die anfängliche Kontaktanordnung und die Gestenereignisse dem hervorgehobenen Befehl zugeordnet werden. Sobald es aus dem Gestenabbildungsmodus heraus ist, kann der Befehl eingeleitet werden, indem die Kontaktanordnung so abgesetzt wird, dass sie erkannt werden kann und indem das Gestenereignis durchgeführt wird. 32 shows an illustrative gesture mapping method 620 in accordance with an embodiment of the present invention. The gesture imaging method 620 can at block 622 begin where a command menu can be opened. The command menu may be any of the menus found in the header of an application (eg, file, edit, view, insert, format, tools, etc.). When the command menu is opened, a list of commands can be displayed (Block 624 ). After block 624 For example, a highlight bar may be moved via a command in the command list via a user control. After that, in block 626 a touch on a touch surface are detected while a command is highlighted. After that, in block 628 the contact arrangement associated with the touch is mapped and stored. After that, in block 630 the touch is monitored for a gesture event. After that, in block 632 a gesture event will be mapped and saved when it is performed. After that, in block 634 the initial contact arrangement and the gesture events are associated with the highlighted command. Once out of the gesture mapping mode, the command may be initiated by placing the contact assembly so that it can be recognized and by performing the gesture event.

33 zeigt ein illustratives Gestenrückmeldungsverfahren 640 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Verfahren 640 kann bei Block 642 beginnen, wo eine Berührung detektiert wird. Danach kann in Block 644 die Kontaktanordnung erkannt werden. Danach kann in Block 646 der Gestensatz basierend mindestens teilweise auf der Kontaktanordnung geladen werden. Danach kann in Block 648 eine Pause während der Berührung detektiert werden (z. B. kein Gestenereignis wird während einer Zeitspanne durchgeführt). Danach kann in Block 650 der Gestensatz angezeigt werden, so dass der Benutzer Befehle und Gestenereignisse, die an ihn gebunden sind, betrachten kann (siehe z. B. 34). Danach kann in Block 652 der Gestensatz von der Anzeige entfernt werden, wenn ein Gestenereignis begonnen wird oder nach einem vorgesetzten Zeitablauf. 33 shows an illustrative gesture feedback method 640 in accordance with an embodiment of the present invention. The procedure 640 can at block 642 begin where a touch is detected. After that, in block 644 the contact arrangement can be detected. After that, in block 646 based on the gesture set based at least partially on the contact arrangement. After that, in block 648 a pause is detected during the touch (eg, no gesture event is performed during a period of time). After that, in block 650 the gesture set can be displayed so that the user can view commands and gesture events that are bound to him (see eg 34 ). After that, in block 652 the gesture set will be removed from the display when a gesture event is started or after a preset timeout.

34 zeigt ein illustratives Gestenbetrachtungsfenster 660 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Ein Gestenbetrachtungsfenster kann ein Gestenmenü sein, das sich öffnet und Informationen darüber enthält, wie ein Gestenereignis durchzuführen ist und welcher Befehl eingeleitet werden wird, wenn das Gestenereignis durchgeführt wird. Der Benutzer kann daher den Gestensatz schnell im Gedächtnis einprägen, bevor er ein Gestenereignis durchführt. Das Gestenfenster 660 kann ein halbdurchlässiges oder undurchsichtiges Fenster sein, das in der Nähe des ersten Berührungspunkts (oder der Pause) und über beliebigen anderen angezeigten Informationen angezeigt wird. Obwohl das Fenster stark abweichen kann, kann in der illustrierten Ausführungsform das Fenster 660 getrennte Felder 662 enthalten, von denen jedes ein Gestenereignis 664 und einen Befehl 667 enthält, der mit ihm assoziiert ist. In dieser Ausführungsform können die Felder in einer 3×3 Matrix angelegt sein und daher kann es 9 verschiedene Gestenereignisse und 9 verschiedene Befehle geben. In den meisten Fällen können entgegen gesetzt durchgeführte Gestenereignisse einander gegenüber angeordnet werden. Zum Beispiel kann sich Rotieren gegen den Uhrzeigersinn gegenüber Rotieren im Uhrzeigersinn befinden, Spreizen kann sich gegenüber Zusammenziehen befinden, Linksstreichen kann sich gegenüber Rechtsstreichen befinden, Streichen nach oben kann sich gegenüber Streichen nach unten befinden. Wenn möglich können komplementäre Befehle mit entgegen gesetzten Gestenereignissen verbunden werden, wodurch sie intuitiver gemacht werden. Im Fall von Ausschneiden und Einfügen kann z. B. Ausschneiden mit Zusammenziehen assoziiert werden, während Einfügen mit Spreizen assoziiert werden kann. Weiterhin kann ein anderes mit einem Tippen assoziiert werden (dargestellt durch einen Kreis). 34 shows an illustrative gesture viewing window 660 in accordance with an embodiment of the present invention. A gesture view window may be a gesture menu that opens and contains information about how to perform a gesture event and what command will be initiated when the gesture event is performed. The user can therefore quickly memorize the gesture set before performing a gesture event. The gesture window 660 may be a semitransparent or opaque window displayed near the first touch point (or pause) and over any other displayed information. Although the window may vary widely, in the illustrated embodiment, the window may 660 separate fields 662 each of which contains a gesture event 664 and a command 667 contains, which is associated with him. In this embodiment, the fields may be laid out in a 3x3 matrix and therefore there may be 9 different gesture events and 9 different commands. In most cases, opposite gesture events may be placed opposite each other. For example, counterclockwise rotations may be clockwise relative to rotations, struts may be opposite to contraction, left strokes may be opposite to strokes, swipe upward may be down against swipes. If possible, complementary commands can be linked to opposite gesture events, making them more intuitive. In the case of cut and paste, for. For example, clipping may be associated with contraction, while insertion may be associated with clipping. Furthermore, another can be associated with a tap (represented by a circle).

35 zeigt ein illustratives Tastaturverfahren 680, das über einen Berührungsbildschirm implementiert ist, in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das Verfahren 680 kann bei Block 682 beginnen, wo eine Berührungsbildschirmstastatur aktiviert wird (z. B. angezeigt und bereit zum Empfang von Eingabe). Danach kann in Block 684 die Berührungsoberfläche bezüglich Tasteneingaben überwacht werden (z. B. ein Finger, der auf eine angezeigte Taste tippt). Gleichzeitig kann in Block 686 die Berührungsoberfläche bezüglich streichender Gestenereignisse überwacht werden. Wenn das streichende Gestenereignis ein Rechtsstreichen ist, kann ein Leerzeichenbefehl durchgeführt werden (Blöcke 688 und 690). Wenn das streichende Gestenereignis ein Linksstreichen ist, kann ein Rücktaste-/Löschbefehl durchgeführt werden (Blöcke 692 und 694). Wenn das streichende Gestenereignis ein Streichen nach unten ist, kann ein Eingabe-/Rücklaufbefehl durchgeführt werden (Blöcke 696 und 698). Wenn das streichende Gestenereignis ein Streichen nach oben ist, kann ein Seitenumbruchsbefehl durchgeführt werden (Blöcke 700 und 702). Es sollte jedoch bemerkt werden, dass das Verfahren nicht auf diese Befehle beschränkt ist und dass andere Befehle durchgeführt werden können. 35 shows an illustrative keyboard method 680 implemented via a touch screen in accordance with an embodiment of the present invention. The procedure 680 can at block 682 begin where a touch screen keyboard is activated (eg, displayed and ready to receive input). After that, in block 684 the touch surface is monitored for key inputs (eg, a finger tapping a displayed key). At the same time, in block 686 the touch surface is monitored for stroking gesture events. If the stroking gesture event is a legal strike, a space command may be performed (blocks 688 and 690 ). If the stroking gesture event is a left stroke, a backspace / delete command may be performed (blocks 692 and 694 ). If the stroking gesture event is swipe down, an enter / rewind command may be performed (blocks 696 and 698 ). If the stroking gesture event is swipe-up, a page break command may be performed (blocks 700 and 702 ). It should be noted, however, that the method is not limited to these instructions and that other instructions may be performed.

Mit so vielen Akkordkombinationen, Gestenereignissen, Befehlen zur Auswertung kann es hilfreich sein, Stärke und Schwäche zu isolieren und eine Anleitungstheorie zu entwickeln, welche Akkorde und Gestenereignisse gut zu welchen Befehlen passen. Es wird im Allgemeinen angenommen, dass Langzeitbenutzererfahrung durch Zuordnung der besten Fingerkombinationen mit den häufigsten Befehlen maximiert werden kann. Mittelmäßige Fingerkombinationen sollten nur für weniger häufige Befehle verwendet werden. Wegen subtiler Themen wie etwa Überlagerung ist es jedoch nicht alleine ausreichend, diesem Prinzip zu folgen, um eine großartige Benutzererfahrung zu erzeugen.With so many chord combinations, gesture events, commands for evaluation It may be helpful to gain strength and weakness too isolate and develop a guidance theory which chords and gesture events go well with which commands. It is in the Generally accepted that long-term user experience through assignment the best finger combinations with the most common commands can be maximized. Mediocre finger combinations should only be used for less common commands become. Because of subtle issues like overlaying However, it is not enough to follow this principle alone to create a great user experience.

36 zeigt einen illustrativen Gestenentwurfsprozess 720 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Der Entwurfsprozess 720 umfasst Block 702, wo die einfachsten Akkorde bewertet oder aufgelistet werden. Die Akkorde können z. B. auf der Grundlage von Geschwindigkeit, Verlässlichkeit, Komfort und Benutzerfreundlichkeit, Einfachheit usw. bewertet werden. Dies kann auch auf einer Größe der Berührungsoberfläche beruhen, da kleinere Oberflächen nicht alle Fingerkombinationen aufnehmen können. 37 zeigt ein Beispiel einer Matrix zum Bewerten von Akkorden. Es sollte erkannt werden, dass diese Matrix beispielhaft ist und nicht der Beschränkung dient. 36 shows an illustrative gesture design process 720 in accordance with an embodiment of the present invention. The design process 720 includes block 702 where the simplest chords are rated or listed. The chords can be z. Based on speed, reliability, comfort and ease of use, simplicity, etc. This may also be due to a size of the touch surface, as smaller surfaces may not accommodate all finger combinations. 37 shows an example of a matrix for evaluating chords. It should be appreciated that this matrix is exemplary and not limiting.

Der Entwurfsprozess enthält auch Block 704, wo die Operationshäufigkeit bewertet oder angeordnet wird. Zum Beispiel wie oft ein bestimmter Benutzer oder eine Benutzergruppe einen bestimmten Operationssatz durchführt. Häufigkeitsanordnungen können gemäß den Proportionen von Operationen relativ zueinander (z. B. Websurfen gegenüber Editieren) variieren. 38 zeigt ein Beispiel einer Matrix zum Einordnen von Operationshäufigkeit für ein paar Operationen. Es sollte er kannt werden, dass diese Liste nur als Beispiel dient und nicht zur Abgrenzung, da es noch viel mehr Operationen gibt.The design process also includes block 704 where the frequency of operations is assessed or arranged. For example, how many times a particular user or group of users performs a particular set of operations. Frequency orders may vary according to the proportions of operations relative to one another (eg, web surfing versus editing). 38 shows an example of a matrix for classifying operation frequency for a few operations. It should be known that this list is only an example and not a delineation since there are many more operations.

Der Entwurfsprozess kann auch Block 706 umfassen, wo die einfachsten Akkorde im Wesentlichen mit den häufigsten Operationen gruppiert oder gepaart werden und die schwierigsten Akkorde im Wesentlichen mit den seltensten Operationen gruppiert oder gepaart werden.The design process can also block 706 where the simplest chords are essentially grouped or paired with the most common operations, and the most difficult chords are essentially grouped or mated with the rarest operations.

Der Entwurfsprozess kann auch Feinabstimmen der Gruppen umfassen. Das Feinabstimmen kann auf vielen Faktoren beruhen, einschließlich komplementäre Befehle, Intuitivität, Überlagerung, sinnvolle Anordnung usw. Wie erkannt werden sollte, kann der Entwurfsprozess nicht so einfach sein, wie das Zusammenführen des einfachsten Akkords mit der häufigsten Operation. In manchen Fällen kann der einfachste Akkord für die häufigste Operation keinen Sinn machen. Als solche können die Akkorde und Operationen verschoben werden, während man immer noch versucht, einfach mit am häufigsten und schwierig mit am wenigsten häufig beizubehalten.Of the Design process may also include fine tuning of groups. The Fine tuning can be based on many factors, including complementary ones Commands, Intuitivity, Overlay, Meaningful Arrangement, etc. As should be appreciated, the design process may not be as simple as merging the simplest Chords with the most common surgery. In some cases can be the simplest chord for the most common surgery Does not make any sense. As such, the chords and operations be moved while still trying, just with most common and difficult with least often maintain.

39 zeigt eine illustrative Steueroperation 740 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 742 starten, wo eine Basisgestenabbildung zur Verfügung gestellt wird. Die Basisgestenabbildung kann Gestenvorzugseinstellungen enthalten, die z. B. Akkorde, Befehle, Gestenereignisse usw. enthalten. Nach Block 742 kann die Operation nach Block 744 weitergehen, wo ein erstes Programm aktiv gemacht wird. Das Programm kann z. B. ein Textverarbeitungsprogramm, ein Medienverwaltungsprogramm, ein Tabellenkalkulationsprogramm, ein Medieneditierprogramm, ein Zeichenprogramm usw. sein. In Block 746 kann die Basisgestenabbildung angepasst werden, in Übereinstimmung mit dem ersten Programm, während das erste Programm aktiv ist. Zum Beispiel kann das Programm der Basisgestenabbildung anordnen, die Bedeutungen von Akkorden und Gestensätzen für dieses bestimmte Programm zu ändern. Im Block 748 kann ein zweites Programm aktiv gemacht werden. In Block 750 kann die Basisgestenabbildung in Übereinstimmung mit dem zweiten Programm angepasst werden, während das zweite Programm aktiv ist. 39 shows an illustrative control operation 740 in accordance with an embodiment of the present invention. The control operation can be at block 742 start where a basic gesture mapping is provided. The base gesture map may include gesture preference settings, such as Chords, commands, gesture events, etc. After block 742 can the operation after block 744 continue where a first program is activated. The program can z. A word processor, a media manager, a spreadsheet, a media editor, a drawing program, etc. In block 746 For example, the base gesture map may be adjusted in accordance with the first program while the first program is active. For example, the base gesture map program may order to change the meanings of chords and gesture sets for that particular program. In the block 748 a second program can be activated. In block 750 For example, the base gesture map may be adjusted in accordance with the second program while the second program is active.

In einen Beispiel aus 39 kann ein Medieneditierprogramm die Gestenabbildung wie folgt anpassen: ein Finger zum Zeigen, zwei Finger zum Bewegen, Skalieren, Rotieren von Objekten; drei Finger zum primären Ziehen; vier Finger für ein Scrollschwenken; 5 Finger zum Zeigen, während ein Textverarbeitungsprogramm die Gestenabbildung wie folgt anpassen kann: 2 Finger zum Zeigen mit Textcursor, 3 Finger zum Selektieren von Text, 4 Finger zum Blättern, Zeilenanfang und Zeilenende.In an example 39 For example, a media editing program can customize gesture mapping as follows: a finger for pointing, two fingers for moving, scaling, rotating objects; three fingers for primary pulling; four fingers for a scrolling pan; 5 fingers to point at, while a word processor can adjust gesture mapping as follows: 2 fingers to point with text cursor, 3 fingers to select text, 4 fingers to scroll, start of line and end of line.

40 zeigt eine illustrative Steueroperation 760 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann mit einem Gestensatz, wie etwa demjenigen, der mit einem drei Fingerakkord implementiert ist, assoziiert werden. Die Steueroperation kann bei Block 762 beginnen, wo eine Bestimmung gemacht wird, ob ein Streichen nach rechts detektiert wird oder nicht. Wenn ja, kann die Operation nach Block 764 fortschreiten, wo eine erste Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block 766 weitergehen, wo eine Bestimmung gemacht wird, ob ein Streichen nach links detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 768, wo eine zweite Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block 770 weitergehen, wo eine Bestimmung gemacht wird, ob ein Streichen nach oben detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 772 weitergehen, wo eine dritte Freistellungsfunktion eingeleitet wird. Wenn nein, kann die Operation nach Block 774 weitergehen, wo eine Bestimmung gemacht wird, ob ein Streichen nach unten detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 776 weitergehen, wo eine Instrumententafelfunktion eingeleitet wird. Wenn nein, kann die Operation zurück nach 762 weitergehen. 40 shows an illustrative control operation 760 in accordance with an embodiment of the present invention. The control operation may be associated with a gesture set, such as that implemented with a three finger chord. The control operation can be at block 762 begin where a determination is made as to whether a swipe to the right is detected or not. If so, the operation may go to block 764 progress where a first exemption function is initiated. If not, the operation may be after block 766 go on, where a determination is made as to whether a swipe to the left is detected or not. If so, the operation may block 768 where a second exemption function is initiated. If not, the operation may be after block 770 go on where a determination is made as to whether or not a swipe is detected up. If so, the operation may block 772 go on where a third freistel is initiated. If not, the operation may be after block 774 go on where a determination is made as to whether or not a swipe down is detected. If so, the operation may block 776 continue where an instrument panel function is initiated. If not, the operation can go back to 762 continue.

41 zeigt eine illustrative Steueroperation 780 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Steueroperation kann bei Block 782 starten, wo ein Basisakkord detektiert wird. Der Basisakkord kann z. B. ein drei Finger Akkord sein. Während des Berührungsanschlags wird eine Pause detektiert (Block 784). Danach kann in Block 786 ein Kontextmenü wegen der Pause des Basisakkords geöffnet werden. Danach kann in Block 788 eine Bestimmung gemacht werden, ob ein Gleiten nach oben oder unten detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 790 weitergehen, wo eine Hervorhebungsleiste durch das Kontextmenü in Übereinstimmung mit der Gleitbewegung bewegt wird. Danach kann in Block 792 eine Bestimmung gemacht werden, ob ein Tippen detektiert wird oder nicht. Wenn dem so ist, kann die Operation nach Block 794 weitergehen, wo die Funktionalität des hervorgehobenen Eintrags implementiert wird. 41 shows an illustrative control operation 780 in accordance with an embodiment of the present invention. The control operation can be at block 782 start where a base chord is detected. The base chord can z. B. be a three finger chord. During the touch stop a pause is detected (block 784 ). After that, in block 786 a context menu will be opened because of the pause of the base chord. After that, in block 788 a determination is made as to whether or not slip is detected up or down. If so, the operation may block 790 continue where a highlight bar is moved through the context menu in accordance with the sliding movement. After that, in block 792 a determination is made as to whether a jog is detected or not. If so, the operation may block 794 continue where the functionality of the highlighted entry is implemented.

Instrumententafel beherbergt Widgets: Minianwendungen, mit denen man allgemeine Aufgaben durchführen kann und die einem schnellen Zugriff auf Informationen zur Verfügung stellen. Mit einem Streichen kann Instrumententafel erscheinen, vollständig mit Widgets, die einem Benutzer eine Welt von Informationen bringen – Echtzeitwetter, Aktienticker, Fluginformationen und weiteres – sofort. Instrumententafel kann genauso einfach verschwinden, so dass ein Benutzer zu dem was er gerade tat, zurückkehren kann. Instrumententafel wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.dashboard houses widgets: gadgets for performing common tasks can and which provides quick access to information put. With a swipe can dashboard appear, complete with widgets that give a user a world of Bring information - real-time weather, stock tickers, flight information and further - immediately. Instrument panel can be just as easy disappear so that a user can return to what he just did. Dashboard is manufactured by Apple Inc. of Cupertino, California, produced.

Freistellen ermöglicht es Benutzern, sofort auf jedes offene Fenster mit einem einzigen Streichen – und erstaunlichem Stil zuzugreifen, der nie imitiert werden kann. Zeige alle offenen Fenster als Vorschaubilder an, betrachte Fenster der aktuellen Anwendung oder verberge alle Fenster, um schnell eine Datei auf deinem Schreibtisch aufzufinden. Freistellen wird von Apple Inc. aus Cupertino, Kalifornien, hergestellt.release Allows users to instantly access any open window with a single swipe - and amazing style access that can never be imitated. Show all open windows as thumbnails view windows of the current application or hide them all Window to quickly locate a file on your desktop. Crops is manufactured by Apple Inc. of Cupertino, California.

Die 42 bis 44 zeigen verschiedene Gestenabbildungen in Übereinstimmung mit verschiedenen Ausführungsformen der vorliegenden Erfindung. Jede Fig. umfasst vier Überschriften: 1) Hand, 2) # an Fingern (Akkord), 3) Gestenereignis und 4) mit dem Gestenereignis assoziiertes Verhalten oder Aktion.The 42 to 44 show various gesture illustrations in accordance with various embodiments of the present invention. Each figure comprises four headings: 1) hand, 2) # on fingers (chord), 3) gesture event, and 4) behavior or action associated with the gesture event.

Die 45 bis 48 zeigen verschiedene Gestensätze in Übereinstimmung mit mehreren Ausführungsformen der vorliegenden Erfindung. In all diesen Figuren umfassen die Gestensätze verschiedene Bewegungen, die durch Pfeile (Wischen, Rotationen, Spreizen/Zusammenziehen) gezeigt werden, und ein oder mehrere Tippen, die durch Kreise gezeigt werden. Sie umfassen auch Befehle, die an die Bewegungen, über denen sie liegen, gebunden sind. Die Gestensätze können auf verschiedene Akkorde in Abhängigkeit der Benutzerbedürfnisse angewendet werden. In einem Beispiel kann der Gestensatz aus 45 auf einen Akkord aus einem Daumen + 1 Finger angewendet werden, der Gestensatz aus 46 kann auf einen Akkord aus einem Daumen + 2 Fingern angewendet werden, der Gestensatz aus 47 kann auf einen Akkord aus einem Daumen + 3 Fingern angewendet werden und der Gestensatz aus 48 kann aus einem Akkord aus gespreiztem Daumen und 3 Fingern angewendet werden. Es sollte verstanden werden, dass diese Gestensätze sowie die Akkorde als Beispiel angegeben werden und nicht zur Abgrenzung. Zum Beispiel können im Fall der Gestensätze verschiedene Befehle verwendet werden, verschiedene Gestenereignisse können verwendet werden, verschiedene Zuordnungen können gemacht werden, usw.The 45 to 48 show various gesture sets in accordance with several embodiments of the present invention. In all of these figures, the gesture sets include various movements shown by arrows (wiping, rotating, spreading / contracting) and one or more taps indicated by circles. They also include commands that are tied to the movements they are lying over. The gesture sets can be applied to different chords depending on user needs. In one example, the gesture set may be off 45 to be applied to a chord of a thumb + 1 finger, the gesture set out 46 can be applied to a chord of a thumb + 2 fingers, the gesture set out 47 can be applied to a chord of a thumb + 3 fingers and the gesture set 48 can be applied from a chord of splayed thumb and 3 fingers. It should be understood that these gesture sets as well as the chords are given as an example and not for demarcation. For example, in the case of gesture sets, different commands may be used, different gesture events may be used, different mappings may be made, and so on.

Zusätzliche Ausführungsformen, die sich auf die 8 bis 11 beziehen werden jetzt beschrieben werden.Additional embodiments, referring to the 8th to 11 will now be described.

49 zeigt eine illustrative Gestenoperation 800 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 800 kann bei Block 802 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block 804 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers entsprechen, der Position des Fingers relativ zur Berührungsoberfläche, ob der Finger sich bewegt oder stationär ist, der Richtung der Fingerbewegungen und ähnlichem. Danach können in Block 806 ein oder mehrere zusätzliche Finger detektiert werden. Zum Beispiel kann neben dem ersten Finger ein unterschiedlicher zweiter Finger detektiert werden. In Block 808 kann der Zustand des einen oder der mehreren zusätzlichen Finger bestimmt werden. Danach können in Block 810 verschiedene Eingabemodi auf der Grundlage eines Zeitverlaufs der Zustände des ersten und der zusätzlichen Finger relativ zueinander implementiert werden. Die verschiedenen Eingabemodi können stark abgewandelt werden, und sie können aus jedem derjenigen ausgewählt werden, die hier diskutiert werden oder aus jedem geeignetem oder bekannten Eingabemodus. Ein Beispiel eines Eingabemodus kann ein Zeigemodus oder Ziehmodus sein. Andere Modi können z. B. Scrollen, Schwenken oder ähnliches umfassen. 49 shows an illustrative gesture operation 800 in accordance with an embodiment of the present invention. The operation 800 can at block 802 begin where only a first finger is detected. After that, in block 804 the condition of the first finger can be determined. The state can z. B. a specific orientation of the finger, the position of the finger relative to the contact surface, whether the finger is moving or stationary, the direction of the finger movements and the like. After that, in block 806 one or more additional fingers are detected. For example, a different second finger may be detected besides the first finger. In block 808 the state of the one or more additional fingers can be determined. After that, in block 810 various input modes are implemented based on a time history of the states of the first and the additional fingers relative to each other. The various input modes may be greatly varied and may be selected from any of those discussed herein or any suitable or known input mode. An example of an input mode may be a pointing mode or a drag mode. Other modes can z. As scrolling, panning or the like include.

In einem Beispiel kann der Zustand des ersten Fingers stationär oder bewegend umfassen, und der Zustand eines zweiten Fingers kann umfassen, ob der zweite Finger anwesend ist oder nicht. In diesem Beispiel können Zeigeoperationen implementiert werden, wenn nur der erste Finger detektiert wird. Weiterhin können Zeigeoperationen nach Ziehoperationen umgeschaltet werden, wenn der zweite Finger detektiert wird, wenn der erste Finger stationär ist, und Zeigeoperationen werden aufrecht erhalten, wenn der zweite Finger detektiert wird, wenn sich der erste Finger bewegt. Dadurch kann ein Benutzer einfach zwischen Zeige-Ziehoperationen hin und her schalten. Der Benutzer kann z. B. einen Finger über die Berührungsoberfläche bewegen, um ihn oder einen Cursor über einem Dateiordner zu positionieren (z. B. Zeigen), den Finger oder Cursor über dem Dateiordner anhalten, einen zweiten Finger auf die Berührungsoberfläche absetzen, so dass angezeigt wird, dass gewünscht wird den Dateiordner zu ziehen, und dann seinen ersten Finger auf eine andere Position bewegen, um den Dateiordner zu einer neuen Position zu ziehen. Der Benutzer kann fortfahren, seine Finger und damit den Dateiordner herum zu bewegen, oder einfach den ersten Finger anheben, um den Dateiordner endgültig innerhalb des Bildschirms anzuordnen.In In one example, the state of the first finger may be stationary or moving, and the state of a second finger can include whether the second finger is present or not. In this Example, pointing operations can be implemented if only the first finger is detected. Furthermore you can Show operations are switched to drawing operations, if the second finger is detected when the first finger is stationary, and pointing operations are maintained when the second finger is detected when the first finger moves. This can a user can easily switch between pointing-drag operations. The user can z. B. a finger over the touch surface move to him or a cursor over a file folder to position (eg pointing), the finger or cursor over stop the file folder, a second finger on the touch surface settle so that it appears that you want the To drag file folder, and then his first finger to another position move to drag the file folder to a new location. Of the User can continue his fingers and thus the file folder to move around, or simply raise the first finger to the File folder finally within the screen to arrange.

50 zeigt eine illustrative Gestenoperation 820 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 820 kann bei Block 822 beginnen, wo nur ein erster Finger detektiert wird. Danach kann in Block 824 der Zustand des ersten Fingers bestimmt werden. Der Zustand kann z. B. einer bestimmten Ausrichtung des Fingers, der Position des Fingers relativ zur Berührungsoberfläche, ob sich der Finger bewegt oder stationär ist, der Richtung der Fingerbewegungen oder ähnlichem entsprechen. Danach kann in Block 826 ein erster Eingabemodus mit dem ersten Finger implementiert werden, wenn der erste Finger in einem ersten Zustand ist. In Block 828 kann nach einem Modifizierfingerereignis Ausschau gehalten werden. Das Modifizierfingerereignis kann durch einen anderen als den ersten Finger geliefert werden. Es kann z. B. ein zweiter Finger sein. Das Ereignis kann die Anwesenheit eines zweiten Fingers sein oder es kann eine Art von Gestikulierungsereignis oder ein bestimmter Akkord sein. Danach kann in Block 830 ein zweiter implementiert werden, wenn der erste Finger in einem zweiten Zustand ist und das Modifizierfingerereignis detektiert wird. Das Modifizierereignis kann z. B. die Anwesenheit eines zweiten Fingers neben dem ersten Finger sein. In einem Beispiel ist der erste Modus ein Zeigemodus und der zweite Modus ist ein Ziehmodus. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden. 50 shows an illustrative gesture operation 820 in accordance with an embodiment of the present invention. The operation 820 can at block 822 begin where only a first finger is detected. After that, in block 824 the condition of the first finger can be determined. The state can z. As a specific orientation of the finger, the position of the finger relative to the contact surface, whether the finger is moving or stationary, the direction of the finger movements or the like correspond. After that, in block 826 a first input mode may be implemented with the first finger when the first finger is in a first state. In block 828 can be looked for a modifier finger event. The modifier finger event may be provided by a finger other than the first finger. It can, for. B. be a second finger. The event may be the presence of a second finger or it may be some type of gesturing event or chord. After that, in block 830 a second may be implemented when the first finger is in a second state and the modifier finger event is detected. The modifying event may be e.g. B. be the presence of a second finger next to the first finger. In one example, the first mode is a pointing mode and the second mode is a drag mode. Of course, the embodiment may be applied to other modes as needed.

51 zeigt eine illustrative Gestenoperation 840 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 840 kann bei Block 842 beginnen, wo ein erster Finger anfangs detektiert wird. Danach kann in Block 844 ein erster Modus, der mit dem ersten Finger assoziiert ist, implementiert werden, wenn der erste Finger bewegt wird. Danach kann in Block 826 ein zweiter Finger detektiert werden, nachdem der erste Finger detektiert wird. In Block 828 kann der erste Modus auf einen zweiten Modus umgeschaltet werden, wenn der erste Finger stationär ist und die Anwesenheit eines zweiten Fingers detektiert wird. Die Anwesenheit des zweiten Fingers kann positionsabhängig sein, wie z. B. von einer bestimmten Position auf der Berührungsoberfläche oder einer bestimmten Position relativ zum ersten Finger. In einem Beispiel sollte der zweite Finger in der Nähe des ersten Fingers detektiert werden. Danach kann in Block 830 der zweite Modus mit mindestens dem ersten Finger implementiert werden, wenn der erste Finger bewegt wird. In einem Beispiel kann der erste Modus ein Zeigemodus sein, und der zweite Modus kann ein Ziehmodus sein. Natürlich kann die Ausführungsform auf andere Modi nach Bedarf angewendet werden. 51 shows an illustrative gesture operation 840 in accordance with an embodiment of the present invention. The operation 840 can at block 842 begin where a first finger is initially detected. After that, in block 844 a first mode associated with the first finger may be implemented when the first finger is moved. After that, in block 826 a second finger can be detected after the first finger is detected. In block 828 For example, the first mode may be switched to a second mode when the first finger is stationary and the presence of a second finger is detected. The presence of the second finger may be position dependent, such. From a certain position on the touch surface or a certain position relative to the first finger. In one example, the second finger near the first finger should be detected. After that, in block 830 the second mode may be implemented with at least the first finger when the first finger is moved. In one example, the first mode may be a pointing mode and the second mode may be a drag mode. Of course, the embodiment may be applied to other modes as needed.

52 zeigt eine illustrative Gestenoperation 860 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 860 kann bei Block 862 beginnen, wo eine Bestimmung gemacht wird, ob ein einzelner Finger detektiert wird. Der einzelne Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen können die Operationen z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen das Verfahren implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein einzelner Finger detektiert wird, kann die Operation nach Block 864 weitergehen, wo eine Bestimmung gemacht wird, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block 866 Zeigeoperationen mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der Finger nicht bewegt wird, kann in Block 868 eine Bestimmung gemacht werden, ob ein zweiter Finger detektiert wird, während der erste Finger stationär ist. Wenn nein, kann die Operation zurück nach Block 862 weitergehen. Wenn ja, kann die Operation nach Block 870 weitergehen, wo eine Bestimmung gemacht wird, ob der erste Finger bewegt wird, nachdem der zweite Finger detektiert wird. Der zweite Finger kann sich mit dem ersten Finger bewegen müssen oder nicht. In den meisten Fällen kann der zweite Finger angehoben werden, so dass er nicht mehr detektiert wird. Wenn der erste Finger nicht bewegt wird, kann die Operation zurück nach Block 868 weitergehen. Wenn der erste Finger bewegt wird, kann die Operation nach Block 872 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden. 52 shows an illustrative gesture operation 860 in accordance with an embodiment of the present invention. The operation 860 can at block 862 begin where a determination is made as to whether a single finger is detected. The single finger can be identified or not, depending on the needs of the system. In some cases, the operations z. For example, only if a particular finger is identified, while in other cases the method can be implemented if any single finger is detected. If a single finger is detected, the operation may go to block 864 go on where a determination is made whether the finger is moved or not. When the finger is moved, in block 866 Pointing operations are performed with the first finger movement. If the first finger is no longer detected, the pointing operations may end. If the finger is not moved, in block 868 a determination is made as to whether a second finger is detected while the first finger is stationary. If not, the operation can go back to block 862 continue. If so, the operation may go to block 870 go on, where a determination is made as to whether the first finger is moved after the second finger is detected. The second finger may or may not move with the first finger. In most cases, the second finger can be lifted so that it is no longer detected. If the first finger is not moved, the operation may go back to block 868 continue. When the first finger is moved, the operation may go to block 872 proceed where pulling operations are performed in accordance with the first finger movement. If the first finger is no longer detected, the drag operations may end.

53 zeigt eine illustrative Gestenoperation 880 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Die Operation 880 kann bei Block 882 beginnen, wo eine Bestimmung gemacht wird, ob ein erster Finger detektiert wird oder nicht. Der erste Finger kann identifiziert werden oder nicht, in Abhängigkeit von den Bedürfnissen des Systems. In manchen Fällen kann die Operation z. B. nur implementiert werden, wenn ein bestimmter Finger identifiziert wird, während in anderen Fällen die Operation implementiert werden kann, wenn irgendein einzelner Finger detektiert wird. Wenn ein Finger detektiert wird, kann die Operation nach Block 884 weitergehen, wo ein Zeigemodus implementiert wird. Danach kann in Block 886 eine Bestimmung gemacht werden, ob der Finger bewegt wird oder nicht. Wenn der Finger bewegt wird, können in Block 888 nachfolgende Modifizierungsereignisse ignoriert werden. Zum Beispiel können zusätzliche detektierte Finger ignoriert werden und nur die Bewegung des ersten Fingers kann relevant sein. Danach können in Block 890 Zeigeoperationen in Übereinstimmung mit dem sich bewegenden Finger durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Zeigeoperationen enden. Wenn der erste Finger stationär ist, kann die Operation nach Block 892 weitergehen, wo nach einem Modifizierungsereignis gesucht wird. Ein Modifizierungsereignis kann z. B. das Hinzufügen eines Fingers sein, oder eine Geste, die durch einen neuen Finger gemacht wird, usw. Danach kann in Block 894 eine Bestimmung gemacht werden, ob ein bestimmtes Modifizierungsereignis detektiert wird oder nicht. Wenn nein, kann die Operation zurück nach Block 886 weitergehen. Wenn ja, kann die Operation nach Block 896 weitergehen, wo das System vom Zeigemodus auf einen Ziehmodus umgeschaltet wird. Wenn der erste Finger bewegt wird, kann die Operation nach Block 898 weitergehen, wo Ziehoperationen in Übereinstimmung mit der ersten Fingerbewegung durchgeführt werden. Wenn der erste Finger nicht mehr detektiert wird, können die Ziehoperationen enden. 53 shows an illustrative gesture operation 880 in accordance with an embodiment of the present invention. The operation 880 can at block 882 begin where a determination is made whether a first finger is detected or not. The first finger can be identified or not, depending on the needs of the system. In some cases, the operation z. For example, only if a particular finger is identified, while in other cases the operation can be implemented if any single finger is detected. If a finger is detected, the operation may go to block 884 continue where a pointing mode is implemented. After that, in block 886 a determination is made as to whether the finger is moved or not. When the finger is moved, in block 888 subsequent modification events are ignored. For example, additional detected fingers may be ignored and only the movement of the first finger may be relevant. After that, in block 890 Showing operations are carried out in accordance with the moving finger. If the first finger is no longer detected, the pointing operations may end. If the first finger is stationary, the operation may go to block 892 go on where to look for a modify event. A modification event may e.g. For example, the addition of a finger, or a gesture made by a new finger, and so on 894 a determination is made as to whether or not a particular modification event is detected. If not, the operation can go back to block 886 continue. If so, the operation may go to block 896 continue where the system is switched from the pointing mode to a pulling mode. When the first finger is moved, the operation may go to block 898 proceed where pulling operations are performed in accordance with the first finger movement. If the first finger is no longer detected, the drag operations may end.

54 zeigt ein illustratives elektronisches System 950 in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung. Das elektronische System kann mit jeglichen der vorhergehenden Ausführungsformen konfiguriert sein. Das elektronische System 950 kann einem Computersystem entsprechen, wie etwa einem Personalcomputersystem, das Desktops, Laptops, Tablets oder handhaltbare Computer umfasst. Das elektronische System kann auch anderen elektronischen Benutzergeräten entsprechen, wie z. B. handhaltbaren Geräten, einschließlich Mobiltelefonen, PDAs, spezielle Medienspieler und ähnliches. Natürlich kann das elektronische System auf andere elektronische Geräte angewendet werden. 54 shows an illustrative electronic system 950 in accordance with an embodiment of the present invention. The electronic system may be configured with any of the foregoing embodiments. The electronic system 950 may correspond to a computer system, such as a personal computer system that includes desktops, laptops, tablets, or handheld computers. The electronic system may also correspond to other electronic user devices, such. Hand-held devices, including cell phones, PDAs, special media players, and the like. Of course, the electronic system can be applied to other electronic devices.

Das beispielhafte System 950, das in 54 gezeigt ist, kann einen Prozessor 956 umfassen, der konfiguriert ist, um Anweisungen auszuführen und Operationen auszuführen, die mit dem System 950 assoziiert sind. Zum Beispiel kann der Prozessor 956 unter Verwendung von Anweisungen, die z. B. aus dem Speicher empfangen werden, den Empfang und die Manipulierung von Eingabe- und Ausgabedaten zwischen Komponenten des Computersystems 950 steuern. Der Prozessor 956 kann auf einem einzigen Chip, mehreren Chips oder mehreren elektronischen Komponenten implementiert werden. Zum Beispiel können verschiedene Architekturen für den Prozessor 956 verwendet werden, einschließlich einem dedizierten oder eingebetteten Prozessor, einem Prozessor mit einer einzigen Aufgabe, einem Controller, ASIC usw.The exemplary system 950 , this in 54 shown can be a processor 956 that is configured to execute instructions and perform operations associated with the system 950 are associated. For example, the processor 956 using instructions that z. B. are received from the memory, the reception and manipulation of input and output data between components of the computer system 950 Taxes. The processor 956 can be implemented on a single chip, multiple chips or multiple electronic components. For example, different architectures can be used for the processor 956 including a dedicated or embedded processor, single-task processor, controller, ASIC, etc.

In den meisten Fällen kann der Prozessor 956 zusammen mit einem Betriebssystem so arbeiten, dass er Computercode ausführt und Benutzungsdaten produziert. Betriebssysteme sind im Allgemeinen wohl bekannt und werden nicht in größerem Detail beschrieben werden. Das Betriebssystem kann z. B. OS/2, DOS, Unix, Linux, Palm OS und ähnlichem entsprechen. Das Betriebssystem kann auch ein Betriebssystem mit einer speziellen Aufgabe sein, wie es z. B. für Haushaltscomputergeräte mit beschränktem Zweck verwendet werden kann. Das Betriebssystem, anderer Computercode und Daten können sich innerhalb eines Speicherblocks 958 befinden, der operativ mit dem Prozessor 956 verbunden ist. Speicherblock 958 kann einen Platz zum Speichern von Computercode und Daten liefern, die durch das System 950 verwendet werden. Zum Beispiel kann der Speicher block 958 Nur-Lese Speicher (Read-Only Memory, ROM) umfassen, Lese-und-Schreibspeicher (Random-Access Memory, RAM), Festplattenlaufwerk und/oder ähnliches. Die Informationen können sich auf einem entfernbaren Speichermedium befinden oder auf das System 950 geladen oder installiert werden, wenn benötigt. Entfernbare Speichermedien umfassen z. B. CD-ROM, PC-CARD, Speicherkarte, Floppy Disk, Magnetband und eine Netzwerkkomponente.In most cases, the processor can 956 working together with an operating system to execute computer code and produce usage data. Operating systems are generally well known and will not be described in greater detail. The operating system can z. OS / 2, DOS, Unix, Linux, Palm OS, and the like. The operating system can also be an operating system with a special task, such as z. B. can be used for household computer devices with limited purpose. The operating system, other computer code and data may be within a memory block 958 which is operational with the processor 956 connected is. memory block 958 can provide a place to store computer code and data through the system 950 be used. For example, the memory block 958 Read-Only Memory (ROM), Random Access Memory (RAM), Hard Disk Drive, and / or the like. The information may be on a removable storage medium or on the system 950 loaded or installed if needed. Removable storage media include, for. CD-ROM, PC-CARD, memory card, floppy disk, magnetic tape and a network component.

Das System 950 kann auch eine Anzeigevorrichtung 968 umfassen, die operativ mit dem Prozessor 956 verbunden ist. Die Anzeigevorrichtung 968 kann eine Flüssigkristallanzeige (liquid crystal display, LCD) (z. B. aktive Matrix, passive Matrix und ähnliches sein). Alternativ kann die Anzeigevorrichtung 968 ein Monitor sein, wie etwa eine Monochromanzeige, Farbgraphikadapter (color graphics adapter, CGA) Anzeige, verbesserte Graphikadapter (enhanced graphics adapter, EGA) Anzeige, variable Graphikfeldanzeige (variable-graphics-array, VGA), Super VGA Anzeige, Bildröhre (cathode ray tube, CRT) und ähnliches. Die Anzeigevorrichtung kann auch einer Plasmaanzeige oder einer Anzeige entsprechen, die mit elektronischen Tinten implementiert wird.The system 950 can also be a display device 968 include, which is operational with the processor 956 connected is. The display device 968 may be a liquid crystal display (LCD) (eg active matrix, passive matrix and the like). Alternatively, the display device 968 a monitor, such as a monochrome display, color graphics adapter (CGA) display, enhanced graphics adapter (EGA) display, variable-graphics-array (VGA), super VGA display, cathode ray tube (cathode ray tube, CRT) and the like. The display device may also correspond to a plasma display or display implemented with electronic inks.

Die Anzeigevorrichtung 968 kann konfiguriert sein, eine graphische Benutzerschnittstelle (graphical user interface, GUI) 969 anzuzeigen, die eine einfach zu verwendende Schittstelle zwischen dem Benutzer des Systems und dem Betriebssystem oder darauf laufende Anwendung zur Verfügung stellt. Im Allgemeinen repräsentiert die GUI 969 Programme, Dateien und Betriebsoptionen mit graphischen Bildern. Die graphischen Bilder können Fenster, Felder, Dialogfelder, Menüs, Icons, Schalter, Cursor, Bildlaufleisten usw. umfassen. Solche Bilder können in vordefinierten Layouts angeordnet sein oder sie können dynamisch erzeugt werden, um bestimmten Aktionen zu dienen, die durch einen Benutzer vorgenommen werden. Während der Operation kann der Benutzer verschiedene graphische Bilder auswählen und aktivieren, um Funktionen und Aufgaben einzuleiten, die damit assoziiert sind. Zum Beispiel kann ein Benutzer eine Schaltfläche selektieren, die ein Fenster öffnet, schließt, minimiert oder maximiert, oder ein Icon, das ein bestimmtes Programm startet. Die GUI 969 kann darüber hinaus oder alternativ Informationen, etwa nicht-interaktiven Text und Graphiken für den Benutzer auf der Anzeigevorrichtung 968 anzeigen.The display device 968 can be configured to have a graphical user interface (GUI) 969 which provides an easy-to-use interface between the user of the system and the operating system or application running on it. In general, the GUI represents 969 Programs, files and operating options with graphic images. The graphical images may include windows, boxes, dialog boxes, menus, icons, switches, cursors, scroll bars, and so forth. Such images may be arranged in predefined layouts or they may be generated dynamically to serve particular actions taken by a user. During the operation, the user may select and activate various graphical images to initiate functions and tasks associated therewith. For example, a user may select a button that opens, closes, minimizes or maximizes a window, or an icon that launches a particular program. The GUI 969 In addition, or alternatively, information such as non-interactive text and graphics may be displayed to the user on the display device 968 Show.

Das System 950 kann auch eine oder mehrere Eingabevorrichtungen 970 umfassen, die operativ mit dem Prozessor 956 verbunden sind. Die Eingabevorrichtungen 970 können konfiguriert sein, um Daten von der Außenwelt in das System 950 zu übertragen. Die Eingabevorrichtungen 970 können in das System 950 integriert sein oder sie können getrennte Komponenten (z. B. Peripherievorrichtungen) sein. In manchen Fällen können die Eingabevorrichtungen 970 mit dem System 950 durch Drahtverbindungen (Kabel/Ports) verbunden sein. In anderen Fällen können die Eingabevorrichtungen 970 mit dem System 950 durch drahtlose Verbindungen verbunden sein. Die Datenverbindung kann z. B. PS/2, USB, IR, RF, Bluetooth oder ähnlichem entsprechen.The system 950 can also have one or more input devices 970 include, which is operational with the processor 956 are connected. The input devices 970 can be configured to transfer data from the outside world to the system 950 transferred to. The input devices 970 can in the system 950 be integrated or they may be separate components (eg peripheral devices). In some cases, the input devices 970 with the system 950 be connected by wire connections (cables / ports). In other cases, the input devices 970 with the system 950 be connected by wireless connections. The data connection can z. PS / 2, USB, IR, RF, Bluetooth or similar.

Die Eingabevorrichtung(en) 970 kann/können z. B. verwendet werden, um Nachverfolgung durchzuführen und Anwahlen im Bezug auf die GUI 969 auf der Anzeige 968 zu machen. Die Eingabevorrichtung 970 kann auch verwendet werden, um Befehle in das System 950 abzugeben.The input device (s) 970 can / can z. B. can be used to perform tracking and GUI choices 969 on the display 968 close. The input device 970 can also be used to place commands in the system 950 leave.

In einer Ausführungsform können die Eingabevorrichtungen 970 eine berührungsempfindliche Vorrichtung umfassen, die konfiguriert ist, um Eingabe von einer Berührung des Benutzers zu empfangen und diese Informationen an den Prozessor 956 zu senden. Die berührungsempfindliche Vorrichtung kann z. B. einem Berührungsfeld, einem Berührungsbildschirm und/oder einem berührungsempfindlichen Gehäuse entsprechen.In one embodiment, the input devices 970 comprise a touch-sensitive device configured to receive input from a touch of the user and send that information to the processor 956 to send. The touch-sensitive device may, for. As a touch panel, a touch screen and / or a touch-sensitive housing.

In vielen Fällen kann die berührungsempfindliche Vorrichtung Berührungen (oder Beinahe-Berührungen) erkennen sowie die Position und die Größenordnung der Berührungen auf der berührungsempfindlichen Oberfläche. Die Berührungsabtastungsmittel können die Berührungen an den Prozessor 956 berichten und der Pro zessor 956 kann die Berührungen in Übereinstimmung mit seiner Programmierung interpretieren. Zum Beispiel kann der Prozessor 956 eine Aufgabe in Übereinstimmung mit einer bestimmten Berührung initiieren. Ein dedizierter Prozessor kann verwendet werden, um die Berührungen lokal zu verarbeiten und die Nachfrage nach dem Hauptprozessor des Computersystems zu verringern. Die berührungsempfindliche Vorrichtung kann auf Abtasttechnologien beruhen – einschließlich, aber nicht beschränkt auf – kapazitives Abtasten, Widerstandsabtasten, Oberflächen akustisches Wellenabtasten, Druckabtasten, optisches Abtasten und/oder ähnliches.In many cases, the touch-sensitive device may detect touches (or near-touches) as well as the position and magnitude of the touches on the touch-sensitive surface. The touch sensing means may contact the processor 956 report and the processor 956 can interpret the touches in accordance with its programming. For example, the processor 956 initiate a task in accordance with a specific touch. A dedicated processor can be used to process the touches locally and reduce the demand for the main processor of the computer system. The touch-sensitive device may be based on scanning technologies including, but not limited to, capacitive scanning, resistive scanning, acoustic wave scanning surfaces, pressure sensing, optical scanning, and / or the like.

Weiterhin können die berührungsempfindlichen Mittel auf Einzelpunktabtastung oder Mehrpunktabtastung beruhen. Einzelpunktabtastung ist nur in der Lage, eine einzige Berührung zu unterscheiden, während Mehrpunktabtastung in der Lage ist, mehrere Berührungen zu unterscheiden, die zur gleichen Zeit auftreten. Alternativ oder zusätzlich können Näheabtastungsvorrichtungen verwendet werden. Näheabtastungsvorrichtungen sind in der Lage, Objekte im Raum anstelle auf einer Berührungsoberfläche abzutasten.Farther Can the touch-sensitive agents on Single point or multipoint sampling based. Single point sampling is only able to distinguish a single touch while multipoint scanning is capable of multiple touches to distinguish that occur at the same time. Alternatively or In addition, proximity sensing devices may be used be used. Sewing scanning devices are capable of Objects in the room instead of on a touch surface scan.

In einer Ausführungsform können die Eingabevorrichtungen 970 eine Mehrpunkteingabevorrichtung umfassen. Mehrpunkteingabevorrichtungen haben Vorteile gegenüber herkömmlichen Einzelpunktvorrichtungen dahingehend, dass sie mehr als ein Objekt (Finger) gleichzeitig unterscheiden können. Als ein Beispiel wird eine Mehrpunktvorrichtung, die hier verwendet wird, detaillierter in den U. S. Patentanmeldungen Nr. 10/840,862 und 11/015,434 beschrieben, die beide hier per Verweis mit eingebunden werden.In one embodiment, the input devices 970 comprise a multi-point input device. Multipoint input devices have advantages over conventional single-point devices in that they can simultaneously distinguish more than one object (finger). As an example, a multipoint device used herein is described in more detail in US Patent Application Nos. 10 / 840,862 and 11 / 015,434, both of which are incorporated herein by reference.

In Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung kann das System 950 so entworfen werden, dass es Gesten 985 erkennt, die auf eine oder mehrere Eingabevorrichtungen 970 (insbesondere Berührungsvorrichtungen) angewendet werden und Aspekte des Systems 950 auf der Grundlage der Gesten 985 steuert. Wie vorher bemerkt kann eine Geste als eine stilisierte Interaktion mit einer Eingabevorrichtung definiert werden, die auf eine oder mehrere bestimmte Computeroperationen abgebildet wird. Die Gesten 985 können durch verschiedene Hand- und insbesondere Fingerbewegungen gemacht werden. Alternativ oder zusätzlich können die Gesten mit einem Stift gemacht werden. In all diesen Fällen kann mindestens eine der Eingabevorrichtungen 970 wie etwa eine Berührungsvorrichtung, die Gesten 985 empfangen und der Prozessor 956 kann Instruktionen ausführen und Operationen ausführen, die mit den Gesten 985 assoziiert sind. Darüber hinaus kann der Speicherblock 958 ein Gestenbetriebsprogramm 988 enthalten, das Teil eines Betriebssystems oder eine getrennte Anwendung sein kann. Das Gestenbetriebsprogramm 988 kann einen Satz an Anweisungen enthalten, die das Auftreten von Gesten 985 erkennen und einen oder mehrere Softwareagenten über die Gesten 985 informieren und/oder welche Aktion(en) in Antwort auf die Gesten 985 zu unternehmen sind.In accordance with an embodiment of the present invention, the system 950 designed to be gestures 985 detects that on one or more input devices 970 (In particular, touch devices) are applied and aspects of the system 950 based on the gestures 985 controls. As previously noted, a gesture may be defined as a stylized interaction with an input device that maps to one or more particular computer operations. The gestures 985 can be made by various hand and especially finger movements. Alternatively or additionally, the gestures can be made with a pen. In all these cases, at least one of the input devices 970 such as a touch device, the gestures 985 received and the processor 956 can execute instructions and perform operations with the gestures 985 are associated. In addition, the memory block 958 a gesture operating program 988 which may be part of an operating system or a separate application. The gesture operating program 988 can contain a set of instructions that indicate the appearance of gestures 985 recognize and one or more software agents on the gestures 985 inform and / or what action (s) in response to the gestures 985 to do.

Wenn ein Benutzer eine oder mehrere Gesten durchführt, kann die Eingabevorrichtung 970 Gesteninformationen an den Prozessor 956 weitergeben. Unter Verwendung von Anweisungen vom Speicher 958 und insbesondere des Gestenbetriebsprogramms 988 kann der Prozessor 956 die Gesten 985 interpretieren und verschiedene Komponenten des Systems 950, wie etwa den Speicher 958, eine Anzeige 968 auf der Grundlage der Gesten 985 steuern. Die Gesten 985 können als Befehle zum Durchführen von Aktionen in Anwendungen, die im Speicher 958 gespeichert sind, identifiziert werden, die GUI Objekte modifizieren, die auf der Anzeige 968 angezeigt werden, Daten modifizieren, die im Speicher 958 gespeichert sind und/oder Aktionen in E/A Geräten durchführen. Zum Beispiel können die Befehle mit Zoomen, Schwenken, Scrollen, Blättern, Rotieren, Größenverändern und ähnlichem assoziiert sein. Als weitere Beispiele können die Befehle auch mit dem Starten eines bestimmten Programms, Öffnen einer Datei oder eines bestimmten Dokuments, Betrachten eines Menüs, Vornehmen einer Auswahl, Ausführen von Anweisungen, Einloggen in ein Computersystem, autorisierten individuellen Zugang zu beschränkten Gebieten des Computersystems erlauben, Laden eines Benutzerprofils, das mit einer durch den Benutzer bevorzugten Anordnung auf dem Computerschreibtisch assoziiert ist und/oder ähnlichem assoziiert sein.When a user performs one or more gestures, the input device may 970 Gesture information to the processor 956 pass on. Using instructions from the store 958 and in particular the gesture operating program 988 can the processor 956 the gestures 985 interpret and different components of the system 950 such as the memory 958 , an ad 968 based on the gestures 985 Taxes. The gestures 985 can be used as commands to perform actions in applications that are in memory 958 are stored, modify the GUI objects on the display 968 to modify data stored in memory 958 are stored and / or perform actions in I / O devices. For example, the commands may be associated with zooming, panning, scrolling, scrolling, rotating, resizing, and the like. As further examples, the commands may also allow for starting a particular program, opening a file or a particular document, viewing a menu, making a selection, executing instructions, logging into a computer system, authorized individual access to restricted areas of the computer system a user profile associated with and / or associated with a user-preferred arrangement on the computer desk.

In einer Ausführungsform kann die Anzahl an Fingern in Kontakt mit der Eingabevorrichtung einen Eingabemodus anzeigen. Zum Beispiel kann eine einzelne Berührung, wie z. B. durch einen einzelnen Finger den Wunsch anzeigen, Nachverfolgung durchzuführen, d. h. Zeiger- oder Cursorbewegungen oder Auswahlen, wohingegen mehrere Berührungen, wie z. B. durch eine Gruppe an Fingern, den Wunsch anzeigen kann, andere Gesten durchzuführen. Die Anzahl an Fingern zum Implementieren von Gesten kann stark abgewandelt werden. Zum Beispiel können zwei Finger einen ersten Eingabemodus anzeigen, drei Finger können einen dritten Eingabemodus anzeigen usw. Alternativ kann jede Anzahl von Fingern, d. h. mehr als einer für denselben Eingabemodus verwendet werden, der eine oder mehrere Gestensteuerungen umfassen kann. Die Ausrichtung der Finger kann ähnlich verwendet werden, um den gewünschten Modus zu bezeichnen. Das Profil der Finger kann detektiert werden, um verschiedene modale Operationen auf der Grundlage dessen zu ermöglichen, ob der Benutzer z. B. seinen Daumen oder Zeigefinger verwendet hat.In In one embodiment, the number of fingers may be in contact display an input mode with the input device. For example can a single touch, such. B. by a single finger indicate the desire to conduct follow-up, d. H. Pointer or cursor movements or selections, whereas several Touches such. By a group of fingers, the desire can indicate to perform other gestures. The number on fingers to implement gestures can be greatly modified become. For example, two fingers may have a first input mode three fingers can enter a third input mode Alternatively, any number of fingers, i. H. more are used as one for the same input mode, which may include one or more gesture controls. The alignment The finger can be used similarly to the one you want Mode. The profile of the fingers can be detected to enable various modal operations based on this whether the user z. B. has used his thumb or index finger.

In einer bestimmten Ausführungsform kann ein einzelner Finger Nachverfolgung (oder Auswahl) einleiten und zwei oder mehr Finger in großer Nähe zueinander können Scrollen oder Schwenken einleiten. Zwei Finger können einfaches hin und her Schalten zwischen einem und zwei Fingern liefern, d. h. der Benutzer kann zwischen Modi sehr einfach wechseln, indem er einfach einen zusätzlichen Finger anhebt oder platziert. Das hat den Vorteil, intuitiver zu sein, als andere Formen des Modus hin und her Schaltens. Während Nachverfolgung kann Cursorbewegung durch den Benutzer gesteuert werden, der einen einzelnen Finger auf der berührungssensitiven Oberfläche einer berührungssensitiven Vorrichtung bewegt. Die Sensoranordnung der berührungsempfindlichen Vorrichtung kann die Fingerbewegung interpretieren und Signale zum Erzeugen entsprechender Bewegung des Cursors auf der Anzeige erzeugen. Während Scrollen kann Bildschirmbewe gung durch den Benutzer gesteuert werden, der duale Finger auf der berührungsempfindlichen Oberfläche der berührungsempfindlichen Vorrichtung bewegt. Wenn die kombinierten Finger in die vertikale Richtung bewegt werden, kann die Bewegung als ein vertikales Scrollereignis interpretiert werden und wenn die kombinierten Finger in die horizontale Richtung bewegt werden, kann die Bewegung als ein horizontales Scrollereignis interpretiert werden. Das Gleiche kann für Schwenken gesagt werden, obwohl Schwenken in alle Richtungen anstelle nur der horizontalen und vertikalen Richtung eintreten kann.In In a particular embodiment, a single finger may be used Initiate tracking (or selection) and two or more fingers In close proximity to each other can scroll or panning. Two fingers can be simple back and forth switching between one and two fingers deliver, d. H. the user can switch between modes very easily by He simply raises or places an additional finger. This has the advantage of being more intuitive than other forms of the mode switching back and forth. While tracking can be cursor movement be controlled by the user, a single finger on the touch-sensitive surface of a touch-sensitive device moves. The sensor arrangement The touch-sensitive device may be finger-moving interpret and signals to generate appropriate motion of the cursor on the display. While scrolling Screen motion can be controlled by the user who dual fingers on the touch-sensitive surface the touch-sensitive device moves. If the combined fingers can be moved in the vertical direction the motion is interpreted as a vertical scrolling event and when the combined fingers are moved in the horizontal direction, can interpret the movement as a horizontal scrolling event become. The same can be said for panning, though Pan in all directions instead of just horizontal and vertical Direction can occur.

Die Ausführungsformen, die hier beschrieben werden, können durch Hardware, Software oder einer Kombination von Hardware und Software implementiert werden. Die Software kann auch als computerlesbarer Code auf einem computerlesbaren Medium ausgeführt sein. Das computerlesbare Medium ist irgendeine Datenspeichervorrichtung, die Daten speichern kann, die danach durch ein Computersystem gelesen werden können. Beispiele für das computerlesbare Medium umfassen Nur-Lese Speicher, Lese-und-Schreib Speicher, CD-ROMS, DVDs, Magnetband, optische Datenspeichervorrichtungen und Trägerwellen. Das computerlesbare Medium kann auch über netzwerkverbundene Computersysteme verteilt werden, so dass der computerlesbare Code auf verteilte Weise gespeichert und ausgeführt wird.The Embodiments described herein may be through hardware, software or a combination of hardware and Software to be implemented. The software can also be called computer readable Code be executed on a computer-readable medium. The computer-readable medium is any data storage device, can store the data subsequently read by a computer system can be. Examples of the computer readable Medium include read-only memory, read-write memory, CD-ROMs, DVDs, magnetic tape, optical data storage devices and carrier waves. The computer-readable medium can also be network-connected Computer systems are distributed so that the computer-readable code is up distributed manner is stored and executed.

Während diese Erfindung in Bezug auf mehrere Ausführungsformen beschrieben wurde, gibt es Änderungen, Permutationen und Äquivalente, die in den Bereich der Erfindung fallen. Obwohl z. B. die Erfindung primär auf Berührungsvorrichtungen gerichtet ist, sollte bemerkt werden, dass die Erfindung auch mit Näheabtastungsvorrichtungen implementiert werden kann. Darüber hinaus können Verfahren implementiert werden, um automatisch Gestenpräferenzen zwischen verschiedenen Vorrichtungen zu synchronisieren. Wenn z. B. eine Palm Vorrichtung mit einem Host Computer verbunden wird. Es sollte auch bemerkt werden, dass es viele alternative Wege der Implementierung der Verfahren und Geräte der vorliegenden Erfindung gibt. Obwohl z. B. die Erfindung primär auf Verfahren gerichtet ist, die mit Mehrpunktabtastvorrichtungen assoziiert sind, sollte bemerkt werden, dass manche der Verfahren auf Einzelpunktabtastvorrichtungen gerichtet werden können. Es ist daher beabsichtigt, dass die folgenden angehängten Ansprüche so interpretiert werden, dass sie all solche Abänderungen, Permutationen und Äquivalente umfassen, wie sie in den wahren Geist und den Bereich der vorliegenden Erfindung fallen.While this invention with respect to several embodiments there are changes, permutations and equivalents, which fall within the scope of the invention. Although z. B. the invention is primarily directed to touch devices, should be noted that the invention also with Näheabtastungsvorrichtungen can be implemented. In addition, you can Procedures are implemented to automatically gesture preferences to synchronize between different devices. If z. B. a Palm device is connected to a host computer. It should also be noted that there are many alternative ways of Implementation of the methods and apparatus of the present Invention exists. Although z. For example, the invention is primarily directed to methods which are associated with multi-point scanners, It should be noted that some of the methods are based on single point scanners can be directed. It is therefore intended that the following appended claims are interpreted as such be that they have all such modifications, permutations and equivalents include, as in the true spirit and fall within the scope of the present invention.

ZUSAMMENFASSUNGSUMMARY

Verfahren und Systeme des Implementierens von Gesten mit Abtastvorrichtungen werden offenbart. Genauer werden Verfahren und Systeme offenbart, die sich auf Gestikulieren mit Mehrpunkt-Abtastvorrichtungen beziehen.method and systems of implementing gestures with scanners are revealed. More specifically, methods and systems are disclosed referring to gesturing with multipoint scanners.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - US 6323846 [0002] US 6323846 [0002]

Claims (73)

Elektronisches System umfassend: eine Mehrpunkt-Abtastvorrichtung, die ein Mehrpunktabtastungsgebiet zum Empfangen von Eingaben von einem oder mehreren Objekten zur Verfügung stellt; ein Gestenmodul, das konfiguriert ist, einen Gestensatz für eine bestimmte Eingabeanordnung zu bestimmen, die durch das Mehrpunktabtastungsgebiet der Mehrpunkt-Abtastvorrichtung empfangen wird, die bestimmte Eingabeanordnung bezüglich eines oder mehrerer Gestenereignisse zu überwachen, die im Gestensatz enthalten sind und Eingabeaktionen einzuleiten, die mit einem Gestenereignis assoziiert sind, wenn das Gestenereignis mit der Eingabeanordnung durchgeführt wird.Electronic system comprising: a multipoint scanning device, which is a multipoint sampling area for receiving inputs from provides one or more objects; one Gesture module that is configured to gesture set for to determine a particular input device, which is passed through the multipoint sampling area of the Multipoint scanning device is received, the particular input device to monitor one or more gesture events, contained in the gesture set and to initiate input actions, that are associated with a gesture event when the gesture event is performed with the input device. Elektronisches System nach Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine berührungsempfindliche Vorrichtung ist.The electronic system of claim 1, wherein the Multipoint scanning device is a touch-sensitive Device is. Elektronisches System nach Anspruch 1, wobei die Mehrpunkt-Abtastvorrichtung eine Näheabtastvorrichtung ist.The electronic system of claim 1, wherein the Multipoint scanning device, a proximity scanning device is. Elektronisches System nach Anspruch 1, wobei das Gestenmodul durch Hardware, Software oder eine Kombination aus Hardware und Software implementiert ist.The electronic system of claim 1, wherein the Gesture module by hardware, software or a combination of hardware and software is implemented. Elektronisches System nach Anspruch 1, wobei das elektronische System mit einem Computersystem assoziiert ist, einschließlich Desktops, Laptops, Tabletts oder handgehaltene Computer.The electronic system of claim 1, wherein the electronic system is associated with a computer system, including Desktops, laptops, tablets or handheld computers. Elektronisches System nach Anspruch 1, wobei das elektronische System mit handgehaltenen elektronischen Benutzergeräten einschließlich Mobiltelefonen, PDAs oder dedizierten Medienspielern assoziiert ist.The electronic system of claim 1, wherein the electronic system with handheld electronic user devices including mobile phones, PDAs or dedicated media players is associated. Elektronisches System nach Anspruch 1, wobei der Gestensatz auch durch einen oder mehrere Faktoren bestimmt wird, einschließlich Position der Eingabeanordnung innerhalb des Abtastgebiets, einer offenen Anwendung, eines Zustands der offenen Anwendung, Eingabefunktionalität oder zusätzlichen Eingabecharakteristiken.The electronic system of claim 1, wherein the Gesture set is also determined by one or more factors including position of the input device within the scan area, an open application, an open application state, Input functionality or additional input characteristics. Elektronisches System nach Anspruch 1, wobei die Eingabeaktionen Zustandsbefehle sind.The electronic system of claim 1, wherein the Input actions are state commands. Elektronisches System nach Anspruch 1, wobei die Eingabeaktionen manipulative Befehle sind.The electronic system of claim 1, wherein the Input actions are manipulative commands. Elektronisches System nach Anspruch 1, wobei die Gestenereignisse durch die Eingabeanordnung durchgeführt werden.The electronic system of claim 1, wherein the Gesture events performed by the input device become. Elektronisches System nach Anspruch 1, wobei die Gestenereignisse durch eine Untermenge der Eingabeanordnung durchgeführt werden.The electronic system of claim 1, wherein the Gesture events performed by a subset of the input device become. Elektronisches System nach Anspruch 1, wobei das Bestimmen des Gestensatzes Erkennen einer bestimmten Eingabeanordnung umfasst und wobei Überwachen der bestimmten Eingabeanordnung Erkennen von Gestenereignissen umfasst, die mit dem Gestensatz assoziiert sind.The electronic system of claim 1, wherein the Determining the gesture set Detecting a particular input device and detecting wherein monitoring the particular input device of gesture events associated with the gesture set are. Elektronisches System nach Anspruch 12, wobei Erkennen der Gestenereignisse Analysieren von Charakteristiken einer jeden Eingabe der Eingabeanordnung umfasst, Identifizieren eines bestimmten Musters, das mit der Eingabeanordnung assoziiert ist und Bezug nehmen auf den Gestensatz, um zu sehen, ob das bestimmte Muster mit einem Gestenereignis übereinstimmt, das mit dem Gestensatz assoziiert ist.The electronic system of claim 12, wherein detecting gesture events Analyze characteristics of each Input of the input device comprises identifying a particular one Pattern that is associated with the input device and references on the gesture set to see if the particular pattern with a Gesture event associated with the gesture set is. Elektronisches System nach Anspruch 1, wobei die Gestenereignisse mit Berührungen assoziiert sind, die aus Bewegungen, Tippen, Druck und Verweilen ausgewählt werden können.The electronic system of claim 1, wherein the Gesture events associated with touch are out Movements, typing, printing and staying are selected can. Elektronisches System nach Anspruch 14, wobei Bewegungen aus Gleiten, Streichen, Schnalzen und Rotation ausgewählt werden.The electronic system of claim 14, wherein movements selected from gliding, swiping, clicking and rotation become. Elektronisches System nach Anspruch 14, wobei Bewegungen Zusammenziehen oder Ausdehnen zwischen zwei oder mehr Eingaben sind.The electronic system of claim 14, wherein movements Contraction or expansion between two or more inputs. Elektronisches System nach Anspruch 14, wobei Tippen aus einem halben Tippen, ganzen Tippen, mehreren Tippen, schnellen Tippen oder langsamen Tippen ausgewählt werden.The electronic system of claim 14, wherein jogging from a half tap, full tap, multiple tap, fast Tap or slow tap to be selected. Elektronisches System nach Anspruch 14, wobei Druck mit hartem und leichtem Drücken assoziiert wird.The electronic system of claim 14, wherein pressure associated with hard and light presses. Elektronisches System nach Anspruch 14, wobei Verweilen mit einer langen oder kurzen stationären Pause assoziiert wird.The electronic system of claim 14, wherein lingering associated with a long or short stationary break becomes. Elektronisches System nach Anspruch 14, wobei der Gestensatz aus einer Matrix aus verschiedenen Gestenereignissen und verschiedenen Befehlen besteht.The electronic system of claim 14, wherein the Gesture set from a matrix of different gesture events and various commands. Elektronisches System nach Anspruch 20, wobei der Gestensatz aus einer 3×3 Matrix aus 9 verschiedenen Gestenereignissen und 9 verschiedenen Befehlen besteht.The electronic system of claim 20, wherein the Gesture set from a 3 × 3 matrix of 9 different gesture events and 9 different commands. Elektronisches System nach Anspruch 20, wobei die 9 verschiedenen Gestenereignisse Rotieren gegen den Uhrzeigersinn, Rotieren im Uhrzeigersinn, Spreizen, Zusammenziehen, Linksstreichen, Rechtsstreichen, Aufwärtsstreichen, Abwärtsstreichen und Tippen aufweisen.The electronic system of claim 20, wherein the 9 different gesture events rotate counterclockwise, rotating clockwise meaning, spreading, contracting, swiping, swiping, swiping, swiping, and tapping. Gestensteuerverfahren, aufweisend: Detektieren mehrerer Punkte innerhalb eines Abtastgebiets zur gleichen Zeit; Bestimmen eines Akkords, wenn ein oder mehrere Punkte innerhalb des Abtastgebiets detektiert werden, wobei der Akkord eine spezielle Anordnung von Punkten innerhalb des Abtastgebiets ist; Bestimmen eines Gestensatzes, der Befehle mit einem oder mehreren Gestenereignissen verbindet; Überwachen von Punkten für Gestenereignisse; und Ausführen eines Befehls, der mit dem Gestenereignis in Verbindung steht, wenn ein Gestenereignis erkannt wird.Gesture control method, comprising: detect multiple points within a scan area at the same time; Determine of a chord when one or more points within the scan area be detected, the chord a special arrangement of points within the scanning area; Determining a gesture set, associate commands with one or more gesture events; Monitor of points for gesture events; and To run a command associated with the gesture event when a gesture event is detected. Verfahren nach Anspruch 23, wobei die Punkte mit den Berührungen verbunden sind, die auf einer berührungsempfindlichen Oberfläche auftreten.The method of claim 23, wherein the points with connected to the touches on a touch-sensitive Surface occur. Verfahren nach Anspruch 23, wobei die Punkte mit Beinahe-Berührungen assoziiert sind, die über einer Oberfläche auftreten.The method of claim 23, wherein the points with Near-touches are associated with the over a surface occur. Verfahren nach Anspruch 23, wobei der Akkord mit mechanischen Merkmalen ausgeführt wird.The method of claim 23, wherein the chord with mechanical features is performed. Verfahren nach Anspruch 23, wobei der Akkord mit allen oder Teilen der einen oder mehreren Händen ausgeführt wird.The method of claim 23, wherein the chord with all or parts of one or more hands becomes. Verfahren nach Anspruch 23, wobei der Akkord auf einer Anzahl unbekannter Punkte basiert.The method of claim 23, wherein the chord is on based on a number of unknown points. Verfahren nach Anspruch 23, wobei der Akkord auf einer speziellen Anordnung von bekannten Punkten basiert.The method of claim 23, wherein the chord is on based on a special arrangement of known points. Verfahren nach Anspruch 23, wobei der Akkord darauf basiert, ob die Punkte nahe beieinander, in einer neutralen Position oder weit verstreut sind.The method of claim 23, wherein the chord thereon based, whether the points close to each other, in a neutral position or are widely scattered. Verfahren nach Anspruch 23, wobei die Akkorde darauf basieren, ob die Kontakte aneinander liegend oder voneinander versetzt sind.The method of claim 23, wherein the chords thereon based on whether the contacts are adjacent or offset from each other are. Verfahren nach Anspruch 23, wobei die Akkorde darauf basieren, ob sie von der linken oder rechten Hand stammen.The method of claim 23, wherein the chords thereon based on whether they are from the left or right hand. Verfahren nach Anspruch 23, wobei ein Bestimmen des Akkords ein Analysieren eines Bildes, das durch Objekte erzeugt wird, die das Abtastgebiet berühren oder beinahe berühren, und ein Erkennen einer bestimmten Anordnung von Punkten von dem Bild, aufweist.The method of claim 23, wherein determining of the chord, analyzing an image generated by objects which touch or nearly touch the scanning area, and recognizing a particular arrangement of dots from the image, having. Verfahren nach Anspruch 23, wobei der Gestensatz auf dem Akkord basiert.The method of claim 23, wherein the gesture set based on the chord. Verfahren nach Anspruch 34, wobei der Gestensatz auch auf zusätzlichen Faktoren basiert, einschließlich Stelle des Akkords, offene Anwendungen, Zustand oder Modus der Anwendung und/oder Eigenschaften der Punkte.The method of claim 34, wherein the gesture set also based on additional factors, including Location of chord, open applications, state or mode of application and / or properties of the points. Verfahren nach Anspruch 23, wobei der Gestensatz mit einer Eingabefunktionalität verbunden ist.The method of claim 23, wherein the gesture set connected to an input functionality. Verfahren nach Anspruch 36, wobei die Eingabefunktionalität ausgewählt wird aus Navigationsoperationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Formatierungsoperationen, Werkzeugoperationen oder Webbrowsingoperationen.The method of claim 36, wherein the input functionality is selected from navigation operations, file operations, Editing operations, view operations, formatting operations, tool operations or web browsing operations. Verfahren nach Anspruch 37, wobei die Befehle aus Zustandsbefehlen und manipulativen Befehlen ausgewählt werden.The method of claim 37, wherein the instructions include Status commands and manipulative commands selected become. Verfahren nach Anspruch 23, wobei ein Erkennen der Gestenereignisse ein Analysieren der Eigenschaften der Punkte, ein Identifizieren eines bestimmten Musters und Bezug nehmen auf den Gestensatz und seine Liste von Gestenereignissen aufweist, wenn ein Muster mit einem Gestenereignis des Gestensatzes übereinstimmt, dann wird angenommen, dass das Muster das Gestenereignis ist.The method of claim 23, wherein detecting the Gesture events include analyzing the properties of the points Identify a specific pattern and reference it Has gesture set and its list of gesture events when a pattern matches a gesture event of the gesture set, then it is assumed that the pattern is the gesture event. Verfahren nach Anspruch 39, wobei die Eigenschaften der Punkte Berücksichtigungen erster Ordnung einschließlich Bewegung, Tippen, Druck oder Verweilen, und Berücksichtigungen zweiter Ordnung einschließlich Geschwindigkeit, Richtungen, Ausrichtung, Größe, Dauer, Form oder Länge, aufweisen.The method of claim 39, wherein the properties of points including first order considerations Movement, typing, pressure or lingering, and considerations second order including speed, directions, orientation, Size, duration, shape or length. Verfahren nach Anspruch 23, wobei die Gestenereignisse mit Berührungen, Tippen, Druck und Verweilen assoziiert sind.The method of claim 23, wherein the gesture events associated with touch, touch, pressure and lingering are. Verfahren nach Anspruch 41, wobei Bewegungen aus Gleiten, Streichen, Schnalzen und Rotation ausgewählt werden.The method of claim 41, wherein movements from Sliding, swiping, clicking and rotation are selected. Verfahren nach Anspruch 41, wobei Bewegungen Zusammenziehen oder Ausdehnen zwischen zwei oder mehr Eingaben sind.The method of claim 41, wherein movements contract or extending between two or more inputs. Verfahren nach Anspruch 41, wobei Tippen aus einem halben Tippen, ganzen Tippen, mehreren Tippen, schnellen Tippen oder langsamen Tippen ausgewählt werden.The method of claim 41, wherein jogging is from a half tap, full tap, multiple tap, fast tap or slow tapping. Verfahren nach Anspruch 41, wobei Druck mit hartem und leichtem Drücken assoziiert wird.The method of claim 41, wherein pressure with hard and slight pressure. Verfahren nach Anspruch 41, wobei Verweilen mit einer langen oder kurzen stationären Pause assoziiert wird.The method of claim 41, wherein Verwei is associated with a long or short stationary break. Verfahren nach Anspruch 23, wobei der Gestensatz aus einer Matrix aus verschiedenen Gestenereignissen und verschiedenen Befehlen besteht.The method of claim 23, wherein the gesture set from a matrix of different gesture events and different ones Commands exists. Verfahren nach Anspruch 47, wobei der Gestensatz aus einer 3×3 Matrix aus 9 verschiedenen Gestenereignissen und 9 verschiedenen Befehlen besteht.The method of claim 47, wherein the gesture set from a 3 × 3 matrix of 9 different gesture events and 9 different commands. Verfahren nach Anspruch 48, wobei die 9 verschiedenen Gestenereignisse Rotieren gegen den Uhrzeigersinn, Rotieren im Uhrzeigersinn, Spreizen, Zusammenziehen, Linksstreichen, Rechtsstreichen, Aufwärtsstreichen, Abwärtsstreichen und Tippen aufweisen.The method of claim 48, wherein the 9 different Gesture events rotate counterclockwise, rotate clockwise, Spreading, contraction, left-stroking, legal strike, swipe-up, Move down and tap. Verfahren nach Anspruch 23, weiterhin aufweisend eine Bestimmung, ob ein Schaltereignis ausgeführt worden ist oder nicht, wobei ein Schaltereignis sich auf ein Ereignis beziehen kann, das die Operation zurücksetzt oder einen Akkordwechsel initiiert.The method of claim 23, further comprising a determination of whether a switching event has been performed or not, where a switching event refers to an event can reset the operation or a chord change initiated. Verfahren nach Anspruch 23, wobei das Schaltereignis durch eine der folgenden Operationen implementiert wird: a) Entfernen aller Punkte von dem Abtastbereich für eine vorbestimmte Zeitspanne, b) Ändern des Akkords, c) Hinzufügen/Abziehen von Punkten von dem Abtastbereich, d) stationäres Anhalten der Punkte für eine vorbestimmte Zeitspanne, e) Detektieren einer speziellen Tasteneingabe oder Tastenklick, oder f) Detektieren eines Gestenereignisses.The method of claim 23, wherein the switching event implemented by one of the following operations: a) Remove all points from the scanning range for a predetermined Time span, b) changing the chord, c) adding / subtracting from Points from the scanning area, d) stationary stopping of the points for a predetermined period of time, e) detecting a special key input or key click, or f) Detect a gesture event. Steueroperation, aufweisend: Detektieren einer Berührung oder Beinahe-Berührung; falls eine Berührung detektiert wird, Bestimmen eines Gestensatzes für die Berührung, wobei der Gestensatz ein oder mehrere Gestenereignisse zum Auslösen oder Einleiten eines Befehls umfasst; Überwachen der Berührung für ein Gestenereignis, das mit dem Gestensatz assoziiert ist; und Einleiten eines Befehls, wenn ein Gestenereignis, das mit dem Gestensatz assoziiert ist, ausgeführt wird.Control operation, comprising: Detect a Touch or near-touch; if one Touch is detected, determining a gesture set for the touch, with the gesture set one or several gesture events to trigger or initiate a Command includes; Monitoring the touch for a gesture event associated with the gesture set is; and Initiate a command when a gesture event, the is associated with the gesture set is executed. Operation nach Anspruch 52, wobei der Gestensatz von Berührungscharakteristik, Berührungsort, offene Anwendung und/oder Anwendungsmodus abhängt.The operation of claim 52, wherein the gesture set of touch characteristics, touch location, open Application and / or application mode. Operation nach Anspruch 53, wobei die Berührung oder Beinahe-Berührung durch eine Berührungsvorrichtung wie ein Berührungsfeld, ein Berührungsbildschirm oder ein berührungsempfindliches Gehäuse detektiert wird.The operation of claim 53, wherein the touch or near-touch by a touch device like a touchpad, a touch screen or a touch-sensitive housing detected becomes. Gestenoperation, aufweisend: Überwachen einer Berührungsbewegung; Unterscheiden der Berührungsbewegung zwischen einen ersten und zweiten Zustand; Durchführen einer ersten Aktion, falls die Berührungsbewegung mit dem ersten Zustand assoziiert wird; und Durchführen einer zweiten Aktion, falls die Berührungsbewegung mit dem zweiten Zustand assoziiert wird.Gesture operation, comprising: Monitor a touch movement; Distinguishing the contact movement between a first and second state; Carry out a first action, if the contact movement with the first state is associated; and Perform a second action, if the contact movement with the second State is associated. Gestenoperation nach Anspruch 55, wobei die Berührungsbewegung eine Gleitbewegung ist und wobei der erste Zustand ein Schnalzen ist und der zweite Zustand ein Streichen ist.The gesture operation of claim 55, wherein the touch movement is a sliding movement and wherein the first state is a click is and the second state is a swipe. Steueroperation, aufweisend: zur Verfügung stellen einer ersten Eingabevorrichtung und einer zweiten Eingabevorrichtung, wobei die erste Eingabevorrichtung eine berührungsempfindliche Oberfläche aufweist; Überwachen der ersten Eingabevorrichtung nach Eingabeereignissen; simultanes Überwachen der zweiten Eingabevorrichtung nach Eingabeereignissen; Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der ersten Eingabevorrichtung assoziiert sind; simultanes Durchführen von Eingabeoperationen in Übereinstimmung mit Eingabeereignissen, die mit der zweiten Eingabevorrichtung assoziiert sind.Control operation, comprising: to disposal provide a first input device and a second input device, wherein the first input device is a touch-sensitive Surface has; Monitor the first Input device after input events; simultaneous monitoring the second input device after input events; Carry out input operations in accordance with input events, associated with the first input device; simultaneous Perform input operations in accordance with input events associated with the second input device are. Steueroperation nach Anspruch 57, wobei die erste Eingabevorrichtung eine Maus ist.The control operation of claim 57, wherein the first Input device is a mouse. Steueroperation, aufweisend: zur Verfügung stellen einer Liste von Eingabefunktionen, wobei die Eingabefunktionen Befehle und Gestenereignisse aufweisen, die mit den Befehlen verbunden sind, wobei die Befehle in Zusammenhang mit der Eingabefunktion stehen; Zuordnen von Eingabefunktionen zu Akkorden; und Verbinden einer Eingabefunktion mit einem Akkord, wenn der Akkord erkannt wird.Control operation, comprising: to disposal make a list of input functions, using the input functions Have commands and gesture events associated with the commands are, with the commands related to the input function stand; Assigning input functions to chords; and Connect an input function with a chord when the chord is recognized becomes. Steueroperation nach Anspruch 59, wobei die Eingabefunktion aus Navigationsoperationen, Dateioperationen, Editieroperationen, Ansichtsoperationen, Formatierungsoperationen, Werkzeugoperationen oder Webbrowsingoperationen ausgewählt wird.The control operation of claim 59, wherein the input function from navigation operations, file operations, editing operations, View operations, formatting operations, tool operations or web browsing operations is selected. Steueroperation nach Anspruch 59, wobei die Gestenereignisse Aktionen sind, die durch den Akkord durchgeführt werden.The control operation of claim 59, wherein the gesture events Are actions that are performed by the chord. Steueroperation nach Anspruch 59, wobei die Gestenereignisse aus Rotationen, Verschiebungen als eine Gruppe, Verschiebungen relativ zueinander und/oder Tippen ausgewählt werden.The control operation of claim 59, wherein the gesture events from rotations, shifts as a group, shifts relative each other and / or typing be selected. Steueroperation nach Anspruch 59, wobei die Gestenereignisse in einer intuitiven Weise mit Befehlen verbunden sind.The control operation of claim 59, wherein the gesture events are connected to commands in an intuitive way. Steueroperation nach Anspruch 59, wobei komplementäre Befehle mit komplementären Gestenereignissen verbunden werden.A control operation according to claim 59, wherein complementary Commands associated with complementary gesture events become. Steueroperation nach Anspruch 59, wobei ein Akkord eine Fingeranordnung ist.The control operation of claim 59, wherein a chord is a finger arrangement. Steueroperation nach Anspruch 59, wobei ein Zuordnen von Eingabefunktionen zu Akkorden ein Auswählen einer Eingabefunktion aus einem Menü von Eingabefunktionen und dann ein Auswählen eines Akkords aus einer Menüliste von Akkorden aufweist.The control operation of claim 59, wherein associating from input functions to chords selecting an input function from a menu of input functions and then selecting of a chord from a menu list of chords. Steuerfeld, aufweisend: Anzeigen eines Menüs von Eingabefunktionen; Anzeigen eines Gestensatzes, der Befehle zeigt, die mit einer ausgewählten Eingabefunktion assoziiert sind, und Gestenereignisse, die den Befehlen zugeordnet sind; Anzeigen einer Liste von Akkorden, wobei, um eine Gestenabbildung einzurichten, ein Benutzer eine gewünschte Eingabefunktion aus einer Liste von Eingabefunktionen auswählt und einen gewünschten Akkord aus der Liste von Akkorden auswählt.Control field comprising: Displaying a menu of input functions; View a gesture set containing commands shows that are associated with a selected input function, and gesture events associated with the instructions; Show a list of chords, whereby, to establish a gesture image, a user a desired input function from a List of input functions and selects a desired one Chord selected from the list of chords. Gestenentwurfsverfahren, aufweisend: Anordnen von Akkorden vom einfachsten bis zum schwierigsten zum Ausführen; Anordnen nach Häufigkeit von Operationen von am häufigsten bis am wenigsten häufig; im Wesentlichen Zuordnen der einfachsten Akkorde mit den häufigsten Operationen und Zuordnen der schwierigsten Akkorde mit den seltensten Operationen; und Feinabstimmen von Akkord-/Operationsgruppierung.Gesture design method, comprising: arrange from chords from the simplest to the most difficult to perform; arrange by frequency of operations of most frequent least often; essentially assign the simplest chords with the most common operations and assigning the most difficult chords with the rarest operations; and Fine tuning of chord / operation grouping. Verfahren nach Anspruch 68, wobei die Akkorde auf der Grundlage von einem oder mehreren Attributen angeordnet werden, die aus Geschwindigkeit, Verlässlichkeit, Komfort, Benutzerfreundlichkeit, Einfachheit oder Größe eines Abtastgebietes ausgewählt werden.The method of claim 68, wherein the chords be arranged on the basis of one or more attributes, the speed, reliability, comfort, ease of use, simplicity or size of a scanning area selected become. Verfahren nach Anspruch 68, wobei das Feinabstimmen auf einem oder mehreren Faktoren beruhen kann, einschließlich komplementäre Befehle, Intuitivität, Überlagerung oder Anordnung.The method of claim 68, wherein said fine tuning may be based on one or more factors, including complementary commands, intuitiveness, overlay or arrangement. Gestenoperation, aufweisend: Detektieren eines ersten Fingers; Bestimmen des Zustands des Fingers; Detektieren eines oder mehrerer zusätzlicher Finger; Bestimmen des Zustands der zusätzlichen Finger; und Implementieren verschiedener Eingabemodi, die auf der zeitlichen Zuordnung von Zuständen des ersten und der zusätzlichen Finger relativ zueinander basieren.Gesture operation, comprising: Detect a first finger; Determining the condition of the finger; detect one or more additional fingers; Determine the state of the additional fingers; and To implement different input modes based on the temporal assignment of States of the first and the additional fingers based on each other. Gestenoperation nach Anspruch 71, wobei, falls der erste Finger in einem ersten Zustand der beiden Zustände ist, wenn die zusätzlichen Finger sich in einem ersten Zustand der beiden Zustände befinden, dann wird ein erster Eingabemodus implementiert, ansonsten wird ein zweiter Eingabemodus implementiert.A gesture operation according to claim 71, wherein, if the first finger in a first state of the two states is when the extra fingers are in a first State of the two states are, then becomes a first Implemented input mode, otherwise, a second input mode implemented. Gestenoperation nach Anspruch 71, wobei der Zustand des ersten Fingers Bewegen oder stationär aufweist und wobei der Zustand der zusätzlichen Finger eine Anwesenheit oder keine aufweist, und wobei, falls sich der erste Finger bewegt, dann ein Eingabezeigemodus implementiert wird, und falls der erste Finger stationär ist, wenn die zusätzlichen Finger anwesend sind, dann ein Ziehmodus implementiert wird.The gesture operation of claim 71, wherein the state the first finger moving or stationary and has the condition of the additional fingers being a presence or not, and if the first finger is moving, then an input pointing mode is implemented, and if the first Finger is stationary when the extra fingers present, then a pull mode is implemented.
DE112007000278T 2006-01-30 2007-01-30 Gesturing with a multipoint scanning device Withdrawn DE112007000278T5 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US76360506P 2006-01-30 2006-01-30
US60/763,605 2006-01-30
PCT/US2007/002512 WO2007089766A2 (en) 2006-01-30 2007-01-30 Gesturing with a multipoint sensing device

Publications (1)

Publication Number Publication Date
DE112007000278T5 true DE112007000278T5 (en) 2008-11-20

Family

ID=37964621

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112007003779T Ceased DE112007003779A5 (en) 2006-01-30 2007-01-30 Gesturing with a multipoint scanning device
DE112007000278T Withdrawn DE112007000278T5 (en) 2006-01-30 2007-01-30 Gesturing with a multipoint scanning device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112007003779T Ceased DE112007003779A5 (en) 2006-01-30 2007-01-30 Gesturing with a multipoint scanning device

Country Status (9)

Country Link
US (1) US20070177804A1 (en)
EP (3) EP2485138A1 (en)
JP (1) JP5249788B2 (en)
KR (2) KR101085603B1 (en)
CN (3) CN108932481A (en)
AU (1) AU2007209926B2 (en)
CA (2) CA2637513C (en)
DE (2) DE112007003779A5 (en)
WO (1) WO2007089766A2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009048622A1 (en) * 2009-10-06 2011-04-21 Audi Ag Method for generating map display on display device for motor vehicle, involves moving cursor display and map display on static map in respective modes, where change of one mode to another mode takes place by input at touch pad
DE102009059868A1 (en) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Method for providing graphical user-interface for stereo-system in vehicle, involves changing partial quantity such that new displayed partial quantity lies within and/or hierarchically below hierarchical level of former partial quantity
DE102009059867A1 (en) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Method for providing graphical user interface in e.g. operating system of electronic device in vehicle, involves shifting subset of objects independent of positions of objects in area near to position in which gesture is implemented
DE102010009622A1 (en) 2010-02-27 2011-09-01 Volkswagen Ag Method for operating user interface, involves representing display contents on display surface which has partial view of overall view of graphical object
DE102013221628A1 (en) * 2013-10-24 2015-04-30 Volkswagen Aktiengesellschaft A driving device and method for changing a reproduction of a plurality of display areas

Families Citing this family (462)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7312785B2 (en) 2001-10-22 2007-12-25 Apple Inc. Method and apparatus for accelerated scrolling
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US8059099B2 (en) 2006-06-02 2011-11-15 Apple Inc. Techniques for interactive input to portable electronic devices
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US7561146B1 (en) 2004-08-25 2009-07-14 Apple Inc. Method and apparatus to reject accidental contact on a touchpad
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US9384672B1 (en) 2006-03-29 2016-07-05 Amazon Technologies, Inc. Handheld electronic book reader device having asymmetrical shape
US7748634B1 (en) 2006-03-29 2010-07-06 Amazon Technologies, Inc. Handheld electronic book reader device having dual displays
US9360967B2 (en) 2006-07-06 2016-06-07 Apple Inc. Mutual capacitance touch sensing device
US8743060B2 (en) 2006-07-06 2014-06-03 Apple Inc. Mutual capacitance touch sensing device
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US8842074B2 (en) 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US10313505B2 (en) * 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7940250B2 (en) 2006-09-06 2011-05-10 Apple Inc. Web-clip widgets on a portable multifunction device
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
KR100886337B1 (en) * 2006-11-23 2009-03-02 삼성전자주식회사 Apparatus for simultaneously saving the areas selected on image and apparatus for making documents by automatically recording image informations
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) * 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US8788954B2 (en) 2007-01-07 2014-07-22 Apple Inc. Web-clip widgets on a portable multifunction device
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
KR101420419B1 (en) * 2007-04-20 2014-07-30 엘지전자 주식회사 Electronic Device And Method Of Editing Data Using the Same And Mobile Communication Terminal
US9740386B2 (en) * 2007-06-13 2017-08-22 Apple Inc. Speed/positional mode translations
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
KR101395780B1 (en) * 2007-07-27 2014-05-16 삼성전자주식회사 Pressure sensor arrary apparatus and method for tactility
US20090048707A1 (en) * 2007-08-15 2009-02-19 Deline Jonathan E Fuel dispenser
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) * 2007-09-04 2013-12-31 Apple Inc. Editing interface
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US8683378B2 (en) 2007-09-04 2014-03-25 Apple Inc. Scrolling techniques for user interfaces
KR20090029138A (en) * 2007-09-17 2009-03-20 삼성전자주식회사 The method of inputting user command by gesture and the multimedia apparatus thereof
US8633915B2 (en) 2007-10-04 2014-01-21 Apple Inc. Single-layer touch-sensitive display
JP5372000B2 (en) * 2007-10-11 2013-12-18 エヌ−トリグ リミテッド Gesture detection for digitizer
JP2011503709A (en) * 2007-11-07 2011-01-27 エヌ−トリグ リミテッド Gesture detection for digitizer
US8545321B2 (en) 2007-11-09 2013-10-01 Igt Gaming system having user interface with uploading and downloading capability
US8439756B2 (en) 2007-11-09 2013-05-14 Igt Gaming system having a display/input device configured to interactively operate with external device
US7976372B2 (en) 2007-11-09 2011-07-12 Igt Gaming system having multiple player simultaneous display/input device
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
US9171454B2 (en) 2007-11-14 2015-10-27 Microsoft Technology Licensing, Llc Magic wand
US8416198B2 (en) 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
US8413075B2 (en) * 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US20090174676A1 (en) 2008-01-04 2009-07-09 Apple Inc. Motion component dominance factors for motion locking of touch sensor data
US20090174679A1 (en) * 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
US9372576B2 (en) 2008-01-04 2016-06-21 Apple Inc. Image jaggedness filter for determining whether to perform baseline calculations
KR101470543B1 (en) * 2008-02-15 2014-12-08 엘지전자 주식회사 Mobile terminal including touch screen and operation control method thereof
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8174502B2 (en) 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
WO2009109014A1 (en) * 2008-03-05 2009-09-11 Rpo Pty Limited Methods for operation of a touch input device
US9454256B2 (en) 2008-03-14 2016-09-27 Apple Inc. Sensor configurations of an input device that are switchable based on mode
KR101012379B1 (en) * 2008-03-25 2011-02-09 엘지전자 주식회사 Terminal and method of displaying information therein
KR101513023B1 (en) * 2008-03-25 2015-04-22 엘지전자 주식회사 Terminal and method of displaying information therein
US20090243998A1 (en) * 2008-03-28 2009-10-01 Nokia Corporation Apparatus, method and computer program product for providing an input gesture indicator
US8525802B2 (en) 2008-03-31 2013-09-03 Lg Electronics Inc. Portable terminal capable of sensing proximity touch and method for providing graphic user interface using the same
TWI360775B (en) * 2008-04-22 2012-03-21 Htc Corp Method and apparatus for operating user interface
CN101571785B (en) * 2008-04-29 2013-03-27 宏达国际电子股份有限公司 Operating method, operating device and storage medium for user interface
US8526767B2 (en) 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
US9268483B2 (en) * 2008-05-16 2016-02-23 Microsoft Technology Licensing, Llc Multi-touch input platform
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
JP5164675B2 (en) * 2008-06-04 2013-03-21 キヤノン株式会社 User interface control method, information processing apparatus, and program
US8566717B2 (en) 2008-06-24 2013-10-22 Microsoft Corporation Rendering teaching animations on a user-interface display
JP5243115B2 (en) * 2008-06-27 2013-07-24 京セラ株式会社 Mobile terminal and mobile terminal control program
EP2306286A4 (en) * 2008-07-17 2016-05-11 Nec Corp Information processing apparatus, storage medium on which program has been recorded, and object shifting method
JP4632102B2 (en) * 2008-07-17 2011-02-16 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
US8847739B2 (en) 2008-08-04 2014-09-30 Microsoft Corporation Fusing RFID and vision for surface object tracking
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US20100058251A1 (en) * 2008-08-27 2010-03-04 Apple Inc. Omnidirectional gesture detection
US10375223B2 (en) 2008-08-28 2019-08-06 Qualcomm Incorporated Notifying a user of events in a computing device
CA2639611A1 (en) 2008-09-12 2010-03-12 James Franklin Zdralek Bimanual gesture based input and device control system
CN101676849B (en) * 2008-09-16 2012-10-10 联想(北京)有限公司 Electronic equipment and interacting method for using same
KR20100033202A (en) * 2008-09-19 2010-03-29 삼성전자주식회사 Display apparatus and method of controlling thereof
US8529345B2 (en) 2008-10-02 2013-09-10 Igt Gaming system including a gaming table with mobile user input devices
KR101586627B1 (en) * 2008-10-06 2016-01-19 삼성전자주식회사 A method for controlling of list with multi touch and apparatus thereof
US20100097329A1 (en) * 2008-10-21 2010-04-22 Martin Simmons Touch Position Finding Method and Apparatus
US8659557B2 (en) * 2008-10-21 2014-02-25 Atmel Corporation Touch finding method and apparatus
US8866790B2 (en) * 2008-10-21 2014-10-21 Atmel Corporation Multi-touch tracking
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) * 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
JP4853507B2 (en) * 2008-10-30 2012-01-11 ソニー株式会社 Information processing apparatus, information processing method, and program
KR101029627B1 (en) * 2008-10-31 2011-04-15 에스케이텔레시스 주식회사 Method of operating functions of mobile terminal with touch screen and apparatus thereof
GB0819985D0 (en) * 2008-10-31 2008-12-10 Intergence Systems Ltd Network visualistion systems
US8856690B2 (en) * 2008-10-31 2014-10-07 Sprint Communications Company L.P. Associating gestures on a touch screen with characters
US20100117970A1 (en) * 2008-11-11 2010-05-13 Sony Ericsson Mobile Communications Ab Methods of Operating Electronic Devices Using Touch Sensitive Interfaces with Contact and Proximity Detection and Related Devices and Computer Program Products
KR101027566B1 (en) * 2008-11-17 2011-04-06 (주)메디슨 Ultrasonic diagnostic apparatus and method for generating commands in ultrasonic diagnostic apparatus
KR101544475B1 (en) * 2008-11-28 2015-08-13 엘지전자 주식회사 Controlling of Input/Output through touch
JP2010128838A (en) * 2008-11-28 2010-06-10 Toyota Motor Corp Input device
US20100138782A1 (en) * 2008-11-30 2010-06-03 Nokia Corporation Item and view specific options
US20100138781A1 (en) * 2008-11-30 2010-06-03 Nokia Corporation Phonebook arrangement
US8294047B2 (en) * 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
US8707170B2 (en) * 2008-12-15 2014-04-22 Hewlett-Packard Development Company, L.P. Gesture based edit mode
GB2466077A (en) * 2008-12-15 2010-06-16 Symbian Software Ltd Emulator for multiple computing device inputs
JP2010157039A (en) * 2008-12-26 2010-07-15 Toshiba Corp Electronic equipment and input control method
JP2010157038A (en) * 2008-12-26 2010-07-15 Toshiba Corp Electronic apparatus and input control method
EP2370878B8 (en) 2008-12-29 2019-06-19 Hewlett-Packard Development Company, L.P. Gesture detection zones
US20100171696A1 (en) * 2009-01-06 2010-07-08 Chi Kong Wu Motion actuation system and related motion database
US8487938B2 (en) * 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8922521B2 (en) 2009-02-02 2014-12-30 Apple Inc. Switching circuitry for touch sensitive display
WO2010090033A1 (en) * 2009-02-06 2010-08-12 パナソニック株式会社 Image display device
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8446377B2 (en) * 2009-03-24 2013-05-21 Microsoft Corporation Dual screen portable touch sensitive computing system
KR101546966B1 (en) 2009-03-27 2015-08-26 (주)멜파스 Method for detecting gesture and sensing touch input
US8593410B2 (en) 2009-04-10 2013-11-26 Apple Inc. Touch sensor panel design
CN101866230B (en) * 2009-04-20 2012-07-04 纬创资通股份有限公司 Program starting method, auxiliary correcting method as well as related device and computer device thereof
CN101869484B (en) * 2009-04-24 2015-05-13 深圳迈瑞生物医疗电子股份有限公司 Medical diagnosis device having touch screen and control method thereof
CN103916531A (en) * 2009-05-07 2014-07-09 义隆电子股份有限公司 Control method of mobile phone
US8154529B2 (en) * 2009-05-14 2012-04-10 Atmel Corporation Two-dimensional touch sensors
US9354751B2 (en) 2009-05-15 2016-05-31 Apple Inc. Input device with optimized capacitive sensing
KR101576292B1 (en) 2009-05-21 2015-12-09 엘지전자 주식회사 The method for executing menu in mobile terminal and mobile terminal using the same
US10705692B2 (en) 2009-05-21 2020-07-07 Sony Interactive Entertainment Inc. Continuous and dynamic scene decomposition for user interface
JP2010277197A (en) * 2009-05-26 2010-12-09 Sony Corp Information processing device, information processing method, and program
KR101071843B1 (en) * 2009-06-12 2011-10-11 엘지전자 주식회사 Mobile terminal and method for controlling the same
US8957874B2 (en) 2009-06-29 2015-02-17 Apple Inc. Touch sensor panel design
TWI442271B (en) * 2009-07-03 2014-06-21 Wistron Corp Method for multiple touch modes,method for applying multi single-touch instruction and electronic device with touch control device performing these methods
US8872771B2 (en) 2009-07-07 2014-10-28 Apple Inc. Touch sensing device having conductive nodes
CN101609385B (en) * 2009-07-17 2011-03-16 中兴通讯股份有限公司 Method and system for using a plurality of resistive touch screens to realize multi-point input
JP2011028345A (en) 2009-07-22 2011-02-10 Olympus Imaging Corp Condition change device, camera, mobile apparatus and program
JP5626749B2 (en) * 2009-07-29 2014-11-19 京セラ株式会社 Portable electronic device and character information conversion system
CN101615409B (en) * 2009-07-31 2013-03-27 华为终端有限公司 Media playing controlling method, system, media player and earphone wire device
KR101608770B1 (en) * 2009-08-03 2016-04-04 엘지전자 주식회사 Mobile terminal and method for controlling the same
US9535599B2 (en) 2009-08-18 2017-01-03 Adobe Systems Incorporated Methods and apparatus for image editing using multitouch gestures
WO2011025239A2 (en) * 2009-08-24 2011-03-03 삼성전자 주식회사 Method for providing a ui using motions, and device adopting the method
US8334849B2 (en) * 2009-08-25 2012-12-18 Pixart Imaging Inc. Firmware methods and devices for a mutual capacitance touch sensing device
JP5482023B2 (en) * 2009-08-27 2014-04-23 ソニー株式会社 Information processing apparatus, information processing method, and program
US20110055753A1 (en) * 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
US8438503B2 (en) * 2009-09-02 2013-05-07 Universal Electronics Inc. System and method for enhanced command input
CN102576251B (en) * 2009-09-02 2015-09-02 亚马逊技术股份有限公司 Touch-screen user interface
US8451238B2 (en) 2009-09-02 2013-05-28 Amazon Technologies, Inc. Touch-screen user interface
CN101655771B (en) * 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 Method and system for inputting multi-contact characters
TWI403932B (en) * 2009-09-14 2013-08-01 Acer Inc Method for operating a touch screen, method for defining a touch gesture on the touch screen, and electronic device thereof
US8519960B2 (en) * 2009-09-17 2013-08-27 Aten International Co., Ltd. Method and apparatus for switching of KVM switch ports using gestures on a touch panel
CN102023787B (en) * 2009-09-17 2012-09-05 宏碁股份有限公司 Method for operating touch control screen, method for defining touch control gesture and electronic device thereof
US20120182296A1 (en) * 2009-09-23 2012-07-19 Han Dingnan Method and interface for man-machine interaction
EP2306288A1 (en) 2009-09-25 2011-04-06 Research In Motion Limited Electronic device including touch-sensitive input device and method of controlling same
US20110074827A1 (en) * 2009-09-25 2011-03-31 Research In Motion Limited Electronic device including touch-sensitive input device and method of controlling same
KR101633332B1 (en) * 2009-09-30 2016-06-24 엘지전자 주식회사 Mobile terminal and Method of controlling the same
US8312392B2 (en) * 2009-10-02 2012-11-13 Qualcomm Incorporated User interface gestures and methods for providing file sharing functionality
US20110090155A1 (en) * 2009-10-15 2011-04-21 Qualcomm Incorporated Method, system, and computer program product combining gestural input from multiple touch screens into one gestural input
CN101788863B (en) * 2009-11-10 2013-01-09 广东威创视讯科技股份有限公司 Touch screen operation recognizing method, touch screen system operation and recognition debugging method and corresponding device
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
KR101634386B1 (en) * 2009-11-17 2016-06-28 엘지전자 주식회사 Method for displaying contents and mobile terminal thereof
US8432367B2 (en) * 2009-11-19 2013-04-30 Google Inc. Translating user interaction with a touch screen into input commands
US20110126094A1 (en) * 2009-11-24 2011-05-26 Horodezky Samuel J Method of modifying commands on a touch screen user interface
EP2333651B1 (en) * 2009-12-11 2016-07-20 Dassault Systèmes Method and system for duplicating an object using a touch-sensitive display
US20110157015A1 (en) * 2009-12-25 2011-06-30 Cywee Group Limited Method of generating multi-touch signal, dongle for generating multi-touch signal, and related control system
JP5572397B2 (en) * 2010-01-06 2014-08-13 京セラ株式会社 Input device, input method, and input program
US8621380B2 (en) 2010-01-06 2013-12-31 Apple Inc. Apparatus and method for conditionally enabling or disabling soft buttons
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8631355B2 (en) * 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
JP5750875B2 (en) 2010-12-01 2015-07-22 ソニー株式会社 Information processing apparatus, information processing method, and program
US8386965B2 (en) * 2010-01-15 2013-02-26 Apple Inc. Techniques and systems for enhancing touch screen device accessibility through virtual containers and virtually enlarged boundaries
US9235341B2 (en) 2010-01-20 2016-01-12 Nokia Technologies Oy User input
US20110179381A1 (en) * 2010-01-21 2011-07-21 Research In Motion Limited Portable electronic device and method of controlling same
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US20120299860A1 (en) * 2010-02-04 2012-11-29 Nokia Corporation User input
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
JP2011227703A (en) * 2010-04-20 2011-11-10 Rohm Co Ltd Touch panel input device capable of two-point detection
JP5702546B2 (en) * 2010-03-19 2015-04-15 ローム株式会社 Touch panel input device
CN102844732A (en) 2010-02-18 2012-12-26 罗姆股份有限公司 Touch-panel input device
JP2011197848A (en) * 2010-03-18 2011-10-06 Rohm Co Ltd Touch-panel input device
US9310994B2 (en) 2010-02-19 2016-04-12 Microsoft Technology Licensing, Llc Use of bezel as an input mechanism
US9274682B2 (en) 2010-02-19 2016-03-01 Microsoft Technology Licensing, Llc Off-screen gestures to create on-screen input
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
US9075522B2 (en) 2010-02-25 2015-07-07 Microsoft Technology Licensing, Llc Multi-screen bookmark hold gesture
US20110209058A1 (en) * 2010-02-25 2011-08-25 Microsoft Corporation Multi-screen hold and tap gesture
JP5413673B2 (en) * 2010-03-08 2014-02-12 ソニー株式会社 Information processing apparatus and method, and program
KR20110107143A (en) * 2010-03-24 2011-09-30 삼성전자주식회사 Method and apparatus for controlling function of a portable terminal using multi-input
US9405404B2 (en) 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
KR101632993B1 (en) * 2010-04-05 2016-06-23 엘지전자 주식회사 Mobile terminal and message transmitting method for mobile terminal
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
US9170708B2 (en) 2010-04-07 2015-10-27 Apple Inc. Device, method, and graphical user interface for managing folders
US8810509B2 (en) 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
CN101853128A (en) * 2010-05-08 2010-10-06 杭州惠道科技有限公司 Multi-touch method for human-computer interface of slide-wheel
CN102253709A (en) * 2010-05-19 2011-11-23 禾瑞亚科技股份有限公司 Method and device for determining gestures
JP5196599B2 (en) * 2010-06-08 2013-05-15 パナソニック株式会社 Handwriting input device, handwriting input processing method, and program
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
KR101672212B1 (en) * 2010-06-15 2016-11-04 엘지전자 주식회사 Mobile terminal and operation method thereof
US8933910B2 (en) 2010-06-16 2015-01-13 Panasonic Intellectual Property Corporation Of America Information input apparatus, information input method, and program
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8922499B2 (en) * 2010-07-26 2014-12-30 Apple Inc. Touch input transitions
US8878787B2 (en) 2010-08-13 2014-11-04 Fujitsu Limited Multi-touch user input based on multiple quick-point controllers
US9013430B2 (en) 2010-08-20 2015-04-21 University Of Massachusetts Hand and finger registration for control applications
JP5580694B2 (en) * 2010-08-24 2014-08-27 キヤノン株式会社 Information processing apparatus, control method therefor, program, and storage medium
CN102385471B (en) * 2010-08-31 2016-01-20 腾讯科技(深圳)有限公司 A kind of method and apparatus controlling to start
JP4945671B2 (en) * 2010-08-31 2012-06-06 株式会社東芝 Electronic equipment, input control method
US20120050530A1 (en) * 2010-08-31 2012-03-01 Google Inc. Use camera to augment input for portable electronic device
US9164542B2 (en) * 2010-08-31 2015-10-20 Symbol Technologies, Llc Automated controls for sensor enabled user interface
CN101943995A (en) * 2010-09-01 2011-01-12 惠州Tcl移动通信有限公司 Method and device for processing display information of mobile terminal and touch screen thereof
US9747270B2 (en) * 2011-01-07 2017-08-29 Microsoft Technology Licensing, Llc Natural input for spreadsheet actions
KR101915615B1 (en) * 2010-10-14 2019-01-07 삼성전자주식회사 Apparatus and method for controlling user interface based motion
JP6099252B2 (en) * 2010-10-15 2017-03-29 株式会社図研 Input information processing apparatus, input information processing method, and program
KR20120040970A (en) * 2010-10-20 2012-04-30 삼성전자주식회사 Method and apparatus for recognizing gesture in the display
US8986118B2 (en) * 2010-11-02 2015-03-24 Novomatic Ag Method and system for secretly revealing items on a multi-touch interface
US8547354B2 (en) 2010-11-05 2013-10-01 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
US8587547B2 (en) 2010-11-05 2013-11-19 Apple Inc. Device, method, and graphical user interface for manipulating soft keyboards
DE102010063392B4 (en) * 2010-11-15 2016-12-15 Leica Microsystems (Schweiz) Ag Microscope with touch screen, associated control and operating procedures
JP5479414B2 (en) * 2010-11-24 2014-04-23 キヤノン株式会社 Information processing apparatus and control method thereof
DE102010054859A1 (en) * 2010-12-17 2012-06-21 Rohde & Schwarz Gmbh & Co. Kg System with gesture recognition unit
CN102768608B (en) * 2010-12-20 2016-05-04 苹果公司 Identification of events
FR2969780B1 (en) 2010-12-22 2012-12-28 Peugeot Citroen Automobiles Sa MACHINE HUMAN INTERFACE COMPRISING A TOUCH CONTROL SURFACE ON WHICH FING SLIDES MAKE ACTIVATIONS OF THE CORRESPONDING ICONS
CN102566865A (en) * 2010-12-27 2012-07-11 爱国者电子科技(天津)有限公司 Computer device for distinguishing touch event and distinguishing method thereof
US8543833B2 (en) * 2010-12-29 2013-09-24 Microsoft Corporation User identification with biokinematic input
TWI446236B (en) * 2011-01-04 2014-07-21 Sentelic Corp An electronic device and a control method thereof
US9465440B2 (en) 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
CN102591549B (en) * 2011-01-06 2016-03-09 海尔集团公司 Touch-control delete processing system and method
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
WO2012094479A1 (en) * 2011-01-06 2012-07-12 Tivo Inc. Method and apparatus for gesture based controls
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9430128B2 (en) * 2011-01-06 2016-08-30 Tivo, Inc. Method and apparatus for controls based on concurrent gestures
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9766718B2 (en) 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9436381B2 (en) 2011-01-24 2016-09-06 Apple Inc. Device, method, and graphical user interface for navigating and annotating an electronic document
US9442516B2 (en) * 2011-01-24 2016-09-13 Apple Inc. Device, method, and graphical user interface for navigating through an electronic document
US9092132B2 (en) 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
KR101873787B1 (en) * 2011-02-10 2018-07-03 삼성전자주식회사 Method for processing multi-touch input in touch screen terminal and device thereof
EP2676182B1 (en) 2011-02-15 2018-03-28 Microsoft Technology Licensing, LLC Tracking input to a multi-touch digitizer system
JP5782529B2 (en) * 2011-02-17 2015-09-24 ナイキ イノベイト シーブイ Selection of physical activity data and association with image data
US9213421B2 (en) 2011-02-28 2015-12-15 Blackberry Limited Electronic device and method of displaying information in response to detecting a gesture
CN102163099A (en) * 2011-03-02 2011-08-24 圆刚科技股份有限公司 Gesture operation method and multi-media playing device
US8933888B2 (en) 2011-03-17 2015-01-13 Intellitact Llc Relative touch user interface enhancements
CN102693025B (en) * 2011-03-21 2015-07-08 中国科学院软件研究所 Touch finger identification method for multi-touch interaction system
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
JP5815259B2 (en) * 2011-03-28 2015-11-17 Necパーソナルコンピュータ株式会社 Information processing apparatus and information processing method
CN102736769B (en) * 2011-03-31 2017-04-05 比亚迪股份有限公司 The recognition methodss of multiple spot zoom action and device
JP5716502B2 (en) * 2011-04-06 2015-05-13 ソニー株式会社 Information processing apparatus, information processing method, and computer program
FR2973898B1 (en) * 2011-04-07 2014-06-27 Domeo CONFIGURATION METHOD AND SYSTEM FOR DYNAMICALLY CONFIGURING A COMPUTER SYSTEM FOR CONTROLLING AT LEAST ONE ELECTRICAL DEVICE
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
JP5768457B2 (en) 2011-04-19 2015-08-26 ソニー株式会社 Electronic device, display method and program
US8873841B2 (en) * 2011-04-21 2014-10-28 Nokia Corporation Methods and apparatuses for facilitating gesture recognition
US9261972B2 (en) 2011-04-21 2016-02-16 Inpris Innovative Products Ltd Ergonomic motion detection for receiving character input to electronic devices
US10222974B2 (en) * 2011-05-03 2019-03-05 Nokia Technologies Oy Method and apparatus for providing quick access to device functionality
CN102799340A (en) * 2011-05-26 2012-11-28 上海三旗通信科技股份有限公司 Operation gesture for switching multi-applications to current window and activating multi-applications
US9513799B2 (en) * 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
CN102819380A (en) * 2011-06-09 2012-12-12 英业达股份有限公司 Electronic device and manipulation method thereof
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101262700B1 (en) * 2011-08-05 2013-05-08 삼성전자주식회사 Method for Controlling Electronic Apparatus based on Voice Recognition and Motion Recognition, and Electric Apparatus thereof
EP2986014A1 (en) 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2013054470A (en) 2011-09-01 2013-03-21 Sony Corp Information processor, information processing method, and program
KR101719994B1 (en) * 2011-09-07 2017-03-27 엘지전자 주식회사 Mobile terminal and method for controlling the same
CN102354271A (en) * 2011-09-16 2012-02-15 华为终端有限公司 Gesture input method, mobile terminal and host
CN102354272A (en) * 2011-09-20 2012-02-15 宇龙计算机通信科技(深圳)有限公司 Starting method for application programs and terminal
KR101832838B1 (en) * 2011-09-23 2018-04-13 삼성전자주식회사 Apparatus and method for controlling display size in portable terminal
WO2013051050A1 (en) * 2011-10-03 2013-04-11 古野電気株式会社 Device having touch panel, radar device, plotter device, marine network system, symbol identification method and symbol identification program
CN103049250B (en) * 2011-10-14 2016-03-02 腾讯科技(深圳)有限公司 The method of control inerface and terminal
US20130097566A1 (en) * 2011-10-17 2013-04-18 Carl Fredrik Alexander BERGLUND System and method for displaying items on electronic devices
CN108762577A (en) 2011-10-18 2018-11-06 卡内基梅隆大学 Method and apparatus for the touch event on touch sensitive surface of classifying
CN103092494A (en) * 2011-10-28 2013-05-08 腾讯科技(深圳)有限公司 Application switching method and device for touch screen terminals
US20130106912A1 (en) * 2011-10-28 2013-05-02 Joo Yong Um Combination Touch-Sensor Input
US8631357B2 (en) 2011-10-31 2014-01-14 Apple Inc. Dual function scroll wheel input
CN102436347A (en) * 2011-11-10 2012-05-02 盛乐信息技术(上海)有限公司 Switching method of application program and touch screen device
KR20130052797A (en) * 2011-11-14 2013-05-23 삼성전자주식회사 Method of controlling application using touchscreen and a terminal supporting the same
CN102421029A (en) * 2011-11-22 2012-04-18 中兴通讯股份有限公司 Terminal Control method, device and system
TWI447630B (en) 2011-11-25 2014-08-01 Wistron Corp Processing method for touch signal and computing device thereof
CN102566908A (en) * 2011-12-13 2012-07-11 鸿富锦精密工业(深圳)有限公司 Electronic equipment and page zooming method for same
US9563278B2 (en) * 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
US20130154959A1 (en) * 2011-12-20 2013-06-20 Research In Motion Limited System and method for controlling an electronic device
CN103176729A (en) * 2011-12-26 2013-06-26 宇龙计算机通信科技(深圳)有限公司 Method and terminal of gathering icons of touch interface
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
CN103246462B (en) * 2012-02-13 2018-08-10 联想(北京)有限公司 A kind of detection method and terminal of vertical gesture
KR101356368B1 (en) * 2012-02-24 2014-01-29 주식회사 팬택 Application switching apparatus and method
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
JP5598736B2 (en) 2012-02-27 2014-10-01 カシオ計算機株式会社 Image display device, image display method, and image display program
US9360893B2 (en) 2012-03-02 2016-06-07 Microsoft Technology Licensing, Llc Input device writing surface
US9134807B2 (en) 2012-03-02 2015-09-15 Microsoft Technology Licensing, Llc Pressure sensitive key normalization
US9426905B2 (en) 2012-03-02 2016-08-23 Microsoft Technology Licensing, Llc Connection device for computing devices
USRE48963E1 (en) 2012-03-02 2022-03-08 Microsoft Technology Licensing, Llc Connection device for computing devices
US9064654B2 (en) 2012-03-02 2015-06-23 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9075566B2 (en) 2012-03-02 2015-07-07 Microsoft Technoogy Licensing, LLC Flexible hinge spine
US9870066B2 (en) 2012-03-02 2018-01-16 Microsoft Technology Licensing, Llc Method of manufacturing an input device
US9298236B2 (en) 2012-03-02 2016-03-29 Microsoft Technology Licensing, Llc Multi-stage power adapter configured to provide a first power level upon initial connection of the power adapter to the host device and a second power level thereafter upon notification from the host device to the power adapter
JP5994300B2 (en) * 2012-03-12 2016-09-21 ブラザー工業株式会社 Input device and input program
CN103324420B (en) * 2012-03-19 2016-12-28 联想(北京)有限公司 A kind of multi-point touchpad input operation identification method and electronic equipment
KR101916907B1 (en) * 2012-03-20 2018-11-09 삼성전자주식회사 User terminal, electric device and control method thereof
US9877699B2 (en) 2012-03-26 2018-01-30 Teratech Corporation Tablet ultrasound system
US10667790B2 (en) 2012-03-26 2020-06-02 Teratech Corporation Tablet ultrasound system
US9575652B2 (en) 2012-03-31 2017-02-21 Microsoft Technology Licensing, Llc Instantiable gesture objects
CN103188573A (en) * 2012-04-01 2013-07-03 上海锐开信息科技有限公司 Display system with shopping chaining function
JP2013218592A (en) * 2012-04-11 2013-10-24 Seiko Epson Corp Character input device
US9329723B2 (en) 2012-04-16 2016-05-03 Apple Inc. Reconstruction of original touch image from differential touch image
EP2657821B1 (en) * 2012-04-26 2015-02-25 BlackBerry Limited Method and apparatus pertaining to the interpretation of touch-based actions
JP5349642B2 (en) * 2012-04-27 2013-11-20 株式会社東芝 Electronic device, control method and program
JP2013232119A (en) * 2012-04-27 2013-11-14 Panasonic Corp Input device, input supporting method, and program
US20130300590A1 (en) 2012-05-14 2013-11-14 Paul Henry Dietz Audio Feedback
KR101710771B1 (en) * 2012-05-18 2017-02-27 애플 인크. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
WO2013173968A1 (en) * 2012-05-21 2013-11-28 宇龙计算机通信科技(深圳)有限公司 Terminal and switching method of application function interface
US10031556B2 (en) 2012-06-08 2018-07-24 Microsoft Technology Licensing, Llc User experience adaptation
KR102071692B1 (en) 2012-06-11 2020-01-31 삼성전자주식회사 Mobile device and control method thereof
EP3588342B1 (en) 2012-06-11 2022-10-12 Samsung Electronics Co., Ltd. Mobile device and control method thereof
US11284251B2 (en) 2012-06-11 2022-03-22 Samsung Electronics Co., Ltd. Mobile device and control method thereof
CN102750096A (en) * 2012-06-15 2012-10-24 深圳乐投卡尔科技有限公司 Vehicle-mounted Android platform multi-point gesture control method
KR101507740B1 (en) * 2012-06-29 2015-04-07 인텔렉추얼디스커버리 주식회사 Outdoor advertising billboards, and how they interact
JP2014010777A (en) * 2012-07-02 2014-01-20 Fujitsu Ltd Display program, display method, and information processing device
CN103530045A (en) * 2012-07-03 2014-01-22 腾讯科技(深圳)有限公司 Menu item starting method and mobile terminal
CN106681633B (en) * 2012-07-13 2020-03-17 上海触乐信息科技有限公司 System and method for auxiliary information input control function of sliding operation of portable terminal equipment
CN102819350B (en) * 2012-08-02 2016-04-06 东莞宇龙通信科技有限公司 Terminal and terminal control method
JP5928245B2 (en) * 2012-08-23 2016-06-01 カシオ計算機株式会社 Data processing apparatus and program
US10222975B2 (en) * 2012-08-27 2019-03-05 Apple Inc. Single contact scaling gesture
CN103677591A (en) * 2012-08-30 2014-03-26 中兴通讯股份有限公司 Terminal self-defined gesture method and terminal thereof
US20140067366A1 (en) * 2012-08-30 2014-03-06 Google Inc. Techniques for selecting languages for automatic speech recognition
CN102880401B (en) * 2012-08-31 2015-09-30 东莞宇龙通信科技有限公司 A kind of method and mobile terminal simplifying user interface buttons
WO2014043275A1 (en) * 2012-09-11 2014-03-20 Apple Inc. Gesturing with a multipoint sensing device
CN104603577A (en) * 2012-09-12 2015-05-06 丰田自动车株式会社 Portable terminal device, on-vehicle device, and on-vehicle system
CN102866777A (en) * 2012-09-12 2013-01-09 中兴通讯股份有限公司 Digital media content playing transferring method, playing equipment and system
JP5772773B2 (en) 2012-09-19 2015-09-02 コニカミノルタ株式会社 Image processing apparatus, operation standardization method, and operation standardization program
EP2711805A1 (en) * 2012-09-25 2014-03-26 Advanced Digital Broadcast S.A. Method for handling a gesture-based user interface
EP2711804A1 (en) * 2012-09-25 2014-03-26 Advanced Digital Broadcast S.A. Method for providing a gesture-based user interface
US9792035B2 (en) * 2012-10-09 2017-10-17 Mastercard International Incorporated System and method for payment using a mobile device
JP5700020B2 (en) 2012-10-10 2015-04-15 コニカミノルタ株式会社 Image processing apparatus, program, and operation event determination method
JP5655836B2 (en) 2012-10-11 2015-01-21 コニカミノルタ株式会社 Image processing apparatus, program, and operation event determination method
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
CN102970403A (en) * 2012-11-23 2013-03-13 上海量明科技发展有限公司 Method for triggering instant messaging contactor object by terminal mobile, client and system
CN102984378A (en) * 2012-11-23 2013-03-20 上海量明科技发展有限公司 Method, client side and system for triggering mobile phone communication operation by mobile terminal
CN102981768B (en) * 2012-12-04 2016-12-21 中兴通讯股份有限公司 A kind of method and system realizing floated overall situation button at touch screen terminal interface
CN103853483B (en) * 2012-12-07 2017-12-29 联想(北京)有限公司 A kind of display methods, device and electronic equipment
CN103019605A (en) * 2012-12-26 2013-04-03 广东欧珀移动通信有限公司 Gesture shutdown method of touch intelligent terminal, and intelligent terminal
CN103902216B (en) * 2012-12-29 2017-09-12 深圳雷柏科技股份有限公司 Use gesture the method and system for realizing that file is pulled on a kind of peripheral hardware touch pad
GB2510333A (en) * 2013-01-30 2014-08-06 Ibm Emulating pressure sensitivity on multi-touch devices
CN103176794A (en) * 2013-01-31 2013-06-26 北京恒华伟业科技股份有限公司 Organization and analysis method of Android screen contact trajectory data
CN103995661A (en) * 2013-02-20 2014-08-20 腾讯科技(深圳)有限公司 Method for triggering application programs or application program functions through gestures, and terminal
US8782265B1 (en) 2013-03-14 2014-07-15 Dmitry Bokotey Network visualization system and method of using same
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
CN104063140B (en) * 2013-03-18 2017-11-03 联想(北京)有限公司 The method and electronic equipment of selecting object
KR20140114766A (en) 2013-03-19 2014-09-29 퀵소 코 Method and device for sensing touch inputs
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9304549B2 (en) 2013-03-28 2016-04-05 Microsoft Technology Licensing, Llc Hinge mechanism for rotatable component attachment
EP2979477B1 (en) 2013-03-29 2020-07-08 Orange Method to unlock a screen using a touch input
US9715282B2 (en) 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
CN103235694A (en) * 2013-04-10 2013-08-07 广东欧珀移动通信有限公司 Page turning method and device of e-book reader and mobile terminal
CN104123089A (en) * 2013-04-27 2014-10-29 腾讯科技(深圳)有限公司 Gesture operation method and device for address bar and touch screen terminal
US9448637B2 (en) * 2013-05-01 2016-09-20 Intel Corporation Detection of and response to extra-device touch events
US10599250B2 (en) * 2013-05-06 2020-03-24 Qeexo, Co. Using finger touch types to interact with electronic devices
DE102013208762A1 (en) * 2013-05-13 2014-11-13 Siemens Aktiengesellschaft Intuitive gesture control
CN104168352A (en) * 2013-05-17 2014-11-26 中兴通讯股份有限公司 Method and system for searching contact person from address book and calling contact person
CN104182033A (en) * 2013-05-23 2014-12-03 联想(北京)有限公司 Information inputting method, information inputting device and electronic equipment
KR20150017399A (en) * 2013-06-03 2015-02-17 원혁 The method and apparatus for input on the touch screen interface
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US10345932B2 (en) * 2013-06-14 2019-07-09 Microsoft Technology Licensing, Llc Disambiguation of indirect input
US10664652B2 (en) 2013-06-15 2020-05-26 Microsoft Technology Licensing, Llc Seamless grid and canvas integration in a spreadsheet application
US10402060B2 (en) * 2013-06-28 2019-09-03 Orange System and method for gesture disambiguation
KR20150014083A (en) * 2013-07-29 2015-02-06 삼성전자주식회사 Method For Sensing Inputs of Electrical Device And Electrical Device Thereof
US9886141B2 (en) 2013-08-16 2018-02-06 Apple Inc. Mutual and self capacitance touch measurements in touch panel
KR102063103B1 (en) * 2013-08-23 2020-01-07 엘지전자 주식회사 Mobile terminal
US20150067592A1 (en) * 2013-08-29 2015-03-05 Sharp Laboratories Of America, Inc. Methods and Systems for Interacting with a Digital Marking Surface
JP6109020B2 (en) 2013-09-10 2017-04-05 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Document dividing / combining method, apparatus, and program.
WO2015039288A1 (en) * 2013-09-17 2015-03-26 宇龙计算机通信科技(深圳)有限公司 Progress bar precision adjusting device and method, playing system and terminal
TWI585609B (en) * 2013-10-22 2017-06-01 緯創資通股份有限公司 Electronic apparatus and operation method
JP6066882B2 (en) * 2013-10-30 2017-01-25 三菱電機株式会社 Information processing apparatus, information terminal, information communication system, and information transmission method
JP6393325B2 (en) 2013-10-30 2018-09-19 アップル インコーポレイテッドApple Inc. Display related user interface objects
CN103558920B (en) * 2013-11-15 2018-06-19 努比亚技术有限公司 The processing method and processing device of Non-contact posture
US8869062B1 (en) * 2013-11-27 2014-10-21 Freedom Scientific, Inc. Gesture-based screen-magnified touchscreen navigation
CN103616994A (en) * 2013-12-09 2014-03-05 珠海金山办公软件有限公司 Method and device for controlling electronic device
DE102014001183B4 (en) 2014-01-30 2022-09-22 Audi Ag Method and system for triggering at least one function of a motor vehicle
US10169957B2 (en) 2014-02-13 2019-01-01 Igt Multiple player gaming station interaction systems and methods
CN104866166A (en) * 2014-02-21 2015-08-26 联想(北京)有限公司 Information processing method and electronic equipment
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
RU2652457C2 (en) * 2014-03-31 2018-04-26 Общество с ограниченной ответственностью "Аби Девелопмент" Multi-touch input processing for selection of the displayed option
CN105094499A (en) * 2014-04-24 2015-11-25 青岛海信移动通信技术股份有限公司 Intelligent mobile terminal and processing method for application windows thereof
US10936120B2 (en) 2014-05-22 2021-03-02 Apple Inc. Panel bootstraping architectures for in-cell self-capacitance
WO2015181163A1 (en) * 2014-05-28 2015-12-03 Thomson Licensing Method and system for touch input
EP4365725A3 (en) 2014-05-30 2024-07-17 Apple Inc. Continuity
US10289251B2 (en) 2014-06-27 2019-05-14 Apple Inc. Reducing floating ground effects in pixelated self-capacitance touch screens
US10114521B2 (en) 2014-09-02 2018-10-30 Apple Inc. Multi-dimensional object rearrangement
US20160062571A1 (en) 2014-09-02 2016-03-03 Apple Inc. Reduced size user interface
US9880655B2 (en) 2014-09-02 2018-01-30 Apple Inc. Method of disambiguating water from a finger touch on a touch sensor panel
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
JP6019074B2 (en) * 2014-09-16 2016-11-02 京セラドキュメントソリューションズ株式会社 Electronic device and touch panel operation method
US10705658B2 (en) 2014-09-22 2020-07-07 Apple Inc. Ungrounded user signal compensation for pixelated self-capacitance touch sensor panel
US10296206B2 (en) * 2014-09-23 2019-05-21 Microsoft Technology Licensing, Llc Multi-finger touchpad gestures
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
EP3213173A4 (en) 2014-10-27 2018-06-06 Apple Inc. Pixelated self-capacitance water rejection
JP5965966B2 (en) * 2014-11-06 2016-08-10 オリンパス株式会社 Microscope controller and microscope system having the microscope controller
CN104461366A (en) * 2014-12-16 2015-03-25 小米科技有限责任公司 Method and device for activating operation state of mobile terminal
CN104615366B (en) * 2014-12-31 2017-07-14 中国人民解放军国防科学技术大学 A kind of gesture interaction method towards many equipment
EP3224699B1 (en) 2015-02-02 2018-10-03 Apple Inc. Flexible self-capacitance and mutual capacitance touch sensing system architecture
US10488992B2 (en) 2015-03-10 2019-11-26 Apple Inc. Multi-chip touch architecture for scalability
CN104750415B (en) * 2015-03-10 2018-01-09 深圳酷派技术有限公司 A kind of terminal operation method and terminal
CN107690651B (en) * 2015-04-16 2022-06-28 罗伯特·博世有限公司 System and method for automated sign language recognition
US9961239B2 (en) 2015-06-07 2018-05-01 Apple Inc. Touch accommodation options
US10613732B2 (en) 2015-06-07 2020-04-07 Apple Inc. Selecting content items in a user interface display
CN104978143B (en) * 2015-06-19 2020-03-24 Oppo广东移动通信有限公司 Terminal unlocking method and terminal
CN105095170A (en) * 2015-07-31 2015-11-25 小米科技有限责任公司 Text deleting method and device
CN105117100A (en) * 2015-08-19 2015-12-02 小米科技有限责任公司 Target object display method and apparatus
CN106293051B (en) * 2015-08-21 2020-01-10 北京智谷睿拓技术服务有限公司 Gesture-based interaction method and device and user equipment
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
JP6256545B2 (en) * 2015-08-31 2018-01-10 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
US10365773B2 (en) 2015-09-30 2019-07-30 Apple Inc. Flexible scan plan using coarse mutual capacitance and fully-guarded measurements
CN105498202A (en) * 2015-11-26 2016-04-20 珠海网易达电子科技发展有限公司 Full-touch screen-swiping shooting operation mode
CN105607832B (en) * 2015-12-21 2021-02-19 联想(北京)有限公司 Information processing method and electronic equipment
CN105760098B (en) * 2016-01-29 2019-06-11 Oppo广东移动通信有限公司 The control method and electronic equipment of video playing
US10942642B2 (en) * 2016-03-02 2021-03-09 Airwatch Llc Systems and methods for performing erasures within a graphical user interface
CN107193406B (en) * 2016-03-14 2020-12-18 联想(北京)有限公司 Information processing method and electronic equipment
CN105912191A (en) * 2016-03-31 2016-08-31 北京奇虎科技有限公司 Method and device for realizing interaction between applications of terminal equipment
WO2017166227A1 (en) * 2016-03-31 2017-10-05 深圳市柔宇科技有限公司 Door body and control method for door body
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
DK201670616A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices and Methods for Accessing Prevalent Device Functions
WO2017218153A1 (en) * 2016-06-12 2017-12-21 Apple Inc. Devices and methods for accessing prevalent device functions
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
CA2972732A1 (en) * 2016-07-07 2018-01-07 David Franklin Gesture-based user interface
CN106227336B (en) * 2016-07-15 2019-07-12 深圳奥比中光科技有限公司 The method for building up and establish device that body-sensing maps
AU2017208277B2 (en) 2016-09-06 2018-12-20 Apple Inc. Back of cover touch sensors
DE202016105915U1 (en) * 2016-10-21 2016-11-16 Ma Lighting Technology Gmbh Lighting console with rotary control
CN106502502A (en) * 2016-10-31 2017-03-15 深圳市金立通信设备有限公司 A kind of method of locking applications and terminal
CN106730818B (en) * 2016-12-29 2020-10-30 成都速鱼网络科技有限公司 Touch screen-based card rubbing method and poker game device
CN106648382B (en) * 2017-02-28 2019-03-01 维沃移动通信有限公司 A kind of picture browsing method and mobile terminal
US10386965B2 (en) 2017-04-20 2019-08-20 Apple Inc. Finger tracking in wet environment
US11023091B2 (en) * 2017-06-02 2021-06-01 Apple Inc. Device, method, and graphical user interface for improving visibility of affordances
CN107402647B (en) * 2017-07-25 2020-03-13 邓承征 Touch-control type presenter
US20190034069A1 (en) * 2017-07-26 2019-01-31 Microsoft Technology Licensing, Llc Programmable Multi-touch On-screen Keyboard
JP6940353B2 (en) * 2017-09-27 2021-09-29 京セラ株式会社 Electronics
JP6439953B1 (en) * 2018-03-11 2018-12-19 求 藤川 Determination apparatus and control method of determination apparatus
CN110045825B (en) * 2018-03-27 2022-05-13 杭州凌感科技有限公司 Gesture recognition system for vehicle interaction control
CN109164970A (en) * 2018-07-19 2019-01-08 深圳点猫科技有限公司 It is a kind of based on education the customized gesture interaction of notebook method, education notebook
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US11153687B1 (en) 2018-08-24 2021-10-19 Apple Inc. Wireless headphone interactions
CN109656387B (en) * 2018-12-18 2022-03-18 珠海迈科智能科技股份有限公司 Touch key response method for random multi-point operation
TWI687862B (en) 2018-12-25 2020-03-11 宏碁股份有限公司 Electronic device equipped with anti-theft function
CN111400782B (en) * 2019-01-03 2023-05-16 宏碁股份有限公司 Electronic device with anti-theft function
CN109766054B (en) * 2019-01-31 2021-02-02 恒生电子股份有限公司 Touch screen device and control method and medium thereof
WO2020219008A1 (en) * 2019-04-22 2020-10-29 Hewlett-Packard Development Company L.P. Palm-based graphics change
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference
US11662867B1 (en) 2020-05-30 2023-05-30 Apple Inc. Hover detection on a touch sensor panel
JP7537171B2 (en) * 2020-08-07 2024-08-21 ブラザー工業株式会社 Programs and Electronic Devices
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
US11995297B2 (en) * 2021-03-08 2024-05-28 Samsung Electronics Co., Ltd. Enhanced user interface (UI) button control for mobile applications
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
CN113110793B (en) * 2021-05-17 2022-07-15 上海临冠数据科技有限公司 Gesture operation method and device for realizing undo and redo

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1543404A (en) 1922-10-27 1925-06-23 Stokes Harry Potts Rail-dressing machine
US3859005A (en) 1973-08-13 1975-01-07 Albert L Huebner Erosion reduction in wet turbines
CA2002912A1 (en) * 1988-11-14 1990-05-14 William A. Clough Portable computer with touch screen and computer system employing same
US5252951A (en) * 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
US5157384A (en) * 1989-04-28 1992-10-20 International Business Machines Corporation Advanced user interface
US5236199A (en) * 1991-06-13 1993-08-17 Thompson Jr John W Interactive media system and telecomputing method using telephone keypad signalling
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
JP3289304B2 (en) * 1992-03-10 2002-06-04 株式会社日立製作所 Sign language conversion apparatus and method
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US7911456B2 (en) * 1992-06-08 2011-03-22 Synaptics Incorporated Object position detector with edge motion feature and gesture recognition
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
WO1994015272A1 (en) * 1992-12-22 1994-07-07 Morgan Michael W Pen-based electronic teaching system
US6212577B1 (en) * 1993-03-03 2001-04-03 Apple Computer, Inc. Method and apparatus for improved interaction with an application program according to data types and actions performed by the application program
US5528743A (en) * 1993-05-27 1996-06-18 Apple Computer, Inc. Method and apparatus for inserting text on a pen-based computer system
US5734923A (en) * 1993-09-22 1998-03-31 Hitachi, Ltd. Apparatus for interactively editing and outputting sign language information using graphical user interface
US5741136A (en) * 1993-09-24 1998-04-21 Readspeak, Inc. Audio-visual work with a series of visual word symbols coordinated with oral word utterances
JPH07129312A (en) * 1993-11-05 1995-05-19 Oki Electric Ind Co Ltd Picture processor
US5689575A (en) * 1993-11-22 1997-11-18 Hitachi, Ltd. Method and apparatus for processing images of facial expressions
US5826578A (en) * 1994-05-26 1998-10-27 Curchod; Donald B. Motion measurement apparatus
WO1996009579A1 (en) * 1994-09-22 1996-03-28 Izak Van Cruyningen Popup menus with directional gestures
US6226785B1 (en) * 1994-09-30 2001-05-01 Apple Computer, Inc. Method and apparatus for storing and replaying creation history of multimedia software or other software content
DE69526871T2 (en) * 1995-08-30 2002-12-12 Hitachi, Ltd. SIGNALING TELEPHONE SYSTEM FOR COMMUNICATION BETWEEN HEARING AND NON-HEARING
JPH09128147A (en) * 1995-10-30 1997-05-16 Alpine Electron Inc Operation instructing device
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
US5933134A (en) * 1996-06-25 1999-08-03 International Business Machines Corporation Touch screen virtual pointing device which goes into a translucent hibernation state when not in use
IL119498A (en) * 1996-10-27 2003-02-12 Advanced Recognition Tech Application launching system
US5974413A (en) * 1997-07-03 1999-10-26 Activeword Systems, Inc. Semantic user interface
US6268857B1 (en) * 1997-08-29 2001-07-31 Xerox Corporation Computer user interface using a physical manipulatory grammar
US6297838B1 (en) * 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US6310610B1 (en) * 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
JPH11184669A (en) * 1997-12-24 1999-07-09 Sharp Corp Information processing device and method therefor, and medium storing information processing device control program
US6116907A (en) * 1998-01-13 2000-09-12 Sorenson Vision, Inc. System and method for encoding and retrieving visual signals
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US6188391B1 (en) * 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6162189A (en) * 1999-05-26 2000-12-19 Rutgers, The State University Of New Jersey Ankle rehabilitation system
US6337678B1 (en) * 1999-07-21 2002-01-08 Tactiva Incorporated Force feedback computer input and output device with coordinated haptic elements
JP2001134382A (en) * 1999-11-04 2001-05-18 Sony Corp Graphic processor
JP4803883B2 (en) * 2000-01-31 2011-10-26 キヤノン株式会社 Position information processing apparatus and method and program thereof.
EP1264238A2 (en) * 2000-03-16 2002-12-11 Microsoft Corporation Notification platform architecture
US20020107556A1 (en) * 2000-12-13 2002-08-08 Mcloul Raphael Fifo Movement initiation device used in Parkinson's disease and other disorders which affect muscle control
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP2002244781A (en) * 2001-02-15 2002-08-30 Wacom Co Ltd Input system, program, and recording medium
US20020140718A1 (en) * 2001-03-29 2002-10-03 Philips Electronics North America Corporation Method of providing sign language animation to a monitor and process therefor
CN1388671A (en) * 2001-05-29 2003-01-01 黄俊诚 Information supplying service using data communication network
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
JP2003173237A (en) * 2001-09-28 2003-06-20 Ricoh Co Ltd Information input-output system, program and storage medium
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US6938222B2 (en) * 2002-02-08 2005-08-30 Microsoft Corporation Ink gestures
JP3906729B2 (en) * 2002-04-05 2007-04-18 株式会社日立製作所 Sign language education system and program for realizing the system
US7519918B2 (en) * 2002-05-30 2009-04-14 Intel Corporation Mobile virtual desktop
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2004118917A (en) * 2002-09-25 2004-04-15 Clarion Co Ltd Electronic equipment and navigation apparatus
US7086032B2 (en) * 2003-02-20 2006-08-01 Adobe Systems Incorporated System and method for representation of object animation within presentations of software application programs
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7886236B2 (en) * 2003-03-28 2011-02-08 Microsoft Corporation Dynamic feedback for gestures
KR101042099B1 (en) * 2003-08-21 2011-06-16 마이크로소프트 코포레이션 Focus management using in-air points
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
WO2005038749A2 (en) * 2003-10-10 2005-04-28 Leapfrog Enterprises, Inc. Display apparatus for teaching writing
US7532196B2 (en) * 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US7895537B2 (en) * 2003-12-29 2011-02-22 International Business Machines Corporation Method and apparatus for setting attributes and initiating actions through gestures
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
US7301527B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Feedback based user interface for motion controlled handheld devices
US7180500B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
JP4855654B2 (en) * 2004-05-31 2012-01-18 ソニー株式会社 On-vehicle device, on-vehicle device information providing method, on-vehicle device information providing method program, and on-vehicle device information providing method program
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7184031B2 (en) * 2004-07-06 2007-02-27 Sentelic Corporation Method and controller for identifying a drag gesture
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US20060087510A1 (en) * 2004-09-01 2006-04-27 Nicoletta Adamo-Villani Device and method of keyboard input and uses thereof
US20060134585A1 (en) * 2004-09-01 2006-06-22 Nicoletta Adamo-Villani Interactive animation system for sign language
US8169410B2 (en) * 2004-10-20 2012-05-01 Nintendo Co., Ltd. Gesture inputs for a portable display device
US7477233B2 (en) * 2005-03-16 2009-01-13 Microsoft Corporation Method and system for providing modifier key behavior through pen gestures
US20060209041A1 (en) * 2005-03-18 2006-09-21 Elo Touchsystems, Inc. Method and apparatus for automatic calibration of a touch monitor
US20080191864A1 (en) * 2005-03-31 2008-08-14 Ronen Wolfson Interactive Surface and Display System
US20060287617A1 (en) * 2005-06-20 2006-12-21 Department Of Veterans Affairs Autocite workstation and systems and methods therefor
US7603633B2 (en) * 2006-01-13 2009-10-13 Microsoft Corporation Position-based multi-stroke marking menus
US7991401B2 (en) * 2006-08-08 2011-08-02 Samsung Electronics Co., Ltd. Apparatus, a method, and a system for animating a virtual scene
US7876310B2 (en) * 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US8970501B2 (en) * 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US7907141B2 (en) * 2007-03-23 2011-03-15 Palo Alto Research Center Incorporated Methods and processes for recognition of electronic ink strokes
US8413075B2 (en) * 2008-01-04 2013-04-02 Apple Inc. Gesture movies
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
GB0820621D0 (en) * 2008-11-12 2008-12-17 Barnardo Christopher J A Remote control wand
US20100162181A1 (en) * 2008-12-22 2010-06-24 Palm, Inc. Interpreting Gesture Input Including Introduction Or Removal Of A Point Of Contact While A Gesture Is In Progress

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6323846B1 (en) 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009048622A1 (en) * 2009-10-06 2011-04-21 Audi Ag Method for generating map display on display device for motor vehicle, involves moving cursor display and map display on static map in respective modes, where change of one mode to another mode takes place by input at touch pad
DE102009059868A1 (en) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Method for providing graphical user-interface for stereo-system in vehicle, involves changing partial quantity such that new displayed partial quantity lies within and/or hierarchically below hierarchical level of former partial quantity
DE102009059867A1 (en) 2009-12-21 2011-06-22 Volkswagen AG, 38440 Method for providing graphical user interface in e.g. operating system of electronic device in vehicle, involves shifting subset of objects independent of positions of objects in area near to position in which gesture is implemented
DE102010009622A1 (en) 2010-02-27 2011-09-01 Volkswagen Ag Method for operating user interface, involves representing display contents on display surface which has partial view of overall view of graphical object
DE102013221628A1 (en) * 2013-10-24 2015-04-30 Volkswagen Aktiengesellschaft A driving device and method for changing a reproduction of a plurality of display areas

Also Published As

Publication number Publication date
CN108932481A (en) 2018-12-04
CA2846965C (en) 2016-03-29
EP1979804B1 (en) 2017-10-25
EP2485139A1 (en) 2012-08-08
EP1979804A2 (en) 2008-10-15
EP2485138A1 (en) 2012-08-08
CN104020850B (en) 2018-06-22
US20070177804A1 (en) 2007-08-02
KR101085603B1 (en) 2011-11-22
WO2007089766A3 (en) 2008-09-18
JP2009525538A (en) 2009-07-09
JP5249788B2 (en) 2013-07-31
AU2011200579A1 (en) 2011-03-03
KR20100088717A (en) 2010-08-10
AU2007209926A1 (en) 2007-08-09
DE112007003779A5 (en) 2012-08-30
CN104020850A (en) 2014-09-03
CA2637513A1 (en) 2007-08-09
AU2007209926B2 (en) 2010-11-11
WO2007089766A2 (en) 2007-08-09
CA2637513C (en) 2014-06-03
CN101410781B (en) 2014-05-07
KR101072762B1 (en) 2011-10-11
CN101410781A (en) 2009-04-15
KR20080091502A (en) 2008-10-13
CA2846965A1 (en) 2007-08-09

Similar Documents

Publication Publication Date Title
DE112007000278T5 (en) Gesturing with a multipoint scanning device
DE202008001338U1 (en) Gesturing with a multipoint scanning device
US9239673B2 (en) Gesturing with a multipoint sensing device
DE102013111978B4 (en) Identify and use gestures near a sensor
US20180059928A1 (en) Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
DE202005021427U1 (en) Electronic device with touch-sensitive input device
DE202007014957U1 (en) Multimedia touch screen communication device responsive to gestures for controlling, manipulating and editing media files
DE202007013923U1 (en) Multiple event input system
DE202008000261U1 (en) Multiple Berührungsdatenfussionssystem
DE202008007847U1 (en) Speed / Position mode translation
DE202007018368U1 (en) Multimedia touch screen communication device that responds to gestures to control, manipulate and edit media files
DE202009018404U1 (en) Extended touch-sensitive control area for an electronic device
WO2014043275A1 (en) Gesturing with a multipoint sensing device
DE102016115479A1 (en) User interface for electronic device, input processing method and electronic device
DE102009019910B4 (en) Gesture recognition
KR20150098366A (en) Control method of virtual touchpadand terminal performing the same
AU2016238971B2 (en) Gesturing with a multipoint sensing device
AU2014201419B2 (en) Gesturing with a multipoint sensing device
KR20160107139A (en) Control method of virtual touchpadand terminal performing the same

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8172 Supplementary division/partition in:

Ref document number: 112007003708

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 112007003708

Country of ref document: DE

Kind code of ref document: P

8172 Supplementary division/partition in:

Ref document number: 112007003759

Country of ref document: DE

Kind code of ref document: P

Q171 Divided out to:

Ref document number: 112007003759

Country of ref document: DE

Kind code of ref document: P

R130 Divisional application to

Ref document number: 112007003779

Country of ref document: DE

Effective date: 20110805

R120 Application withdrawn or ip right abandoned