DE102009011687B4 - Berührungsereignismodell - Google Patents

Berührungsereignismodell Download PDF

Info

Publication number
DE102009011687B4
DE102009011687B4 DE102009011687.7A DE102009011687A DE102009011687B4 DE 102009011687 B4 DE102009011687 B4 DE 102009011687B4 DE 102009011687 A DE102009011687 A DE 102009011687A DE 102009011687 B4 DE102009011687 B4 DE 102009011687B4
Authority
DE
Germany
Prior art keywords
touch
view
exclusive
flag
views
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102009011687.7A
Other languages
English (en)
Other versions
DE102009011687A1 (de
Inventor
Jason Clay Beaver
Andrew Platzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=40510039&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE102009011687(B4) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Apple Inc filed Critical Apple Inc
Publication of DE102009011687A1 publication Critical patent/DE102009011687A1/de
Application granted granted Critical
Publication of DE102009011687B4 publication Critical patent/DE102009011687B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Percussion Or Vibration Massage (AREA)
  • Manipulator (AREA)
  • Manufacture Of Switches (AREA)

Abstract

Verfahren zur Bearbeitung von Berührungsereignissen in einer Mehrfachberührungsvorrichtung (200; 210), umfassend:Anzeigen einer oder mehrerer Ansichten (301 bis 312);Ausführungen einer oder mehrerer Softwareelemente, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist;Assoziieren jeweils eines Mehrfachberührungsflags oder eines exklusiven Berührungsflags mit jeder Ansicht;Empfangen (400; 500) einer oder mehrerer Berührungen in der einen oder den mehreren Ansichten; undSelektives Senden (406-410; 506-514) eines oder mehrerer Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente, die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.

Description

  • Gebiet der Erfindung
  • Hier geht es im Allgemeinen um mehrfachpunktfähige- und mehrfachberührungsfähige Vorrichtungen und insbesondere um das Erkennen von Einfach- und Mehrfachpunkt- sowie Berührungsereignissen in mehrfachpunktfähigen und mehrfachberührungsfähigen Vorrichtungen.
  • Hintergrund der Erfindung
  • Mehrfachberührungsfähigen Vorrichtungen sind im Stand der Technik bekannt. Eine mehrfachberührungsfähige Vorrichtung ist eine Vorrichtung, die mehrere Berührungen zur selben Zeit erfassen kann. Daher kann eine mehrfachberührungsfähige Vorrichtung beispielsweise zwei Berührungsereignisse erfassen, die gleichzeitig an zwei verschiedenen Positionen auf einem Mehrfachberührungsfeld auftreten und dadurch bewirkt werden, dass zwei Finger auf das Feld gedrückt werden. Beispiele mehrfachberührungsfähige Vorrichtungen sind in der US-Patentanmeldung Nr. 11/649,998 mit dem Titel „PROXIMITY AND MULTI-TOUCH SENSOR DETECTION AND DEMODULATION“, eingereicht am 3. Januar 2007, erläutert, die hiermit in ihrer Gesamtheit per Verweis aufgenommen wird. mehrfachberührungsfähige Vorrichtungen definieren eine allgemeinere Gruppe von Vorrichtungen, die sowohl mehrfachberührungsfähige Vorrichtungen als auch ähnliche Vorrichtungen, wie z.B. die in der oben genannten US-Patentanmeldung Nr. 11/349,998 erläuterten Mehrfachnäherungssensorvorrichtungen umfasst.
  • Während die Vorteile von mehrfachberührungsfähigen Schnittstellen bekannt sind, können diese Vorrichtungen einige Herausforderungen bei Entwurf von Schnittstellen mit sich bringen. Existierende Konventionen zum Schnittstellenentwurf haben ein Einfachzeige-Benutzereingabegerät angenommen, das zu einem gegebenen Zeitpunkt einen einzige Stelle spezifiziert. Beispiele umfassen eine Maus oder ein Berührungsfeld.
  • Spezieller, viele existierende graphische Benutzerschnittstellen (GUI)-Systeme stellen dem Benutzer Schnittstellen zur Verfügung, bei denen verschiedene Teile einer Anzeige mit separaten Softwareelementen assoziiert sind. So können beispielsweise Teile einer Anzeige mit einem Fenster assoziiert sein und das Fenster kann mit einer speziellen Softwareanwendung und/oder einem Prozess assoziiert sein. Eine Maus kann verwendet werden, um mit dem Fenster und der mit dem Fenster assoziierten Anwendung bzw. dem Prozess zu interagieren. Der Mauscursor kann dann zu einem anderen Fenster bewegt werden, um mit einer anderen Anwendung oder einem anderen Prozess zu interagieren. Wenn nur ein Einfachzeigegerät verwendet wird, kann eine Interaktion mit nur einem einzigen Fenster, mit einer Anwendung oder einem Prozess zur selben Zeit auftreten.
  • Die Annahme einer einzigen Interaktion mit einem Fenster zu jedem beliebigen Zeitpunkt kann den Entwurf einer Benutzerschnittstelle sehr vereinfachen. Die Anwendung und/oder der Prozess, die bzw. der innerhalb eines Fensters abläuft, kann unter der Annahme operieren, dass eine detektierte Interaktion mit diesem bestimmten Fenster die einzige empfangene Eingabe ist. Daher müssen sich die Anwendung und/oder der Prozess nicht mit der Möglichkeit anderer Benutzerinteraktionen befassen, die in anderen Teilen der Anzeige außerhalb des Fensters auftreten. Des Weiteren kann ein Fenster zusätzlich in verschiedene Elemente partitioniert werden, wobei jedes Element mit einem speziellen Teil des Fensters assoziiert ist. Jedes Element kann durch ein separates Softwareelement (z.B. ein Softwareobjekt) implementiert sein. Wiederum kann jedes Softwareobjekt Interaktionen verarbeiten, die in seinem assoziierten Bereich auftreten, ohne sich mit Interaktionen zu befassen, die gleichzeitig an einem anderen Ort auftreten können.
  • Andererseits, können bei Verwendung einer Mehrfachberührungsschnittstelle zwei oder mehrere Berührungsereignisse gleichzeitig an verschiedenen Teilen der Anzeige auftreten. Dieses kann es schwer machen, die Anzeige in verschiedene Teile aufzuspalten und verschiedene unabhängige Softwareelemente die mit jedem der Teile assoziierten Interaktionen verarbeiten zu lassen. Außerdem können, selbst wenn die Anzeige in verschiedene Teile aufgespalten wird, verschiedene Berührungsereignisse in einem einzigen Teil auftreten. Daher kann es erforderlich sein, dass eine einzige Anwendung, ein Prozess oder ein anderes Softwareelement mehrere gleichzeitig auftretende Berührungsereignisse verarbeiten muss. Wenn allerdings jede Anwendung, jeder Prozess oder jedes andere Softwareelement mehrere Berührungsinteraktionen betrachten muss, dann können die Gesamtkosten und die Gesamtkomplexität von auf der mehrfachberührungsfähigen Vorrichtung ablaufender Software unerwünscht hoch sein. Genauer, jede Anwendung kann große Mengen von hereinkommenden Berührungsdaten verarbeiten müssen. Dies kann eine hohe Komplexität in Anwendungen von scheinbar einfacher Funktionalität erfordern und kann die Programmierung einer mehrfachberührungsfähigen Vorrichtung allgemein schwierig und teuer machen. Ebenso kann existierende Software, die eine Einfachzeigevorrichtung voraussetzt, sehr schwierig in eine Version umzuwandeln oder dorthin zu portieren sein, die auf einer mehrfachpunktfähigen- oder mehrfachberührungsfähigen Vorrichtung ablaufen kann.
    (Die Druckschrift US 2006/0097991 A1 offenbart einen Mehrpunkt-Berührungsbildschirm.
    Die Druckschrift US 2007/0226636 A1 offenbart ein System für gleichzeitige Eingaben über mehrere Anwendungen hinweg.)
  • Zusammenfassung der Erfindung
  • Ausführungsformen der vorliegenden Erfindung betreffen Verfahren, Software, Vorrichtungen und APIs zur Definition von Berührungsereignissen für Anwendungssoftware. Des Weiteren sind einige Ausführungsformen auf die Vereinfachung der Erkennung von Einfach- und Mehrfachberührungsereignissen für auf mehrfachberührungsfähigen Vorrichtungen ablaufenden Anwendungen gerichtet.
    Die Druckschrift US 2006/0097991 A1 offenbart einen Mehrpunkt-Berührungsbildschirm.
    Die Druckschrift US 2007/0226636 A1 offenbart ein System für gleichzeitige Eingaben über mehrere Anwendungen hinweg.
  • Um das Erkennen von Einfach- und Mehrfachberührungsereignissen zu vereinfachen, kann jede Ansicht innerhalb eines bestimmten Fensters entweder als Mehrfachberührungsansicht oder als Einfachberührungsansicht konfiguriert werden. Des Weiteren kann jede Ansicht entweder als eine exklusive oder eine nicht exklusive Ansicht konfiguriert sein. Abhängig von der Konfiguration einer Ansicht können Berührungsereignisse in dieser und anderen Ansichten entweder ignoriert oder erkannt werden. Ignorierte Berührungen müssen nicht an die Anwendung gesendet werden. Ein selektives Ignorieren von Berührungen erlaubt es einfacheren Anwendungen oder Softwareelementen, die nicht die Vorteile hoch entwickelter Mehrfachberührungsmerkmale nutzen, auf derselben Vorrichtung (und sogar zur selben Zeit) ausgeführt zu werden, wie komplexere Anwendungen oder Softwareelemente.
  • Figurenliste
    • 1 ist ein Diagramm eines Eingabe/Ausgabeverarbeitungs-stapels einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung.
    • 2A ist ein Diagramm einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung.
    • 2B ist ein Diagramm einer anderen beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einer Ausführungsform dieser Erfindung.
    • 3 ist ein Diagramm einer beispielhaften Mehrfachberührungsanzeige gemäß einer Ausführungsform dieser Erfindung.
    • 4 ist ein Flussdiagramm, das ein beispielhaftes Betriebsverfahren des Mehrfachberührungsflags gemäß einer Ausführungsform dieser Erfindung zeigt.
    • 5A und 5B sind Flussdiagramme, die ein beispielhaftes Betriebsverfahren für das exklusive Berührungsflag gemäß einer Ausführungsform dieser Erfindung zeigen.
  • Detaillierte Beschreibung der bevorzugten Ausführungsform
  • In der folgenden Beschreibung bevorzugter Ausführungsformen wird auf die beiliegenden Zeichnungen Bezug genommen, die einen Teil hiervon bilden und in denen spezifische Ausführungsformen illustriert sind, in denen die Erfindung implementiert werden kann. Es versteht sich, dass andere Ausführungsformen verwendet werden können und dass strukturelle Änderungen durchgeführt werden können, ohne vom Umfang der bevorzugten Ausführungsformen der vorliegenden Erfindung abzuweichen.
  • Hier geht es um ein Berührungsereignismodell, das das Erkennen von Einfach- und Mehrfachberührungsereignissen für Benutzerschnittstellenanwendungen vereinfacht, die in mehrfachpunktfähigen- und mehrfachberührungsfähigen Vorrichtungen ablaufen. Um das Erkennen von Einfach- und Mehrfachberührungsereignissen zu erleichtern, kann jede Ansicht innerhalb eines bestimmten Fensters entweder als Mehrfachberührungsansicht oder als Einfachberührungsansicht konfiguriert werden. Des Weiteren kann jede Ansicht entweder als eine exklusive oder als eine nicht exklusive Ansicht konfiguriert sein. Abhängig von der Konfiguration einer Ansicht können Berührungsereignisse in dieser oder anderen Ansichten entweder ignoriert oder erkannt werden.
  • Wenngleich Ausführungsformen der vorliegenden Erfindung hier in Bezug auf spezielle mehrfachberührungsfähige Vorrichtungen beschrieben und illustriert sind, versteht es sich, dass Ausführungsformen der vorliegenden Erfindung nicht auf derartige Vorrichtungen beschränkt sind, sondern allgemein auf jegliche mehrfachberührungsfähige Vorrichtungen anwendbar sind. Des Weiteren sind Ausführungsformen der Erfindung nicht auf mehrfachberührungsfähige Vorrichtungen beschränkt, sondern umfassen Mehrfachpunktvorrichtungen, wie z.B. Mehrfachnäherungssensorvorrichtungen, die in der oben genannten US-Patentanmeldung Nr. 11/649,998 beschrieben sind.
  • Einige Ausführungsformen beziehen sich auf APIs. Im Allgemeinen ist ein API eine Quellcodeschnittstelle, die ein Computersystem bereitstellt, um Dienstanforderungen einer Softwareoperation zu unterstützen. Ein API wird vermittels einer Programmiersprache spezifiziert, die beim Bau eines Systems interpretiert oder kompiliert werden kann, anstatt als eine explizite systemnahe Beschreibung wie Daten im Speicher abgelegt zu werden. Die Software, die die Funktionalität eines API bereitstellt, wird als eine Implementierung des API bezeichnet. Vielerlei Vorrichtungen wie z.B. Computersysteme, elektronische Geräte, tragbare Vorrichtungen und handgehaltene Vorrichtungen weisen Softwareanwendungen auf. Die Vorrichtung stellt eine Schnittstelle zwischen den Softwareanwendungen und der Benutzerschnittstellensoftware bereit, um dem Benutzer der Vorrichtung bestimmte Merkmale und Operationen zur Verfügung zu stellen.
  • Wenigstens einige Ausführungsformen der Vorrichtung können ein oder mehrere APIs in einer Umgebung umfassen, in der Benutzerschnittstellensoftware mit einer Softwareanwendung interagiert. Verschiedene Funktionsaufrufe oder Nachrichten werden über die APIs zwischen der Benutzerschnittstellensoftware und den Softwareanwendungen übertragen. Das Übertragen der Funktionsaufrufe oder Nachrichten kann ein Ausgeben, Initiieren, Auslösen oder Empfangen der Funktionsaufrufe oder Nachrichten umfassen. Beispielhafte APIs können das Senden von Berührungsereignisinformation umfassen. Ein API kann auch Funktionen mit Parametern, Variablen oder Zeigern implementieren. Ein API kann offenbarte Parameter oder andere Kombinationen von Parametern empfangen. Zusätzlich zu den offenbarten APIs können andere APIs individuell oder in Kombination ähnliche Funktionalität ausführen wie die offenbarten APIs.
  • 1 ist ein Diagramm eines Eingabe-/Ausgabeverarbeitungs-stapels einer beispielhaften mehrfachberührungsfähigen Vorrichtung gemäß einiger Ausführungsformen der Erfindung. Die Hardware 100 kann auf der untersten Schicht einer mehrfachberührungsfähigen Vorrichtung verfügbar sein. Sie kann verschiedene Hardwareschnittstellenkomponenten, wie z.B. ein mehrfachberührungsfähiges Feld 101 und/oder einen Beschleunigungsmesser 102, aufweisen. Das Mehrfachberührungsfeld kann eine Anzeige und ein Feld aufweisen, dass gleichzeitig mehrere Berührungen misst. Ein Beispiel für ein solches Feld ist in größerem Detail in der oben genannten Anmeldung 11/649,998 erläutert. Der Beschleunigungsmesser kann eine Hardwarevorrichtung sein, die die Beschleunigung der mehrfachberührungsfähigen Vorrichtung misst. Sie kann verwendet werden, um zu erfassen, wann sich die Vorrichtung bewegt, wie sie bewegt wird, ob sie fallengelassen wird usw. Andere Hardwareschnittstellenvorrichtungen, wie z.B. Gyroskope, Lautsprecher, Tasten, Infrarot(IR)-Sensoren usw. (nicht gezeigt) können ebenso vorhanden sein.
  • Ein Treiber oder ein Satz von Treibern 103 kann mit der Hardware 100 kommunizieren. Die Treiber können von der Hardware empfangene Eingabedaten empfangen und verarbeiten. Ein Kernbetriebssystem (OS) 104 kann mit dem bzw. den Treiber(n) kommunizieren. Das Kern-OS kann von dem bzw. den Treiber(n) empfangene Roheingabedaten verarbeiten. In einigen Ausführungsformen können die Treiber als ein Teil des Kern-OS betrachtet werden.
  • Ein Satz von OS-Anwendungsprogrammierschnittstellen (APIs) 105 kann mit dem Kern-OS kommunizieren. Diese APIs können ein Satz von APIs sein, die normalerweise im Umfang von Betriebssystemen (wie z.B. Linux oder UNIX APIs) enthalten sind. Benutzerschnittstellen-APIs 106 (UI APIs) können einen Satz von APIs enthalten, der zur Verwendung durch auf der Vorrichtung ablaufende Anwendungen entworfen ist. Die UI APIs können die OS APIs verwenden. Auf der Vorrichtung ablaufende Anwendungen 107 können die APIs der UI APIs verwenden, um mit dem Benutzer zu kommunizieren. Die UI APIs können im Gegenzug mit den Elementen niedrigerer Schichten kommunizieren und so schließlich mit dem Mehrfachberührungsfeld 101 und verschiedener anderer Benutzerschnittstellenhardware kommunizieren. Während jede Schicht die unter ihr liegende Schicht verwenden kann, ist dies nicht immer erforderlich. In einigen Ausführungsformen können beispielsweise Anwendungen 107 fallweise mit den OS APIs 105 kommunizieren. Die APIs 105 und 106 können entsprechende Sätze von Anwendungsprogrammierschnittstellen sowie deren entsprechende Implementierungen umfassen. Beispielsweise können die UI APIs 106 auch eine Benutzerschnittstellen(UI)-Software zur Implementierung der UI APIs enthalten.
  • Die 2A und 2B sind Diagramme zweier Typen beispielhafter mehrfachberührungsfähiger Vorrichtungen gemäß einiger Ausführungsformen der Erfindung. 2A zeigt eine beispielhafte Vorrichtung 200. Die Vorrichtung 200 kann eine CPU 201 und einen Speicher 202 aufweisen, die durch einen Bus 204 verbunden sind. Der Bus kann auch mit einer Mehrfachberührungsanzeige 203 verbunden sein. Die Mehrfachberührungsanzeige kann ein Mehrfachberührungsfeld und eine Anzeige enthalten. Das Mehrfachberührungsfeld und die Anzeige können kombiniert sein, um die Mehrfachberührungsanzeige 203 zu bilden. Die Mehrfachberührungsanzeige kann zu dem Mehrfachberührungsfeld 101 innerhalb der Hardwareschicht 100 von 1 korrespondieren. Die CPU kann verwendet werden, um in dem Speicher abgelegte Software auszuführen. Die durch die CPU ausgeführte Software kann die Schichten 103 bis 107 aus 1 enthalten. Daher kann die Software Treiber, ein OS, verschiedene APIs und Anwendungen enthalten.
  • 2B zeigt eine alternative Vorrichtung 210. Die Vorrichtung 210 kann der Vorrichtung 200 ähnlich sein. Allerdings kann die Vorrichtung 210 ein separates Mehrfachberührungsfeld 212 und eine Anzeige 211 anstatt der einzigen Einheit der Vorrichtung 200 enthalten. Daher muss man bei der Vorrichtung 210 die Anzeige nicht berühren, um mit dem Mehrfachberührungsfeld zu interagieren. Die Vorrichtung 210 kann beispielsweise ein Laptop-Computer mit einem Mehrfachberührungstrackpad sein (wobei das Mehrfachberührungsfeld als Trackpad dient).
  • Das Mehrfachberührungsfeld und/oder die Anzeige aus den 2A und 2B können auch andere Sensortechnologie, wie z.B. Näherungsmessung wie in der oben genannten US-Patentanmeldung Nr. 11/649,998 erläutert, verwenden. Im Allgemeinen kann ein Mehrfachberührungsfeld und/oder eine solche Anzeige für die Vorrichtungen aus den 2A und 2B verwendet werden. Das Mehrfachpunktfeld und/oder die Mehrfachpunktanzeige können verschiedene Typen von Sensortechnologie aufweisen. Beispielsweise kann es bzw. sie nur Mehrfachberührungstechnologie (wodurch sich ein Mehrfachberührungsfeld und/oder eine Mehrfachberührungsanzeige ergibt), Mehrfachnäherungsmesstechnologie, eine Kombination der beiden oder einen anderen Typ von Mehrfachpunkttechnologie aufweisen.
  • Die Vorrichtungen aus den 2A und 2B können verschiedene unterschiedliche Typen von mehrfachberührungsfähigen Vorrichtungen umfassen. Beispielsweise können sie ein Mobiltelefon, eine tragbare Videospielkonsole, einen elektronischen Musikspieler, ein E-Book, einen PDA, einen elektronischen Organizer, ein E-Mail-Gerät, einen Laptop- oder Personalcomputer, einen Kioskcomputer oder eine Verkaufsmaschine usw. umfassen.
  • 3 ist ein Diagramm einer beispielhaften Mehrfachberührungsanzeige 300. Die Mehrfachberührungsanzeige kann die Anzeige 203 aus 2A oder die Anzeige 211 aus 2B sein. Die Anzeige kann verschiedene Benutzerschnittstellenelemente (wie z.B. Graphik, usw.) anzeigen, die durch Software generiert sind, die auf der die Anzeige enthaltenden Vorrichtung (z.B. Vorrichtung 200 aus 2A oder Vorrichtung 210 aus 2B) abläuft. Der Benutzer kann mit den verschiedenen Benutzerschnittstellenelementen interagieren, um mit der Software zu interagieren. Bei der Verwendung der Vorrichtung aus 2A kann der Benutzer mit den Benutzerschnittstellen interagieren, indem er sie direkt auf der Anzeige berührt. Bei der Verwendung der Vorrichtung aus 2B kann der Benutzer das separate Mehrfachberührungsfeld 212 berühren, um ein oder mehrere Cursor auf der Anzeige 211 zu bewegen und zu steuern, wobei die Cursor verwendet werden, um mit der Software zu interagieren.
  • Die auf der Anzeige 300 dargestellten Benutzerschnittstellenelemente können ein oder mehrere Ansichten umfassen. Jede Ansicht kann ein graphisches Benutzerschnittstellenelement darstellen, das durch ein separates Softwareelement behandelt wird. Die separaten Softwareelemente können verschiedene Anwendungen, verschiedene Prozesse oder Threads (sogar innerhalb derselben Anwendung), unterschiedlichen Routinen oder Subroutinen, unterschiedliche Objekte usw. enthalten. In einigen Ausführungsformen kann jedes separate Softwareelement Benutzerschnittstellenelemente für seinen entsprechenden Teil der Anzeige erstellen sowie Berührungseingaben für diesen Teil der Anzeige empfangen und verarbeiten. Die Berührungseingaben können durch die verschiedenen im Zusammenhang mit 1 erläuterten Schichten verarbeitet werden, die nachfolgend verarbeitete Berührungseingabedaten an das Softwareelement (welches ein Teil der Anwendungen 109 sein kann) senden können. Die verarbeiteten Berührungseingabedaten können als Berührungsereignis(se) bezeichnet werden und können in einem Format vorliegen, das einfacher zu verarbeiten ist, als durch das Mehrfachberührungsfeld erzeugte Rohberührungsdaten. Beispielsweise kann jedes Berührungsereignis einen Satz von Koordinaten umfassen, an denen gegenwärtig eine Berührung auftritt. In einigen Ausführungsformen kann der Satz von Koordinaten zu einem Schwerpunkt einer Berührung korrespondieren. Der Kürze und Einfachheit willen kann in der nachfolgenden Erläuterung auf ein mit einer Ansicht assoziiertes Softwareelement Bezug genommen werden, indem einfach auf die Ansicht selbst Bezug genommen wird.
  • Ansichten können verschachtelt sein. In anderen Worten, eine Ansicht kann andere Ansichten enthalten. Folglich kann ein mit einer ersten Ansicht assoziiertes Softwareelement ein oder mehrere mit Ansichten innerhalb der ersten Ansicht assoziierte Softwareelemente enthalten oder damit verknüpft sein. Während einige Ansichten mit Anwendungen assoziiert sein können, können andere mit OS-Elementen hoher Schichten, wie z.B. graphischen Benutzerschnittstellen, Fensterverwaltungen, usw. assoziiert sein.
  • Die beispielhafte Anzeige aus 3 zeigt eine Musikbrowseranwendung. Die Anzeige kann eine Statusbalkenansicht 301 umfassen, die den Gesamtstatus der Vorrichtung anzeigt. Die Statusbalkenansicht kann ein Teil des OS sein. Die Titelansicht 302 kann auch enthalten sein. Die Titelansicht selbst enthält mehrere andere Ansichten, wie z.B. die zentrale Titelansicht 310, die Zurücktaste 312 und die Vorwärtstaste 311. Die Tabellenansicht 303 kann auch enthalten sein. Die Tabellenansicht 303 kann ein oder mehrere Tabellenelementansichten enthalten, wie z.B. die Tabellenelementansicht 304. Wie in einer Ausführungsform gesehen, können die Tabellenelementansichten Liedertitel sein. Eine Tastenbalkenansicht 305 kann ebenso enthalten sein. Die Tastenbalkenansicht kann die Tasten 306 bis 309 enthalten.
  • Jede Ansicht und ihr assoziiertes Softwareelement können in der Lage sein, Berührungsereignisse, die bei dieser bestimmten Ansicht auftreten, zu empfangen, zu verarbeiten und zu behandeln. Wenn daher beispielsweise ein Benutzer die Liedertitelansicht 304 berührt, so kann das mit dieser Ansicht assoziierte Softwareelement ein Berührungsereignis empfangen, das anzeigt, dass die Ansicht berührt wurde, und es verarbeiten und entsprechend reagieren. Beispielsweise kann das Softwareelement die graphische Darstellung der Ansicht (z.B. ein Markieren der Ansicht) ändern und/oder kann bewirken, dass andere Aktionen, wie z.B. das Wiedergeben eines mit der berührten Ansicht assoziierten Liedes, bewirkt werden.
  • In einigen Ausführungsformen werden Berührungsereignisse auf der niedrigsten Schicht der Ansichtenhierarchie verarbeitet. Wenn daher beispielsweise ein Benutzer die Titelbalkenansicht 302 berührt, muss das Berührungsereignis nicht direkt durch das mit der Titelbalkenansicht assoziierte Softwareelement verarbeitet werden, sondern kann statt dessen durch ein Softwareelement verarbeitet werden, das mit einer in der Titelbalkenansicht enthaltenen Ansicht assoziiert ist, an der die Berührung auftrat (d.h. ein mit einer der Ansichten 310, 311 oder 312 assoziiertes Softwareelement). In einigen Ausführungsformen können auch einige Ansichten höherer Schichten Berührungsereignisse verarbeiten. Zusätzlich können verschiedene Softwareelemente, die nicht mit einer gerade berührten Ansicht assoziiert sind, nichtsdestotrotz alarmiert werden oder sie können selbst erkennen, dass die Ansicht berührt wird.
  • Da die Anzeige 300 eine Mehrfachberührungsanzeige ist, können mehrere Berührungen zur selben Zeit auftreten. Die mehreren Berührungen können in derselben Ansicht oder in zwei oder mehr verschiedenen Ansichten auftreten. Des Weiteren kann ein Benutzer Gesten ausführen (z.B. durch Herabdrücken eines oder mehrerer Finger oder durch ihre Bewegung), die vordefinierte Bedeutungen haben können. Mehrfachberührungsgesten werden in größerem Detail in der US-Patentanmeldung Nr. 10/903,964 mit dem Titel „GESTURES FOR TOUCH SENSITIVE INPUT DEVICES“, eingereicht am 30. Juli 2004, erläutert, die hiermit in ihrer Gesamtheit durch Verweis aufgenommen wird.
  • Eine Ansicht kann Berührungsereignisse empfangen, die innerhalb der Ansicht beginnen. Wenn ein Benutzer einen Finger gegen die Anzeige gedrückt hält, dann kann die Ansicht mehrere Berührungsereignisse empfangen, die eine kontinuierliche Berührung anzeigen. Wenn ein Benutzer einen gedrückten Finger bewegt, kann die Ansicht mehrere Berührungsereignisse empfangen, die eine Bewegung der Berührung anzeigen. Wenn ein Benutzer einen gedrückten Finger aus der Ansicht heraus bewegt, dann kann die Ansicht weiterhin mit dieser Bewegung assoziierte Berührungsereignisse empfangen (und die Ansichten, zu denen sich der Finger hinbewegt hat, brauchen solche Berührungsereignisse nicht empfangen). Daher kann eine Ansicht Ereignisse empfangen, die mit einer Geste oder einer Bewegung assoziiert sind, die in der Ansicht beginnt, selbst wenn sie außerhalb der Ansicht fortgeführt wird.
  • Eine Berührung kann sich auf eine Aktion beziehen, die damit beginnt, dass ein Finger oder ein anderer Körperteil oder ein anderes Objekt auf die Oberfläche eines Mehrfachberührungsfeldes (oder einer Mehrfachberührungsanzeige) gedrückt wird und die endet, wenn der Finger oder das Objekt von der Anzeige entfernt wird. Daher kann die Berührung ein Bewegen des Fingers oder Objekts oder das Beibehalten des Fingers oder des Objekts an derselben Stelle für eine Zeitspanne umfassen.
  • Berührungsereignisse können durch ein oder mehrere APIs (und ihre entsprechenden Implementierungen) an Ansichten (oder die Softwareelemente, die die Ansichten implementieren) gesendet werden. Ein Beispiel für ein API, zur Verarbeitung von Berührungsereignissen ist im Anhang A unten zur Verfügung gestellt. Gemäß dem API aus Anhang A kann das API an jede Ansicht eine Berührungsereignisdatenstruktur senden, die ein oder mehrere Einfachberührungsdatenstrukturen (oder Berührungsdatenstrukturen) enthält. Jede Berührungsereignisdatenstruktur kann den gegenwärtigen Zustand aller in der Ansicht zu einem bestimmten Zeitpunkt auftretenden Berührungen definieren. Die entsprechenden Berührungsdatenstrukturen innerhalb einer Berührungsereignisdatenstruktur können den gegenwärtigen Status einer oder mehrerer entsprechender Einfachberührungen zu dem bestimmten Zeitpunkt definieren. Wenn daher drei Berührungen zu einem bestimmten Zeitpunkt in einer bestimmten Ansicht auftreten, so kann eine Berührungsereignisdatenstruktur, die drei Berührungsdatenstrukturen zur Definition des Zustands der drei Berührungen enthält, an die Ansicht gesendet werden. In einigen Ausführungsformen können Berührungsdatenstrukturen gesendet werden, selbst wenn ihre assoziierten Berührungen nicht mehr stattfinden, um die Ansicht darauf hinzuweisen, dass die Berührungen beendet worden sind.
  • Wie oben bemerkt, kann eine Berührung eine Aktion beinhalten, die nicht auf den Moment begrenzt sein muss. Beispielsweise kann eine Berührung eine Aktion enthalten, bei der ein Finger bewegt oder für eine Zeitspanne gegen eine Anzeige gehalten wird. Eine Berührungsdatenstruktur definiert dagegen einen Zustand einer Berührung zu einem bestimmten Zeitpunkt. Daher können mehrere Berührungsdatenstrukturen mit einer einzigen Berührung assoziiert sein, wodurch die einzelne Berührung zu verschiedenen Zeitpunkte definiert wird.
  • Jede Berührungsdatenstruktur kann verschiedene Felder umfassen. Ein „erste Berührung für Ansicht“-Feld kann anzeigen, ob die Berührungsdatenstruktur die erste Berührung für die bestimmte Ansicht definiert (seit das die Ansicht implementierende Softwareelement instantiiert wurde). Ein „Zeitstempel“-Feld kann die bestimmte Zeit anzeigen, auf die sich die Berührungsdatenstruktur bezieht.
  • Ein „Info“-Feld kann verwendet werden, um anzugeben, ob eine Berührung eine rudimentäre Geste ist. Beispielsweise kann das „Info“-Feld anzeigen, ob die Berührung ein Ziehen ist, und wenn dies der Fall ist, in welche Richtung das Ziehen orientiert ist. Ein Ziehen ist hier ein schnelles Ziehen eines oder mehrerer Finger in einer geraden Richtung. Die API-Implementierungen können feststellen, ob eine Berührung ein Ziehen ist und diese Information an die Anwendung über das „Info“-Feld weiterleiten, und so der Anwendung einige Datenverarbeitung ersparen, die nötig wäre, wenn die Berührung ein Ziehen wäre.
  • Ein „Tippzähler“-Feld kann anzeigen, wie viele Tippberührungen sequentiell an der Berührungsposition ausgeführt wurden. Eine Tippberührung kann als ein kurzes Drücken und wieder Abheben eines Fingers gegen ein Feld an einer bestimmten Position definiert werden. Mehrere sequentielle Tippbewegungen können auftreten, wenn der Finger wiederholt in schneller Folge an derselben Position des Feldes gedrückt und abgehoben wird. Daher kann die API-Implementierung Tippberührungen für verschiedene Anwendungen zählen und diese Information über das Tippberührungs-„Zählfeld“ weiterleiten. Mehrere Tippberührungen am selben Ort werden manchmal als sehr nützliche und einfach zu merkende Befehle für berührungsfähige Schnittstellen betrachtet. Daher kann das API durch das Zählen von Tippberührungen der Anwendung wieder einige Datenverarbeitung ersparen.
  • Ein „Phase“-Feld kann eine bestimmte Phase anzeigen, in der sich die Berührung gegenwärtig befindet. Das Phasefeld kann verschiedene Werte haben, wie z.B. „Berührungsphase hat begonnen“, die anzeigen können, dass die Berührungsdatenstruktur eine neue Berührung definiert, die noch nicht durch frühere Berührungsdatenstrukturen referenziert wurde. Ein „Berührungsphase hat sich bewegt“-Wert kann anzeigen, dass die definierte Berührung sich von einer in einer früheren Berührungsdatenstruktur definierten Position weiterbewegt hat. Ein „Berührungsphase stationär“-Wert kann anzeigen, dass die Berührung in derselben Position verblieben ist, seit die letzte Berührungsdatenstruktur für diese Berührung erzeugt wurde. Ein „Berührungsphase beendet“-Wert kann anzeigen, dass die Berührung beendet wurde (z.B. wenn der Benutzer seinen Finger von der Oberfläche einer Mehrfachberührungsanzeige abgehoben hat). Ein „Berührungsphase abgebrochen“-Wert kann anzeigen, dass die Berührung durch die Vorrichtung abgebrochen wurde. Eine abgebrochene Berührung kann eine Berührung sein, die nicht nötigerweise durch den Benutzer beendet wird, aber bei der die Vorrichtung bestimmt, dass sie ignoriert werden soll. Beispielsweise kann die Vorrichtung bestimmen, dass die Berührung versehentlich erzeugt wurde (d.h. als Ergebnis davon, dass eine tragbare mehrfachberührungsfähige Vorrichtung in eine Tasche gesteckt wurde) und dass daher die Berührung zu ignorieren ist. Jeder Wert des „Phasefeldes“ kann eine ganze Zahl sein.
  • Daher kann jede Datenstruktur definieren, was mit einer Berührung zu einem bestimmten Zeitpunkt passiert (z.B. ob die Berührung stationär, bewegt, usw. ist) sowie andere mit der Berührung assoziierte Information (wie z.B. Position). Entsprechend kann jede Berührungsdatenstruktur den Zustand einer bestimmten Berührung zu einem bestimmten Zeitpunkt definieren. Ein oder mehrere sich auf denselben Zeitpunkt beziehende Berührungsdatenstrukturen können zu einer Berührungsereignisdatenstruktur hinzugefügt werden, die den Status aller Berührungen definiert, die eine bestimmte Ansicht zu einem Zeitpunkt empfängt (wie oben bemerkt können einige Berührungsdatenstrukturen auch Berührungen referenzieren, die beendet wurden und nicht länger empfangen werden). Im Laufe der Zeit können mehrere Berührungsereignisdatenstrukturen an die eine Ansicht implementierende Software gesendet werden, um die Software mit kontinuierlicher Information zu versorgen, die die in der Ansicht auftretenden Berührungen beschreibt. Ein oder mehrere Elemente der Vorrichtung, wie z.B. die Hardware 100, die Treiber 103, das Kern-OS 104, die OS APIs 105 und UI APIs können Berührungen an dem Mehrfachberührungsfeld 101 detektieren und die verschiedenen Berührungsereignisdatenstrukturen erzeugen, die diese Berührungen definieren.
  • Die Fähigkeit, mehrere Berührungen und Mehrfachberührungsgesten verarbeiten zu können kann den verschiedenen Softwareelementen Komplexität hinzufügen. In einigen Fällen kann solche zusätzliche Komplexität erforderlich sein, um fortschrittliche und gewünschte Schnittstellenmerkmale zu implementieren. Beispielsweise kann ein Spiel die Fähigkeit, mehrere gleichzeitige in verschiedenen Ansichten auftretende Berührungen zu verarbeiten, erforderlich machen, da Spiele oft das Drücken mehrerer Tasten zur selben Zeit verlangen. Einige einfachere Anwendungen und/oder Ansichten (und ihre assoziierten Softwareelemente) benötigen dagegen keine fortschrittlichen Schnittstellenmerkmale. Beispielsweise kann eine einfache Taste (wie z.B. Taste 306) befriedigend mit einfachen Berührungen betrieben werden und benötigt keine Mehrfachberührungsfunktionalität. In diesen Fällen kann das darunter liegende OS unnötigerweise oder exzessive Berührungsdaten (z.B. Mehrfachberührungsdaten) an ein Softwareelement schicken, das mit einer Ansicht assoziiert ist, die dafür vorgesehen ist, nur durch einfache Berührungen betrieben zu werden (z.B. eine Taste). Weil das Softwareelement diese Daten möglicherweise verarbeiten muss, muss es möglicherweise die gesamte Komplexität eines Softwareelements aufweisen, das Mehrfachberührungen verarbeitet, selbst wenn es mit einer Ansicht assoziiert ist, für die nur Einfachberührungen relevant sind. Dies kann die Kosten der Softwareentwicklung für die Vorrichtung erhöhen, weil Softwareelemente, die in einer Mausschnittstellenumgebung traditionell sehr leicht zu programmieren waren (z.B. verschiedene Tasten, usw.), in einer Mehrfachberührungsumgebung viel komplexer sein können.
  • Ausführungsformen der vorliegenden Erfindung adressieren die oben genannten Probleme durch das selektive Bereitstellen von Berührungsdaten an verschiedene Softwareelemente gemäß vordefinierter Einstellungen. Daher kann eine einfachere Schnittstelle für ausgewählte Softwareelemente bereitgestellt werden, während andere die Vorteile komplexerer Mehrfachberührungseingaben nutzen können.
  • Ausführungsformen der Erfindung können auf ein oder mehreren Flags beruhen, die mit ein oder mehreren Ansichten assoziiert sind, wobei jedes Flag oder jede Kombination daraus einen Modus zur Berührungsereignisverarbeitung für eine bestimmte Ansicht anzeigt. Beispielsweise können Mehrfachberührungs- und/oder exklusive Berührungsflags verwendet werden. Das Mehrfachberührungsflag kann anzeigen, ob eine bestimmte Ansicht in der Lage ist, mehrere gleichzeitige Berührungen zu empfangen oder nicht. Das exklusive Berührungsflag kann anzeigen, ob eine bestimmte Ansicht es anderen Ansichten erlaubt, Berührungsereignisse zu empfangen, während die Ansicht ein Berührungsereignis empfängt.
  • 4 ist ein Flussdiagramm, das den Betrieb des Mehrfachberührungsflags gemäß einer Ausführungsform der Erfindung zeigt. Bei Schritt 400 kann ein Benutzer eine Ansicht an einer ersten Stelle innerhalb der Ansicht berühren. Es kann angenommen werden, dass auf der Mehrfachberührungsanzeige keine weiteren Berührungen vorliegen, wenn die Berührung aus Schritt 400 empfangen wird. Bei Schritt 402 kann das OS ein die empfangene Berührung definierendes Berührungsereignis an ein mit der berührten Stelle assoziiertes Softwareelement senden.
  • Bei Schritt 404 kann der Benutzer die Ansicht an einer zweiten Stelle berühren, ohne dabei die erste Berührung aufzugeben (d.h. während ein Finger an der ersten Stelle gedrückt verbleibt). Daher kann der Benutzer beispielsweise den rechten Teil der Tabellenelementansicht 304 bei Schritt 400 berühren und den linken Teil der Tabellenelementansicht 304 bei Schritt 404, ohne dabei seinen bzw. ihren Finger von dem rechten Teil zu lösen. Dadurch tritt die zweite Berührung gleichzeitig mit der ersten Berührung auf (und macht sich damit die Vorteile der Mehrfachberührungsfähigkeit der Anzeige 300 zunutze).
  • Bei Schritt 406 kann das OS feststellen, ob das Mehrfachberührungsflag für die berührte Ansicht gesetzt ist. Wenn das Mehrfachberührungsflag gesetzt ist, dann kann die Ansicht eine Ansicht sein, die mehrere gleichzeitige Berührungen verarbeiten kann. Daher kann bei Schritt 408 ein zweites Berührungsereignis für die zweite Berührung an das mit der Ansicht assoziierte Softwareelement gesendet werden. Es ist zu bemerken, dass neue Instanzen für das erste Berührungsereignis ebenso gesendet werden können, die anzeigen, dass das erste Berührungsereignis weiterhin stattfindet (d.h. der Finger an der ersten Stelle wurde nicht abgehoben). Die neuen Instanzen des ersten Berührungsereignisses können unterschiedliche Stellen spezifizieren, wenn der Finger an der ersten Stelle von dieser Stelle wegbewegt wird, ohne dabei abgehoben zu werden (d.h., wenn er über die Oberfläche der Anzeige „gezogen“ wird).
  • Wenn andererseits das Mehrfachberührungsflag nicht gesetzt ist, kann das OS die zweite Berührung ignorieren oder blockieren. Ein Ignorieren der zweiten Berührung kann darin resultieren, dass keinerlei mit der zweiten Berührung assoziierte Berührungsereignisse an das mit der berührten Ansicht assoziierte Softwareelement gesendet werden. In einigen Ausführungsformen kann das OS, soweit erforderlich, andere Softwareelemente auf die zweite Berührung hinweisen.
  • Daher können es Ausführungsformen der vorliegenden Erfindung ermöglichen, dass relativ einfache Softwareelemente, die programmiert sind, um nur eine einzige Berührung zu einem Zeitpunkt zu verarbeiten, ihr Mehrfachberührungsflag nicht aktiviert lassen und damit sicherstellen, dass Berührungsereignisse, die ein Teil mehrerer gleichzeitiger Berührungen sind, nicht an sie gesendet werden. Unterdessen können komplexe Softwareelemente, die mehrere gleichzeitig auftretende Berührungen verarbeiten können, ihr Mehrfachberührungsflag aktivieren und Berührungsereignisse für alle Berührungen empfangen, die in ihren assoziierten Ansichten auftreten. Folglich können die Entwicklungskosten für einfache Softwareelemente reduziert werden, während fortschrittliche Mehrfachberührungsfunktionalität für komplexere Elemente bereitgestellt werden kann.
  • Die 5A und 5B sind Flussdiagramme, die ein beispielhaftes Betriebsverfahren für das exklusive Berührungsflag gemäß einer Ausführungsform der Erfindung zeigen. Bei Schritt 500 kann ein Benutzer eine erste Ansicht berühren. Bei Schritt 502 kann das OS ein Berührungsereignis an ein erstes mit der ersten Ansicht assoziiertes Softwareelement senden. Bei Schritt 504 kann der Benutzer eine zweite Ansicht berühren, ohne dabei die erste Berührung aufzugeben.
  • Bei Schritt 506 kann das OS prüfen, ob das exklusive Berührungsflag für die erste Ansicht aktiviert ist. Wenn es gesetzt (aktiviert) ist, bedeutet dies, dass die erste Ansicht exklusiv die Berührungen empfangen muss und dass keine anderen Berührungen an andere Ansichten gesendet werden sollen. Wenn daher das exklusive Berührungsflag gesetzt ist, kann das OS die zweite Berührung ignorieren (oder blockieren) und diese nicht an irgendwelche Softwareelemente senden. Wenn das Exklusivansichtsflag nicht gesetzt ist, dann kann das Verfahren zu Schritt 510 aus 5B übergehen.
  • In Schritt 510 kann das OS feststellen, ob das exklusive Ansichtsflag für die zweite Ansicht gesetzt ist. Wenn dieses Flag gesetzt ist, dann kann die zweite Ansicht nur exklusive Berührungsereignisse empfangen. Wenn daher bereits ein anderes Berührungsereignis durch eine andere Ansicht empfangen wird (d.h. die erste Ansicht), so kann die zweite Ansicht kein Berührungsereignis empfangen und das OS kann die zweite Berührung ignorieren (Schritt 512). Wenn allerdings das exklusive Berührungsflag für die zweite Berührung nicht gesetzt (aktiviert) ist, so kann das OS ein mit der zweiten Berührung assoziiertes Berührungsereignis an die zweite Ansicht senden. Insbesondere kann das OS ein mit der zweiten Berührung assoziiertes Berührungsereignis an ein mit der zweiten Ansicht assoziiertes Softwareelement senden (Schritt 514).
  • Somit kann das exklusive Berührungsflag sicherstellen, dass als exklusiv markierte Ansichten nur Berührungsereignisse empfangen, wenn sie die einzigen Ansichten auf der Anzeige sind, die Berührungsereignisse empfangen. Das exklusive Flag kann bei der Vereinfachung der Software für auf einer mehrfachberührungsfähigen Vorrichtung ablaufende Anwendungen sehr nützlich sein. In bestimmten Situationen können sich komplexe Konflikte und Fehler ergeben, wenn es mehreren Ansichten erlaubt wird, gleichzeitig Berührungen zu empfangen. Wenn beispielsweise eine Taste zum Löschen eines Liedes und eine Taste zum Abspielen eines Liedes gleichzeitig gedrückt werden, kann dies einen Fehler hervorrufen. Das Verhindern solcher Konflikte kann komplexe und teure Software erforderlich machen. Die Ausführungsformen der vorliegenden Erfindung können jedoch den Bedarf für solche Software dadurch reduzieren, dass ein exklusives Berührungsflag bereitgestellt wird, das sicherstellen kann, dass eine Ansicht, die dieses Flag gesetzt hat, nur dann Berührungsereignisse empfangen wird, wenn sie die einzige Ansicht ist, die ein Berührungsereignis empfängt. Alternativ dazu können ein oder mehrere Ansichten ihr exklusives Berührungsflag nicht aktiviert haben und dadurch mehrere gleichzeitige Berührungen in zwei oder mehreren dieser Ansichten zulassen.
  • In einigen Ausführungsformen kann das exklusive Flag die Exklusivität für die gesamte Anzeige angeben. Wenn daher eine Ansicht, bei der das exklusive Flag gesetzt ist, ein Berührungsereignis empfängt, können andere Ansichten in der Anzeige für den Empfang jeglicher Berührungsereignisse blockiert werden. In alternativen Ausführungsformen kann das exklusive Flag eine Exklusivität in einem kleineren Bereich wie z.B. einer einzigen Applikation oder einem einzigen Fenster anzeigen. Beispielsweise kann eine erste Ansicht mit gesetztem Exklusivitätsflag den Empfang jeglicher Berührungsereignisse durch andere Ansichten in demselben Fenster blockieren, während die erste Ansicht ein Berührungsereignis empfängt, aber sie kann nicht die Ansichten in anderen Fenstern blockieren.
  • Die exklusiven Berührungs- und Mehrfachberührungsflags können kombiniert werden. Entsprechend können ein oder mehrere angezeigte Ansichten jeweils zwei Flags aufweisen - ein Mehrfachberührungsflag und ein exklusives Berührungsflag. In einigen Ausführungsformen können alle angezeigten Ansichten diese zwei Flags enthalten. Der Wert eines Flags muss nicht von dem Wert des anderen abhängen. In einem Beispiel kann eine Ansicht, bei der sowohl exklusive als auch Mehrfachberührungsflags gesetzt sind, mehrere Berührungen innerhalb der Ansicht zulassen, wobei sie jedoch Berührungen exklusiv empfängt (d.h., wenn die Ansicht Berührungen empfängt, können Berührungen in anderen Ansichten blockiert werden). Eine Ansicht, bei der beide Flags nicht aktiviert sind, kann Mehrfachberührungen innerhalb der Ansicht blockieren, aber einfache Berührungen innerhalb der Ansicht zulassen, selbst wenn gleichzeitig Berührungen in anderen Ansichten auftreten. Eine Ansicht, bei der das Mehrfachberührungsflag nicht aktiviert und das exklusive Berührungsflag aktiviert ist, kann nur einfache Berührungen innerhalb der Ansicht zulassen, wenn keine Berührungen in irgendwelchen anderen Ansichten auftreten. Eine Ansicht, in der das Mehrfachberührungsflag aktiviert und das exklusive Berührungsflag nicht aktiviert ist, kann alle für die Ansicht empfangenen Berührungen zulassen. Eine Ansicht, bei der beide Flags aktiviert sind, kann Mehrfachberührungen in der Ansicht zulassen, während keine anderen Berührungen in anderen Ansichten auftreten.
  • Alternative Ausführungsformen können nur eines des Flags (und deren assoziierte Funktionalität) umfassen. Daher können einige Ausführungsformen das Mehrfachberührungsflag allein oder das exklusive Berührungsflag allein verwenden. In anderen Ausführungsformen können verschiedene Ansichten verschiedene Kombinationen der Flags verwenden.
  • Die verschiedenen durch das OS in den 4, 5A und 5B ausgeführten Funktionalitäten können stattdessen durch andere Software wie z.B. verschiedene Dienstsoftware ausgeführt werden. Diese Funktionalitäten können durch Software auf einer jeden der Schichten 103 bis 107 aus 1 ausgeführt werden. In einer alternativen Ausführungsform können diese Funktionalitäten sogar durch die Hardware 100 ausgeführt werden.
  • Im Folgenden ist ein beispielhafter Codesatz aufgeführt, der die Verfahren eines beispielhaften mit einer Ansicht assoziierten Softwareelements gemäß einiger Ausführungsformen der Erfindung zeigt. Ein Fachmann würde erkennen, dass ebenso anderer Code verwendet werden könnte, um die oben erläuterten Funktionalitäten zu implementieren.
  • Während die obige Erläuterung sich schwerpunktmäßig auf Mehrfachberührungsanzeigen und -felder bezieht, ist die vorliegende Erfindung nicht auf Mehrfachberührungsvorrichtungen beschränkt, sondern kann verschiedene Mehrfachpunktvorrichtungen, wie oben erläutert, umfassen, einschließlich beispielsweise von Mehrfachberührungssensorvorrichtungen. Für Mehrfachpunktvorrichtungen können Mehrfachpunkt- und Exklusivpunktflags verwendet werden. Diese Flags können ähnlich den Mehrfachberührungs- und exklusiven Berührungsflags wie oben erläutert funktionieren.
  • Während die vorliegende Erfindung vollständig im Zusammenhang mit Ausführungsformen dafür unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben wurde, ist zu bemerken, dass verschiedene Änderungen und Modifikationen für den Fachmann offensichtlich werden. Solche Änderungen und Modifikationen sind so zu verstehen, dass sie im Umfang der vorliegenden Erfindung, wie durch ihre angehängten Ansprüche definiert, enthalten sind.

Claims (19)

  1. Verfahren zur Bearbeitung von Berührungsereignissen in einer Mehrfachberührungsvorrichtung (200; 210), umfassend: Anzeigen einer oder mehrerer Ansichten (301 bis 312); Ausführungen einer oder mehrerer Softwareelemente, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; Assoziieren jeweils eines Mehrfachberührungsflags oder eines exklusiven Berührungsflags mit jeder Ansicht; Empfangen (400; 500) einer oder mehrerer Berührungen in der einen oder den mehreren Ansichten; und Selektives Senden (406-410; 506-514) eines oder mehrerer Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente, die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
  2. Verfahren nach Anspruch 1, wobei, wenn ein Mehrfachberührungsflag mit einer bestimmten Ansicht assoziiert ist, das Mehrfachberührungsflag anzeigt (406-410), ob das mit dieser bestimmten Ansicht assoziierte Softwareelement mehrere gleichzeitig in dieser Ansicht auftretende Berührungen verarbeiten darf.
  3. Verfahren nach Anspruch 1, wobei das exklusive Berührungsflag verhindert (508), dass während eine Berührung in einer Ansicht mit einem aktivierten exklusiven Berührungsflag empfangen wird, Berührungsereignisse an Softwareelemente gesendet werden, die mit anderen Ansichten als der Ansicht mit aktiviertem exklusiven Berührungsflag assoziiert sind.
  4. Verfahren nach Anspruch 1, wobei die Mehrfachberührungsvorrichtung ein Mobiltelefon ist.
  5. Verfahren nach Anspruch 1, wobei die Mehrfachberührungsvorrichtung ein digitaler Medienspieler ist.
  6. Verfahren nach Anspruch 1, umfassend: das Assoziieren eines Mehrfachberührungsflags mit einer ersten Ansicht; Empfangen (400) einer ersten Berührung in der ersten Ansicht, wobei die erste Ansicht eine der einen oder mehreren Ansichten ist; Senden (402) eines Berührungsereignisses, das die erste Berührung für ein erstes Softwareelement beschreibt, wobei das erste Softwareelement eines der einen oder mehreren Softwareelemente ist und mit der ersten Ansicht assoziiert ist; Feststellen (406), ob das mit der ersten Ansicht assoziierte Mehrfachberührungsflag anzeigt, dass die erste Ansicht eine Mehrfachberührungsansicht ist; und wenn die erste Ansicht keine Mehrfachberührungsansicht ist (406 - Nein), blockieren aller Berührungsereignisse, die jegliche anderen in der ersten Ansicht auftretenden Berührungen beschreiben, bis die erste Berührung nicht länger empfangen wird.
  7. Verfahren nach Anspruch 6, weiterhin umfassend: Assoziieren jeder der einen oder mehreren Ansichten mit jeweils einem exklusiven Berührungsflag; Feststellen (506), ob das mit der ersten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die erste Ansicht eine exklusive Berührungsansicht ist, und wenn die erste Ansicht eine exklusive Berührungsansicht ist (506 - Ja), Blockieren bis die erste Berührung nicht länger empfangen wird jeglicher Berührungsereignisse, die jegliche anderen in einer Ansicht, die nicht die erste Ansicht ist, auftretende Berührungen beschreiben.
  8. Verfahren nach Anspruch 7, wobei die erste Ansicht keine exklusive Berührungsansicht ist (506 - Nein), und wobei das Verfahren weiterhin umfasst: Empfangen (504) einer zweiten Berührung an dem Mehrfachberührungsfeld, wobei die zweite Berührung in einer zweiten Ansicht auftritt und mit einem zweiten Softwareelement assoziiert ist; Feststellen (510), ob das mit der zweiten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die zweite Ansicht eine exklusive Berührungsansicht ist; und wenn die zweite Ansicht eine exklusive Berührungsansicht ist (510 - Ja), verhindern (512) bis die erste Berührung nicht länger empfangen wird, dass ein mit der zweiten Berührung assoziiertes Berührungsereignis an das zweite Softwareelement gesendet wird.
  9. Verfahren nach Anspruch 8, weiterhin umfassend: wenn die zweite Ansicht keine exklusive Berührungsansicht ist (510 - Nein), Senden (514) eines die zweite Berührung beschreibenden Berührungsereignisses an das zweite Softwareelement.
  10. Computerlesbares Medium, umfassend eine Mehrzahl von Befehlen, die zur Ausführung auf einer Mehrfachberührungsvorrichtung (200; 210) konfiguriert sind, wobei die Befehle konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: eine oder mehrere Ansichten (301 bis 312) anzuzeigen; ein oder mehrere Softwareelemente auszuführen, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; jeweils ein Mehrfachberührungsflag oder ein exklusives Berührungsflag mit jeder Ansicht zu assoziieren; eine oder mehrere Berührungen in der einen oder den mehreren Ansichten zu empfangen (400; 500); und selektiv eines oder mehrere Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente zu senden (406-410; 506-514), die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
  11. Computerlesbares Medium nach Anspruch 10, wobei, wenn ein Mehrfachberührungsflag mit einer bestimmten Ansicht assoziiert ist, das Mehrfachberührungsflag anzeigt (406-410), ob das mit dieser bestimmten Ansicht assoziierte Softwareelement mehrere gleichzeitig in dieser Ansicht auftretende Berührungen verarbeiten darf.
  12. Computerlesbares Medium nach Anspruch 10, wobei das exklusive Berührungsflag verhindert (508), dass während eine Berührung in einer Ansicht mit einem aktivierten exklusiven Berührungsflag empfangen wird, Berührungsereignisse an Softwareelemente gesendet werden, die mit anderen Ansichten als der Ansicht mit aktiviertem exklusiven Berührungsflag assoziiert sind.
  13. Computerlesbares Medium nach Anspruch 10, wobei die Mehrfachberührungsvorrichtung ein Mobiltelefon ist.
  14. Computerlesbares Medium nach Anspruch 10, wobei die Mehrfachberührungsvorrichtung ein digitaler Medienspieler ist.
  15. Computerlesbares Medium nach Anspruch 10, wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: ein Mehrfachberührungsflag mit einer ersten Ansicht zu assoziieren; eine erste Berührung in der ersten Ansicht zu empfangen (400), wobei die erste Ansicht eine der einen oder mehreren Ansichten ist; ein die erste Berührung beschreibendes Berührungsereignis an ein erstes Softwareelement zu senden (402), wobei das erste Softwareelement eines der einen oder mehreren Softwareelemente ist und mit der ersten Ansicht assoziiert ist; Festzustellen (406), ob das mit der ersten Ansicht assoziierte Mehrfachberührungsflag anzeigt, dass die erste Ansicht eine Mehrfachberührungsansicht ist; und wenn die erste Ansicht keine Mehrfachberührungsansicht ist (406 - Nein), alle Berührungsereignisse zu blockieren, die jegliche anderen Berührungen in der ersten Ansicht beschreiben, bis die erste Berührung nicht länger empfangen wird.
  16. Computerlesbares Medium nach Anspruch 15, wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: jeweils ein exklusives Berührungsflag mit jeder der einen oder mehreren Ansichten zu assoziieren; Festzustellen (506), ob das mit der ersten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die erste Ansicht eine exklusive Berührungsansicht ist; und wenn die erste Ansicht eine exklusive Berührungsansicht ist (506 - Ja), bis die erste Berührung nicht länger empfangen wird alle Berührungsereignisse zu blockieren, die jegliche anderen Berührungen in einer Ansicht beschreiben, die nicht die erste Ansicht ist.
  17. Computerlesbares Medium nach Anspruch 16, wobei die erste Ansicht keine exklusive Berührungsansicht ist (506 - Nein) und die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: eine zweite Berührung an dem Mehrfachberührungsfeld zu empfangen (504), wobei die zweite Berührung in einer zweiten Ansicht auftritt und mit einem zweiten Softwareelemente assoziiert ist; Festzustellen (510), ob das mit der zweiten Ansicht assoziierte exklusive Berührungsflag anzeigt, dass die zweite Ansicht eine exklusive Berührungsansicht ist; und wenn die zweite Ansicht eine exklusive Berührungsansicht ist (510 - Ja), zu verhindern (512) bis die erste Berührung nicht länger empfangen wird, dass eine mit der zweiten Ansicht assoziiertes Berührungsereignis an das zweite Softwareelement gesendet wird.
  18. Computerlesbares Medium nach Anspruch 17, wobei die Befehle des Weiteren konfiguriert sind, um die Mehrfachberührungsvorrichtung zu veranlassen: wenn die zweite Ansicht keine exklusive Berührungsansicht ist (510 - Nein), ein die zweite Berührung beschreibendes Berührungsereignis an das zweite Softwareelement zu senden (514).
  19. Mehrfachberührungsfähiges Mobiltelefon mit einem computerlesbaren Medium, das eine Mehrzahl von Befehlen aufweist, die zur Ausführung auf dem Mobiltelefon konfiguriert sind, wobei die Befehle konfiguriert sind, das Mobiltelefon zu veranlassen: eine oder mehrere Ansichten (301 bis 312) anzuzeigen; ein oder mehrere Softwareelemente auszuführen, wobei jedes Softwareelement mit einer bestimmten Ansicht assoziiert ist; jeweils ein Mehrfachberührungsflag oder ein exklusives Berührungsflag mit jeder Ansicht zu assoziieren; eine oder mehrere Berührungen in der einen oder den mehreren Ansichten zu empfangen (400; 500); und selektiv eines oder mehrere Berührungsereignisse basierend auf den Werten der jeweils assoziierten Mehrfachberührungs- oder exklusiven Berührungsflags an das eine oder die mehreren Softwareelemente zu senden (406-410; 506-514), die mit den Ansichten assoziiert sind, an denen eine Berührung empfangen wurde, wobei jedes Berührungsereignis eine empfangene Berührung beschreibt.
DE102009011687.7A 2008-03-04 2009-03-04 Berührungsereignismodell Active DE102009011687B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/042,318 US8645827B2 (en) 2008-03-04 2008-03-04 Touch event model
US12/042,318 2008-03-04

Publications (2)

Publication Number Publication Date
DE102009011687A1 DE102009011687A1 (de) 2009-10-22
DE102009011687B4 true DE102009011687B4 (de) 2019-02-07

Family

ID=40510039

Family Applications (4)

Application Number Title Priority Date Filing Date
DE202009018624U Expired - Lifetime DE202009018624U1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell
DE102009011687.7A Active DE102009011687B4 (de) 2008-03-04 2009-03-04 Berührungsereignismodell
DE202009018653U Expired - Lifetime DE202009018653U1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell
DE602009000704T Active DE602009000704D1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE202009018624U Expired - Lifetime DE202009018624U1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell

Family Applications After (2)

Application Number Title Priority Date Filing Date
DE202009018653U Expired - Lifetime DE202009018653U1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell
DE602009000704T Active DE602009000704D1 (de) 2008-03-04 2009-03-04 Berührungsereignismodell

Country Status (12)

Country Link
US (10) US8645827B2 (de)
EP (12) EP2302494B1 (de)
JP (5) JP5075867B2 (de)
CN (2) CN101526880B (de)
AT (1) ATE498157T1 (de)
AU (1) AU2009200493A1 (de)
CA (3) CA3011844C (de)
DE (4) DE202009018624U1 (de)
ES (2) ES2357374T3 (de)
HK (3) HK1135210A1 (de)
IL (2) IL197386A (de)
WO (1) WO2009111189A1 (de)

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333092B2 (en) 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US8022935B2 (en) 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US8274479B2 (en) 2006-10-11 2012-09-25 Apple Inc. Gimballed scroll wheel
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8174502B2 (en) 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8463430B2 (en) * 2008-10-23 2013-06-11 Utique, Inc Interactive and 3-D multi-senor touch selection interface for an automated retail store, vending machine, digital sign, or retail display
GB2466077A (en) * 2008-12-15 2010-06-16 Symbian Software Ltd Emulator for multiple computing device inputs
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US20100085323A1 (en) * 2009-12-04 2010-04-08 Adam Bogue Segmenting a Multi-Touch Input Region by User
US20110175827A1 (en) * 2009-12-04 2011-07-21 Adam Bogue Filtering Input Streams in a Multi-Touch System
US8878791B2 (en) * 2010-01-19 2014-11-04 Avaya Inc. Event generation based on print portion identification
WO2011105996A1 (en) * 2010-02-23 2011-09-01 Hewlett-Packard Development Company, L.P. Skipping through electronic content on an electronic device
JP5557316B2 (ja) 2010-05-07 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報生成方法及びプログラム
KR20110129125A (ko) * 2010-05-25 2011-12-01 삼성전자주식회사 휴대 단말기의 터치 패널 운용 방법 및 이를 지원하는 휴대 단말기
KR101679572B1 (ko) 2010-05-31 2016-11-25 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US10216408B2 (en) * 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP5668355B2 (ja) * 2010-08-04 2015-02-12 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
KR101705872B1 (ko) * 2010-09-08 2017-02-10 삼성전자주식회사 모바일 디바이스의 화면상의 영역 선택 방법 및 장치
CN102445983B (zh) * 2010-09-30 2014-03-12 联想(北京)有限公司 电子设备及其多个输入设备协同工作的方法
JP5304763B2 (ja) * 2010-10-22 2013-10-02 アイシン・エィ・ダブリュ株式会社 画像表示装置、画像表示方法及びプログラム
KR101854582B1 (ko) * 2010-12-20 2018-05-03 애플 인크. 이벤트 인식
CN203287883U (zh) * 2010-12-20 2013-11-13 苹果公司 电子设备及其信息处理装置
JP5735841B2 (ja) * 2011-04-05 2015-06-17 キヤノン株式会社 印刷装置、その制御方法、及びプログラム
US8743386B2 (en) 2011-04-05 2014-06-03 Canon Kabushiki Kaisha Executing a print job in accordance with input image data
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US8572194B2 (en) * 2011-06-10 2013-10-29 Microsoft Corporation Selective linking of message accounts
JP5797950B2 (ja) * 2011-06-29 2015-10-21 富士通コンポーネント株式会社 マルチタッチパネル装置
JP2013016122A (ja) * 2011-07-06 2013-01-24 Oki Electric Ind Co Ltd 表示制御装置、表示制御方法、およびプログラム
CN102289318B (zh) * 2011-07-06 2013-07-10 广东威创视讯科技股份有限公司 一种触摸屏多点书写处理方法以及装置
US9727227B2 (en) * 2011-07-28 2017-08-08 Microsoft Technology Licensing, Llc Multi-touch remoting
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US10318146B2 (en) * 2011-09-12 2019-06-11 Microsoft Technology Licensing, Llc Control area for a touch screen
US9658715B2 (en) 2011-10-20 2017-05-23 Microsoft Technology Licensing, Llc Display mapping modes for multi-pointer indirect input devices
US9274642B2 (en) 2011-10-20 2016-03-01 Microsoft Technology Licensing, Llc Acceleration-based interaction for multi-pointer indirect input devices
CN103076964B (zh) * 2011-10-26 2016-06-01 腾讯科技(深圳)有限公司 翻屏方法及装置
US20130124872A1 (en) * 2011-11-15 2013-05-16 MingXiang Shen Method of accessing a computer hardware device in a Metro user interface mode application
US9389679B2 (en) * 2011-11-30 2016-07-12 Microsoft Technology Licensing, Llc Application programming interface for a multi-pointer indirect touch input device
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
US9098196B2 (en) * 2012-06-11 2015-08-04 Lenovo (Singapore) Pte. Ltd. Touch system inadvertent input elimination
JP5700020B2 (ja) 2012-10-10 2015-04-15 コニカミノルタ株式会社 画像処理装置、プログラム及び操作イベント判別方法
JP5655836B2 (ja) 2012-10-11 2015-01-21 コニカミノルタ株式会社 画像処理装置、プログラム及び操作イベント判別方法
CN103838502B (zh) * 2012-11-22 2018-04-27 腾讯科技(深圳)有限公司 一种滑动识别方法和装置
JP5862549B2 (ja) 2012-11-28 2016-02-16 コニカミノルタ株式会社 データ処理装置、操作受付方法およびブラウジングプログラム
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
AU2013368441B2 (en) * 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR102301592B1 (ko) 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR20140138224A (ko) * 2013-01-06 2014-12-03 인텔 코오퍼레이션 터치 데이터의 분산된 전처리와 디스플레이 영역 제어를 위한 방법, 장치, 및 시스템
KR102102157B1 (ko) 2013-03-29 2020-04-21 삼성전자주식회사 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9256358B2 (en) * 2013-06-10 2016-02-09 Adtile Technologies Inc. Multiple panel touch user interface navigation
US20140372935A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Input Processing based on Input Context
JP2016522502A (ja) * 2013-07-01 2016-07-28 インテル・コーポレーション クイックレスポンス静電容量方式タッチスクリーンデバイス
US9531722B1 (en) 2013-10-31 2016-12-27 Google Inc. Methods for generating an activity stream
US9542457B1 (en) 2013-11-07 2017-01-10 Google Inc. Methods for displaying object history information
US9614880B1 (en) 2013-11-12 2017-04-04 Google Inc. Methods for real-time notifications in an activity stream
JP5992900B2 (ja) * 2013-12-19 2016-09-14 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、そのタッチイベント処理方法、及びコンピュータが実行可能なプログラム
US9509772B1 (en) 2014-02-13 2016-11-29 Google Inc. Visualization and control of ongoing ingress actions
US9536199B1 (en) 2014-06-09 2017-01-03 Google Inc. Recommendations based on device usage
US9507791B2 (en) 2014-06-12 2016-11-29 Google Inc. Storage system user interface with floating file collection
US10078781B2 (en) 2014-06-13 2018-09-18 Google Llc Automatically organizing images
US9182889B1 (en) 2014-06-24 2015-11-10 Google Inc. Preventing unintentional user activation of user interface elements
CN111651159A (zh) * 2014-11-21 2020-09-11 习得智交互软件开发公司 提供原型设计工具的方法及非暂时性计算机可解读的媒介
JP6436752B2 (ja) * 2014-12-04 2018-12-12 キヤノン株式会社 情報処理装置、情報処理装置における情報処理方法、並びにプログラム
US9870420B2 (en) 2015-01-19 2018-01-16 Google Llc Classification and storage of documents
KR102332015B1 (ko) * 2015-02-26 2021-11-29 삼성전자주식회사 터치 처리 방법 및 이를 지원하는 전자 장치
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10120735B2 (en) 2015-03-30 2018-11-06 Microsoft Technology Licensing, Llc Touch application programming interfaces
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9846535B2 (en) * 2015-06-05 2017-12-19 Apple Inc. Devices and methods for processing touch inputs over multiple regions of a touch-sensitive surface
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
WO2016200740A1 (en) 2015-06-07 2016-12-15 Apple Inc. Latency reduction for detached content
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10402089B2 (en) 2015-07-27 2019-09-03 Jordan A. Berger Universal keyboard
US9864516B2 (en) * 2015-07-27 2018-01-09 Jordan A. Berger Universal keyboard
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
EP3151582B1 (de) 2015-09-30 2020-08-12 Apple Inc. Ohrhörergehäuse mit ladesystem
JP6805589B2 (ja) * 2016-07-11 2020-12-23 富士通株式会社 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
CN106325668B (zh) * 2016-08-11 2019-10-18 网易(杭州)网络有限公司 触摸事件响应处理方法及系统
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
CN108088435A (zh) * 2017-10-20 2018-05-29 沈阳美行科技有限公司 一种识别触控的导航方法及装置
WO2019157387A2 (en) 2018-02-09 2019-08-15 Apple Inc. Media capture lock affordance for graphical user interface
US10921975B2 (en) 2018-06-03 2021-02-16 Apple Inc. Devices, methods, and user interfaces for conveying proximity-based and contact-based input events
US11172101B1 (en) 2018-09-20 2021-11-09 Apple Inc. Multifunction accessory case
USD962244S1 (en) * 2018-10-28 2022-08-30 Apple Inc. Electronic device with graphical user interface
US11301128B2 (en) * 2019-05-01 2022-04-12 Google Llc Intended input to a user interface from detected gesture positions
KR102300939B1 (ko) * 2019-08-13 2021-09-10 주식회사 인터유니크 멀티터치를 지원하지 않는 앱사용에 따른 터치스크린 시스템의 싱글터치 변환장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060097991A1 (en) 2004-05-06 2006-05-11 Apple Computer, Inc. Multipoint touchscreen
US20070226636A1 (en) 2006-03-21 2007-09-27 Microsoft Corporation Simultaneous input across multiple applications

Family Cites Families (603)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US649998A (en) 1899-09-30 1900-05-22 Elmer A Sperry Element for storage batteries.
GB1517521A (en) 1975-09-01 1978-07-12 Tilgate Pallets Ltd Pallets
US4455452A (en) 1982-09-13 1984-06-19 Touch Activated Switch Arrays, Inc. Touch activated controller for generating X-Y output information
US4674066A (en) 1983-02-18 1987-06-16 Houghton Mifflin Company Textual database system using skeletonization and phonetic replacement to retrieve words matching or similar to query words
JPS61228523A (ja) * 1985-04-03 1986-10-11 Hitachi Ltd キ−ボ−ド制御方式
US4914624A (en) 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
JPH02140822A (ja) 1988-11-22 1990-05-30 Nec Corp マルチウインドディスプレイ方式
US5252951A (en) 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JP2862626B2 (ja) 1990-03-22 1999-03-03 株式会社東芝 電子辞書及び情報検索方法
US5046434A (en) 1990-05-02 1991-09-10 Penda Corporation Plastic reinforced thermoformed pallet
JP3145735B2 (ja) 1991-07-17 2001-03-12 富士通株式会社 入力制御方式
JPH05197573A (ja) 1991-08-26 1993-08-06 Hewlett Packard Co <Hp> タスク指向パラダイムによるタスク管理システム
JP2827612B2 (ja) 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
US5233547A (en) 1991-11-12 1993-08-03 Ncr Corporation Electronic checking account apparatus and method having a digitizer to receive information as a check is being written
JP2787523B2 (ja) * 1992-04-15 1998-08-20 沖電気工業株式会社 キーボード
US5488204A (en) 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JPH0816314B2 (ja) 1992-09-12 1996-02-21 グンゼ株式会社 筒状編地の連続染色法
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US5583543A (en) 1992-11-05 1996-12-10 Sharp Kabushiki Kaisha Pen input processing apparatus
JP2999335B2 (ja) 1992-11-05 2000-01-17 シャープ株式会社 ジェスチャー処理装置およびジェスチャー処理方法
US5612719A (en) 1992-12-03 1997-03-18 Apple Computer, Inc. Gesture sensitive buttons for graphical user interfaces
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US5513309A (en) 1993-01-05 1996-04-30 Apple Computer, Inc. Graphic editor user interface for a pointer-based computer system
JP3147572B2 (ja) * 1993-03-22 2001-03-19 株式会社日立製作所 プログラム生成方法
DE4406668C2 (de) 1993-04-27 1996-09-12 Hewlett Packard Co Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
JP2986047B2 (ja) 1993-04-29 1999-12-06 インターナショナル・ビジネス・マシーンズ・コーポレイション ディジタル入力用表示装置並びに入力処理装置および方法
EP0626635B1 (de) 1993-05-24 2003-03-05 Sun Microsystems, Inc. Graphische Benutzerschnittstelle mit Verfahren zur Schnittstellebildung mit fernsteuernden Einrichtungen
US6035343A (en) 1993-06-11 2000-03-07 Fujitsu Limited Method for executing software formed of software components and a system for executing such software
US5818455A (en) 1993-07-21 1998-10-06 Xerox Corporation Method and apparatus for operating on the model data structure of an image to produce human perceptible output using a viewing operation region having explicit multiple regions
CA2124505C (en) 1993-07-21 2000-01-04 William A. S. Buxton User interface having simultaneously movable tools and cursor
US5581670A (en) 1993-07-21 1996-12-03 Xerox Corporation User interface having movable sheet with click-through tools
US5627959A (en) 1993-09-20 1997-05-06 Oracle Corporation Method for manipulating graphic objects
US5564112A (en) * 1993-10-14 1996-10-08 Xerox Corporation System and method for generating place holders to temporarily suspend execution of a selected command
US5454960A (en) 1993-11-10 1995-10-03 Advanced Building Technologies, Inc. Oil change and recycling system
US5534893A (en) 1993-12-15 1996-07-09 Apple Computer, Inc. Method and apparatus for using stylus-tablet input in a computer system
US5588072A (en) 1993-12-22 1996-12-24 Canon Kabushiki Kaisha Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks
US5686940A (en) 1993-12-24 1997-11-11 Rohm Co., Ltd. Display apparatus
US5566337A (en) 1994-05-13 1996-10-15 Apple Computer, Inc. Method and apparatus for distributing events in an operating system
JP2939119B2 (ja) 1994-05-16 1999-08-25 シャープ株式会社 手書き文字入力表示装置および方法
US5570113A (en) * 1994-06-29 1996-10-29 International Business Machines Corporation Computer based pen system and method for automatically cancelling unwanted gestures and preventing anomalous signals as inputs to such system
US5510061A (en) 1994-07-26 1996-04-23 Norton Chemical Process Products Corp. Non-welded support plate member
EP0701220B1 (de) 1994-09-12 2001-07-04 Adobe Systems Inc. Verfahren und Anordnung zur Darstellung elektronischer Dokumente
DE69408995T2 (de) 1994-11-15 1998-08-06 Uop Inc Verfahren zur adsorptiven Abtrennung von meta-Xylol von aromatischen Kohlenwasserstoffen
US5495566A (en) 1994-11-22 1996-02-27 Microsoft Corporation Scrolling contents of a window
JP2944439B2 (ja) 1994-12-27 1999-09-06 シャープ株式会社 手書き文字入力装置および方法
JPH08307954A (ja) 1995-05-12 1996-11-22 Sony Corp 座標入力装置および方法、並びに情報処理装置
US5708460A (en) 1995-06-02 1998-01-13 Avi Systems, Inc. Touch screen
US6496182B1 (en) 1995-06-07 2002-12-17 Microsoft Corporation Method and system for providing touch-sensitive screens for the visually impaired
JPH0944285A (ja) * 1995-07-28 1997-02-14 Hitachi Ltd 情報処理装置
JPH0969037A (ja) 1995-08-31 1997-03-11 Sharp Corp データ処理装置
US5655094A (en) 1995-09-29 1997-08-05 International Business Machines Corporation Pop up scroll bar
JP3636792B2 (ja) 1995-10-18 2005-04-06 株式会社リコー ペン先座標入力装置
JP3845890B2 (ja) 1996-02-23 2006-11-15 カシオ計算機株式会社 電子機器
US5676064A (en) 1996-04-22 1997-10-14 Shuert; Lyle H. Pallet and pallet package
JP3839877B2 (ja) 1996-07-05 2006-11-01 キヤノン株式会社 手書きパターン処理装置及び手書きパターン処理方法
US5903902A (en) 1996-09-09 1999-05-11 Design Intelligence, Inc. Design engine with tree and component structure
US5745116A (en) 1996-09-09 1998-04-28 Motorola, Inc. Intuitive gesture-based graphical user interface
US5995083A (en) 1996-11-20 1999-11-30 Alps Electric Co., Ltd. Coordinates input apparatus
JP3889466B2 (ja) 1996-11-25 2007-03-07 ソニー株式会社 文章入力装置及び方法
US5917477A (en) * 1997-02-28 1999-06-29 Samsung Electronics Co., Ltd. Touch screen input apparatus for chip mounter, chip mounter including the same and method for controlling the chip mounter
US6141018A (en) 1997-03-12 2000-10-31 Microsoft Corporation Method and system for displaying hypertext documents with visual effects
IL131357A (en) 1997-03-13 2003-07-06 Ibm Kiosk and server connected to computer network
US5999176A (en) 1997-04-04 1999-12-07 International Business Machines Corporation Method to provide a single scrolling control for a multi-window interface
JPH1185354A (ja) 1997-09-04 1999-03-30 Internatl Business Mach Corp <Ibm> キーボード組込み型座標指示装置、キーボード・ユニット、及び情報処理機器
US9098297B2 (en) 1997-05-08 2015-08-04 Nvidia Corporation Hardware accelerator for an object-oriented programming language
US6049326A (en) 1997-05-12 2000-04-11 Siemens Information And Communication Networks, Inc. System and method for dual browser modes
US5983190A (en) 1997-05-19 1999-11-09 Microsoft Corporation Client server animation system for managing interactive user interface characters
FI115689B (fi) 1997-05-21 2005-06-15 Nokia Corp Menetelmä ja järjestely matkaviestimen näytöllä esitettävän tiedon vierittämiseksi
US6028602A (en) 1997-05-30 2000-02-22 Telefonaktiebolaget Lm Ericsson Method for managing contents of a hierarchical data model
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6034688A (en) 1997-09-15 2000-03-07 Sony Corporation Scrolling navigational display system
US6377965B1 (en) 1997-11-07 2002-04-23 Microsoft Corporation Automatic word completion system for partially entered data
IL136465A0 (en) 1997-12-01 2001-06-14 Cedara Software Corp Architecture for an application framework
DE69814155T2 (de) 1997-12-16 2003-10-23 Microsoft Corp System und verfahren zur virtuellen eingabe
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20070177804A1 (en) 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
EP1058924B1 (de) 1998-01-26 2012-06-13 Apple Inc. Verfahren und vorrichtung zur integration von manuellen eingaben
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7840912B2 (en) 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7834855B2 (en) 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US20040080541A1 (en) 1998-03-20 2004-04-29 Hisashi Saiga Data displaying device
US7346850B2 (en) 1998-06-12 2008-03-18 Cygnus Systems, Inc. System and method for iconic software environment management
US6429846B2 (en) 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US6061063A (en) 1998-06-30 2000-05-09 Sun Microsystems, Inc. Method and apparatus for providing feedback while scrolling
US6570594B1 (en) 1998-06-30 2003-05-27 Sun Microsystems, Inc. User interface with non-intrusive display element
JP4083879B2 (ja) 1998-07-06 2008-04-30 株式会社シマノ 釣り用衣服
US6188391B1 (en) 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
US7559039B2 (en) 1998-07-14 2009-07-07 Brad Ridgley Method and device for finding, collecting and acting upon units of information
CA2244431C (en) 1998-07-30 2002-02-19 Ibm Canada Limited-Ibm Canada Limitee Touchscreen keyboard support for multi-byte character languages
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6068124A (en) 1998-08-27 2000-05-30 Nanya Plastics Plastic pallet and separator for packaging yarn spools
US6628835B1 (en) 1998-08-31 2003-09-30 Texas Instruments Incorporated Method and system for defining and recognizing complex events in a video sequence
US20020018051A1 (en) 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6985178B1 (en) 1998-09-30 2006-01-10 Canon Kabushiki Kaisha Camera control system, image pick-up server, client, control method and storage medium therefor
JP4159674B2 (ja) 1998-10-22 2008-10-01 富士通株式会社 オブジェクト指向業務システムおよび方法
JP2000163443A (ja) 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US8938688B2 (en) 1998-12-04 2015-01-20 Nuance Communications, Inc. Contextual prediction of user words and user actions
US6963937B1 (en) 1998-12-17 2005-11-08 International Business Machines Corporation Method and apparatus for providing configurability and customization of adaptive user-input filtration
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6643824B1 (en) 1999-01-15 2003-11-04 International Business Machines Corporation Touch screen region assist for hypertext links
US7469381B2 (en) 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP2000222130A (ja) 1999-02-02 2000-08-11 Toshiba Corp 入力装置および方法および記憶媒体
US20060061551A1 (en) 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US6486896B1 (en) 1999-04-07 2002-11-26 Apple Computer, Inc. Scalable scroll controller
GB2350643A (en) 1999-04-21 2000-12-06 Barrie Weatherall Stabiliser for ladders
JP4939682B2 (ja) 1999-04-27 2012-05-30 エーユー オプトロニクス コーポレイション 表示装置
US7164413B2 (en) 1999-05-19 2007-01-16 Digimarc Corporation Enhanced input peripheral
US6714936B1 (en) 1999-05-25 2004-03-30 Nevin, Iii Rocky Harry W. Method and apparatus for displaying data stored in linked nodes
AUPQ439299A0 (en) 1999-12-01 1999-12-23 Silverbrook Research Pty Ltd Interface system
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US7286115B2 (en) 2000-05-26 2007-10-23 Tegic Communications, Inc. Directional input system with automatic correction
US6631501B1 (en) 1999-06-30 2003-10-07 Microsoft Corporation Method and system for automatic type and replace of characters in a sequence of characters
US6639584B1 (en) 1999-07-06 2003-10-28 Chuang Li Methods and apparatus for controlling a portable electronic device using a touchpad
JP2001027924A (ja) 1999-07-14 2001-01-30 Sharp Corp 表示画面を用いる入力装置
US6335725B1 (en) * 1999-07-14 2002-01-01 Hewlett-Packard Company Method of partitioning a touch screen for data input
US6636242B2 (en) 1999-08-31 2003-10-21 Accenture Llp View configurer in a presentation services patterns environment
US6448986B1 (en) 1999-09-07 2002-09-10 Spotware Technologies Llc Method and system for displaying graphical objects on a display screen
EP1094383A3 (de) * 1999-10-18 2005-11-02 Honeywell International, Inc. Verfahren und Vorrichtung zur Kursorsteuerung
KR100747421B1 (ko) 1999-10-20 2007-08-09 코닌클리케 필립스 일렉트로닉스 엔.브이. 영상 콜렉션을 브라우징하는 장치 및 방법
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
JP2001167227A (ja) 1999-12-07 2001-06-22 Hitachi Ltd 情報端末装置
US6778992B1 (en) 1999-12-21 2004-08-17 Lockstream Corporation Flexible and hierarchical user interfaces defined using a data definition language
US6664991B1 (en) * 2000-01-06 2003-12-16 Microsoft Corporation Method and apparatus for providing context menus on a pen-based device
US6809724B1 (en) 2000-01-18 2004-10-26 Seiko Epson Corporation Display apparatus and portable information processing apparatus
US6820237B1 (en) 2000-01-21 2004-11-16 Amikanow! Corporation Apparatus and method for context-based highlighting of an electronic document
US6856326B1 (en) 2000-01-28 2005-02-15 International Business Machines Corporation Smooth scrolling system and method
AU2001233019A1 (en) 2000-01-28 2001-08-07 Intersense, Inc. Self-referenced tracking
JP4803883B2 (ja) 2000-01-31 2011-10-26 キヤノン株式会社 位置情報処理装置及びその方法及びそのプログラム。
US7138983B2 (en) 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
US6590595B1 (en) 2000-02-08 2003-07-08 Sun Microsystems, Inc. Mechanism for providing intuitive scrolling feedback
US6922810B1 (en) 2000-03-07 2005-07-26 Microsoft Corporation Grammar-based automatic data completion and suggestion for user input
CA2402543C (en) 2000-03-17 2010-10-26 Vizible.Com Inc. A three dimensional spatial user interface
US7142205B2 (en) 2000-03-29 2006-11-28 Autodesk, Inc. Single gesture map navigation graphical user interface for a personal digital assistant
AU2001289299A1 (en) 2000-03-30 2001-10-15 Qualcomm Incorporated Method and apparatus for notifying a mobile station application of specified events
JP4124402B2 (ja) 2000-03-31 2008-07-23 株式会社リコー 画像入力装置
WO2001077792A2 (en) 2000-04-07 2001-10-18 Rsa Security Inc. System and method for authenticating a user
US6765557B1 (en) 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US7009626B2 (en) 2000-04-14 2006-03-07 Picsel Technologies Limited Systems and methods for generating visual representations of graphical data and digital document processing
WO2001082309A1 (en) 2000-04-19 2001-11-01 Analogic Corporation Backlash-resistant drive assembly for collimator in a ct scanner
JP2001299733A (ja) 2000-04-27 2001-10-30 Konica Corp Pci放射線画像処理装置、pci放射線画像検出処理装置、pci放射線画像出力装置及びpci画像診断支援装置
US6559869B1 (en) 2000-05-04 2003-05-06 Microsoft Corporation Adaptive auto-scrolling merge for hand written input
GB2380918C3 (en) 2000-05-11 2016-03-30 Nes Stewart Irvine Zeroclick
US6446083B1 (en) 2000-05-12 2002-09-03 Vastvideo, Inc. System and method for classifying media items
US6912694B1 (en) 2000-06-28 2005-06-28 Intel Corporation Providing a scrolling function for a multiple frame web page
US6677965B1 (en) 2000-07-13 2004-01-13 International Business Machines Corporation Rubber band graphical user interface control
GB0017793D0 (en) 2000-07-21 2000-09-06 Secr Defence Human computer interface
JP2002041242A (ja) * 2000-07-27 2002-02-08 Nec Corp 描画フェードアウト機能付き入力装置と方法
US6714221B1 (en) 2000-08-03 2004-03-30 Apple Computer, Inc. Depicting and setting scroll amount
US6704024B2 (en) 2000-08-07 2004-03-09 Zframe, Inc. Visual content browsing using rasterized representations
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
JP2002062983A (ja) 2000-08-21 2002-02-28 Hitachi Ltd ポインティングデバイス
US6791530B2 (en) 2000-08-29 2004-09-14 Mitsubishi Electric Research Laboratories, Inc. Circular graphical user interfaces
US6562929B2 (en) 2000-08-30 2003-05-13 Jsr Corporation Conjugated diene-based rubber and method of producing the same, oil extended rubber and rubber composition containing the same
US6912462B2 (en) 2000-08-31 2005-06-28 Sony Corporation Information processing apparatus, information processing method and program storage media
US20020138617A1 (en) 2000-09-06 2002-09-26 Jacob Christfort Providing content from multiple services
US6757673B2 (en) 2000-10-09 2004-06-29 Town Compass Llc Displaying hierarchial relationship of data accessed via subject index
US7761541B1 (en) 2000-10-25 2010-07-20 Nortel Networks Limited Service enabling technology
US6735583B1 (en) 2000-11-01 2004-05-11 Getty Images, Inc. Method and system for classifying and locating media content
US7072501B2 (en) 2000-11-22 2006-07-04 R2 Technology, Inc. Graphical user interface for display of anatomical information
US7184796B2 (en) 2000-12-04 2007-02-27 International Business Machines Corporation Personal communication device having a built in projection display
US7240291B2 (en) 2000-12-21 2007-07-03 Xerox Corporation Methods, systems, and computer program products for display of information relating to a virtual three-dimensional book
US6976172B2 (en) 2000-12-28 2005-12-13 Intel Corporation System and method for protected messaging
US6839721B2 (en) 2001-01-12 2005-01-04 Hewlett-Packard Development Company, L.P. Integration of a database into file management software for protecting, tracking, and retrieving data
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7030861B1 (en) 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
JP3881179B2 (ja) 2001-02-14 2007-02-14 三菱電機株式会社 ユーザインタフェース設計装置
US20040027398A1 (en) 2001-02-15 2004-02-12 Denny Jaeger Intuitive graphic user interface with universal tools
US6720954B2 (en) * 2001-03-14 2004-04-13 International Business Machines Corporation Method to aid in sizing graphical user interface touch controls
US6972776B2 (en) 2001-03-20 2005-12-06 Agilent Technologies, Inc. Scrolling method using screen pointing device
GB2373778B (en) 2001-03-30 2003-08-06 Robin Lewis Corner elements for packaging
US6741996B1 (en) 2001-04-18 2004-05-25 Microsoft Corporation Managing user clips
EP1393189A4 (de) 2001-05-02 2007-06-13 Bitstream Inc Verfahren, systeme und programmierung zum anzeigen von durch einen variablen skalierungsfaktor herunterskalierten medien
US20020194589A1 (en) 2001-05-08 2002-12-19 Cristofalo Michael Technique for optimizing the delivery of advertisements and other programming segments by making bandwidth tradeoffs
US20020171675A1 (en) 2001-05-15 2002-11-21 International Business Machines Corporation Method and system for graphical user interface (GUI) widget having user-selectable mass
US20050024341A1 (en) 2001-05-16 2005-02-03 Synaptics, Inc. Touch screen with user interface enhancement
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6498590B1 (en) 2001-05-24 2002-12-24 Mitsubishi Electric Research Laboratories, Inc. Multi-user touch surface
TW521205B (en) 2001-06-05 2003-02-21 Compal Electronics Inc Touch screen capable of controlling amplification with pressure
US6868383B1 (en) 2001-07-12 2005-03-15 At&T Corp. Systems and methods for extracting meaning from multimodal inputs using finite-state devices
US6985137B2 (en) * 2001-08-13 2006-01-10 Nokia Mobile Phones Ltd. Method for preventing unintended touch pad input due to accidental touching
US6661409B2 (en) 2001-08-22 2003-12-09 Motorola, Inc. Automatically scrolling handwritten input user interface for personal digital assistants and the like
US6690365B2 (en) 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
US6972749B2 (en) 2001-08-29 2005-12-06 Microsoft Corporation Touch-sensitive device for scrolling a document on a display
US6907575B2 (en) 2001-09-06 2005-06-14 Danger, Inc. Method of scrolling a display window
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
JP4430842B2 (ja) * 2001-10-01 2010-03-10 株式会社リコー 入力処理方法、座標入力機能付表示装置、及びプログラム
US7254775B2 (en) 2001-10-03 2007-08-07 3M Innovative Properties Company Touch panel system and method for distinguishing multiple touch inputs
US20030071850A1 (en) 2001-10-12 2003-04-17 Microsoft Corporation In-place adaptive handwriting input method and system
US7046230B2 (en) 2001-10-22 2006-05-16 Apple Computer, Inc. Touch pad handheld device
US7345671B2 (en) 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
TW528981B (en) 2001-10-25 2003-04-21 Compal Electronics Inc Portable computer and related method for preventing input interruption by write-tracking input region
US7009599B2 (en) 2001-11-20 2006-03-07 Nokia Corporation Form factor for portable device
CA2366183A1 (en) 2001-12-21 2003-06-21 Ibm Canada Limited-Ibm Canada Limitee Dynamic status tree facility
US6690387B2 (en) 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
US7414616B2 (en) 2002-01-03 2008-08-19 Mahesh Jayachandra User-friendly Brahmi-derived Hindi keyboard
US6957392B2 (en) 2002-01-16 2005-10-18 Laszlo Systems, Inc. Interface engine providing a continuous user interface
GB0201074D0 (en) 2002-01-18 2002-03-06 3G Lab Ltd Graphic user interface for data processing device
US7603627B2 (en) 2002-02-05 2009-10-13 Microsoft Corporation Systems and methods for creating and managing graphical user interface lists
JP3951727B2 (ja) 2002-02-06 2007-08-01 松下電器産業株式会社 情報処理装置
US7075512B1 (en) 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
WO2003081458A1 (en) 2002-03-19 2003-10-02 America Online, Inc. Controlling content display
US20030184525A1 (en) 2002-03-29 2003-10-02 Mitac International Corp. Method and apparatus for image processing
JP2003296024A (ja) 2002-04-01 2003-10-17 Nec Engineering Ltd タッチパネル制御方式
US7466307B2 (en) 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US20030197689A1 (en) * 2002-04-23 2003-10-23 May Gregory J. Input device that allows multiple touch key input
TWI238348B (en) 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US7203911B2 (en) 2002-05-13 2007-04-10 Microsoft Corporation Altering a display on a viewing device based upon a user proximity to the viewing device
US7158675B2 (en) 2002-05-14 2007-01-02 Microsoft Corporation Interfacing with ink
US20030214553A1 (en) 2002-05-14 2003-11-20 Microsoft Corporation Ink regions in an overlay control
US20030214531A1 (en) 2002-05-14 2003-11-20 Microsoft Corporation Ink input mechanisms
US8166388B2 (en) 2002-05-14 2012-04-24 Microsoft Corporation Overlaying electronic ink
CN1666169B (zh) 2002-05-16 2010-05-05 索尼株式会社 输入方法和输入装置
US7519918B2 (en) 2002-05-30 2009-04-14 Intel Corporation Mobile virtual desktop
FI20021655A (fi) 2002-06-19 2003-12-20 Nokia Corp Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite
US7023427B2 (en) * 2002-06-28 2006-04-04 Microsoft Corporation Method and system for detecting multiple touches on a touch-sensitive screen
US7062090B2 (en) 2002-06-28 2006-06-13 Microsoft Corporation Writing guide for a free-form document editor
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP4338364B2 (ja) 2002-07-02 2009-10-07 ソニー株式会社 携帯情報通信端末、プログラムおよび該プログラムを記録した記録媒体
TW591488B (en) 2002-08-01 2004-06-11 Tatung Co Window scrolling method and device thereof
US20040021698A1 (en) 2002-08-05 2004-02-05 Baldwin Amanda K. Intuitive touchscreen interface for a multifunction device and method therefor
EP1394692A1 (de) 2002-08-05 2004-03-03 Alcatel Verfahren, Terminal, Browser und Markierungssprache für multimodale Interaktionen zwischen einem Benutzer und dem Terminal
US7263721B2 (en) 2002-08-09 2007-08-28 International Business Machines Corporation Password protection
JP2004084111A (ja) 2002-08-26 2004-03-18 Tsudakoma Corp 織機の情報表示装置
US7739604B1 (en) 2002-09-25 2010-06-15 Apple Inc. Method and apparatus for managing windows
US7002560B2 (en) 2002-10-04 2006-02-21 Human Interface Technologies Inc. Method of combining data entry of handwritten symbols with displayed character data
GB0223883D0 (en) 2002-10-15 2002-11-20 Seamless Display Ltd Visual display screen arrangement
US7281248B2 (en) 2002-11-19 2007-10-09 Microsoft Corporation Virtualized and realized user interface controls
EP1422599B1 (de) 2002-11-20 2006-07-05 Nokia Corporation Verfahren und Benutzerschnittstelle zur Zeicheneingabe
CA2414047A1 (en) 2002-12-09 2004-06-09 Corel Corporation System and method of extending scalable vector graphics capabilities
US6903927B2 (en) 2002-12-17 2005-06-07 Nokia Corporation Convertible mobile computing device
US20040125136A1 (en) 2002-12-30 2004-07-01 Jukka Wallenius Provision of services through a display system
US20040135817A1 (en) 2003-01-14 2004-07-15 Daughtery Joey L. Interface for selecting and performing operations on objects
US7117453B2 (en) 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
US20040225965A1 (en) 2003-05-06 2004-11-11 Microsoft Corporation Insertion location tracking for controlling a user interface
US7490296B2 (en) 2003-01-31 2009-02-10 Microsoft Corporation Utility object for specialized data entry
US20040160419A1 (en) * 2003-02-11 2004-08-19 Terradigital Systems Llc. Method for entering alphanumeric characters into a graphical user interface
US20040155888A1 (en) 2003-02-11 2004-08-12 Padgitt David Gary Method for displaying the contents of a collection of media objects
US7894177B2 (en) 2005-12-29 2011-02-22 Apple Inc. Light activated hold switch
US7088374B2 (en) 2003-03-27 2006-08-08 Microsoft Corporation System and method for managing visual structure, timing, and animation in a graphics processing system
US7187801B2 (en) 2003-03-31 2007-03-06 Microsoft Corporation Multiple handwriting recognition engine selection
KR100465969B1 (ko) 2003-04-11 2005-01-13 (주)모비솔 손가락 표면을 이용한 소형 포인팅 장치
US7098776B2 (en) 2003-04-16 2006-08-29 Massachusetts Institute Of Technology Methods and apparatus for vibrotactile communication
US8484576B2 (en) 2003-04-17 2013-07-09 Supersonic Aerospace International, Llc System and method for customizing multiple windows of information on a display
US7627343B2 (en) 2003-04-25 2009-12-01 Apple Inc. Media player system
US7102626B2 (en) 2003-04-25 2006-09-05 Hewlett-Packard Development Company, L.P. Multi-function pointing device
GB2401272B (en) 2003-04-30 2007-11-21 Hewlett Packard Development Co Method and apparatus for enhancing user interest in static digital images
US8555165B2 (en) 2003-05-08 2013-10-08 Hillcrest Laboratories, Inc. Methods and systems for generating a zoomable graphical user interface
US7173623B2 (en) 2003-05-09 2007-02-06 Microsoft Corporation System supporting animation of graphical display elements through animation object instances
KR20070026809A (ko) 2003-05-21 2007-03-08 가부시키가이샤 히다치 하이테크놀로지즈 지문센서내장 휴대 단말장치
US20060242607A1 (en) 2003-06-13 2006-10-26 University Of Lancaster User interface
US7567239B2 (en) 2003-06-26 2009-07-28 Motorola, Inc. Method and system for message and note composition on small screen devices
US8373660B2 (en) 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US20050027666A1 (en) 2003-07-15 2005-02-03 Vente, Inc Interactive online research system and method
KR100522940B1 (ko) 2003-07-25 2005-10-24 삼성전자주식회사 활성영역을 설정 가능한 터치스크린 시스템 및 그 제어방법
JP2005056286A (ja) 2003-08-07 2005-03-03 Nec Engineering Ltd ウェブブラウザにおける拡大表示方法および拡大表示プログラム
WO2005029460A1 (en) 2003-08-21 2005-03-31 Microsoft Corporation Focus management using in-air points
WO2005022372A1 (en) * 2003-08-29 2005-03-10 Nokia Corporation Method and device for recognizing a dual point user input on a touch based user input device
US9024884B2 (en) 2003-09-02 2015-05-05 Apple Inc. Touch-sensitive electronic apparatus for media applications, and methods therefor
JP4360871B2 (ja) 2003-09-10 2009-11-11 富士通テン株式会社 情報端末における入力装置
US20050052427A1 (en) * 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2005092476A (ja) * 2003-09-17 2005-04-07 Elo Touchsystems Inc マルチユーザー/マルチポインチングデバイスグラフィカルユーザーインターフェースシステム
KR20060091310A (ko) 2003-09-30 2006-08-18 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 상의 컨텐트 윈도우의 위치, 크기 및/또는컨텐트를 정의하는 제스쳐
US7034834B2 (en) 2003-10-24 2006-04-25 Microsoft Corporation Communication protocol for synchronizing animation systems
US20050183035A1 (en) 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
US7962862B2 (en) 2003-11-24 2011-06-14 International Business Machines Corporation Method and data processing system for providing an improved graphics design tool
US7298367B2 (en) 2003-11-25 2007-11-20 3M Innovative Properties Company Light emitting stylus and user input device using same
US7814419B2 (en) 2003-11-26 2010-10-12 Nokia Corporation Changing an orientation of a user interface via a course of motion
JP3962718B2 (ja) 2003-12-01 2007-08-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US7337412B2 (en) 2003-12-15 2008-02-26 International Business Machines Corporation Methods, systems and computer program products for providing multi-dimensional tree diagram graphical user interfaces
US20050162402A1 (en) 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
US7366995B2 (en) 2004-02-03 2008-04-29 Roland Wescott Montague Combination tool that zooms in, zooms out, pans, rotates, draws, or manipulates during a drag
FI117308B (fi) 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7319457B2 (en) 2004-02-12 2008-01-15 Sentelic Corporation Method of scrolling window screen by means of controlling electronic device
US7358965B2 (en) 2004-02-18 2008-04-15 Microsoft Corporation Tapping to create writing
US20050193015A1 (en) 2004-02-19 2005-09-01 Sandraic Logic, Llc A California Limited Liability Company Method and apparatus for organizing, sorting and navigating multimedia content
GB2411331A (en) 2004-02-19 2005-08-24 Trigenix Ltd Rendering user interface using actor attributes
FR2866726B1 (fr) 2004-02-23 2006-05-26 Jazzmutant Controleur par manipulation d'objets virtuels sur un ecran tactile multi-contact
US7406696B2 (en) 2004-02-24 2008-07-29 Dialogic Corporation System and method for providing user input information to multiple independent, concurrent applications
JP4438448B2 (ja) 2004-02-26 2010-03-24 セイコーエプソン株式会社 構造化文書表示処理装置、構造化文書表示方法、構造化文書表示プログラム
JP2005242069A (ja) 2004-02-27 2005-09-08 Sony Corp 光導波路装置及び光情報処理装置
US7327349B2 (en) 2004-03-02 2008-02-05 Microsoft Corporation Advanced navigation techniques for portable devices
US20050210369A1 (en) * 2004-03-18 2005-09-22 Damm John A Jr Methods of updating spreadsheets
US7301529B2 (en) 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
JP2005275652A (ja) 2004-03-24 2005-10-06 Canon Inc 入力軌跡処理装置および入力軌跡処理方法
JP2005276120A (ja) * 2004-03-26 2005-10-06 Fujitsu Component Ltd タッチパネル入力装置及びその入力制御システム
WO2005096217A1 (en) 2004-04-02 2005-10-13 Nokia Corporation Apparatus and method for handwriting recognition
US7623119B2 (en) 2004-04-21 2009-11-24 Nokia Corporation Graphical functions by gestures
JP2007537511A (ja) 2004-04-30 2007-12-20 マイクロソフト コーポレーション 規則を用いたエンドユーザアプリケーションカスタマイズ
JP4387242B2 (ja) 2004-05-10 2009-12-16 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
US7624355B2 (en) 2004-05-27 2009-11-24 Baneth Robin C System and method for controlling a user interface
JP4855654B2 (ja) 2004-05-31 2012-01-18 ソニー株式会社 車載装置、車載装置の情報提供方法、車載装置の情報提供方法のプログラム及び車載装置の情報提供方法のプログラムを記録した記録媒体
US7358962B2 (en) 2004-06-15 2008-04-15 Microsoft Corporation Manipulating association of data with a physical object
US7773950B2 (en) 2004-06-16 2010-08-10 Telefonaktiebolaget Lm Ericsson (Publ) Benign interference suppression for received signal quality estimation
US7864161B2 (en) 2004-06-17 2011-01-04 Adrea, LLC Use of a two finger input on touch screens
WO2006009813A1 (en) 2004-06-18 2006-01-26 Microth, Inc. Stroke-based data entry device, system, and method
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
KR101134027B1 (ko) 2004-06-29 2012-04-13 코닌클리케 필립스 일렉트로닉스 엔.브이. 디스플레이 디바이스의 오염을 방지하는 방법 및 디바이스
EP1763732A2 (de) 2004-06-29 2007-03-21 Koninklijke Philips Electronics N.V. Unstetiger zoom
JP4210936B2 (ja) * 2004-07-08 2009-01-21 ソニー株式会社 情報処理装置及びこれに用いるプログラム
JP4903371B2 (ja) 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
EP1621989A3 (de) * 2004-07-30 2006-05-17 Apple Computer, Inc. Berührungsempfindlicher Bildschirm für Mediaanwendungen, und Verfahren dafür
WO2006020304A2 (en) 2004-07-30 2006-02-23 Apple Computer, Inc. Mode-based graphical user interfaces for touch sensitive input devices
US7653883B2 (en) 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US7506799B2 (en) 2004-07-30 2009-03-24 Nokia Corporation Method for the monitoring of system security in electronic devices
KR101128572B1 (ko) 2004-07-30 2012-04-23 애플 인크. 터치 감지 입력 장치용 제스처
US7724242B2 (en) 2004-08-06 2010-05-25 Touchtable, Inc. Touch driven method and apparatus to integrate and display multiple image layers forming alternate depictions of same subject matter
US20070046643A1 (en) 2004-08-06 2007-03-01 Hillis W Daniel State-Based Approach to Gesture Identification
US7728821B2 (en) 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display
US7719523B2 (en) 2004-08-06 2010-05-18 Touchtable, Inc. Bounding box gesture recognition on a touch detecting interactive display
US7721197B2 (en) 2004-08-12 2010-05-18 Microsoft Corporation System and method of displaying content on small screen computing devices
US7181373B2 (en) 2004-08-13 2007-02-20 Agilent Technologies, Inc. System and methods for navigating and visualizing multi-dimensional biological data
US7434173B2 (en) 2004-08-30 2008-10-07 Microsoft Corporation Scrolling web pages using direct interaction
JP4366695B2 (ja) 2004-09-13 2009-11-18 日本ビクター株式会社 メニュー画像表示方法及び電子情報機器
US20060055669A1 (en) 2004-09-13 2006-03-16 Mita Das Fluent user interface for text entry on touch-sensitive display
US7761814B2 (en) 2004-09-13 2010-07-20 Microsoft Corporation Flick gesture
JP4355639B2 (ja) 2004-09-15 2009-11-04 キヤノン株式会社 画像処理装置およびその制御方法
WO2007037806A1 (en) 2005-09-15 2007-04-05 Apple Inc. System and method for processing raw data of track pad device
US7728823B2 (en) 2004-09-24 2010-06-01 Apple Inc. System and method for processing raw data of track pad device
JP3786669B2 (ja) 2004-10-06 2006-06-14 株式会社バンダイナムコゲームス ゲームシステム、プログラム及び情報記憶媒体
US20060077183A1 (en) * 2004-10-08 2006-04-13 Studt Peter C Methods and systems for converting touchscreen events into application formatted data
WO2006045530A2 (en) 2004-10-22 2006-05-04 Novo Nordisk A/S An apparatus and a method of providing information to a user
JP3770499B1 (ja) 2004-11-02 2006-04-26 任天堂株式会社 ゲーム装置及びゲームプログラム
US7925996B2 (en) 2004-11-18 2011-04-12 Microsoft Corporation Method and system for providing multiple input connecting user interface
US7461348B2 (en) 2004-11-19 2008-12-02 Microsoft Corporation Systems and methods for processing input data before, during, and/or after an input focus change event
US7665031B2 (en) 2004-12-08 2010-02-16 Microsoft Corporation Method and system of taskbar button interfaces
US20060136833A1 (en) 2004-12-15 2006-06-22 International Business Machines Corporation Apparatus and method for chaining objects in a pointer drag path
WO2006067711A2 (en) 2004-12-21 2006-06-29 Koninklijke Philips Electronics N.V. Method and device for displaying animated buttons
CN100377055C (zh) 2004-12-22 2008-03-26 盛群半导体股份有限公司 触控感应装置的判读方法
EP1834491A4 (de) 2005-01-05 2010-06-02 Hillcrest Lab Inc Verteilte softwarestruktur für benutzeroberflächen
WO2006073272A1 (en) 2005-01-05 2006-07-13 Jaewoo Ahn Method and apparatus for inputting character through pointing device
US20060156249A1 (en) 2005-01-12 2006-07-13 Blythe Michael M Rotate a user interface
US20070185876A1 (en) 2005-02-07 2007-08-09 Mendis Venura C Data handling system
GB0503253D0 (en) 2005-02-17 2005-03-23 Univ Northumbria Newcastle User control of a hand-held device
US8819569B2 (en) 2005-02-18 2014-08-26 Zumobi, Inc Single-handed approach for navigation of application tiles using panning and zooming
JP4613078B2 (ja) 2005-03-01 2011-01-12 学校法人 名城大学 半導体基板の製造方法
KR101690164B1 (ko) 2005-03-04 2016-12-27 애플 인크. 다기능 휴대용 장치
CN1841284A (zh) 2005-03-28 2006-10-04 上海桐港信息科技有限公司 触摸屏式移动设备微浏览器页面显示漂移方法
US20060221061A1 (en) 2005-03-31 2006-10-05 Tyco Electronic Corporation Touch sensor and control with random pulse spacing
US7750893B2 (en) 2005-04-06 2010-07-06 Nintendo Co., Ltd. Storage medium storing input position processing program, and input position processing device
CN1845046A (zh) 2005-04-07 2006-10-11 技嘉科技股份有限公司 具有触控式功能键的键盘和鼠标
US7355595B2 (en) 2005-04-15 2008-04-08 Microsoft Corporation Tactile device for scrolling
US7673255B2 (en) 2005-04-22 2010-03-02 Microsoft Corporation Interface and system for manipulating thumbnails of live windows in a window manager
US7692637B2 (en) 2005-04-26 2010-04-06 Nokia Corporation User input device for electronic device
US7499027B2 (en) 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
JP4490326B2 (ja) 2005-05-09 2010-06-23 株式会社土井製作所 地中埋設ケーブル等に対する地盤変動時の保護方法及びその保護装置
WO2006124248A2 (en) 2005-05-16 2006-11-23 General Motors Global Technology Operations, Inc. Catalyst for fuel cell electrode
US8117540B2 (en) 2005-05-18 2012-02-14 Neuer Wall Treuhand Gmbh Method and device incorporating improved text input mechanism
US20060262104A1 (en) * 2005-05-19 2006-11-23 Sullivan Darius M Systems and methods for distinguishing contact-induced plate vibrations from acoustic noise-induced plate vibrations
US9785329B2 (en) 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US20070024646A1 (en) 2005-05-23 2007-02-01 Kalle Saarinen Portable electronic apparatus and associated method
US7487447B1 (en) 2005-05-25 2009-02-03 Google Inc. Web page zoom feature
US20060271520A1 (en) 2005-05-27 2006-11-30 Ragan Gene Z Content-based implicit search query
US7561159B2 (en) 2005-05-31 2009-07-14 Magnifi Group Inc. Control of animation timeline
WO2006128248A1 (en) 2005-06-02 2006-12-07 National Ict Australia Limited Multimodal computer navigation
US7710397B2 (en) 2005-06-03 2010-05-04 Apple Inc. Mouse with improved input mechanisms using touch sensors
US9019209B2 (en) 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
JP4849300B2 (ja) 2005-06-14 2012-01-11 ソニー株式会社 表示信号処理装置および方法、記録媒体、並びにプログラム
KR20060133389A (ko) 2005-06-20 2006-12-26 엘지전자 주식회사 이동 단말기의 데이터 처리 장치 및 그 방법
TW200701082A (en) 2005-06-23 2007-01-01 Elan Microelectronics Corp Scroll control method used in the touch panel
US20070006078A1 (en) 2005-07-01 2007-01-04 Microsoft Corporation Declaratively responding to state changes in an interactive multimedia environment
US7463263B2 (en) 2005-07-15 2008-12-09 Sap Portals Israel Ltd. Declarative specification of model visualizations
EP1908051A4 (de) 2005-07-22 2012-01-25 Matthew G Pallakoff System und verfahren für eine daumenoptimierte benutzerschnittstelle eines berührungsbildschirms
US7808478B2 (en) 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Autonomous handheld device having a drawing tool
EP1758345B1 (de) 2005-08-26 2016-12-28 Microsoft Technology Licensing, LLC Mobilfunkapparat mit einem Berührungseingabefeld
US7568035B2 (en) 2005-08-30 2009-07-28 Microsoft Corporation Command binding determination and implementation
US20070061126A1 (en) 2005-09-01 2007-03-15 Anthony Russo System for and method of emulating electronic input devices
US7694231B2 (en) 2006-01-05 2010-04-06 Apple Inc. Keyboards for portable electronic devices
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
US20070064004A1 (en) 2005-09-21 2007-03-22 Hewlett-Packard Development Company, L.P. Moving a graphic element
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US8686318B2 (en) 2005-10-07 2014-04-01 Illinois Tool Works Inc. Wireless tracking and inventory monitoring for welding-type devices
CN1949161B (zh) 2005-10-14 2010-05-26 鸿富锦精密工业(深圳)有限公司 多层次菜单显示装置及显示控制方法
KR100717047B1 (ko) 2005-10-20 2007-05-10 삼성전자주식회사 간편하게 웹 페이지를 표시하는 방법 및 장치
US20070109275A1 (en) 2005-11-16 2007-05-17 Chen-Ting Chuang Method for controlling a touch screen user interface and device thereof
US9182837B2 (en) 2005-11-28 2015-11-10 Synaptics Incorporated Methods and systems for implementing modal changes in a device in response to proximity and force indications
JP2007148927A (ja) 2005-11-29 2007-06-14 Alps Electric Co Ltd 入力装置及びこれを用いたスクロール制御方法
US9069877B2 (en) 2005-12-07 2015-06-30 Ziilabs Inc., Ltd. User interface with variable sized icons
US20070132789A1 (en) 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
JP4908518B2 (ja) 2005-12-08 2012-04-04 ノキア コーポレイション 電子デバイスの改善された文章入力
US7765754B2 (en) 2005-12-08 2010-08-03 Johnson Jay A Ventilating spacing strip between rear surface of siding and outer surface of structure allowing horizontal air circulation
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7650137B2 (en) 2005-12-23 2010-01-19 Apple Inc. Account information display for portable communication device
US7786975B2 (en) 2005-12-23 2010-08-31 Apple Inc. Continuous scrolling list with acceleration
US7480870B2 (en) 2005-12-23 2009-01-20 Apple Inc. Indication of progress towards satisfaction of a user input condition
AU2006332488A1 (en) 2005-12-30 2007-07-12 Apple Inc. Portable electronic device with multi-touch input
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US20070152983A1 (en) 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US7574672B2 (en) 2006-01-05 2009-08-11 Apple Inc. Text entry interface for a portable communication device
US7860536B2 (en) 2006-01-05 2010-12-28 Apple Inc. Telephone interface for a portable communication device
WO2007084852A2 (en) 2006-01-18 2007-07-26 Roxse, Llc Systems and methods for providing sorted search results
US20070176903A1 (en) 2006-01-31 2007-08-02 Dahlin Jeffrey J Capacitive touch sensor button activation
US9910497B2 (en) 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8312479B2 (en) 2006-03-08 2012-11-13 Navisense Application programming interface (API) for sensory events
US20070214436A1 (en) 2006-03-13 2007-09-13 Myers Raymond L Jr Positional navigation graphic link system
US8866750B2 (en) 2006-04-10 2014-10-21 Microsoft Corporation Universal user interface device
US8587526B2 (en) 2006-04-12 2013-11-19 N-Trig Ltd. Gesture recognition feedback for a dual mode digitizer
US20070242607A1 (en) 2006-04-13 2007-10-18 Tellabs Operations, Inc. Method and system for controlling distribution of network topology information
TWI328185B (en) 2006-04-19 2010-08-01 Lg Electronics Inc Touch screen device for potable terminal and method of displaying and selecting menus thereon
KR20070113025A (ko) 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 이의 작동방법
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US8296684B2 (en) 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
US20070259685A1 (en) 2006-05-08 2007-11-08 Goran Engblom Electronic equipment with keylock function using motion and method
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
JP2007312823A (ja) 2006-05-23 2007-12-06 Pentax Corp タッチパネル入力ユニットおよび内視鏡プロセッサ
US8775820B1 (en) 2006-06-02 2014-07-08 Sprint Communications Company L.P. System and method of enterprise administrative password generation and control
US7844661B2 (en) 2006-06-15 2010-11-30 Microsoft Corporation Composition of local media playback with remotely generated user interface
KR101277256B1 (ko) 2006-06-16 2013-07-05 삼성전자주식회사 사용자 인터페이스를 위한 장치 및 방법
US8169421B2 (en) 2006-06-19 2012-05-01 Cypress Semiconductor Corporation Apparatus and method for detecting a touch-sensor pad gesture
GB0612624D0 (en) 2006-06-26 2006-08-02 Symbian Software Ltd Speed of gesture
KR100748469B1 (ko) 2006-06-26 2007-08-10 삼성전자주식회사 키패드 터치에 의한 사용자 인터페이스 방법 및 그 휴대단말기
US8269725B2 (en) 2006-06-28 2012-09-18 Microsoft Corporation Input simulation system for touch based devices
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP2009543139A (ja) 2006-06-30 2009-12-03 テレ アトラス ノース アメリカ インコーポレイテッド 自動化された分析、処理及び地理データ更新をサポートするために、地理データに関するユーザの更新要求を収集する方法及びシステム
JP5324440B2 (ja) 2006-07-12 2013-10-23 エヌ−トリグ リミテッド デジタイザのためのホバリングおよびタッチ検出
JP4762070B2 (ja) 2006-07-19 2011-08-31 富士通株式会社 手書き入力装置、手書き入力方法、及びコンピュータプログラム
JP4280759B2 (ja) 2006-07-27 2009-06-17 キヤノン株式会社 情報処理装置およびユーザインタフェース制御方法
WO2008020446A1 (en) 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
US20080043020A1 (en) 2006-08-18 2008-02-21 Microsoft Corporation User interface for viewing street side imagery
US7843427B2 (en) 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
US7941760B2 (en) 2006-09-06 2011-05-10 Apple Inc. Soft keyboard display for a portable multifunction device
CN101535940B (zh) 2006-09-06 2013-06-12 苹果公司 用于即时消息传送的便携式电子设备
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8253695B2 (en) 2006-09-06 2012-08-28 Apple Inc. Email client for a portable multifunction device
US20080084400A1 (en) 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US20080114614A1 (en) 2006-11-15 2008-05-15 General Electric Company Methods and systems for healthcare application interaction using gesture-based interaction enhanced with pressure sensitivity
US8056007B2 (en) 2006-11-15 2011-11-08 Yahoo! Inc. System and method for recognizing and storing information and associated context
US7694240B2 (en) 2006-11-22 2010-04-06 General Electric Company Methods and systems for creation of hanging protocols using graffiti-enabled devices
JP5191119B2 (ja) 2006-12-06 2013-04-24 株式会社ジャパンディスプレイウェスト 表示装置、表示装置の制御方法、及びプログラム
CN101206659B (zh) 2006-12-15 2013-09-18 谷歌股份有限公司 自动搜索查询校正
TW200828089A (en) 2006-12-29 2008-07-01 Inventec Appliances Corp Method for zooming image
US8489783B2 (en) 2007-01-03 2013-07-16 Apple Inc. Multi buffer asynchronous scheme for processing incoming information
US8970501B2 (en) 2007-01-03 2015-03-03 Apple Inc. Proximity and multi-touch sensor detection and demodulation
US7777732B2 (en) 2007-01-03 2010-08-17 Apple Inc. Multi-event input system
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US7907125B2 (en) 2007-01-05 2011-03-15 Microsoft Corporation Recognizing multiple input point gestures
US8214768B2 (en) 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US8656295B2 (en) 2007-01-05 2014-02-18 Apple Inc. Selecting and manipulating web content
US7924271B2 (en) 2007-01-05 2011-04-12 Apple Inc. Detecting gestures on multi-event sensitive devices
US20080168395A1 (en) 2007-01-07 2008-07-10 Bas Ording Positioning a Slider Icon on a Portable Multifunction Device
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US8091045B2 (en) 2007-01-07 2012-01-03 Apple Inc. System and method for managing lists
US8665225B2 (en) 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US7903115B2 (en) 2007-01-07 2011-03-08 Apple Inc. Animations
US7671756B2 (en) 2007-01-07 2010-03-02 Apple Inc. Portable electronic device with alert silencing
US8656311B1 (en) 2007-01-07 2014-02-18 Apple Inc. Method and apparatus for compositing various types of content
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US7872652B2 (en) 2007-01-07 2011-01-18 Apple Inc. Application programming interfaces for synchronization
US7966578B2 (en) 2007-01-07 2011-06-21 Apple Inc. Portable multifunction device, method, and graphical user interface for translating displayed content
US8519963B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture on a touch screen display
TWI399671B (zh) * 2007-01-19 2013-06-21 Lg Electronics Inc 透過觸碰輸入裝置之資訊輸入
US7912700B2 (en) 2007-02-08 2011-03-22 Microsoft Corporation Context based word prediction
JP4866262B2 (ja) 2007-02-16 2012-02-01 ソフトバンクモバイル株式会社 操作入力処理方法及び携帯型情報処理装置
FR2912742B1 (fr) 2007-02-16 2010-03-05 Arkema France Procede de synthese d'acrylonitrile a partir de glycerol
JP4793287B2 (ja) 2007-02-28 2011-10-12 ブラザー工業株式会社 通信装置および通信システム
KR101383709B1 (ko) * 2007-03-07 2014-04-09 삼성디스플레이 주식회사 표시 장치 및 그의 구동 방법
EP1970799B1 (de) 2007-03-15 2017-08-16 LG Electronics Inc. Elektronische Vorrichtung und Verfahren für einen Steuermodus dafür sowie mobiles Kommunikationsendgerät
KR100883115B1 (ko) 2007-03-28 2009-02-10 삼성전자주식회사 실행영역이 설정된 터치스크린을 구비하는 휴대 단말기 및그 기능 실행 방법
JP4342572B2 (ja) * 2007-05-21 2009-10-14 株式会社リコー 情報入出力装置、情報入出力制御方法、記録媒体およびプログラム
US8436815B2 (en) 2007-05-25 2013-05-07 Microsoft Corporation Selective enabling of multi-input controls
JP5117121B2 (ja) 2007-06-18 2013-01-09 パイオニア株式会社 Av機器の操作制御システム
US8350815B2 (en) 2007-06-20 2013-01-08 Sony Mobile Communications Portable communication device including touch input with scrolling function
US8059101B2 (en) 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US8171432B2 (en) 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
US8181122B2 (en) 2007-07-30 2012-05-15 Perceptive Pixel Inc. Graphical user interface for large-scale, multi-user, multi-touch systems
US8896529B2 (en) 2007-08-01 2014-11-25 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US8471823B2 (en) 2007-08-16 2013-06-25 Sony Corporation Systems and methods for providing a user interface
US8315362B2 (en) 2007-08-22 2012-11-20 Citrix Systems, Inc. Systems and methods for voicemail avoidance
US20090051671A1 (en) 2007-08-22 2009-02-26 Jason Antony Konstas Recognizing the motion of two or more touches on a touch-sensing surface
US7949516B2 (en) 2007-08-31 2011-05-24 Research In Motion Limited Handheld electronic device and method employing logical proximity of characters in spell checking
KR101348721B1 (ko) * 2007-09-03 2014-01-08 엘지전자 주식회사 휴대 단말기 및 그 휴대 단말기의 터치 인식 방법
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
KR20090024541A (ko) 2007-09-04 2009-03-09 삼성전자주식회사 하이퍼링크 선택 방법 및 이를 이용하는 이동통신 단말기
US8667412B2 (en) 2007-09-06 2014-03-04 Google Inc. Dynamic virtual input device configuration
WO2009049331A2 (en) 2007-10-08 2009-04-16 Van Der Westhuizen Willem Mork User interface
US7917584B2 (en) 2007-10-22 2011-03-29 Xcerion Aktiebolag Gesture-based collaboration
JP2009110286A (ja) 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
WO2009062124A1 (en) 2007-11-09 2009-05-14 Wms Gaming, Inc. Interface for wagering game environments
US20090128504A1 (en) 2007-11-16 2009-05-21 Garey Alexander Smith Touch screen peripheral device
JP2009169825A (ja) 2008-01-18 2009-07-30 Kyocera Mita Corp 表示入力装置、電子機器及び表示入力制御プログラム
US20090207140A1 (en) * 2008-02-19 2009-08-20 Sony Ericsson Mobile Communications Ab Identifying and responding to multiple time-overlapping touches on a touch panel
TWI352924B (en) * 2008-02-21 2011-11-21 Wintek Corp Touch panel and driving method of touch panel
US8174502B2 (en) 2008-03-04 2012-05-08 Apple Inc. Touch event processing for web pages
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8289283B2 (en) 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8352877B2 (en) 2008-03-06 2013-01-08 Microsoft Corporation Adjustment of range of content displayed on graphical user interface
US20090231281A1 (en) 2008-03-11 2009-09-17 Microsoft Corporation Multi-touch virtual keyboard
US8289289B2 (en) 2008-04-03 2012-10-16 N-trig, Ltd. Multi-touch and single touch detection
KR101513024B1 (ko) 2008-04-22 2015-04-17 엘지전자 주식회사 단말기 및 이것의 이미지 인식 방법
US8261190B2 (en) 2008-04-24 2012-09-04 Burlington Education Ltd. Displaying help sensitive areas of a computer application
US8526767B2 (en) 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
US20100177053A2 (en) 2008-05-09 2010-07-15 Taizo Yasutake Method and apparatus for control of multiple degrees of freedom of a display
US20090282332A1 (en) 2008-05-12 2009-11-12 Nokia Corporation Apparatus, method and computer program product for selecting multiple items using multi-touch
US9268483B2 (en) 2008-05-16 2016-02-23 Microsoft Technology Licensing, Llc Multi-touch input platform
WO2009155092A2 (en) 2008-05-29 2009-12-23 Telcordia Technologies, Inc. Method and system for multi-touch-based browsing of media summarizations on a handheld device
US20090322671A1 (en) 2008-06-04 2009-12-31 Cybernet Systems Corporation Touch screen augmented reality system and method
US20090309847A1 (en) 2008-06-12 2009-12-17 You I Labs, Inc. Apparatus and method for providing multi-touch interface capability
US7864037B2 (en) 2008-06-16 2011-01-04 International Business Machines Corporation Pattern-driven communication architecture
KR100978929B1 (ko) 2008-06-24 2010-08-30 한국전자통신연구원 기준 제스처 데이터 등록방법, 이동단말의 구동방법 및이를 수행하는 이동단말
US20090322699A1 (en) * 2008-06-25 2009-12-31 Sony Ericsson Mobile Communications Ab Multiple input detection for resistive touch panel
US8754855B2 (en) 2008-06-27 2014-06-17 Microsoft Corporation Virtual touchpad
US20090322700A1 (en) * 2008-06-30 2009-12-31 Tyco Electronics Corporation Method and apparatus for detecting two simultaneous touches and gestures on a resistive touchscreen
JP2010015238A (ja) 2008-07-01 2010-01-21 Sony Corp 情報処理装置、及び補助情報の表示方法
US8154428B2 (en) 2008-07-15 2012-04-10 International Business Machines Corporation Gesture recognition control of electronic devices using a multi-touch device
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
KR101482120B1 (ko) 2008-08-01 2015-01-21 엘지전자 주식회사 스케줄 관리가 가능한 휴대 단말기 및 그 제어방법
CN101339453B (zh) 2008-08-15 2012-05-23 广东威创视讯科技股份有限公司 基于交互式输入设备的模拟鼠标输入方法
US8135171B2 (en) 2008-08-19 2012-03-13 Au Optronics Corp. Multipoint tracking method and related device
CN101661361A (zh) 2008-08-27 2010-03-03 比亚迪股份有限公司 多点触摸检测系统
US8279241B2 (en) 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
CN101673154B (zh) * 2008-09-10 2012-11-21 鸿富锦精密工业(深圳)有限公司 基于触摸屏的区域选择方法
US20100073303A1 (en) 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
US20100088628A1 (en) 2008-10-07 2010-04-08 Sony Ericsson Mobile Communications Ab Live preview of open windows
US20100107116A1 (en) 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
JP4853507B2 (ja) 2008-10-30 2012-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR101019335B1 (ko) 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
US8732576B2 (en) * 2008-12-04 2014-05-20 Nvidia Corporation Operating system providing multi-touch support for applications in a mobile device
TW201023018A (en) * 2008-12-12 2010-06-16 Asustek Comp Inc Touch panel with multi-touch function and multi-touch detecting method thereof
DE112008004156B4 (de) 2008-12-15 2021-06-24 Hewlett-Packard Development Company, L.P. System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
US8217909B2 (en) 2008-12-19 2012-07-10 Cypress Semiconductor Corporation Multi-finger sub-gesture reporting for a user interface device
US8869070B2 (en) 2008-12-30 2014-10-21 T-Mobile Usa, Inc. Handwriting manipulation for conducting a search over multiple databases
BRPI1006911A2 (pt) 2009-01-05 2016-02-16 Smart Technologies Ulc método de reconhecimento de gestos e sistema de entrada interativo empregando o mesmo
KR101521932B1 (ko) 2009-01-19 2015-05-20 엘지전자 주식회사 단말기 및 그 제어 방법
US8319736B2 (en) 2009-01-19 2012-11-27 Microsoft Corporation Touch sensitive computing device and method
US8704767B2 (en) 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
JP5009422B2 (ja) 2009-02-10 2012-08-22 シャープ株式会社 認証装置、認証方法及びそれをコンピュータに実行させるためのプログラム
US20100235745A1 (en) 2009-03-10 2010-09-16 Sony Corporation Accessibility system for consumer devices
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8566044B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
KR101510484B1 (ko) 2009-03-31 2015-04-08 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US20100281435A1 (en) 2009-04-30 2010-11-04 At&T Intellectual Property I, L.P. System and method for multimodal interaction using robust gesture processing
US8427440B2 (en) 2009-05-05 2013-04-23 Microsoft Corporation Contact grouping and gesture recognition for surface computing
US8434003B2 (en) 2009-05-21 2013-04-30 Sony Computer Entertainment Inc. Touch control with dynamically determined buffer region and active perimeter
US8681106B2 (en) 2009-06-07 2014-03-25 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
DE102009024656A1 (de) 2009-06-12 2011-03-24 Volkswagen Ag Verfahren zum Steuern einer grafischen Benutzerschnittstelle und Bedienvorrichtung für eine grafische Benutzerschnittstelle
US20110069021A1 (en) 2009-06-12 2011-03-24 Hill Jared C Reducing false touchpad data by ignoring input when area gesture does not behave as predicted
KR101608532B1 (ko) * 2009-08-11 2016-04-01 엘지전자 주식회사 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기
US8310459B2 (en) 2009-09-23 2012-11-13 Nokia Corporation Touch detection
US9223590B2 (en) 2010-01-06 2015-12-29 Apple Inc. System and method for issuing commands to applications based on contextual information
TWI400638B (zh) 2009-10-20 2013-07-01 Acer Inc 觸控顯示裝置、觸控顯示系統及其調整觸控區域之方法
KR20110047349A (ko) 2009-10-30 2011-05-09 주식회사 팬택 휴대용 단말기에서 터치와 가압을 이용하는 사용자 인터페이스 장치 및 방법
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US8390600B2 (en) 2009-11-13 2013-03-05 Microsoft Corporation Interactive display system with contact geometry interface
US8436821B1 (en) 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
US20100085323A1 (en) 2009-12-04 2010-04-08 Adam Bogue Segmenting a Multi-Touch Input Region by User
US20110151974A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Gesture style recognition and reward
US8432368B2 (en) 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
US8140570B2 (en) 2010-03-11 2012-03-20 Apple Inc. Automatic discovery of metadata
US8296332B2 (en) 2010-04-01 2012-10-23 Apple Inc. Visual manipulation of database schema
KR20110110940A (ko) * 2010-04-02 2011-10-10 삼성전자주식회사 휴대용 단말기의 터치 입력 장치 및 방법
US9146751B2 (en) 2010-04-07 2015-09-29 Apple Inc. Device, method, and graphical user interface for navigation of multiple applications
US9058186B2 (en) 2010-04-07 2015-06-16 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications
US8131898B2 (en) 2010-05-27 2012-03-06 Adobe Systems Incorporated Event handling in an integrated execution environment
EP2390766B1 (de) 2010-05-28 2013-09-25 BlackBerry Limited Elektronische Vorrichtung mit berührungsempfindlicher Anzeige und Verfahren zu deren Steuerung
US8669946B2 (en) 2010-05-28 2014-03-11 Blackberry Limited Electronic device including touch-sensitive display and method of controlling same
US20130120280A1 (en) 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Interoperability of Gesture Recognizers
CN102262890A (zh) 2010-05-31 2011-11-30 鸿富锦精密工业(深圳)有限公司 电子装置及其标记方法
CN101853105A (zh) 2010-06-02 2010-10-06 友达光电股份有限公司 一种具有触控屏幕的计算机及其操作方法
US8749499B2 (en) 2010-06-08 2014-06-10 Sap Ag Touch screen for bridging multi and/or single touch points to applications
US8836643B2 (en) 2010-06-10 2014-09-16 Qualcomm Incorporated Auto-morphing adaptive user interface device and methods
US10216408B2 (en) 2010-06-14 2019-02-26 Apple Inc. Devices and methods for identifying user interface objects based on view hierarchy
JP5663980B2 (ja) 2010-06-29 2015-02-04 ブラザー工業株式会社 画像処理装置
TWI407346B (zh) * 2010-07-30 2013-09-01 Ind Tech Res Inst 觸控輸入裝置之軌跡補償方法與系統,及其電腦程式產品
KR20120024247A (ko) 2010-09-06 2012-03-14 삼성전자주식회사 사용자의 제스처를 인식하여 이동 장치를 동작하는 방법 및 그 이동 장치
US20120092286A1 (en) 2010-10-19 2012-04-19 Microsoft Corporation Synthetic Gesture Trace Generator
US20120133579A1 (en) 2010-11-30 2012-05-31 Microsoft Corporation Gesture recognition management
CN203287883U (zh) 2010-12-20 2013-11-13 苹果公司 电子设备及其信息处理装置
US8438473B2 (en) 2011-01-05 2013-05-07 Research In Motion Limited Handling of touch events in a browser environment
US20120242584A1 (en) 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
AU2011202182B1 (en) 2011-05-11 2011-10-13 Frequency Ip Holdings, Llc Creation and presentation of selective digital content feeds
TWI467463B (zh) 2011-05-27 2015-01-01 Asustek Comp Inc 具觸控式螢幕的電腦系統及其手勢的處理方法
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9389679B2 (en) 2011-11-30 2016-07-12 Microsoft Technology Licensing, Llc Application programming interface for a multi-pointer indirect touch input device
US9071970B2 (en) * 2011-12-05 2015-06-30 Sony Corporation Terminal device
US10983625B2 (en) 2011-12-22 2021-04-20 Adobe Inc. Systems and methods for measurement of unsupported user interface actions
US8411060B1 (en) 2012-01-13 2013-04-02 Google Inc. Swipe gesture classification
US9046958B2 (en) * 2012-03-15 2015-06-02 Nokia Technologies Oy Method, apparatus and computer program product for user input interpretation and input error mitigation
US20140160085A1 (en) 2012-12-07 2014-06-12 Qualcomm Incorporated Adaptive analog-front-end to optimize touch processing
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
US9626100B2 (en) 2013-04-15 2017-04-18 Microsoft Technology Licensing, Llc Dynamic management of edge inputs by users on a touch device
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
JP6215933B2 (ja) 2013-06-18 2017-10-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 入力装置及び動作要求を入力する方法
US9430142B2 (en) 2014-07-17 2016-08-30 Facebook, Inc. Touch-based gesture recognition and application navigation
US9886190B2 (en) 2014-09-26 2018-02-06 The Florida International University Board Of Trustees Gesture discernment and processing system
US9952676B2 (en) 2015-06-25 2018-04-24 Intel Corporation Wearable device with gesture recognition mechanism
US11029836B2 (en) 2016-03-25 2021-06-08 Microsoft Technology Licensing, Llc Cross-platform interactivity architecture
US11755146B2 (en) 2021-06-03 2023-09-12 Apple Inc. Devices and methods for processing touch inputs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060097991A1 (en) 2004-05-06 2006-05-11 Apple Computer, Inc. Multipoint touchscreen
US20070226636A1 (en) 2006-03-21 2007-09-27 Microsoft Corporation Simultaneous input across multiple applications

Also Published As

Publication number Publication date
EP2405347B1 (de) 2016-11-02
JP2014063515A (ja) 2014-04-10
US9389712B2 (en) 2016-07-12
JP2018032420A (ja) 2018-03-01
JP2009211704A (ja) 2009-09-17
DE202009018624U1 (de) 2012-05-02
DE202009018653U1 (de) 2012-06-06
HK1156126A1 (en) 2012-06-01
EP3244296B1 (de) 2020-08-26
JP5075867B2 (ja) 2012-11-21
EP2405341B1 (de) 2016-12-14
US20170160925A1 (en) 2017-06-08
JP6224647B2 (ja) 2017-11-01
ES2393911T3 (es) 2012-12-28
US20140145995A1 (en) 2014-05-29
AU2009200493A1 (en) 2009-09-24
US10936190B2 (en) 2021-03-02
EP2405340A1 (de) 2012-01-11
JP2015167027A (ja) 2015-09-24
EP3712758A1 (de) 2020-09-23
JP5736029B2 (ja) 2015-06-17
US9690481B2 (en) 2017-06-27
US11740725B2 (en) 2023-08-29
ATE498157T1 (de) 2011-02-15
US10521109B2 (en) 2019-12-31
US20200125256A1 (en) 2020-04-23
CN102253797B (zh) 2014-12-31
ES2357374T3 (es) 2011-04-25
JP5427279B2 (ja) 2014-02-26
US20230384881A1 (en) 2023-11-30
EP2472385A1 (de) 2012-07-04
US20160334990A1 (en) 2016-11-17
EP2405341A1 (de) 2012-01-11
EP2302494A1 (de) 2011-03-30
IL197386A0 (en) 2009-12-24
EP2098948A1 (de) 2009-09-09
EP2405342A1 (de) 2012-01-11
US20180260113A1 (en) 2018-09-13
CA3011844A1 (en) 2009-09-04
CN102253797A (zh) 2011-11-23
EP2405342B1 (de) 2017-01-04
CA2653363C (en) 2017-02-07
IL197386A (en) 2016-02-29
US20210117037A1 (en) 2021-04-22
EP3244296A1 (de) 2017-11-15
US9971502B2 (en) 2018-05-15
CN101526880A (zh) 2009-09-09
DE102009011687A1 (de) 2009-10-22
EP2302494B1 (de) 2015-10-14
IL244139A0 (en) 2016-07-31
HK1135210A1 (en) 2010-05-28
EP2405339A1 (de) 2012-01-11
US20110310046A1 (en) 2011-12-22
US8645827B2 (en) 2014-02-04
EP2472384A1 (de) 2012-07-04
CA2653363A1 (en) 2009-09-04
US20130069899A1 (en) 2013-03-21
EP3712758B1 (de) 2022-10-19
CA2931604C (en) 2019-07-09
US20090228901A1 (en) 2009-09-10
US9720594B2 (en) 2017-08-01
CA2931604A1 (en) 2009-09-04
EP2472385B1 (de) 2017-01-11
DE602009000704D1 (de) 2011-03-24
CA3011844C (en) 2019-07-09
JP6659648B2 (ja) 2020-03-04
CN101526880B (zh) 2011-07-27
JP2013016188A (ja) 2013-01-24
EP2306285B1 (de) 2012-08-22
IL244139B (en) 2019-06-30
EP2405347A1 (de) 2012-01-11
EP2098948B1 (de) 2011-02-09
US8560975B2 (en) 2013-10-15
EP2405340B1 (de) 2017-04-19
WO2009111189A1 (en) 2009-09-11
EP2405339B1 (de) 2017-04-19
HK1164498A1 (en) 2012-09-21
EP2472384B1 (de) 2016-08-24
EP2306285A1 (de) 2011-04-06

Similar Documents

Publication Publication Date Title
DE102009011687B4 (de) Berührungsereignismodell
DE202016001516U1 (de) Vorrichtungen und grafische Benutzerschnittstellen zur Interaktion mit einem Steuerobjekt, während ein weiteres Objekt verschoben wird
DE202011106886U1 (de) Modusumschaltung
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE102010036906A1 (de) Konfigurierbares Pie-Menü
DE112013006621T5 (de) Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
DE112009001276T5 (de) Karten-Metapher für Aktivitäten in einem Rechengerät
DE112009001281T5 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE202008001338U1 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE202012007707U1 (de) Vorrichtung zum Vorsehen einer Benutzerschnittstelle auf einer Vorrichtung, die Inhalt-Operatoren anzeigt
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE112013002412T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE202008007847U1 (de) Geschwindigkeits-/Positionsmodus-Translation
DE112010002760T5 (de) Benutzerschnittstelle
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
EP2795451B1 (de) Verfahren zum betrieb einer mehrfachberührungsfähigen anzeige und vorrichtung mit einer mehrfachberührungsfähigen anzeige
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE102012020607B4 (de) Kraftwagen mit einer Gestensteuerungseinrichtung sowie Verfahren zum Steuern eines Auswahlelements
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE102014117614A1 (de) Wechseln eines Schnittstellenmodus mittels einer Eingabegeste
WO2017144298A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE102009059868A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle
DE112011104981T5 (de) Ergänzung von Elementen der Benutzeroberfläche

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003042000

Ipc: G06F0003048800

Effective date: 20130307

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final