DE102010060975A1 - Virtuelles Touchpad für eine Berührungsanordnung - Google Patents

Virtuelles Touchpad für eine Berührungsanordnung Download PDF

Info

Publication number
DE102010060975A1
DE102010060975A1 DE102010060975A DE102010060975A DE102010060975A1 DE 102010060975 A1 DE102010060975 A1 DE 102010060975A1 DE 102010060975 A DE102010060975 A DE 102010060975A DE 102010060975 A DE102010060975 A DE 102010060975A DE 102010060975 A1 DE102010060975 A1 DE 102010060975A1
Authority
DE
Germany
Prior art keywords
touch
touchpad
screen
module
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102010060975A
Other languages
English (en)
Inventor
Harriss C. Ganey
Jay W. Johnson
Howard Locker
Aaron Michael Stewart
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Publication of DE102010060975A1 publication Critical patent/DE102010060975A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Abstract

Eine Vorrichtung, ein Verfahren, und ein Computerprogrammprodukt zum Bereitstellen eines virtuellen Touchpads für eine Berührungsanordnung werden offenbart. Ein Positionierungsmodul positioniert ein virtuelles Touchpad an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereichs einer Berührungsanordnung. Ein Berührungseingabemodul positioniert als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad einen Zeiger auf einem Bildschirm der Berührungsanordnung.

Description

  • Der hierin offenbarte Betrachtungsgegenstand bezieht sich auf Eingabeanordnungen und bezieht sich im Besonderen auf virtuelle Eingabeanordnungen für eine Berührungsanordnung.
  • Eingabeanordnungen ermöglichen es Anwendern mit einem Computersystem umzugehen. Eingabeanordnungen, wie zum Beispiel Computermäuse, Touchpads, Joysticks, Trackballs, und berührungsempfindliche Bildschirme ermöglichen es Anwendern eine graphische Benutzerschnittstelle (Graphical User Interface – GUT) durch Übersetzen einer auf einen Zeiger oder Cursor ausgeführten Bewegung des Anwenders auf einem Bildschirm zu steuern. Diese Hardwareeingabeanordnungen weisen jedoch üblicherweise eine feste Position in Bezug auf das Computersystem auf, besonders bei tragbaren Anordnungen. Hardwareeingabeanordnungen weisen auch feste Formen und Größen auf.
  • Auf Grund ihrer festgelegten Position, Formen und Größen ist es oft schwierig oder unmöglich, Hardwareeingabeanordnungen individuell anzupassen. Aus diesem Grund können Eingabeanordnungen, die für rechtshändige Anwender optimiert sind, für linkshändige Anwender ungünstig sein und umgekehrt. Eingabeanordnungen, die nicht für rechtshändige Anwender oder linkshändige Anwender optimiert sind, können für beide Gruppen ungünstig sein. Eingabeanordnungen, die nicht für einen bestimmten Anwender optimiert sind und die nicht individuell anpassbar sind, können es erforderlich machen, dass der Anwender beide Hände gleichzeitig benötigt, um die Eingabeanordnung zu verwenden, zum Beispiel durch Halten einer Rechenanordnung in einer Hand und Bedienen einer Eingabeanordnung mit der anderen Hand.
  • Zusätzlich dazu nehmen Hardwareeingabeanordnungen zusätzlichen physischen Raum an einer Rechneranordnung ein, unabhängig davon, ob die Hardwareeingabeanordnung aktuell in Verwendung ist oder nicht. Dies kann die Größe der Rechneranordnung erhöhen. Eine erhöhte Größe kann die Tragbarkeit, Ergonomie, Handhabbarkeit und die Kosten einer Rechneranordnung negativ beeinflussen, besonders im Fall von tragbaren Anordnungen.
  • Aus der vorangegangenen Beschreibung ergibt sich die Notwendigkeit für eine Vorrichtung, ein Verfahren und ein Computerprogrammprodukt, die eine dynamische, auf Anwenderbedürfnisse anpassbare, virtuelle Eingabeanordnung für einen Anwender zur Verfügung stellen. Vorteilhafterweise würden eine solche Vorrichtung, ein solches Verfahren und ein solches Computerprogrammprodukt die einhändige Verwendung einer in der Hand gehaltenen Rechneranordnung erleichtern.
  • Die Ausführungsformen der vorliegenden Erfindung wurden als Reaktion auf den aktuellen Stand der Technik entwickelt, und im Besonderen als Reaktion auf die Probleme und Notwendigkeiten in der Technik, die durch gegenwärtig verfügbare Eingabeanordnungen noch nicht vollständig gelöst worden sind. Dementsprechend wurden die Ausführungsformen entwickelt, um eine Vorrichtung, ein Verfahren und ein Computerprogrammprodukt zur Verfügung zu stellen, um ein virtuelles Touchpad für eine Berührungsanordnung zur Verfügung zu stellen, die viele oder alle der oben beschriebenen Mängel nach dem Stand der Technik überwinden.
  • Eine Vorrichtung, um ein virtuelles Touchpad für eine Berührungsanordnung zur Verfügung zu stellen, wird mit einer Vielzahl von Modulen zur Verfügung gestellt, die ausgebildet sind, die Schritte des Verfahrens funktional auszuführen. In einer Ausführungsform beinhalten die Module ein Initialisierungsmodul, ein Lokalisierungsmodul, ein Positionierungsmodul, ein Berührungseingabemodul, ein Beendenmodul, ein Visualisierungsmodul, ein Repositionierungsmodul, ein Vergrößerungsmodul und ein Erscheinungsbildmodul.
  • In einer Ausführungsform empfängt das Initialisierungsmodul von einem Anwender eine Aufforderung über das virtuelle Touchpad. Die Aufforderung über das virtuelle Touchpad fordert in einer weiteren Ausführungsform die Verwendung eines virtuellen Touchpads als eine Eingabeschnittstelle für eine Berührungsanordnung an. In einer weiteren Ausführungsform weist die Aufforderung über das virtuelle Touchpad eine Berührungsgeste auf, die der Anwender auf einem Bildschirm der Berührungsanordnung ausführt. Die Aufforderung über das virtuelle Touchpad ist in einer weiteren Ausführungsform eine ziehende Geste vom Außenrand des Bildschirms.
  • In einer Ausführungsform beinhaltet die Berührungsanordnung einen Bildschirm und einen berührungsempfindliche Bereich. In einer weiteren Ausführungsform ist der Bildschirm der Berührungsanordnung ein Berührungsbildschirm und der berührungsempfindliche Bereich ist auf dem Bildschirm angeordnet. In einer weiteren Ausführungsform ist die Berührungsanordnung eine schiefertafelgroße Berührungsanordnung. In einer Ausführungsform ist eine schiefertafelgroße Berührungsanordnung dazu in der Lage, in einer einzelnen Hand des Anwenders gehalten zu werden und eine Berührungseingabe auf einem Bildschirm der Berührungsanordnung von einem Daumen der einzelnen Hand des Anwenders entgegenzunehmen. Der Bildschirm weist in einer Ausführungsform eine Größe auf, die größer ist als eine Reichweite des Daumens und die Position des virtuellen Touchpads ist auf dem Bildschirm der Berührungsanordnung innerhalb der Reichweite des Daumens angeordnet.
  • In einer Ausführungsform erfasst das Lokalisierungsmodul eine räumliche Beziehung zwischen der Berührungsanordnung und dem Anwender. Die räumliche Beziehung beinhaltet in einer Ausführungsform eine Position innerhalb des berührungsempfindlichen Bereichs, in dem das Lokalisierungsmodul eine vorgegebene Berührungsgeste erfasst. In einer weiteren Ausführungsform beinhaltet die räumliche Beziehung eine Position innerhalb des berührungsempfindlichen Bereichs, in dem das Lokalisierungsmodul eine Verwendung eines Daumens des Anwenders zur Berührungseingabe erfasst. In einer weiteren Ausführungsform beinhaltet die räumliche Beziehung eine Orientierung der Berührungsanordnung. In einer Ausführungsform wählt das Lokalisierungsmodul basierend auf der räumlichen Beziehung eine dynamische Position für das virtuelle Touchpad aus.
  • In einer Ausführungsform positioniert das Positionierungsmodul das virtuelle Touchpad an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereichs der Berührungsanordnung. In einer weiteren Ausführungsform wählt das Lokalisierungsmodul die dynamische Position für das Positionierungsmodul basierend auf der räumlichen Beziehung aus, die das Lokalisierungsmodul erfasst. Das Positionierungsmodul überlagert in einer weiteren Ausführungsform das virtuelle Touchpad über einen gegenwärtig dargestellten Bereich eines Bildschirms der Berührungsanordnung. In einer weiteren Ausführungsform ändert das Positionierungsmodul einen Darstellungsbereich eines Bildschirms der Berührungsanordnung entfernt von der Position des virtuellen Touchpads in der Größe derart, dass der Darstellungsbereich und das Touchpad voneinander getrennt sind.
  • In einer Ausführungsform positioniert das Berührungseingabemodul als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad einen Zeiger auf einem Bildschirm der Berührungsanordnung. Das Berührungseingabemodul verarbeitet in einer weiteren Ausführungsform die Berührungseingabe in dem Touchpad-Bereich als eine Eingabeschnittstelle für die Berührungsanordnung.
  • In einer Ausführungsform entfernt das Beendenmodul als Reaktion auf einen Beendenvorgang das virtuelle Touchpad von der Position. Der Beendenvorgang kann in einer Ausführungsform eine Zeitüberschreitungsperiode sein, die abläuft, eine Eingabe von dem Anwender oder eine Berührungsgeste, die durch den Anwender ausgeführt wird. Das Beendenmodul entfernt in einer weiteren Ausführungsform durch Zusammenklappen des virtuellen Touchpads hin zu einem Außenrand eines Bildschirms der Berührungsanordnung das virtuelle Touchpad von der Position.
  • In einer Ausführungsform stellt das Visualisierungsmodul eine skalierte Visualisierung von zumindest einem Teil eines Bildschirms der Berührungsanordnung auf dem virtuellen Touchpad dar. Der Teil des Bildschirms entspricht in einer Ausführungsform einem Bereich, für den das virtuelle Touchpad Eingaben empfängt. In einer weiteren Ausführungsform ist der Teil des Bildschirms variabel und ändert sich basierend auf dem Bereich, für den das virtuelle Touchpad Eingaben empfängt.
  • In einer Ausführungsform verschiebt das Repositionierungsmodul als Reaktion auf ein Ereignis die Position für das virtuelle Touchpad dynamisch an eine andere Position innerhalb des berührungsempfindlichen Bereichs. Das Ereignis ist in einer Ausführungsform eine Eingabe von dem Anwender, eine Änderung in der Orientierung der Berührungsanordnung oder eine erfasste Änderung in der räumlichen Beziehung zwischen der Berührungsanordnung und dem Anwender.
  • In einer Ausführungsform skaliert das Vergrößerungsmodul eine Bewegung des Zeigers relativ zu der Berührungseingabe auf dem virtuellen Touchpad. In einer weiteren Ausführungsform skaliert das Vergrößerungsmodul die Bewegung des Zeigers basierend auf einem Größenverhältnis zwischen dem virtuellen Touchpad und zumindest einem Teil eines Bildschirms der Berührungsanordnung. In einer weiteren Ausführungsform skaliert das Vergrößerungsmodul die Berührungseingabe basierend auf einer gespeicherten Bevorzugung des Anwenders. Das virtuelle Touchpad weist in einer Ausführungsform eine Untermenge des berührungsempfindlichen Bereichs der Berührungsanordnung auf.
  • In einer Ausführungsform bestimmt das Erscheinungsbildmodul ein visuelles Erscheinungsbild des virtuellen Touchpads basierend auf gespeicherten Bevorzugungen des Anwenders. Das Erscheinungsbildmodul bestimmt in einer weiteren Ausführungsform eines oder mehrere aus einer Größe, einer visuellen Transparenz und einer Farbe für das virtuelle Touchpad.
  • Es wird ein Verfahren vorgestellt, um ein virtuelles Touchpad für eine Berührungsanordnung zur Verfügung zu stellen. In einer Ausführungsform beinhaltet das Verfahren das Platzieren des virtuellen Touchpads an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereichs der Berührungsanordnung. In einer weiteren Ausführungsform beinhaltet das Verfahren als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad das Positionieren eines Zeigers auf einem Bildschirm der Berührungsanordnung.
  • Das Verfahren beinhaltet in einer Ausführungsform das Erfassen einer räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung, wobei die dynamische Position basierend auf der räumlichen Beziehung ausgewählt wird. In einer weiteren Ausführungsform beinhaltet das Verfahren als Reaktion auf eine erfasste Änderung in einer räumliche Beziehung zwischen der Berührungsanordnung und einem Anwender ein dynamisches Verschieben des virtuellen Touchpads an eine andere Position innerhalb des berührungsempfindlichen Bereichs. In einer weiteren Ausführungsform beinhaltet das Verfahren ein Darstellen einer skalierten Kopie von zumindest einem Teil eines Bildschirms der Berührungsanordnung auf dem virtuellen Touchpad. In einer Ausführungsform beinhaltet das Verfahren ein Ändern der Größe eines Darstellungsbereichs des Bildschirms entfernt von der Position des virtuellen Touchpads derart, dass das virtuelle Touchpad von dem Darstellungsbereich getrennt ist und der Bildschirm ein Berührungsbildschirm ist.
  • Es wird auch ein Computerprogrammprodukt vorgestellt, um ein virtuelles Touchpad für eine Berührungsanordnung zur Verfügung zu stellen. Das Computerprogrammprodukt weist ein computerlesbares Speichermedium auf, das durch einen Computer verwendbaren Programmcode speichert, der auf einem Computer ausführbar ist, um Transaktionen auszuführen.
  • Die Transaktionen beinhalten in einer Ausführungsform das Platzieren eines virtuellen Touchpads an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereichs einer Berührungsanordnung. In einer weiteren Ausführungsform beinhalten die Transaktionen als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad das Positionieren eines Zeigers auf einem Bildschirm der Berührungsanordnung. Die Transaktionen beinhalten in einer weiteren Ausführungsform ein Erfassen einer räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung, wobei die dynamische Position basierend auf der räumlichen Beziehung ausgewählt wird. In einer weiteren Ausführungsform beinhalten die Transaktionen als Reaktion auf eine erfasste Änderung in einer räumlichen Beziehung zwischen der Berührungsanordnung und einem Anwender ein dynamisches Verschieben des virtuellen Touchpads an eine andere Position innerhalb des berührungsempfindlichen Bereichs.
  • Bezugnahmen im Zuge dieser Beschreibung auf Merkmale, Vorteile oder ähnlichen Sprachgebrauch unterstellen nicht, dass alle der Merkmale und Vorteile in jeder einzelnen Ausführungsform umgesetzt werden können. Vielmehr wird verstanden, dass Sprachgebrauch der sich auf Merkmale und Vorteile bezieht bedeutet, dass ein bestimmtes Merkmal, ein bestimmter Vorteil oder eine bestimmte Eigenschaft in zumindest einer Ausführungsform beinhaltet ist. Daher kann sich eine Beschreibung der Merkmale und Vorteile und ähnlicher Sprachgebrauch im Verlaufe dieser Beschreibung auf die gleiche Ausführungsform beziehen, muss dies aber nicht notwendigerweise tun.
  • Darüber hinaus können die beschriebenen Merkmale, Vorteile, und Eigenschaften der Ausführungsformen auf jede geeignete Weise kombiniert werden. Eine in der entsprechenden Technik bewanderte Person wird erkennen, dass die Ausführungsformen ohne eines oder mehrere der spezifischen Merkmale oder Vorteile einer bestimmten Ausführungsform ausgeübt werden können. In anderen Fällen können zusätzliche Merkmale und Vorteile in bestimmten Ausführungsformen festgestellt werden, die möglicherweise nicht in allen Ausführungsformen vorliegen.
  • Diese Merkmale und Vorteile der Ausführungsformen werden aus der nachfolgenden Beschreibung und den beigefügten Ansprüchen vollständiger offensichtlich werden, oder können durch die Ausführung der wie nachfolgend dargelegten Ausführungsformen erlernt werden.
  • Damit die Vorteile der Ausführungsformen leicht verstanden werden, wird eine detailliertere Beschreibung der oben kurz beschriebenen Ausführungsformen unter Bezugnahme auf bestimmte Ausführungsformen vorgelegt, die in den angehängten Zeichnungen veranschaulicht sind. Mit dem Verständnis, dass diese Zeichnungen nur einige Ausführungsformen darstellen und deshalb nicht als einschränkend auf den Schutzumfang betrachtet werden sollen, werden die Ausführungsformen mit zusätzlicher Ausprägung und zusätzlichem Detail beschrieben und erläutert durch die Verwendung der begleitenden Zeichnungen, in denen:
  • 1 ein schematisches Blockdiagramm ist, das eine Ausführungsform veranschaulicht, um einer Anordnung ein virtuelles Touchpad für eine Berührungsanordnung zur Verfügung zu stellen;
  • 2 ein schematisches Blockdiagramm ist, das eine Ausführungsform eines virtuellen Touchpadmoduls veranschaulicht;
  • 3 ein schematisches Blockdiagramm ist, das eine weitere Ausführungsform eines virtuellen Touchpadmoduls veranschaulicht;
  • 4A ein schematisches Blockdiagramm ist, das eine Ausführungsform eines virtuellen Touchpads für eine Berührungsanordnung veranschaulicht;
  • 4B ein schematisches Blockdiagramm ist, das eine weitere Ausführungsform eines virtuellen Touchpads für eine Berührungsanordnung veranschaulicht;
  • 5 ein schematisches Flussdiagramm ist, das eine Ausführungsform eines Verfahrens zum Bereitstellen eines virtuellen Touchpads für eine Berührungsanordnung veranschaulicht; und
  • 6 ein schematisches Flussdiagramm ist, das eine weitere Ausführungsform eines Verfahrens zum Bereitstellen eines virtuellen Touchpads für eine Berührungsanordnung veranschaulicht.
  • Viele der in dieser Beschreibung beschriebenen funktionalen Einheiten sind als Module bezeichnet worden, um im Besonderen ihre Unabhängigkeit bei der Umsetzung hervorzuheben. Module können Hardwareschaltungen beinhalten, wie zum Beispiel einen oder mehrere Prozessoren mit Speicher, Very Large Scale Integration (VLSI) Schaltungen, Gate Arrays, programmierbare Logik und/oder diskrete Bauelemente. Die Hardwareschaltungen können logische Funktionen ausführen, auf dinghaften Speicheranordnungen gespeicherte computerlesbare Programme ausführen und/oder programmierte Funktionen ausführen. Module können auch ein computerlesbares Speichermedium beinhalten, das ein auf einer dinghaften Speicheranordnung gespeichertes computerlesbares Programm aufweist, das eine Funktion ausführt, wenn es durch Hardwareschaltungen wie zum Beispiel einen Prozessor, Mikrocontroller oder ähnliches ausgeführt wird.
  • Eine Bezugnahme im Rahmen dieser Beschreibung auf ”eine bestimmte Ausführungsform,” ”eine Ausführungsform” oder ähnlicher Sprachgebrauch bedeutet, dass eine bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft, beschrieben in Verbindung mit der Ausführungsform, in zumindest einer Ausführungsform beinhaltet ist. Daher können sich Erscheinungsformen der Begrifflichkeiten ”in einer bestimmten Ausführungsform”, ”in einer Ausführungsform” und ähnlicher Sprachgebrauch im Rahmen dieser Beschreibung alle auf die gleiche Ausführungsform beziehen, müssen dies aber nicht notwendigerweise tun, bedeuten jedoch ”eine oder mehrere aber nicht alle Ausführungsformen”, solange dies nicht ausdrücklich auf andere Weise spezifiziert wird. Die Begriffe ”beinhalten”, ”umfassen”, ”aufweisen” und Variationen davon bedeuten ”beinhaltend, aber nicht eingeschränkt auf” sofern nicht ausdrücklich anderweitig angegeben. Eine aufzählende Auflistung von Gegenständen impliziert nicht, dass irgendeiner oder alle der Gegenstände einander ausschließen, sofern nicht ausdrücklich anderweitig angegeben. Die Begriffe ”ein” und ”genau ein” beziehen sich auch auf ”ein oder mehrere”, sofern nicht ausdrücklich anderweitig angegeben.
  • Darüber hinaus können die Merkmale, Strukturen oder Eigenschaften der Ausführungsformen auf jede geeignete Weise kombiniert werden. In der nachfolgenden Beschreibung wird eine Vielzahl von spezifischen Details zur Verfügung gestellt, wie zum Beispiel Beispiele der Programmierung, Softwaremodule, Anwenderauswahlen, Netzwerktransaktionen, Datenbankabfragen, Datenbankstrukturen, Hardwaremodule, Hardwareschaltungen, Hardwarechips usw., um ein gründliches Verständnis von Ausführungsformen zur Verfügung zu stellen. Eine in der entsprechenden Technik geschulte Person wird jedoch erkennen, dass Ausführungsformen ohne eines oder mehrere der spezifischen Details ausgeübt werden können, oder mit anderen Verfahren, Komponenten, Materialien und so weiter. In anderen Fällen werden gut bekannte Strukturen, Materialien oder Transaktionen nicht im Detail dargestellt oder beschrieben, um das Verschleiern von Aspekten einer Ausführungsform zu vermeiden.
  • 1 stellt eine Ausführungsform einer Anordnung 100 dar, um ein virtuelles Touchpad 114 für eine Berührungsanordnung 102 zur Verfügung zu stellen. In der dargestellten Ausführungsform beinhaltet die Anordnung 100 eine Berührungsanordnung 102, einen Bildschirm 104, ein oder mehrere graphische Elemente 110, einen Zeiger 112, ein virtuelles Touchpad 114, ein oder mehrere skalierte graphische Elemente 116, einen skalierten Zeiger 118, und ein oder mehrere Hardwareeingabeelemente 120.
  • Die Berührungsanordnung 102 wird in der dargestellten Ausführungsform in einer einzelnen Hand 106 eines Anwenders derart gehalten, dass der Bildschirm 104 eine Berührungseingabe von dem Anwender empfängt während ein Daumen 108 des Anwenders den Bildschirm 104 berührt. Durch das Bereitstellen des virtuellen Touchpads 114 kann die Anordnung 100 sowohl rechtshändige als auch linkshändige Anwender und sowohl Hochformat- als auch Querformatorientierungen der Berührungsanordnung 102 unterstützen, ohne die Größe der Berührungsanordnung 102 zu erhöhen. In einer Ausführungsform positioniert die Anordnung 100 zum Beispiel das virtuelle Touchpad 114 dynamisch an einer optimalen Position auf dem Bildschirm 104, wenn ein Anwender seine Verwendung der Berührungsanordnung 102 verändert, zum Beispiel von der rechtshändigen Verwendung zur linkshändigen Verwendung wechselt, die Berührungsanordnung 102 von einer Hochformatorientierung zu einer Querformatorientierung dreht oder ähnliches. Die Anordnung 100 kann in einer Ausführungsform das virtuelle Touchpad 114 von dem Bildschirm 104 entfernen, wenn es nicht in Verwendung ist, wodurch die Verwendung des Bildschirms 104 optimiert wird.
  • In der dargestellten Ausführungsform ist die Berührungsanordnung 102 eine Rechenanordnung, die auf einem Bildschirm 104 visuelle Bilder für einen Anwender darstellt und Berührungseingaben von einem Anwender auf dem Bildschirm 104 und/oder auf einem getrennten berührungsempfindlichen Bereich, wie zum Beispiel einer Blende des Bildschirms 104 oder ähnlichem empfängt. Die Berührungsanordnung 102 beinhaltet in einer Ausführungsform Logikhardwareelemente und ein oder mehrere computerlesbare Speichermedien. In verschiedenen Ausführungsformen kann die Berührungsanordnung 102 zum Beispiel einen oder mehrere Mikroprozessoren, flüchtige und nichtflüchtige Speicheranordnungen, elektronische Eingänge und Ausgänge, drahtlose und fest verdrahtete Netzwerkkomponenten und ähnliches beinhalten.
  • In der dargestellten Ausführungsform ist die Berührungsanordnung 102 eine schiefertafelgroße Berührungsanordnung, die dazu in der Lage ist, in einer einzelnen Hand 106 eines Anwenders gehalten zu werden. Die Berührungsanordnung 102 kann in einer Ausführungsform mit einer einzelnen Hand 106 verwendet werden. Ein Anwender kann zum Beispiel unter Verwendung eines Daumens 108 der einzelnen Hand 106 eine Berührungseingabe an die Berührungsanordnung 102 zur Verfügung stellen, während der Anwender die Berührungsanordnung 102 in der gleichen Hand 106 hält. In weiteren Ausführungsformen kann die Berührungsanordnung 102 eine Telephonanordnung, eine Multimediaanordnung, eine Spieleanordnung, eine Global Positioning System (”GPS”) Einheit, ein als Berührungsbildschirm ausgebildeter Computermonitor, eine all-in-one Rechenanordnung mit Berührungsbildschirm, ein Laptop mit Berührungsbildschirm, ein Tablet-Computer oder eine andere Art von Berührungsanordnung sein.
  • In der dargestellten Ausführungsform ist der Bildschirm 104 ein berührungsempfindlicher Bereich auf der Berührungsanordnung 102, der eine Berührungseingabe für die Berührungsanordnung 102 empfängt und visuelle Bilder darstellt. In einer Ausführungsform kann der Bildschirm 104 zum Beispiel ein Graphical User Interface (”GUI”) darstellen, wie zum Beispiel eine Desktopumgebung oder ähnliches. Der Bildschirm 104 beinhaltet in einer Ausführungsform eine Flüssigkristallanzeige (Liquid Crystal Display – ”LCD”), eine Light Emitting Diode (”LED”) Anzeige, eine Plasmaanzeige, eine Organic LED (”OLED”) Anzeige, ein Surface-conduction Electron Emitter Display (”SED”), eine Anzeige für elektronisches Papier, ein Cathode Ray Tube (”CRT”) Anzeige, eine Laseranzeige, eine Projektionsanzeige oder ähnliches.
  • In einer weiteren Ausführungsform stellt der Bildschirm 104 visuelle Bilder für die Berührungsanordnung 102 dar und ein anderer berührungsempfindlicher Bereich auf der Berührungsanordnung 102 empfängt eine Berührungseingabe für die Berührungsanordnung 102, wie zum Beispiel ein Bereich auf einer Blende um den Bildschirm 104, ein unterhalb, oberhalb oder an einer Seite des Bildschirms 104 angeordneter Berührungsbereich oder ähnliches. In einer weiteren Ausführungsform ist der Bildschirm 104 eine sekundäre Anzeige, die eine Berührungseingabe für die Berührungsanordnung 102 empfängt und in Koordination mit einem primären Bildschirm visuelle Bilder auf der Berührungsanordnung 102 darstellt, die berührungsempfindlich sein kann oder nicht.
  • Der Bildschirm 104 und/oder andere berührungsempfindliche Bereiche der Berührungsanordnung 102, die eine Berührungseingabe entgegennehmen, können die Berührungseingabe unter Verwendung eines oder mehrerer Sensoren erfassen, wie zum Beispiel Widerstandssensoren, kapazitiver Sensoren, Sensoren für akustische Oberflächenwellen, Oberflächenkapazitätssensoren, Sensoren für projektierte Kapazität, Infrarotsensoren, Dehnungsmesssensoren, optische, Streusignal-, akustische, oder anderer Sensoren für einen Berührungsbildschirm. Der Bildschirm 104 oder ein anderer berührungsempfindlicher Bereich können in bestimmten Ausführungsformen verschiedenartige Formen einer Berührung erfassen, wie zum Beispiel von einem Finger oder einer Hand, oder von einem passiven Objekt, wie zum Beispiel einem Taststift oder einem Kugelschreiber.
  • In einer Ausführungsform weist der Bildschirm 104 eine Größe auf, die größer ist als eine Reichweite 122 des Daumens 108, derart dass ein Anwender nicht in der Lage ist, einen gesamten Bereich des Bildschirms 104 mit dem Daumen 108 zu erreichen, während er die Berührungsanordnung 102 in einer einzelnen Hand 106 hält. In anderen Ausführungsformen kann sich der Bildschirm 104 auf einem Computermonitor oder einer anderen Anordnung befinden und kann in der Größe viel größer ausgebildet sein als die Reichweite 122 des Daumens 108, oder der Bildschirm 104 kann sich auf einer mobilen Anordnung befinden und kann in der Größe gleich oder kleiner als die Reichweite 122 des Daumens 108 ausgebildet sein.
  • In der dargestellten Ausführungsform stellt der Bildschirm 104 das eine oder die mehreren graphischen Elemente 110 dar. Das eine oder die mehreren graphischen Elemente 110 können Piktogramme, Widgets, Schaltflächen, Menüs, Dateien, Ordner, Bilder, Links oder ähnliches beinhalten, die der Bildschirm 104 darstellt. In einer Ausführungsform kann ein Anwender durch Berührungseingabe mit dem einen oder den mehreren graphischen Elementen 110 interagieren. In verschiedenen Umgebungen kann ein Anwender das eine oder die mehreren graphischen Elemente 110 unter Verwendung einer Berührungseingabe zum Beispiel auswählen, ausführen, hervorheben, auslösen, öffnen, ansehen oder auf andere Weise damit interagieren.
  • In der dargestellten Ausführungsform unterstützt der Zeiger 112 den Anwender bei der Handhabung des einen oder der mehreren graphischen Elemente 110. In einer Ausführungsform stellt der Bildschirm 104 den Zeiger 112 visuell dar. In einer weiteren Ausführungsform kann es sein, dass der Zeiger 112 nicht angezeigt wird, kann aber ein logisches Konstrukt sein, das eine durch einen Anwender angegebene Position auf dem Bildschirm 104 repräsentiert. In einer Ausführungsform kann der Zeiger 112 graphisch durch einen Pfeil, eine senkrechte Linie oder einen Cursor oder ein anderes zeigerähnliches Piktogramm repräsentiert werden.
  • In der dargestellten Ausführungsform stellt der Bildschirm 104 das virtuelle Touchpad 114 dar. In einer weiteren Ausführungsform kann das virtuelle Touchpad 114 auf einem anderen berührungsempfindlichen Bereich als dem Bildschirm 104 angeordnet sein. Das virtuelle Touchpad 114 legt in einer Ausführungsform einen Touchpad-Bereich auf dem Bildschirm 104 oder einem anderen berührungsempfindlichen Bereich fest, der eine Berührungseingabe von einem Anwender entgegennimmt, um es dem Anwender zu ermöglichen, mit dem Zeiger 112, dem einen oder den mehreren graphischen Elementen 110 und/oder anderen Objekten auf dem Bildschirm 104 zu interagieren. Das virtuelle Touchpad 114 kann eine Berührungseingabe von einem Anwender derart skalieren oder vergrößern, dass ein Anwender den Zeiger 112 bewegen kann, um mit dem gesamten Bildschirm 104 zu interagieren, während er nur einen durch das virtuelle Touchpad 114 festgelegten Bereich berührt. In einer Ausführungsform ist das virtuelle Touchpad 114 auf dem Bildschirm 104 innerhalb der Reichweite 122 des Daumens 108 angeordnet, derart dass ein Anwender das gesamte virtuelle Touchpad 114 mit dem Daumen 108 der einzelnen Hand 106 erreichen kann, während er die Berührungsanordnung 102 in der einzelnen Hand 106 hält.
  • Die Berührungsanordnung 102 beinhaltet in einer Ausführungsform ein Modul für das virtuelle Touchpad, das das virtuelle Touchpad 114 steuert. Das Modul für das virtuelle Touchpad wird mit Bezug auf die 2 und 3 in größerem Detail beschrieben. Im Allgemeinen empfängt das Modul für das virtuelle Touchpad eine Aufforderung über das virtuelle Touchpad von einem Anwender, wählt eine dynamische Position für das virtuelle Touchpad 114 relativ zu der Berührungsanordnung 102 aus, positioniert das virtuelle Touchpad 114 an der dynamischen Position, positioniert als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad 114 den Zeiger 112 auf dem Bildschirm 104, und entfernt das virtuelle Touchpad 114 als Reaktion auf einen Beendenvorgang von der Position. Die Position ist in einer Ausführungsform eine Position auf einem berührungsempfindlichen Bereich des Bildschirms 104 und/oder der Berührungsanordnung 102. In einer Ausführungsform wählt die Berührungsanordnung 102 die Position des virtuellen Touchpads 114 basierend auf einer räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung 102 aus, zum Beispiel einer Position eines Daumens 108 eines Anwenders, einer Position einer vorgegebenen Berührungsgeste von einem Anwender, einer Position der zuletzt durchgeführten Berührungseingabe von einem Anwender oder ähnlichem.
  • In der dargestellten Ausführungsform stellt das virtuelle Touchpad 114 eine skalierte Kopie des Bildschirms 104 dar, die das eine oder die mehreren skalierten graphischen Elemente 116 und den skalierten Zeiger 118 beinhaltet. In einer weiteren Ausführungsform kann das virtuelle Touchpad 114 eine skalierte Kopie oder Visualisierung eines Teils des Bildschirms 104 zusammen mit einem Teil des einen oder der mehreren skalierten graphischen Elemente 116 und/oder dem skalierten Zeiger 118 darstellen. Das eine oder die mehreren skalierten graphischen Elemente 116 entsprechen in einer Ausführungsform dem einen oder den mehreren graphischen Elementen 110 und der skalierte Zeiger 118 entspricht dem Zeiger 112. Durch Darstellen einer skalierten Version des Bildschirms 104 oder eines Teils des Bildschirms 104 unterstützt das virtuelle Touchpad 114 den Anwender beim Navigieren in und Interagieren mit dem Bildschirm 104.
  • In der dargestellten Ausführungsform beinhaltet die Berührungsanordnung 102 das eine oder die mehreren Hardwareeingabeelemente 120. Das eine oder die mehreren Hardwareeingabeelemente 120 sind in einer Ausführungsform Zusatzeingabeelemente für den berührungsempfindlichen Bereich der Berührungsanordnung 102. In einer weiteren Ausführungsform kann die Berührungsanordnung 102 das eine oder die mehreren Hardwareeingabeelemente nicht beinhalten. Die Hardwareeingabeelemente 120 können in einer Ausführungsform Taster, Schalter, Drehregler, Knöpfe, Umschalter, Schalter, und/oder andere Arten von Hardwareeingabeelementen beinhalten.
  • In einer Ausführungsform empfängt eine Hardwareeingabeanordnung 120 eine Aufforderung von einem Anwender zur Verwendung des virtuellen Touchpads 114. Ein Anwender kann zum Beispiel eine bestimmte Hardwareeingabeanordnung 210 drücken, drehen, schieben oder auf andere Weise mit dieser interagieren, um eine Verwendung des virtuellen Touchpads 114 von der Berührungsanordnung 102 anzufordern. In einer weiteren Ausführungsform kann ein Anwender eine Verwendung des virtuellen Touchpads 114 unter Verwendung eines berührungsempfindlichen Bereichs des Bildschirms 104 und/oder der Berührungsanordnung 102 anfordern. Anwenderaufforderungen zur Verwendung des virtuellen Touchpads werden in größerem Detail mit Bezug auf die 2 und 3 beschrieben.
  • 2 stellt eine Ausführungsform eines virtuellen Touchpadmoduls 200 dar. In einer Ausführungsform handhabt das Modul für das virtuelle Touchpad 200 das virtuelle Touchpad 114 für die Berührungsanordnung 102. In der dargestellten Ausführungsform beinhaltet das Modul für das virtuelle Touchpad 200 ein Initialisierungsmodul 202, ein Lokalisierungsmodul 204, ein Positionierungsmodul 206, ein Berührungseingabemodul 208 und ein Beendenmodul 210.
  • In einer Ausführungsform empfängt das Initialisierungsmodul 202 eine Aufforderung über das virtuelle Touchpad von einem Anwender, der eine Verwendung des virtuellen Touchpads 114 als an Eingabeschnittstelle für die Berührungsanordnung 102 anfordert. Die Aufforderung über das virtuelle Touchpad kann in einer Ausführungsform eine vorgegebene Berührungsgeste sein, die der Anwender auf einem berührungsempfindlichen Bereich des Bildschirms 104 und/oder einem anderen Bereich der Berührungsanordnung 102 ausführt. Eine Berührungsgeste die der Anwender ausführt kann zum Beispiel ein vorgegebenes Muster, eine vorgegeben Form, Bewegung oder ähnliches beinhalten. In einer weiteren Ausführungsform kann ein bestimmter Bereich oder ein bestimmte Position für eine Berührungsgeste zugeordnet werden, die auf eine Aufforderung über das virtuelle Touchpad hinweist.
  • In einer Ausführungsform kann ein Anwender zum Beispiel durch Wischen von einem Rand des Bildschirms 104 in Richtung der Mitte des Bildschirms 104 eine Aufforderung über das virtuelle Touchpad durchführen. In einer weiteren Ausführungsform kann die Aufforderung über das virtuelle Touchpad eine Eingabe durch einen Anwender unter Verwendung eines der Hardwareeingabeelemente 120, eines Sprachbefehls von einem Anwender, einer vorgegebenen Beschleunigungsaufnehmereingabe oder einer anderen Art von Eingabe von einem Anwender beinhalten. In einer weiteren Ausführungsform kann das Initialisierungsmodul 202 eine Verwendung des Daumens 108 als eine Aufforderung über das virtuelle Touchpad von dem Anwender erkennen. In einer Ausführungsform kann das Initialisierungsmodul 202 zum Beispiel zwischen der Größe des Daumens 108 und anderen Fingern derart unterscheiden, dass ein Anwender eine Verwendung des virtuellen Touchpads 114 durch Berühren des Bildschirms 104 oder eines anderen berührungsempfindlichen Bereichs mit dem Daumen 108 anfordern kann.
  • In einer Ausführungsform wählt das Lokalisierungsmodul 204 eine Position für das virtuelle Touchpad 114 relativ zu der Berührungsanordnung 102 aus. Das Lokalisierungsmodul 204 kann die Position auswählen als Reaktion darauf, dass das Initialisierungsmodul 202 die Aufforderung über das virtuelle Touchpad erhält. In einer weiteren Ausführungsform erfasst das Lokalisierungsmodul 204 eine räumliche Beziehung zwischen einem Anwender und der Berührungsanordnung 102. Die Position, die das Lokalisierungsmodul 204 in einer Ausführungsform auswählt, basiert auf einer erfassten räumlichen Beziehung zwischen der Berührungsanordnung 102 und dem Anwender. Die räumliche Beziehung kann eine Position der Hand 106 und/oder des Daumens 108 relativ zu der Berührungsanordnung 102, eine Orientierung der Berührungsanordnung 102, eine Position der Berührungseingabe, eine Position einer bestimmten Berührungsgeste oder ähnliches beinhalten.
  • In einer Ausführungsform beinhaltet die Aufforderung über das virtuelle Touchpad eine Berührungsgeste, die der Anwender ausführt, und die räumliche Beziehung zwischen der Berührungsanordnung 102 und dem Anwender basiert auf einer Position, an der der Anwender die Berührungsgeste ausführt. In einer weiteren Ausführungsform basieren die räumliche Beziehung und die Position auf einer zuletzt ausgeführten Berührungseingabe, einer Historie oder einem Muster von mehreren Berührungseingaben, einer zuletzt durch den Daumen 108 berührten Position oder ähnlichem. Das Lokalisierungsmodul 204 erfasst die räumliche Beziehung in einer weiteren Ausführungsform unter Verwendung eine Annäherungssensors, eines Beschleunigungsmessers oder einer anderen Art von Sensor.
  • In einer Ausführungsform ist die Position innerhalb der Reichweite 122 des Daumens 108, um eine einhändige Transaktion durch einen Anwender zu ermöglichen. Die Position befindet sich in einer Ausführungsform auf einem berührungsempfindlichen Bereich des Bildschirms 104. In einer weiteren Ausführungsform befindet sich die Position auf einem berührungsempfindlichen Bereich entlang einer Blende des Bildschirms 104, entlang einer Kante der Berührungsanordnung 102, angrenzend an den Bildschirm 104, auf einem sekundären Bildschirm, auf einer Rückseite der Berührungsanordnung 102 oder sonst wo auf der Berührungsanordnung 102.
  • In einer Ausführungsform positioniert das Positionierungsmodul 206 das virtuelle Touchpad 114 an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereichs der Berührungsanordnung 102. In einer weiteren Ausführungsform wählt das Lokalisierungsmodul 204 die dynamische Position basierend auf der räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung 102 aus. Das Positionierungsmodul 206 positioniert das virtuelle Touchpad 114 in einer Ausführungsform derart, dass das virtuelle Touchpad 114 einen Touchpad-Bereich an der Position festlegt. Der Touchpad-Bereich ist ein Bereich des virtuellen Touchpads 114, für den die Anordnung 100 eine Berührungseingabe als eine Touchpad-Eingabe verarbeitet.
  • In einer Ausführungsform stellt das Positionierungsmodul 206 das virtuelle Touchpad 114 an der Position visuell dar. In einer Ausführungsform kann das Positionierungsmodul 206 zum Beispiel eine Umrandung, eine farbige oder mit Schatten versehene Form, eine skalierte Visualisierung des Bildschirms 104 oder einen anderen visuellen Hinweis darstellen, der das virtuelle Touchpad 114 derart repräsentiert, dass der Touchpad-Bereich des virtuellen Touchpads 114 für einen Anwender visuell offensichtlich ist.
  • In einer Ausführungsform verarbeitet das Berührungseingabemodul 208 eine Berührungseingabe von einem Anwender innerhalb des Touchpad-Bereiches des virtuellen Touchpads 114 als eine Touchpad-Eingabe, und das Positionieren des Zeigers 112 auf dem Bildschirm 104 als Reaktion auf die Berührungseingabe. Das Berührungseingabemodul 208 verarbeitet in einer Ausführungsform die Berührungseingabe, um eine Eingabeschnittstelle für die Berührungsanordnung 102 zur Verfügung zu stellen. Das Berührungseingabemodul 208 kann in einer Ausführungsform eine Berührungsbewegung innerhalb des Touchpad-Bereiches des virtuellen Touchpads 114 skalieren, um den Zeiger 112 über den Bildschirm 104 oder einen Teil des Bildschirms 104 zu bewegen, wodurch es dem Anwender ermöglicht wird, unter Verwendung des virtuellen Touchpads 114 mit dem einen oder den mehreren graphischen Elementen 110 zu interagieren. In einer weiteren Ausführungsform kann der Touchpad-Bereich des virtuellen Touchpads 114 eine Berührungseingabe für einen Teil des Bildschirms 104 entgegennehmen, und ein Anwender kann durch Berühren eines Randes des virtuellen Touchpads 114 oder ähnlichem den Teil des Bildschirms 104 ändern oder verschieben. In einer weiteren Ausführungsform kann das Berührungseingabemodul 208 die Größenordnung der Skalierung oder Vergrößerung basierend auf einer Bewegungsgeschwindigkeit der Berührungseingabe, basierend auf Bevorzugungen des Anwenders oder basierend auf anderen Faktoren variieren. Die Skalierung und Vergrößerung der Berührungseingabe, die das Berührungseingabemodul 208 entgegennimmt, werden in Bezug auf das Vergrößerungsmodul 302 nach 3 in größerem Detail beschrieben.
  • In einer Ausführungsform entfernt das Beendenmodul 210 als Reaktion auf einen Beendenvorgang das virtuelle Touchpad 114 von der Position. Der Beendenvorgang kann in einer Ausführungsform das Ablaufen einer Wartezeitdauer, eine Eingabe von einem Anwender oder ähnliches beinhalten. In einer Ausführungsform kann das Beendenmodul 210 zum Beispiel das virtuelle Touchpad 114 als Reaktion auf das Ablaufen einer Wartezeitdauer ohne eine Anwendereingabe entfernen, als Reaktion darauf, dass ein Anwender einen Beendenhinweis wie zum Beispiel ein ”x” berührt, als Reaktion auf eine vorgegebene Berührungsgeste oder als Reaktion auf einen anderen Beendenvorgang. In einer Ausführungsform ist die vorgegebene Berührungsgeste um das virtuelle Touchpad 114 zu schließen die gleiche Berührungsgeste, die auf eine Aufforderung über das virtuelle Touchpad hinweist.
  • Das Beendenmodul 210 entfernt das virtuelle Touchpad 114 in einer Ausführungsform durch Zusammenklappen des virtuellen Touchpads 114 an einen Außenrand des Bildschirms 104 oder ähnliches von der Position. In einer weiteren Ausführungsform kann das Beendenmodul 210 einen Hinweis auf ein geschlossenes Touchpad darstellen, wie zum Beispiel einen Balken, ein Piktogramm oder einen anderen Hinweis entlang eines Außenrandbereichs des Bildschirms 104, um einen Anwender darauf hinzuweisen, dass das virtuelle Touchpad 114 an den Außenrand zusammengeklappt ist. Auf ähnliche Weise kann die Aufforderung über das virtuelle Touchpad, die das Initialisierungsmodul 202 empfängt, in einer Ausführungsform eine ziehende Geste von einem Außenrandbereich des Bildschirms 104 beinhalten. In einer Ausführungsform kann ein Anwender den Hinweis auf ein geschlossenes Touchpad zum Beispiel als eine Aufforderung über das virtuelle Touchpad von dem Außenrandbereich des Bildschirms 104 ziehen.
  • 3 stellt eine weitere Ausführungsform des virtuellen Touchpadmoduls 200 dar. In der dargestellten Ausführungsform beinhaltet das Modul für das virtuelle Touchpad 200 das Initialisierungsmodul 202, das Lokalisierungsmodul 204, das Positionierungsmodul 206, das Berührungseingabemodul 208 und das Beendenmodul 210 und beinhaltet weiterhin ein Vergrößerungsmodul 302, ein Visualisierungsmodul 304, ein Repositionierungsmodul 306 und ein Erscheinungsbildmodul 308.
  • In der dargestellten Ausführungsform beinhaltet das Positionierungsmodul 206 ein Überlagerungsmodul 310 und ein Größenänderungsmodul 312. Das Positionierungsmodul 206 positioniert das virtuelle Touchpad 114 in einer Ausführungsform unter Verwendung des Überlagerungsmoduls 310 und/oder des Größenänderungsmoduls 312 an der dynamischen Position. In einer Ausführungsform wählt das Positionierungsmodul 206 basierend auf einer Eingabe von einem Anwender eines aus dem Überlagerungsmodul 310 und dem Größenänderungsmodul 312 aus. In einer weiteren Ausführungsform schaltet das Positionierungsmodul 206 zwischen der Verwendung des Überlagerungsmoduls 310 und des Größenänderungsmoduls 312 hin und her oder wechselt zwischen diesen.
  • In einer Ausführungsform positioniert das Überlagerungsmodul 310 das virtuelle Touchpad 114 an der Position durch Überlagerung des virtuellen Touchpads 114 über einen gegenwärtig dargestellten Bereich des Bildschirms 104. Das Überlagerungsmodul 310 kann in einer Ausführungsform das virtuelle Touchpad 114 transparent überlagern, derart dass der gegenwärtig dargestellte Bereich des Bildschirms 104 zumindest teilweise durch das virtuelle Touchpad 114 sichtbar ist. In einer weiteren Ausführungsform kann das Überlagerungsmodul 310 das virtuelle Touchpad 114 undurchsichtig überlagern, derart dass der gegenwärtig dargestellte Bereich des Bildschirms 104 nicht durch das virtuelle Touchpad 114 sichtbar ist.
  • In einer Ausführungsform positioniert das Größenänderungsmodul 312 das virtuelle Touchpad 114 an der Position durch Ändern eines Darstellungsbereichs des Bildschirms 104 in der Größe entfernt von der Position des virtuellen Touchpads 114. Der Darstellungsbereich und der Touchpad-Bereich sind in einer Ausführungsform getrennt von einander und ermöglichen es einem Anwender sowohl den Darstellungsbereich als auch den Touchpad-Bereich gleichzeitig zu sehen. Das Größenänderungsmodul 312 ändert in einer Ausführungsform den Darstellungsbereich des Bildschirms 104 in der Größe durch Verkleinern des Darstellungsbereichs, Verändern des Bildformats des Darstellungsbereichs, um einen Platz für das virtuelle Touchpad 114 angrenzend zu dem Darstellungsbereich zu erzeugen.
  • In einer Ausführungsform skaliert oder vergrößert das Vergrößerungsmodul 302 die Berührungseingabe des Anwenders. In einer weiteren Ausführungsform skaliert oder vergrößert das Vergrößerungsmodul 302 die Berührungseingabe basierend auf einem Größenverhältnis zwischen dem virtuellen Touchpad 114 und zumindest einem Teil des Bildschirms 104. Das virtuelle Touchpad 114 beinhaltet in einer Ausführungsform eine Untermenge eines berührungsempfindlichen Bereichs der Berührungsanordnung 102, und das Vergrößerungsmodul 302 skaliert die Berührungseingabe von dem virtuellen Touchpad auf den gesamten berührungsempfindlichen Bereich und/oder den Bildschirm 104. Die Größenordnung der Skalierung oder Vergrößerung basiert in einer Ausführungsform auf einer Eingabe von einem Anwender, wie zum Beispiel einer durch den Anwender auswählbaren Bevorzugung, Einstellung oder ähnlichem. In einer Ausführungsform ist der Teil des Bildschirms 104, für den das virtuelle Touchpad 114 ein Eingabe entgegennimmt, dynamisch und ändert sich basierend auf einer Anwendereingabe, wie zum Beispiel wenn der Anwender einen Rand des virtuellen Touchpads 114 oder ähnliches berührt.
  • In einer Ausführungsform stellt das Visualisierungsmodul 304 eine skalierte Kopie oder Visualisierung von zumindest einem Teil des Bildschirms 104 in dem Touchpad-Bereich des virtuellen Touchpads 114 dar. Der Teil des Bildschirms, den das Visualisierungsmodul 304 darstellt, entspricht in einer Ausführungsform einem Bereich für den das virtuelle Touchpad 114 eine Eingabe empfängt. Wie oben beschrieben kann der Teil des Bildschirms 104 den gesamten Bildschirm 104 oder weniger als den gesamten Bildschirm 104 beinhalten, und kann dynamisch sein und sich basierend auf einer Anwendereingabe ändern.
  • In einer Ausführungsform ist der Teil des Bildschirms 104, den das Visualisierungsmodul 304 darstellt, variabel und ändert sich basierend auf dem Bereich des Bildschirms 104, für den das virtuelle Touchpad 114 eine Eingabe empfängt. Wenn ein Anwender zum Beispiel einen Rand des virtuellen Touchpads 114 berührt oder sich diesem nähert, kann die skalierte Visualisierung in einer Ausführungsform in die Richtung der Kante schwenken, während sich der Bereich des Bildschirms 104, für den das virtuelle Touchpad 114 eine Eingabe empfängt, ebenfalls in die Richtung der Kante verschiebt. In einer Ausführungsform animiert das Visualisierungsmodul 304 für eine Kontinuität des Teils des Bildschirms 104 die skalierte Kopie dynamisch oder frischt diese dynamisch auf. Wie oben beschrieben kann die skalierte Kopie oder Visualisierung das eine oder die mehreren skalierten graphischen Elemente 116, den skalierten Zeiger 118 und/oder andere Elemente beinhalten, die der Bildschirm 104 darstellt.
  • In einer Ausführungsform verschiebt das Repositionierungsmodul 306 die Position des virtuellen Touchpads 114 relativ zu der Berührungsanordnung 102. Das Repositionierungsmodul 306 verschiebt die Position für das virtuelle Touchpad 114 in einer Ausführungsform dynamisch. Das Repositionierungsmodul 306 verschiebt in einer Ausführungsform als Reaktion auf eine Eingabe von einem Anwender, eine Änderung in der Orientierung der Berührungsanordnung 102, eine erfasste Änderung in der räumlichen Beziehung zwischen der Berührungsanordnung 102 und einem Anwender oder ein anderes Ereignis die Position des virtuellen Touchpads 114 dynamisch.
  • In verschiedenen Ausführungsformen kann das Repositionierungsmodul 306 das virtuelle Touchpad 114 zum Beispiel als Reaktion darauf verschieben, dass sich ein Bereich der Berührungseingabe von einem Anwender verändert, ein Anwender die Berührungsanordnung 102 dreht, ein Anwender eine Berührungsgeste ausführt, die zu einer Aufforderung über das virtuelle Touchpad an einer anderen Position zugehörig ist, oder ähnliches. Durch dynamisches Ändern der Position des virtuellen Touchpads 114 positioniert das Repositionierungsmodul 306 das virtuelle Touchpad 114 an einer für einen Anwender zweckmäßigen Position, sogar dann, wenn der Anwender die Orientierung oder die Position der Berührungsanordnung 102 verändert.
  • In einer Ausführungsform bestimmt das Erscheinungsbildmodul 308 das visuelle Erscheinungsbild des virtuellen Touchpads 114 basierend auf gespeicherten Bevorzugungen eines Anwenders. Das Erscheinungsbildmodul 308 ermöglicht es einem Anwender in einer Ausführungsform das visuelle Erscheinungsbild des virtuellen Touchpads 114 durch Bereitstellen von durch den Anwender auswählbaren Einstellungen und Speichern angegebener, von einem Anwender empfangener Bevorzugungen, anzupassen. In einer weiteren Ausführungsform speichert das Erscheinungsbildmodul 308 eine oder mehrere Voreinstellungsbevorzugungen oder visuelle Profile, die durch einen Anwender auswählbar sind. In der dargestellten Ausführungsform beinhaltet das Erscheinungsbildmodul 308 ein Größenmodul 314, ein Transparenzmodul 316 und ein Farbmodul 318.
  • Das Größenmodul 314 bestimmt in einer Ausführungsform eine Größe des virtuellen Touchpads 114 basierend auf einer gespeicherten Bevorzugung eines Anwenders. Das Größenmodul 314 kann in einer weiteren Ausführungsform andere mit der Größe in Beziehung stehende visuelle Aspekte des virtuellen Touchpads 114 festlegen, wie zum Beispiel eine Form, ein Seitenverhältnis und ähnliches. In einer weiteren Ausführungsform bestimmt das Größenmodul 314 die Größe des virtuellen Touchpads 114 automatisch basierend auf der Reichweite 122 des Daumens 108, die das Größenmodul 314 basierend auf vorherigen Berührungseingaben von dem Daumen 108 festlegen kann.
  • Das Transparenzmodul 316 legt in einer Ausführungsform eine visuelle Transparenz des virtuellen Touchpads 114 basierend auf einer gespeicherten Bevorzugung eines Anwenders fest. In einer weiteren Ausführungsform ermöglicht das Transparenzmodul 316 einem Anwender, die visuelle Transparenz aus einer Skala zwischen vollständig transparent und vollständig undurchsichtig auszuwählen. Indem das virtuelle Touchpad 114 mit einer Transparenz versehen wird, ermöglicht es das Transparenzmodul 316 in einer Ausführungsform einem Anwender das eine oder die mehreren graphischen Elemente 110, den Zeiger 112, ein Hintergrundbild, und/oder andere dargestellte Elemente auf dem Bildschirm 104 zu sehen und mit diesen zu interagieren, sollte das Positionierungsmodul 206 das virtuelle Touchpad 114 über diesen positionieren.
  • Das Farbmodul 318 legt in einer Ausführungsform basierend auf einer gespeicherten Bevorzugung eines Anwenders eine Farbe des virtuellen Touchpads 114 fest. Das Farbmodul 318 kann in einer weiteren Ausführungsform eine Vielzahl von Farben für das virtuelle Touchpad 114 festlegen, wie zum Beispiel eine Umrandungsfarbe, eine Füllfarbe und ähnliches. In einer Ausführungsform ermöglicht es das Erscheinungsbildmodul 308 einem Anwender auszuwählen, ob das Visualisierungsmodul 304 eine skalierte Visualisierung des Bildschirms 104 auf dem virtuellen Touchpad 114 darstellt oder nicht.
  • In einer Ausführungsform weist jedes der Module ein computerlesbares Speichermedium auf, das durch einen Computer verwendbaren Programmcode speichert, der auf einer Computeranordnung ausführbar ist, wie zum Beispiel damit die Berührungsanordnung 102 die beschriebenen Transaktionen ausführt. Die oben beschriebenen Module können in verschiedenen Ausführungsformen mit einer Softwareebene zwischen der Hardware der Berührungsanordnung 102 und einer Betriebsanordnung der Berührungsanordnung 102 integriert werden, derart dass das virtuelle Touchpad 114 als eine virtuelle Eingabeanordnung für die Berührungsanordnung 102 wirkt. In einer Ausführungsform können die Module zum Beispiel Teil eines Betriebssystems der Berührungsanordnung 102, Teil eines Treibers der Anordnung für die Berührungsanordnung 102, ein Plugin für die Berührungsanordnung 102, Teil einer Firmware für die Berührungsanordnung 102 oder ähnliches sein.
  • 4A stellt eine Ausführungsform 400 des virtuellen Touchpads 114 auf dem Bildschirm 104 dar. In der dargestellten Ausführungsform 400 verwendet das Positionierungsmodul 206 das Überlagerungsmodul 310, um das virtuelle Touchpad 114 über einen gegenwärtig dargestellten Bereich des Bildschirms 104 zu überlagern. In der dargestellten Ausführungsform 400 ist ein Hintergrundbild auf dem Bildschirm 104 durch das virtuelle Touchpad 114 sichtbar. In einer weiteren Ausführungsform kann das virtuelle Touchpad 114 nicht transparent sein, und das Hintergrundbild auf dem Bildschirm 104 kann durch das virtuelle Touchpad 114 nicht sichtbar sein.
  • 4B stellt eine weitere Ausführungsform 410 des virtuellen Touchpads 114 auf dem Bildschirm 104 dar. In der dargestellten Ausführungsform 410 nutzt das Positionierungsmodul 206 das Größenänderungsmodul 312, um einen Darstellungsbereich des Bildschirms 104 entfernt von der Position des virtuellen Touchpads 114 in der Größe zu verändern. In der dargestellten Ausführungsform 410 sind der Darstellungsbereich und der Bereich des virtuellen Touchpads 114 getrennt und überlappen sich nicht. Das Größenänderungsmodul 312 verkleinert in der dargestellten Ausführungsform 410 den Darstellungsbereich des Bildschirms 104 vertikal, wodurch unterhalb des Darstellungsbereichs Raum für das virtuelle Touchpad 114 erzeugt wird. In einer weiteren Ausführungsform kann das Größenänderungsmodul 312 den Darstellungsbereich des Bildschirms 104 vertikal, horizontal oder diagonal verkleinern, um ein Seitenverhältnis des Darstellungsbereichs beizubehalten, oder auf eine andere Weise angrenzend zu dem Darstellungsbereich Platz für das virtuelle Touchpad 114 zu schaffen. Das Größenänderungsmodul 312 kann in einer Ausführungsform eine Richtung zum Verkleinern des Darstellungsbereichs basierend auf einer Orientierung der Berührungsanordnung 102, der räumlichen Beziehung zwischen dem Anwender und der Berührungsanordnung 102, einer Bevorzugung des Anwenders oder ähnlichem auswählen.
  • Die folgenden schematischen Flussdiagramme sind im Allgemeinen als logische Flussdiagramme ausgeführt. Als solches sind die dargestellte Reihenfolge und die bezeichneten Schritte bezeichnend für eine Ausführungsform der vorgestellten Verfahren. Andere Schritte und Verfahren des veranschaulichten Verfahrens, die äquivalent sind in der Funktion, Logik oder Wirkung zu einem oder mehreren Schritten, oder Teilen von diesen, können in Betracht gezogen werden.
  • Zusätzlich dazu sind das angewendete Format und die angewendeten Symbole zur Verfügung gestellt, um die logischen Schritte des Verfahrens zu erklären und werden so verstanden, dass sie den Schutzumfang des Verfahrens nicht einschränken. Wenngleich verschiedene Arten von Pfeilen und Arten von Linien in den Flussdiagrammen angewendet werden können, werden diese als den Schutzumfang der entsprechenden Verfahren nicht limitierend verstanden. In der Tat können einige Pfeile oder andere Verbindungselemente verwendet werden, um nur den logischen Fluss des Verfahrens zu bezeichnen. Ein Pfeil kann zum Beispiel eine Warte- oder Überwachungsperiode nicht festgelegter Dauer zwischen einzeln benannten Schritten des dargestellten Verfahrens bezeichnen. Zusätzlich dazu kann die Reihenfolge, in der ein bestimmtes Verfahren auftritt, strikt an der Reihenfolge der entsprechenden gezeigten Schritte festhalten oder nicht.
  • 5 stellt eine Ausführungsform eines Verfahrens 500 zum Bereitstellen eines virtuellen Touchpads 114 für eine Berührungsanordnung 102 dar. Das Verfahren 500 beinhaltet im Wesentlichen die Schritte, um die oben beschriebenen Funktionen in Bezug auf die Transaktion der beschriebenen Vorrichtung und Anordnung nach den 1, 2, und 3 auszuführen. In einer Ausführungsform ist das Verfahren 500 mit einem computerlesbaren Speichermedium realisiert, das durch einen Computer nutzbaren Programmcode auf einer dinghaften Speicheranordnung speichert. Das computerlesbare Speichermedium kann in eine Rechenanordnung integriert sein, wie zum Beispiel die Berührungsanordnung 102, wobei das durch die Rechenanordnung ausgeführte computerlesbare Programm das Verfahren 500 ausführt.
  • In der dargestellten Ausführungsform beginnt das Verfahren 500 und das Initialisierungsmodul 202 empfängt 502 eine Aufforderung über das virtuelle Touchpad von einem Anwender, der eine Verwendung des virtuellen Touchpads 114 als eine Eingabeschnittstelle für die Berührungsanordnung 102 anfordert. Das Lokalisierungsmodul 204 wählt eine dynamische Position für das virtuelle Touchpad 114 innerhalb eines berührungsempfindlichen Bereichs der Berührungsanordnung 102 aus 504. In einer Ausführungsform wählt das Lokalisierungsmodul 204 die dynamische Position für das virtuelle Touchpad 114 basierend auf einer erfassten räumlichen Beziehung zwischen der Berührungsanordnung 102 und einem Anwender aus 504. Das Positionierungsmodul 206 positioniert 506 das virtuelle Touchpad 114 an der Position innerhalb des berührungsempfindlichen Bereichs der Berührungsanordnung. Das Positionierungsmodul 206 kann in einer Ausführungsform 506 das virtuelle Touchpad 114 unter Verwendung des Überlagerungsmoduls 310 oder des Größenänderungsmoduls 312 an der Position platzieren, kann zwischen der Verwendung des Überlagerungsmoduls 310 und des Größenänderungsmoduls 312 hin- und herschalten, oder ähnliches.
  • Das Berührungseingabemodul 208 positioniert 508 als Reaktion auf eine Berührungseingabe von einem Anwender auf dem virtuellen Touchpad 114 den Zeiger 112 auf dem Bildschirm 104. Das Beendenmodul 210 stellt fest 510, ob ein Beendenvorgang aufgetreten ist, wie zum Beispiel ein Ablaufen einer Wartezeitperiode, ein Empfangen einer Beendeneingabe von einem Anwender, oder ähnliches. Wenn das Beendenmodul 210 feststellt 510, dass kein Beendenvorgang aufgetreten ist, fährt das Berührungseingabemodul 208 fort eine Berührungseingabe von dem Anwender auf dem virtuellen Touchpad 114 durch das Positionieren 508 des Zeigers 112 auf dem Bildschirm 104 zu verarbeiten. Wenn das Beendenmodul 210 feststellt 510, dass ein Beendenvorgang aufgetreten ist, entfernt 512 das Beendenmodul 210 das virtuelle Touchpad 114 von der Position und das Verfahren 500 endet.
  • 6 stellt eine weitere Ausführungsform eines Verfahrens 600 zum Bereitstellen eines virtuellen Touchpads 114 für eine Berührungsanordnung 102 dar. Das Verfahren 600 beinhaltet im Wesentlichen die Schritte, um die oben beschriebenen Funktionen in Bezug auf die Transaktion der beschriebenen Vorrichtung und Anordnung nach den 1, 2, und 3 auszuführen. In einer Ausführungsform ist das Verfahren 600 mit einem computerlesbaren Speichermedium realisiert, das durch einen Computer verwendbaren Programmcode auf einer dinghaften Speicheranordnung speichert. Das computerlesbare Speichermedium kann in eine Rechenanordnung integriert sein, wie zum Beispiel die Berührungsanordnung 102, wobei das durch die Rechenanordnung ausgeführte computerlesbare Programm das Verfahren 600 ausführt.
  • In der dargestellten Ausführungsform beginnt das Verfahren 600, und das Initialisierungsmodul 202 empfängt 602 eine Aufforderung über das virtuelle Touchpad von einem Anwender, der eine Verwendung des virtuellen Touchpads 114 als eine Eingabeschnittstelle für die Berührungsanordnung 102 anfordert. Das Lokalisierungsmodul 204 wählt basierend auf einer erfassten räumlichen Beziehung zwischen der Berührungsanordnung 102 und einem Anwender eine Position für das virtuelle Touchpad 114 relativ zu der Berührungsanordnung 102 aus 604. Das Positionierungsmodul 206 positioniert 606 das virtuelle Touchpad 114 an der Position. Das Visualisierungsmodul 304 stellt eine skalierte Visualisierung von zumindest einem Teil des Bildschirms 104 auf dem virtuellen Touchpad 114 dar 608.
  • Das Berührungseingabemodul 208 positioniert 610 als Reaktion auf eine Berührungseingabe von einem Anwender auf dem virtuellen Touchpad 114 den Zeiger 112 auf dem Bildschirm 104. Das Repositionierungsmodul 306 bestimmt 612, ob ein Verschiebeereignis aufgetreten ist, wie zum Beispiel eine erfasste Änderung in der räumlichen Beziehung zu der Berührungsanordnung 102, ein Empfangen einer Verschiebeeingabe von einem Anwender, eine Veränderung in der Orientierung der Berührungsanordnung 102, oder ähnliches. Wenn das Repositionierungsmodul 306 feststellt 612, dass ein Verschiebeereignis aufgetreten ist, kehrt das Verfahren 600 zu dem Positionsauswahlschritt 604 zurück, und das Lokalisierungsmodul 204 wählt eine neue Position für das virtuelle Touchpad 114 aus 604.
  • Wenn das Repositionierungsmodul 306 feststellt 612, dass kein Verschiebeereignis aufgetreten ist, stellt das Beendenmodul 210 fest 614, ob ein Beendenvorgang aufgetreten ist, wie zum Beispiel ein Ablaufen einer Wartezeitperiode, ein Empfangen einer Beendeneingabe von einem Anwender, oder ähnliches. Wenn das Beendenmodul 210 feststellt 614, dass kein Beendenvorgang aufgetreten ist, fährt das Berührungseingabemodul 208 fort, eine Berührungseingabe von dem Anwender auf dem virtuellen Touchpad 114 durch das Positionieren 610 des Zeigers 112 auf dem Bildschirm 104 zu verarbeiten. Wenn das Beendenmodul 210 feststellt 614, dass ein Beendenvorgang aufgetreten ist, entfernt 616 das Beendenmodul 210 das virtuelle Touchpad 114 von der Position, bis das Initialisierungsmodul 202 eine neue Aufforderung über das virtuelle Touchpad von einem Anwender empfängt 602 und das Verfahren 600 fährt fort.
  • Ausführungsformen können in anderen spezifischen Formen ausgeübt werden. Die beschriebenen Ausführungsformen sind unter allen Gesichtspunkten nur als veranschaulichend und nicht als einschränkend zu betrachten. Der Schutzumfang der Erfindung ist daher vielmehr durch die beigefügten Ansprüche bezeichnet, als durch die vorangehende Beschreibung. Alle Abänderungen, die innerhalb des Bedeutungsbereiches und des Bereiches der Äquivalenz der Ansprüche liegen, sollen in ihrem Schutzumfang umfasst sein.

Claims (20)

  1. Vorrichtung, die aufweist: ein Positionierungsmodul, das ein virtuelles Touchpad an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereiche einer Berührungsanordnung positioniert; und ein Berührungseingabemodul, das als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad einen Zeiger auf einem Bildschirm der Berührungsanordnung positioniert.
  2. Vorrichtung nach Anspruch 1, die weiterhin eine Vergrößerungsmodul aufweist, das basierend auf einem Größenverhältnis zwischen dem virtuellen Touchpad und zumindest einem Teil des Bildschirms der Berührungsanordnung eine Bewegung des Zeigers relativ zu der Berührungseingabe auf dem virtuellen Touchpad skaliert, wobei das virtuelle Touchpad eine Untermenge des berührungsempfindlichen Bereichs der Berührungsanordnung aufweist.
  3. Vorrichtung nach Anspruch 1, die weiterhin ein Lokalisierungsmodul aufweist, das eine räumliche Beziehung zwischen einem Anwender und der Berührungsanordnung erfasst, wobei das Lokalisierungsmodul die dynamische Position basierend auf der räumlichen Beziehung auswählt.
  4. Vorrichtung nach Anspruch 3, wobei die räumliche Beziehung eine Position innerhalb des berührungsempfindlichen Bereichs aufweist, an der das Lokalisierungsmodul eine vorgegebene Berührungsgeste erfasst.
  5. Vorrichtung nach Anspruch 3, wobei die räumliche Beziehung eine Position innerhalb des berührungsempfindlichen Bereichs aufweist, an der das Lokalisierungsmodul eine Verwendung eines Daumens des Anwenders zur Berührungseingabe erfasst.
  6. Vorrichtung nach Anspruch 3, wobei die räumliche Beziehung eine Orientierung der Berührungsanordnung aufweist.
  7. Vorrichtung nach Anspruch 1, die weiterhin ein Repositionierungsmodul aufweist, das als Reaktion auf eine erfasste Änderung in einer räumliche Beziehung zwischen der Berührungsanordnung und einem Anwender das virtuelle Touchpad dynamisch an eine andere Position innerhalb des berührungsempfindlichen Bereichs verschiebt.
  8. Vorrichtung nach Anspruch 1, die weiterhin ein Visualisierungsmodul aufweist, das eine skalierte Kopie von zumindest einem Teil des Bildschirms auf dem virtuellen Touchpad darstellt.
  9. Vorrichtung nach Anspruch 8, wobei der Teil des Bildschirms variabel ist und sich basierend auf einem Bereich des Bildschirms, für den das virtuelle Touchpad gegenwärtig Eingabe und Änderungen empfängt, ändert, wobei das Visualisierungsmodul die skalierte Kopie des Teils des Bildschirms dynamisch auffrischt.
  10. Vorrichtung nach Anspruch 1, wobei der Bildschirm der Berührungsanordnung einen Berührungsbildschirm aufweist und das Positionierungsmodul das virtuelle Touchpad über einen gegenwärtig dargestellten Bereich des Bildschirms überlagert.
  11. Vorrichtung nach Anspruch 1, wobei der Bildschirm der Berührungsanordnung einen Berührungsbildschirm aufweist und das Positionierungsmodul einen Darstellungsbereich des Bildschirms entfernt von der Position des virtuellen Touchpads in der Größe derart ändert, dass das virtuelle Touchpad von dem Darstellungsbereich getrennt ist.
  12. Vorrichtung nach Anspruch 1, wobei die Berührungsanordnung eine schiefertafelgroße Berührungsanordnung aufweist die geeignet ist, in einer einzelnen Hand eines Anwenders gehalten zu werden und eine Berührungseingabe von einem Daumen der einzelnen Hand des Anwenders zu empfangen, wobei der berührungsempfindliche Bereich eine Größe aufweist, die größer ist als eine Reichweite des Daumens, wobei das Positionierungsmodul das virtuelle Touchpad innerhalb der Reichweite des Daumens positioniert.
  13. Verfahren, das aufweist: Platzieren eines virtuellen Touchpads an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereiche einer Berührungsanordnung; und Positionieren eines Zeigers auf einem Bildschirm der Berührungsanordnung als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad.
  14. Verfahren nach Anspruch 13, das weiterhin Erfassen einer räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung aufweist, wobei die dynamische Position basierend auf der räumlichen Beziehung gewählt wird.
  15. Verfahren nach Anspruch 13, das weiterhin als Reaktion auf eine erfasste Änderung in einer räumlichen Beziehung zwischen der Berührungsanordnung und einem Anwender dynamisches Verschieben des virtuellen Touchpads an eine andere Position innerhalb des berührungsempfindlichen Bereichs aufweist.
  16. Verfahren nach Anspruch 13, das weiterhin Darstellen einer skalierten Kopie von zumindest einem Teil des Bildschirms auf dem virtuellen Touchpad aufweist.
  17. Verfahren nach Anspruch 13, das weiterhin Ändern der Größe eines Darstellungsbereichs des Bildschirms entfernt von der Position des virtuellen Touchpads derart aufweist, dass das virtuelle Touchpad von dem Darstellungsbereich getrennt ist, wobei der Bildschirm einen Berührungsbildschirm aufweist.
  18. Computerprogrammprodukt, das ein computerlesbares Speichermedium aufweist, das durch einen Computer nutzbaren Programmcode speichert der auf einem Computer ausführbar ist, um Transaktionen auszuführen, wobei die Transaktionen aufweisen: Platzieren eines virtuellen Touchpads an einer dynamischen Position innerhalb eines berührungsempfindlichen Bereiche einer Berührungsanordnung; und Positionieren eines Zeigers auf einem Bildschirm der Berührungsanordnung als Reaktion auf eine Berührungseingabe auf dem virtuellen Touchpad.
  19. Computerprogrammprodukt nach Anspruch 18, das weiterhin Erfassen einer räumlichen Beziehung zwischen einem Anwender und der Berührungsanordnung aufweist, wobei die dynamische Position basierend auf der räumlichen Beziehung ausgewählt wird.
  20. Computerprogrammprodukt nach Anspruch 18, das als Reaktion auf eine erfasste Änderung in einer räumlichen Beziehung zwischen der Berührungsanordnung und einem Anwender weiterhin dynamisches Verschieben des virtuellen Touchpads an eine andere Position innerhalb des berührungsempfindlichen Bereichs aufweist.
DE102010060975A 2010-01-13 2010-12-02 Virtuelles Touchpad für eine Berührungsanordnung Pending DE102010060975A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/686,823 2010-01-13
US12/686,823 US9542097B2 (en) 2010-01-13 2010-01-13 Virtual touchpad for a touch device

Publications (1)

Publication Number Publication Date
DE102010060975A1 true DE102010060975A1 (de) 2013-01-17

Family

ID=44258162

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010060975A Pending DE102010060975A1 (de) 2010-01-13 2010-12-02 Virtuelles Touchpad für eine Berührungsanordnung

Country Status (3)

Country Link
US (1) US9542097B2 (de)
CN (1) CN102129312A (de)
DE (1) DE102010060975A1 (de)

Families Citing this family (142)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US8261213B2 (en) 2010-01-28 2012-09-04 Microsoft Corporation Brush, carbon-copy, and fill gestures
US9411504B2 (en) 2010-01-28 2016-08-09 Microsoft Technology Licensing, Llc Copy and staple gestures
US9519356B2 (en) 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9965165B2 (en) 2010-02-19 2018-05-08 Microsoft Technology Licensing, Llc Multi-finger gestures
US9367205B2 (en) 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
US9454304B2 (en) 2010-02-25 2016-09-27 Microsoft Technology Licensing, Llc Multi-screen dual tap gesture
TWI529574B (zh) * 2010-05-28 2016-04-11 仁寶電腦工業股份有限公司 電子裝置與其操作方法
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
CN102841723B (zh) * 2011-06-20 2016-08-10 联想(北京)有限公司 便携式终端及其显示切换方法
US8687023B2 (en) * 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
KR20130017241A (ko) * 2011-08-10 2013-02-20 삼성전자주식회사 터치 스크린 단말기에서 입출력 방법 및 장치
JP2013058037A (ja) * 2011-09-07 2013-03-28 Konami Digital Entertainment Co Ltd 項目選択装置、項目選択方法、ならびに、プログラム
KR101763775B1 (ko) * 2011-09-09 2017-08-01 현대모비스 주식회사 Avm시스템 정보와 avn시스템 정보의 표시 방법
EP2722742A4 (de) * 2011-09-13 2015-06-17 Sony Computer Entertainment Inc Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, datenistruktur für inhaltsdatei, gui-platzierungssimulator und verfahren zur unterstützung von gui-platzierungseinstellungen
FR2980004A1 (fr) * 2011-09-14 2013-03-15 Jean-Claude Pastorelli Dispositif de pointage temporaire pour terminal mobile equipe d'un ecran de visualisation tactile principal et d'un ecran de visualisation auxiliaire
CN102508601B (zh) * 2011-10-12 2018-01-16 李锐 控制电子终端中的菜单导航的设备和方法
US8610684B2 (en) 2011-10-14 2013-12-17 Blackberry Limited System and method for controlling an electronic device having a touch-sensitive non-display area
US9658767B2 (en) * 2011-10-17 2017-05-23 Sony Corporation Information processing device
CN103092496B (zh) * 2011-11-02 2016-01-20 腾讯科技(深圳)有限公司 一种控制浏览器的方法、装置及移动设备
US9594504B2 (en) 2011-11-08 2017-03-14 Microsoft Technology Licensing, Llc User interface indirect interaction
KR101972924B1 (ko) * 2011-11-11 2019-08-23 삼성전자주식회사 휴대용 기기에서 부분 영역의 터치를 이용한 전체 영역 지정을 위한 방법 및 장치
US20130127738A1 (en) * 2011-11-23 2013-05-23 Microsoft Corporation Dynamic scaling of touch sensor
CN102520845B (zh) * 2011-11-23 2017-06-16 优视科技有限公司 一种移动终端调出缩略图界面的方法及装置
US9383858B2 (en) 2011-11-23 2016-07-05 Guangzhou Ucweb Computer Technology Co., Ltd Method and device for executing an operation on a mobile device
KR101902404B1 (ko) * 2011-12-30 2018-10-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법, 이를 위한 기록 매체
CN102566929A (zh) * 2011-12-30 2012-07-11 汉王科技股份有限公司 分屏切换方法及装置
KR101973631B1 (ko) * 2012-02-01 2019-04-29 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
CN102609205A (zh) * 2012-02-07 2012-07-25 深圳桑菲消费通信有限公司 一种移动终端屏幕全方位滑动的方法
US8866770B2 (en) 2012-03-19 2014-10-21 Mediatek Inc. Method, device, and computer-readable medium for changing size of touch permissible region of touch screen
CN102662511B (zh) * 2012-03-24 2016-11-16 上海量明科技发展有限公司 通过触摸屏进行控制操作的方法及终端
JP2013218428A (ja) * 2012-04-05 2013-10-24 Sharp Corp 携帯型電子機器
JP5942586B2 (ja) 2012-05-18 2016-06-29 富士通株式会社 タブレット端末および操作受付プログラム
CN103513897B (zh) * 2012-06-18 2019-03-08 联想(北京)有限公司 一种操作电子设备的方法及电子设备
CN103513908B (zh) 2012-06-29 2017-03-29 国际商业机器公司 用于在触摸屏上控制光标的方法和装置
KR20140009713A (ko) * 2012-07-12 2014-01-23 삼성전자주식회사 휴대 단말에 있어 터치입력창의 사이즈를 조절하는 방법 및 장치
CN102830917A (zh) * 2012-08-02 2012-12-19 上海华勤通讯技术有限公司 移动终端及其触控建立方法
CN103576966A (zh) * 2012-08-09 2014-02-12 中兴通讯股份有限公司 一种电子设备及控制所述电子设备的方法及装置
CN107247538B (zh) * 2012-09-17 2020-03-20 华为终端有限公司 触摸操作处理方法及终端设备
CN102855066B (zh) * 2012-09-26 2017-05-17 东莞宇龙通信科技有限公司 终端和终端操控方法
CN102902411A (zh) * 2012-09-26 2013-01-30 苏州佳世达电通有限公司 输入装置及其笔记本电脑
CN103713837A (zh) * 2012-09-29 2014-04-09 联想(北京)有限公司 一种信息处理方法及电子设备
CN102929535B (zh) * 2012-10-09 2018-05-01 中兴通讯股份有限公司 一种悬浮窗位置控制的方法及终端
CN102937873B (zh) * 2012-10-12 2015-09-16 天津三星通信技术研究有限公司 在便携式终端中进行键盘输入的方法和设备
CN103777874A (zh) * 2012-10-17 2014-05-07 中兴通讯股份有限公司 一种终端控制方法及终端
CN102945136B (zh) * 2012-11-09 2016-08-03 东莞宇龙通信科技有限公司 移动终端及其触控操作方法
CN103809888B (zh) * 2012-11-12 2016-12-21 北京三星通信技术研究有限公司 移动终端及其操控方法
US9582122B2 (en) 2012-11-12 2017-02-28 Microsoft Technology Licensing, Llc Touch-sensitive bezel techniques
CN103809794B (zh) * 2012-11-13 2017-11-28 联想(北京)有限公司 一种信息处理方法以及电子设备
CN103309604A (zh) * 2012-11-16 2013-09-18 中兴通讯股份有限公司 一种终端及终端屏幕显示信息控制方法
US20140143688A1 (en) * 2012-11-19 2014-05-22 Microsoft Corporation Enhanced navigation for touch-surface device
CN102929558B (zh) * 2012-11-19 2015-07-08 苏州天平先进数字科技有限公司 用于触屏设备的单手控制装置及方法
CN103024156A (zh) * 2012-11-29 2013-04-03 广东欧珀移动通信有限公司 一种单手操作移动终端的实现方法、系统及移动终端
US20140160029A1 (en) * 2012-12-06 2014-06-12 Jenny Yuen Systems and Methods for a Trackpad Within a Keyboard
CN103019604B (zh) * 2012-12-24 2016-08-03 东莞宇龙通信科技有限公司 终端和终端操控方法
KR20140087731A (ko) 2012-12-31 2014-07-09 엘지전자 주식회사 포터블 디바이스 및 사용자 인터페이스 제어 방법
US20140184503A1 (en) * 2013-01-02 2014-07-03 Samsung Display Co., Ltd. Terminal and method for operating the same
EP2752758A3 (de) * 2013-01-07 2016-10-26 LG Electronics Inc. Bildanzeigevorrichtung und Steuerungsverfahren dafür
FR3001812B1 (fr) * 2013-02-07 2018-08-17 Cyrille Coupez Utilisation, conjointe d'un dispositif et d'un procede, permettant de liberer les articulations des doigts et de relever leurs actions sur un ecran interactif afin d'en optimiser leurs utilisabilites
US9658716B2 (en) * 2013-02-12 2017-05-23 Shenzhen Seefaa Scitech Co., Ltd. Method and device of deactivating portion of touch screen to prevent accidental activation
US8769431B1 (en) * 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
CN103530049B (zh) * 2013-04-15 2017-12-12 Tcl集团股份有限公司 一种带有触摸屏的移动终端单手操作处理方法及系统
US10719224B1 (en) 2013-04-29 2020-07-21 David Graham Boyers Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
US10691291B2 (en) 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
KR102212830B1 (ko) * 2013-05-24 2021-02-08 삼성전자 주식회사 휴대 단말기에서 화면을 표시하는 방법 및 장치
CN103324340B (zh) * 2013-06-05 2017-05-31 广东欧珀移动通信有限公司 基于移动终端的单手操作触摸屏的方法及其移动终端
KR102138505B1 (ko) * 2013-07-10 2020-07-28 엘지전자 주식회사 이동단말기 및 그 제어방법
CN104346085A (zh) * 2013-07-25 2015-02-11 北京三星通信技术研究有限公司 一种对控件对象的操作方法、装置及终端设备
CN103488419B (zh) * 2013-08-26 2017-09-08 宇龙计算机通信科技(深圳)有限公司 通信终端的操作方法及通信终端
US9377925B2 (en) * 2013-08-30 2016-06-28 Citrix Systems, Inc. GUI window with portal region for interacting with hidden interface elements
EP3046020A4 (de) * 2013-09-11 2017-04-26 Yulong Computer Telecommunication Scientific (Shenzhen) Co. Ltd. Anzeigeverfahren für einen berührungsbildschirm und endgerät
KR102009279B1 (ko) * 2013-09-13 2019-08-09 엘지전자 주식회사 이동 단말기
CN103543913A (zh) * 2013-10-25 2014-01-29 小米科技有限责任公司 一种终端设备操作方法、装置和终端设备
CN103763427B (zh) * 2013-10-29 2016-08-17 小米科技有限责任公司 手持设备、单手控制方法和控制器
JP2015099526A (ja) * 2013-11-20 2015-05-28 富士通株式会社 情報処理装置および情報処理プログラム
CN103616972B (zh) * 2013-11-28 2017-02-22 华为终端有限公司 触控屏控制方法及终端设备
JP6031080B2 (ja) * 2013-11-29 2016-11-24 株式会社 ハイディープHiDeep Inc. 仮想タッチパッド操作方法及びこれを行う端末機
CN104380238A (zh) * 2013-12-03 2015-02-25 华为技术有限公司 一种处理方法、装置及终端
US20150160849A1 (en) * 2013-12-06 2015-06-11 Microsoft Corporation Bezel Gesture Techniques
US20150212610A1 (en) * 2014-01-30 2015-07-30 Samsung Display Co., Ltd. Touch-in-touch display apparatus
CN104915132A (zh) * 2014-03-12 2015-09-16 联想(北京)有限公司 信息处理方法和设备
US9477337B2 (en) 2014-03-14 2016-10-25 Microsoft Technology Licensing, Llc Conductive trace routing for display and bezel sensors
KR20150107528A (ko) * 2014-03-14 2015-09-23 삼성전자주식회사 사용자 인터페이스를 제공하는 방법과 전자 장치
US9753569B2 (en) * 2014-03-25 2017-09-05 Intel Corporation Switchable input modes for external display operation
CN103914260B (zh) * 2014-03-31 2021-03-23 苏州浩辰软件股份有限公司 基于触摸屏的操作对象的控制方法及装置
US20170199662A1 (en) * 2014-05-26 2017-07-13 Huawei Technologies Co., Ltd. Touch operation method and apparatus for terminal
CN105224161A (zh) * 2014-06-03 2016-01-06 中兴通讯股份有限公司 一种控制终端屏幕的方法及终端
CN104111774A (zh) * 2014-06-16 2014-10-22 联想(北京)有限公司 一种信息处理的方法及电子设备
US10671275B2 (en) * 2014-09-04 2020-06-02 Apple Inc. User interfaces for improving single-handed operation of devices
CN104267871A (zh) * 2014-09-10 2015-01-07 百度在线网络技术(北京)有限公司 一种页面呈现的方法与装置
CN104536556B (zh) * 2014-09-15 2021-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
WO2016053901A1 (en) 2014-09-30 2016-04-07 Apple Inc Configurable force-sensitive input structures for electronic devices
US11079895B2 (en) 2014-10-15 2021-08-03 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
KR102160105B1 (ko) * 2014-10-15 2020-09-25 삼성전자주식회사 사용자 인터페이스를 제공하는 방법 및 장치
CN104317483A (zh) * 2014-10-22 2015-01-28 成都西可科技有限公司 一种移动终端屏幕上的光标位置控制及操作方法
KR102390647B1 (ko) * 2014-11-25 2022-04-26 삼성전자주식회사 전자장치 및 전자장치의 객체 제어 방법
CN105278853A (zh) * 2014-12-16 2016-01-27 维沃移动通信有限公司 一种移动终端的操控方法及移动终端
CN105320424B (zh) * 2014-12-16 2019-01-29 维沃移动通信有限公司 一种移动终端的控制方法及移动终端
US9898126B2 (en) 2015-03-31 2018-02-20 Toshiba Global Commerce Solutions Holdings Corporation User defined active zones for touch screen displays on hand held device
KR20160117098A (ko) * 2015-03-31 2016-10-10 삼성전자주식회사 전자 장치 및 그 디스플레이 방법
CN104808905A (zh) * 2015-05-15 2015-07-29 京东方科技集团股份有限公司 一种显示处理方法、装置及电子设备
CN106371688B (zh) * 2015-07-22 2019-10-01 小米科技有限责任公司 全屏幕单手操作方法及装置
US10168895B2 (en) * 2015-08-04 2019-01-01 International Business Machines Corporation Input control on a touch-sensitive surface
TWI628569B (zh) 2015-09-30 2018-07-01 蘋果公司 具有適應性輸入列之鍵盤
US10409412B1 (en) 2015-09-30 2019-09-10 Apple Inc. Multi-input element for electronic device
CN105549871B (zh) * 2015-10-23 2019-03-22 东莞酷派软件技术有限公司 一种界面区域调节方法及装置
JP6147830B2 (ja) * 2015-10-28 2017-06-14 京セラ株式会社 携帯電子機器および携帯電子機器の表示方法
CN105872702A (zh) * 2015-12-09 2016-08-17 乐视网信息技术(北京)股份有限公司 一种虚拟键盘的显示方法及装置
KR20170077670A (ko) * 2015-12-28 2017-07-06 삼성전자주식회사 컨텐츠를 제어하기 위한 방법 및 그 전자 장치
CN105739700B (zh) * 2016-01-29 2019-01-04 珠海市魅族通讯设备有限公司 一种打开通知的方法及装置
US10180755B2 (en) 2016-02-29 2019-01-15 Apple Inc. Electronic device with dynamic thresholding for force detection
EP3362884A4 (de) * 2016-03-03 2019-06-26 Hewlett-Packard Development Company, L.P. Eingabeachsenrotationen
US10042550B2 (en) * 2016-03-28 2018-08-07 International Business Machines Corporation Displaying virtual target window on mobile device based on directional gesture
US10091344B2 (en) 2016-03-28 2018-10-02 International Business Machines Corporation Displaying virtual target window on mobile device based on user intent
CN105892918A (zh) * 2016-03-31 2016-08-24 维沃移动通信有限公司 一种具有触摸屏的移动终端及其控制方法
CN106250033A (zh) * 2016-07-15 2016-12-21 宇龙计算机通信科技(深圳)有限公司 移动终端操作方法及装置、移动终端
US10318065B2 (en) 2016-08-03 2019-06-11 Apple Inc. Input device having a dimensionally configurable input area
US10871860B1 (en) 2016-09-19 2020-12-22 Apple Inc. Flexible sensor configured to detect user inputs
CN106598382A (zh) * 2016-11-17 2017-04-26 北京奇虎科技有限公司 一种图标整理方法、装置及移动终端
SE542090C2 (en) 2017-05-31 2020-02-25 Izettle Merchant Services Ab Touch input device and method
CN107291235B (zh) * 2017-06-22 2021-09-21 三星电子(中国)研发中心 控制方法和装置
CN107315530A (zh) * 2017-06-28 2017-11-03 深圳传音控股有限公司 触控显示屏调节方法和终端
US10732743B2 (en) 2017-07-18 2020-08-04 Apple Inc. Concealable input region for an electronic device having microperforations
US11237699B2 (en) 2017-08-18 2022-02-01 Microsoft Technology Licensing, Llc Proximal menu generation
US10417991B2 (en) 2017-08-18 2019-09-17 Microsoft Technology Licensing, Llc Multi-display device user interface modification
US20190056857A1 (en) * 2017-08-18 2019-02-21 Microsoft Technology Licensing, Llc Resizing an active region of a user interface
US11301124B2 (en) 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel
CN107656716B (zh) * 2017-09-05 2021-10-15 珠海格力电器股份有限公司 一种内容显示方法及其装置、电子设备
US10732676B2 (en) 2017-09-06 2020-08-04 Apple Inc. Illuminated device enclosure with dynamic trackpad
EP3483896A1 (de) * 2017-11-10 2019-05-15 Siemens Healthcare GmbH Mensch-maschine-schnittstelle zur steuerung einer medizinischen vorrichtung, verfahren zur steuerung einer vorrichtung zur medizinischen bildgebung, computerprogrammprodukt und computerlesbares medium
CN108062146A (zh) * 2018-01-02 2018-05-22 联想(北京)有限公司 电子设备
EP3819751A4 (de) * 2018-08-29 2021-07-28 Sony Group Corporation Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
US20200183580A1 (en) * 2018-12-05 2020-06-11 Cirque Corporation Touch-sensitive input with custom virtual device regions
CN111309183B (zh) * 2020-02-26 2022-04-15 京东方科技集团股份有限公司 触控显示系统及其控制方法
CN113448479B (zh) * 2020-03-25 2024-03-12 Oppo广东移动通信有限公司 单手操作模式开启方法、终端及计算机存储介质
CN111427505A (zh) * 2020-04-09 2020-07-17 Oppo广东移动通信有限公司 页面操作方法、装置、终端及存储介质
US11099706B1 (en) 2020-06-30 2021-08-24 Dell Products L.P. Enhanced user interface using touch gestures
CN114296626B (zh) * 2020-09-22 2024-04-12 华为终端有限公司 一种输入界面的显示方法及终端
US11543961B2 (en) 2020-10-26 2023-01-03 Microsoft Technology Licensing, Llc Touch screen display with virtual trackpad
JP2022139202A (ja) * 2021-03-11 2022-09-26 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
CN113434077B (zh) * 2021-06-30 2023-09-01 海联智芯(深圳)科技有限公司 触控装置和计算机设备
CN114201075A (zh) * 2021-12-14 2022-03-18 深圳市闪联信息技术有限公司 一种触屏设备及其相同的触摸输入功能冲突的解决方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090322687A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Virtual touchpad

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20030193481A1 (en) * 2002-04-12 2003-10-16 Alexander Sokolsky Touch-sensitive input overlay for graphical user interface
US20040021681A1 (en) 2002-07-30 2004-02-05 Liao Chin-Hua Arthur Dual-touch-screen mobile computer
US20060007178A1 (en) * 2004-07-07 2006-01-12 Scott Davis Electronic device having an imporoved user interface
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP4642497B2 (ja) * 2005-02-10 2011-03-02 クラリオン株式会社 ナビゲーション装置
WO2007032949A1 (en) * 2005-09-09 2007-03-22 Wms Gaming Inc. Dynamic user interface in a gaming system
US20090213081A1 (en) * 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
US20110047459A1 (en) * 2007-10-08 2011-02-24 Willem Morkel Van Der Westhuizen User interface
KR101111566B1 (ko) * 2008-05-23 2012-02-24 삼성전자주식회사 휴대 단말기의 인터페이스 전환 장치 및 방법
JP5066055B2 (ja) * 2008-10-28 2012-11-07 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090322687A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Virtual touchpad

Also Published As

Publication number Publication date
US9542097B2 (en) 2017-01-10
US20110169749A1 (en) 2011-07-14
CN102129312A (zh) 2011-07-20

Similar Documents

Publication Publication Date Title
DE102010060975A1 (de) Virtuelles Touchpad für eine Berührungsanordnung
US10073580B2 (en) Apparatus and method for positioning windows on a display
CN102662566B (zh) 屏幕内容放大显示方法及终端
US9411461B2 (en) Moveable interactive shortcut toolbar and unintentional hit rejecter for touch input devices
US20130007666A1 (en) Electronic device with touch screen device, method of moving function icon and computer readable storage media comprising computer executable instructions
DE112013006621T5 (de) Verfahren und Vorrichtung zur Handhabung von Anwenderschnittstellenelementen in einer Touchscreen-Vorrichtung
DE102018100809A1 (de) Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur
DE112007000278T5 (de) Gestikulieren mit einer Mehrpunkt-Abtastvorrichtung
DE202008005344U1 (de) Elektronische Vorrichtung mit schaltbarer Benutzerschnittstelle und elektronische Vorrichtung mit zugreifbarer Berührbedienung
JP6171643B2 (ja) ジェスチャ入力装置
WO2012133272A1 (ja) 電子機器
WO2016145832A1 (zh) 终端的操作方法及装置
US9285741B2 (en) Information input device, control method thereof and image forming apparatus
DE112010005845T5 (de) Haptische Tastatur für eine berührungsfähige Anzeige
US20190065007A1 (en) User interface comprising a plurality of display units, and method for positioning contents on a plurality of display units
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
US20130002714A1 (en) Display control apparatus and method for controlling display
DE102012013115A1 (de) Verfahren und System für Multi-Touch-Steuerung
JP7071337B2 (ja) タッチパネル装置を備えた分析装置、その表示制御方法、及びプログラム
CN104156038A (zh) 电子阅读设备
JP6841647B2 (ja) 表示装置、表示方法及びプログラム
KR20150098366A (ko) 가상 터치패드 조작방법 및 이를 수행하는 단말기
US20210349625A1 (en) Using a touch input tool to modify content rendered on touchscreen displays
JP2018137001A (ja) 情報処理装置、情報処理プログラムおよび情報処理方法

Legal Events

Date Code Title Description
R016 Response to examination communication
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0003033000

Ipc: G06F0003048000

Effective date: 20130304

R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE