DE202012005481U1 - Bewegen eines graphischen Selektors - Google Patents

Bewegen eines graphischen Selektors Download PDF

Info

Publication number
DE202012005481U1
DE202012005481U1 DE202012005481U DE202012005481U DE202012005481U1 DE 202012005481 U1 DE202012005481 U1 DE 202012005481U1 DE 202012005481 U DE202012005481 U DE 202012005481U DE 202012005481 U DE202012005481 U DE 202012005481U DE 202012005481 U1 DE202012005481 U1 DE 202012005481U1
Authority
DE
Germany
Prior art keywords
graphical
gesture
increment
gesture input
readable medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE202012005481U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/117,924 external-priority patent/US8826190B2/en
Application filed by Google LLC filed Critical Google LLC
Publication of DE202012005481U1 publication Critical patent/DE202012005481U1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Rechnervorrichtung mit: einem oder mehreren Prozessoren; einer Eingabevorrichtung, die eine Gesten-Eingabe empfängt, welche einer direktionalen Geste entspricht; einer Ausgabevorrichtung, die einen graphischen Selektor anzeigt; und einer Vorrichtung, um den graphischen Selektor um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert, von einer ersten graphischen Position zu einer zweiten graphischen Position zu bewegen.

Description

  • Die Anmeldung beansprucht die Prioritäten der US-Anmeldung Serial Number 13/117,924, eingereicht am 27. May 2011, und der US-Anmeldung Serial Number 13/250,675, eingereicht am 30. September 2011, wobei hiermit der gesamte Inhalt beider Anmeldungen durch Verweis einbezogen wird.
  • TECHNISCHES GEBIET
  • Die Offenbarung betrifft das Bewegen eines graphischen Selektors.
  • HINTERGRUND
  • Rechnervorrichtungen weisen oft eine Anzeigevorrichtung auf, die einen graphischen Selektor wie z. B. einen durch eine Maus oder eine andere Eingabevorrichtung gesteuerten Cursor oder Pointer anzeigt, der dazu verwendet werden kann, mit anderen angezeigten Elementen zu interagieren. Ein Benutzer kann den Wunsch haben, den graphischen Selektor an eine gewünschte Position auf der Anzeigevorrichtung zu bewegen. Wenn es sich bei der Anzeigevorrichtung um eine präsenz-sensitive Anzeigevorrichtung wie z. B. einen Touch Screen handelt, kann der Benutzer versuchen, den graphischen Selektor zu bewegen, indem er einen Finger über der gewünschten Position platziert.
  • ÜBERBLICK
  • Gemäß einem Beispiel umfasst die Erfindung ein mittels einer Rechnervorrichtung vorgenommenes Aktivieren einer graphischen Taste, die mittels eines präsenz-sensitiven Interface der Rechnervorrichtung angezeigt wird. Das Verfahren umfasst ferner, bei Aktivierung der graphischen Taste, das Empfangen einer Gesten-Eingabe, die einer direktionalen Geste entspricht, unter Verwendung des präsenz-sensitiven Interface der Rechnervorrichtung, und das Bewegen eines mittels des präsenz-sensitiven Interface angezeigten graphischen Selektors von einer ersten Position auf der Graphik (nachfolgend ”graphische Position” genannt) zu einer zweiten graphischen Position um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert.
  • Gemäß einem weiteren Beispiel ist ein greifbares computerlesbares Medium vorgesehen, das Instruktionen aufweist, um einen programmierbaren Prozessor zum Durchführen von Operationen zu veranlassen, zu denen ein mittels einer Rechnervorrichtung vorgenommenes Aktivieren einer graphischen Taste zählt, die mittels eines präsenz-sensitiven Interface der Rechnervorrichtung angezeigt wird. Die Instruktionen umfassen ferner, bei Aktivierung der graphischen Taste, das Empfangen einer Gesten-Eingabe, die einer direktionalen Geste entspricht, unter Verwendung des präsenz-sensitiven Interface der Rechnervorrichtung. Die Instruktionen umfassen ferner das Bewegen eines mittels der Rechnervorrichtung angezeigten graphischen Selektors von einer ersten graphischen Position zu einer zweiten graphischen Position um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert.
  • Gemäß einem wiederum weiteren Beispiel weist eine Rechnervorrichtung einen oder mehrere Prozessoren auf. Die Rechnervorrichtung kann auch
    eine Eingabevorrichtung, die eine Gesten-Eingabe empfängt, welche einer direktionalen Geste entspricht, und eine Ausgabevorrichtung aufweisen, die einen graphischen Selektor anzeigt. Die Rechnervorrichtung enthält ferner eine Vorrichtung, um den graphischen Selektor um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert, von einer ersten graphischen Position zu einer zweiten graphischen Position zu bewegen.
  • Generell werden mit dieser Offenbarung Techniken zum Bewegen eines graphischen Selektors beschrieben. Gemäß einem Beispiel enthält das Verfahren das mittels einer Rechnervorrichtung vorgenommene Aktivieren einer graphischen Taste, die mittels eines präsenz-sensitiven Interface der Rechnervorrichtung angezeigt wird. Bei Aktivierung der graphischen Taste wird eine Gesten-Eingabe, die einer direktionalen Geste entspricht, unter Verwendung des präsenz-sensitiven Interface der Rechnervorrichtung empfangen, und es erfolgt ein Bewegen eines mittels des präsenz-sensitiven Interface angezeigten graphischen Selektors von einer ersten graphischen Position zu einer zweiten graphischen Position um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert.
  • Die Details eines oder mehrerer Aspekte der Offenbarung werden in den beigefügten Zeichnungen und der nachstehenden Beschreibung dargelegt. Weitere Merkmale, Aufgaben und Vorteile der Offenbarung werden aus der Beschreibung und den Zeichnungen sowie aus den Ansprüchen ersichtlich.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1A zeigt ein Blockschaltbild eines Beispiels einer Rechnervorrichtung, die eine oder mehrere Anwendungen ausführen kann und eine graphische Taste zum Bewegen eines graphischen Selektors anzeigen kann, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung.
  • 1B zeigt ein Blockschaltbild weiterer Details eines Beispiels der in 1A gezeigten graphischen Taste gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung.
  • 2 zeigt ein Blockschaltbild weiterer Details eines Beispiels der in 1A gezeigten Rechnervorrichtung gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung.
  • 3 zeigt ein Flussdiagramm eines Beispiels eines Verfahrens, das von einer Rechnervorrichtung zum Realisieren der Funktionalität der graphischen Tasten durchgeführt werden kann, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung.
  • 4 zeigt ein Schaubild eines Beispiels eines graphischen Selektors, der mittels einer graphischen Taste in einer Bild-Umgebung gesteuert wird, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung.
  • Entsprechend der allgemeinen Praxis sind die verschiedenen beschriebenen Merkmale nicht maßstabsgerecht dargestellt und sind derart gezeichnet, dass Merkmale, die für die vorliegende Offenbarung relevant sind, hervorgehoben werden. In den Figuren und im Text sind gleiche Elemente durchgehend mit gleichen Bezugszeichen gekennzeichnet.
  • DETAILLIERTE BESCHREIBUNG
  • Techniken gemäß der vorliegenden Offenbarung ermöglichen, in einer Rechnervorrichtung eine graphische Taste an einem graphischen User-Interface (GUI) der Rechnervorrichtung zu implementieren, wobei die graphische Taste einen graphischen Selektor basierend auf detektierten Benutzer-Gesten bewegt. Als Reaktion auf eine von der graphischen Taste ausgehenden Swipe- oder Fling-Geste (wisch- oder schleuderbewegungsartigen Geste) kann der graphische Selektor (z. B. ein Cursor oder Pointer) basierend auf Eigenschaften der Benutzer-Geste an eine neue Position auf einer Anzeigevorrichtung bewegt werden. Die Bewegung des graphischen Selektors auf der Anzeigevorrichtung kann in spezifischen Inkrementen definiert werden, die auf Eigenschaften der Geste basieren, zu denen z. B. eine Dauer, ein Zeichen, ein Versatz oder eine Geschwindigkeit der Geste zählen. Wenn die Rechnervorrichtung einen relativ kleinen Bildschirm hat (wie z. B. bei einem Mobiltelefon, einem Tablet-Computer oder einer anderen Mobilvorrichtung), kann es für einen Benutzer möglicherweise schwierig sein, die Position des graphischen Selektors präzise festzulegen. Gemäß der vorliegenden Offenbarung wird die Nutzfläche des Bildschirms maximiert (z. B. durch Reduzieren von vier oder mehr direktionalen Pfeiltasten zu einer einzigen graphischen Taste), und es erfolgt eine präzisere Bewegung eines graphischen Selektors auf kleinen und mittelgroßen präsenz-sensitiven Bildschirmen, bei denen die Benutzer-Eingabe oft mit einem Finger durchzuführen ist.
  • Beispielsweise führt ein Benutzer eine Links-Swipe-Geste aus, z. B. eine Swipe-Bewegung, die an der graphischen Taste beginnt und nach links verläuft, um zu veranlassen, dass sich ein Cursor in einer Textumgebung um ein Zeichen nach links bewegt. Gemäß einem weiteren Beispiel verlasst eine Fling-down-Bewegung, z. B. eine Fling-Bewegung, die an der graphischen Taste beginnt und nach unten verläuft, dass der Cursor sich um eine Zeile nach unten bewegt. Gemäß einigen Beispielen basiert die Bewegung des Cursors auf – oder ist proportional zu – der von der Geste durchlaufenen Distanz; z. B. bewegt eine relativ längere Geste (z. B. kann eine Länge der Geste gleich einem Längen-Schwellwert oder größer als dieser sein) den Cursor über ein ganzes Wort, während eine relativ kürzere Geste (z. B. kann eine Länge der Geste kleiner als ein Längen-Schwellwert sein) den Cursor um ein einzelnes Zeichen bewegt. Gemäß weiteren Beispielen basiert die Bewegung des Cursors auf – oder ist proportional zu – der Geschwindigkeit der Geste; z. B. bewegt eine schnelle aufwärtsverlaufende Geste den Cursor aufwärts bis zum oberen Ende eines aktuellen Abschnitts, aufwärts bis zum oberen Ende eines vorhergehenden Abschnitts, oder aufwärts bis zum oberen Ende der Textumgebung. Gemäß wiederum weiteren Beispielen kann die Größe der Cursor-Bewegung auf der Dauer basieren, während derer der Benutzer die graphische Taste drückt, bevor er sie loslässt.
  • Diese Funktionalität kann realisiert werden, indem einer graphischen Tastatur eine graphische Taste hinzugefügt wird. Gemäß weiteren Beispielen wird die Funktionalität auf eine bereits existierende Taste einer graphischen Tastatur übergelegt, z. B. auf eine Leertaste. Bei derartigen Beispielen wird durch ein Anschlagen der Leertaste dem Text eine Leerstelle hinzugefügt, während durch das Durchführen einer Swipe-Geste, die von der Leertaste ausgeht, der Cursor basierend auf einem Vektor (z. B. Größe und Richtung) der Geste bewegt wird. Die vorliegende Offenbarung kann auch außerhalb von Textumgebungen angewandt werden, z. B. in einem Bild-Kontext.
  • 1 zeigt ein Blockschaltbild eines Beispiels einer Rechnervorrichtung 2, die eine oder mehrere Anwendungen (z. B. eine Tastatur-Anwendung 8) ausführen kann und eine graphische Taste 18 zum Bewegen eines graphischen Selektors 24 anzeigen kann, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung. Gemäß einigen Beispielen kann die Rechnervorrichtung 2 eine tragbare Rechnervorrichtung (z. B. Mobiltelefon, Netbook, Laptop, Personal Data Assistant (PDA), Tablet-Gerät, tragbares Spielgerät, tragbarer Media-Player, e-book-Reader oder Armbanduhr) sowie eine nichttragbare Vorrichtung (z. B. Desktop-Computer) enthalten, eine solche Vorrichtung sein oder ein Teil einer solchen Vorrichtung sein. Lediglich zu Veranschaulichungszwecken wird in dieser Offenbarung die Rechnervorrichtung 2 als tragbare oder mobile Vorrichtung beschrieben, die ein Benutzer 14 tragen kann, wie z. B. ein Laptop, ein Smartphone oder ein Tablet-Gerät, jedoch sind die Aspekte dieser Offenbarung nicht dahingehend zu verstehen, dass sie auf solche Vorrichtungen beschränkt wären. Ein Beispiel einer Rechnervorrichtung 2 ist in 2 ausführlicher dargelegt, die im Folgenden erläutert wird.
  • Die Rechnervorrichtung 2 kann eine Eingabe-/Ausgabe-(I/O-)Vorrichtung 12 (z. B. eine präsenz- oder berührungssensitive Vorrichtung) aufweisen. Gemäß einigen Beispielen kann die I/O-Vorrichtung 12 ein präsenz-sensitiver Bildschirm sein, der in der Lage ist, Gesten zu detektieren, die nahe dem präsenz-sensitiven Bildschirm getätigt werden. Gemäß weiteren Beispielen kann die I/O-Vorrichtung 12 ein berührungsbasiertes Interface sein, das in der Lage ist, eine Berührungseingabe von einem Benutzer 14 zu empfangen (z. B. Touch-Screen, Track-Pad, Track-Point oder dgl.). Gemäß einigen Beispielen kann die I/O-Vorrichtung 12 eine Anzeigevorrichtung 20 aufweisen. Der Benutzer 14 kann z. B. mit der Anzeigevorrichtung 20 interagieren, indem er eine Touch-Eingabe an der I/O-Vorrichtung 12 vornimmt. Lediglich zu Veranschaulichungszwecken wird bei dieser Offenbarung die I/O-Vorrichtung 12 als berührungs-sensitive Vorrichtung 12 beschrieben, jedoch sind die Aspekte dieser Offenbarung nicht dahingehend zu verstehen, dass sie auf solche Vorrichtungen beschränkt wären. Gemäß weiteren Beispielen werden die hier offenbarten Techniken an einer präsenz-sensitiven Vorrichtung angewandt.
  • Die Rechnervorrichtung 2 weist ein Benutzer-Eingabemodul 6 auf, das, wenn es aktiviert ist, die Rechnervorrichtung 2 mit der Funktionalität versehen kann, eine Benutzer-Eingabe zu empfangen und zu interpretieren. Die Rechnervorrichtung 2 enthält ferner eine Tastatur-Anwendung 8, die, wenn sie aktiviert ist, der Rechnervorrichtung 2 mit der Funktionalität versehen kann, die graphische Taste 18 bereitzustellen. Mit der Tastatur-Anwendung 8 können auch Signale an die Anzeigevorrichtung 20 ausgegeben werden, die auf die Gesten-Eingabe bezogene Information anzuzeigen. Mittels des Benutzer-Eingabemoduls 6 können ferner Signale, die auf die User-Eingabe bezogen sind, an die Tastatur-Anwendung 8 ausgegeben werden.
  • Die Tastatur-Anwendung 8 kann ein Graphik-Tasten-Modul 10 enthalten. Das Graphik-Tasten-Modul 10 kann in verschiedenen Fällen die Rechnervorrichtung 2 mit Fähigkeiten zum Anzeigen einer graphischen Taste 18 versehen, die zum Bewegen des graphischen Selektors 24 verwendbar ist. Beispielsweise vermittelt das Graphik-Tasten-Modul 10 Fähigkeiten, um den graphischen Selektor 24 um ein gewähltes Inkrement von einer ersten graphischen Position 26 zu einer zweiten graphischen Position 28 (wie in 1B gezeigt) zu bewegen. Gemäß weiteren Beispielen enthält die Tastatur-Anwendung 8 noch weitere Module mit zusätzlichen Fähigkeiten.
  • Die Anzeigevorrichtung 20 der ersten Rechnervorrichtung 2 kann Text 22, den graphischen Selektor 24 und die graphische Taste 18 anzeigen. Die graphische Taste 18 kann eine graphische Wiedergabe eines virtuellen Knopfs oder eine virtuellen Icons sein, z. B. ein Touch-Target. Die graphische Taste 18 kann ein Bild mit beliebiger Form, Größe, Kolorierung oder Stilisierung sein, das auf der Anzeigevorrichtung 20 angezeigt wird. Gemäß einem Beispiel kann die Anzeigevorrichtung 20 auch eine graphische Tastatur 4 anzeigen. Gemäß einigen Beispielen ist die graphische Taste 18 ein Teil einer graphischen Tastatur 4. Gemäß weiteren Beispielen handelt es sich bei der graphischen Taste 18 um eine Funktionalität, die auf eine bereits existierende Taste in der graphischen Tastatur 4 übergelegt ist. Gemäß weiteren Beispielen ist die graphische Taste 18 kein Teil der graphischen Tastatur 4. Gemäß alternativen Beispielen ist die graphische Taste 18 an einer beliebigen Position der Anzeigevorrichtung 20 angeordnet. Gemäß einem weiteren Beispiel ist die graphische Taste 18 auf das obere Ende der graphischen Tastatur 4 übergelegt.
  • Mindestens ein Teil der Rechnervorrichtung 2 kann in einer Textumgebung betätigt werden, z. B. dort, wo die Anzeigevorrichtung 20 Text 22 anzeigen kann. Bei einem derartigen Beispiel kann der graphische Selektor 24 ein Text-Cursor sein. Gemäß 1A kann der Benutzer (z. B. durch Eintippen oder handschriftlich) z. B. die Wörter ”To Whom mit May Concern: This lettwr is in regard to” eingegeben haben. Der Benutzer 14 kann bemerkt haben, dass ”letter” falsch als ”lettwr” geschrieben wurde, und er kann den Wunsch haben, den Fehler zu korrigieren. Der Benutzer 14 kann die berührungs-sensitive Vorrichtung 12 antippen, um den graphischen Selektor 24 neben das ”w” zu platzieren. Typischerweise wird durch eine irgendwo im Text erfolgende Berührung der graphische Selektor 24 neupositioniert. Das Berühren der berührungs-sensitiven Vorrichtung 12 zum präzisen Anordnen des graphischen Selektors 24 zwecks Ersetzens des ”w” durch ein ”e” kann jedoch schwierig sein. Beispielsweise kann die berührungs-sensitive Vorrichtung 12 gegenüber einem Eingabemittel wie z. B. einem Finger relativ klein sein, wodurch eine Wahrscheinlichkeit besteht, dass der graphische Selektor 24 lediglich in der Umgebung des ”w” statt neben diesem neupositioniert wird. Zum Beispiel kann der graphische Selektor 24 möglicherweise an einer ersten graphischen Position 26 platziert werden, wenn der Benutzer 14 die berührungs-sensitive Vorrichtung 12 in der Umgebung des ”w” antippt.
  • Um den graphischen Selektor 24 an der gewünschten Position zu positionieren (in diesem Beispiel an einer Seite des ”w”), kann der Benutzer 14 die graphische Taste 18 aktivieren, um den graphischen Selektor 24 präzise zu bewegen. Der Benutzer 14 kann die graphische Taste 18 antippen, z. B. um sie zu aktivieren. Alternativ kann die graphische Taste 18 die ganze Zeit über aktiviert sein, wenn sie angezeigt wird. Der Benutzer 14 kann eine von der graphischen Taste 18 ausgehende Swipe-Geste ausführen, um den graphischen Selektor 24 neu zu positionieren. Gemäß 1B führt der Benutzer 14 eine Swipe-Geste aus, um den graphischen Selektor 24 nach links neben das ”w” zu bewegen.
  • Gemäß einigen Beispielen kann die graphische Taste 18 manchmal oder zu jeder Zeit angezeigt werden, zu der die Rechnervorrichtung 2 betätigt wird. Gemäß einem Beispiel kann die graphische Taste 18 nur angezeigt werden, wenn die Rechnervorrichtung 2 in einer Umgebung betätigt wird, die in Bezug zu der graphischen Taste 18 steht. Beispielsweise kann die graphische Taste 18 angezeigt werden, um einen Cursor zu bewegen, wenn der Benutzer 14 in einer textbasierten Umgebung arbeitet. Gemäß einem weiteren Beispiel kann die graphische Taste 18 jedes Mal angezeigt werden, wenn auch der graphische Selektor 24 angezeigt wird. Gemäß einem weiteren Beispiel kann die graphische Taste 18 angezeigt werden, wenn auch die graphische Tastatur 4 angezeigt wird. Gemäß einem wiederum weiteren Beispiel kann die graphische Taste 18 bei Aktivierung eines Modus (z. B. beim Aktivieren einer Modus-Taste) zum Initiieren der Bewegung des graphischen Selektors 24 angezeigt werden.
  • 1B zeigt ein Blockschaltbild zur Veranschaulichung weiterer Details eines Beispiels des in 1A gezeigten graphischen Selektors 24 gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung. In 1B berührt der Benutzer 14 die graphische Taste 18 mit einem Finger oder einem anderen Mittel und zieht die Berührung auf eine von dem Graphik-Tasten-Modul 10 erkannte Weise weiter, um den graphischen Selektor 24 um ein Zeichen oder einen Leerschritt nach links zu bewegen. Gemäß diesem Beispiel führt der Benutzer 14 eine Gesten-Eingabe 16 aus, bei der es sich um eine Swipe-Bewegung nach links handeln kann, die an der graphischen Taste 18 beginnt. Zu den Beispielen einer Swipe-Geste kann das an irgendeiner Position erfolgende Berühren der berührungs-sensitiven Vorrichtung 12 und das Ziehen der Berührung vor deren Aufhebung zählen. Zu den Beispielen einer von der graphischen Taste 18 ausgehenden Gesten-Eingabe kann eine Swipe-Geste zählen, die mit einer Berührung über der graphischen Taste 18 beginnt.
  • Das Graphik-Tasten-Modul 10 kann die Gesten-Eingabe 16 als einen Befehl dazu interpretieren, den graphischen Selektor 24 um ein Inkrement 29 zu einer zweiten graphischen Position 28 zu bewegen. Gemäß einigen Beispielen kann das Graphik-Tasten-Modul 10 der Tastatur-Anwendung 8 mindestens eine Eigenschaft der Gesten-Eingabe 16 detektieren. Gemäß einem weiteren Beispiel kann das Benutzer-Eingabemodul 6 mindestens eine Eigenschaft der Gesten-Eingabe 16 detektieren und ein auf die mindestens eine Eigenschaft bezogenes Signal an die Tastatur-Anwendung 8 ausgeben. Basierend auf der mindestens einen Eigenschaft der Gesten-Eingabe 16 interpretiert die Tastatur-Anwendung 8 die Gesten-Eingabe 16 dahingehend, dass sie einem oder mehreren Inkrementen 29 in einer oder mehreren Richtungen entspricht. Als Reaktion kann die Tastatur-Anwendung 8 den graphischen Selektor 24 basierend auf der mindestens einen Eigenschaft der Gesten-Eingabe 16 bewegen.
  • Zu den Eigenschaften der Gesten-Eingabe 16 können z. B. eine Richtung der Gesten-Eingabe 16, ein Versatz der Gesten-Eingabe 16, eine Geschwindigkeit der Gesten-Eingabe 16, eine Breite der Gesten-Eingabe 16, die Dauer des Drückens der graphischen Taste 18 oder irgendeine andere Eigenschaft zählen. Gemäß einem Beispiel, bei dem die Gesten-Eingabe 16 eine berührungsbasierte Eingabe ist, kann eine Breite der Gesten-Eingabe 16 in Beziehung zu einer Länge der Gesten-Eingabe 16 in einer orthogonal zu einer Richtung einer größeren Bewegung verlaufenden Richtung stehen. Beispielsweise kann eine Breite der berührungsbasierten Eingabe der Breite eines Fingers des Benutzers 14 entsprechen, mit dem die Gesten-Eingabe 16 vorgenommen wird. Beispielsweise kann eine Breite einer mit einem Finger vorgenommenen berührungsbasierten Eingabe größer sein als eine Breite einer mit einem Stift vorgenommenen berührungsbasierten Eingabe. Gemäß einem weiteren Beispiel wird die Zeit, während derer die graphische Taste 18 gedrückt wird, bevor eine Fling- oder Swipe-Geste durchgeführt wird, dazu verwendet, festzustellen, in welchem Maß der graphische Selektor 24 bewegt wird. Beispielsweise kann eine kürzere Berührung und Fling-Geste den graphischen Selektor 24 um eine erste Distanz bewegen, während eine längere Berührung vor einer Fling-Geste den graphischen Selektor 24 um eine zweite Distanz bewegen kann, die größer als die erste Distanz ist.
  • Bei dem textbasierten Beispiel gemäß 1B kann das Inkrement 29 ein Buchstabe, ein Zeichen oder eine Leerstelle sein. Gemäß weiteren Beispielen kann es sich bei dem Inkrement 29 um ein Wort, eine Zeile, einen Satz, einen Abschnitt, eine vorbestimmte Anzahl von Zeichen oder um Kombinationen derselben handeln. In anderen Umgebungen, wie z. B. einer Bild-Umgebung, kann das Inkrement 29 ein anderer Betrag oder eine andere Quantität sein, z. B. ein Pixel oder eine gewählte Distanz über die Anzeigevorrichtung 20 hinweg. Gemäß einigen Beispielen kann das Inkrement 29 ein spezifischer Betrag in einer diskreten Umgebung sein, z. B. ein Leerschritt in einer textbasierten Umgebung oder ein Pixel in einer Bild-Umgebung. Bei Beispielen, bei denen die Umgebung durchgehend ausgebildet ist, kann das Inkrement 29 möglicherweise kein diskreter Betrag sein, z. B. in einer mathematischen Diagramm-Umgebung.
  • 2 zeigt ein Blockschaltbild zur Veranschaulichung weiterer Details eines Beispiels einer Rechnervorrichtung 2 gemäß 1. 2 zeigt nur ein bestimmtes Beispiel einer Rechnervorrichtung 2, und es können in anderen Fällen zahlreiche andere Ausführungsbeispiele der Rechnervorrichtung 2 verwendet werden.
  • Wie in dem spezifischen Beispiel gemäß 2 gezeigt, enthält die Rechnervorrichtung 2 einen oder mehrere Prozessoren 30, einen Speicher 32, ein Netzwerk-Interface 34, eine oder mehr Speichervorrichtungen 36, eine oder mehr Eingabevorrichtungen 38, eine oder mehr Ausgabevorrichtungen 40, und eine oder mehrere Batterien oder andere Energiequellen 42. Die Rechnervorrichtung 2 enthält ferner ein Betriebssystem 44, welches das Benutzer-Eingabemodul 6 enthalten kann, das durch die Rechnervorrichtung 2 betreibbar ist. Die Rechnervorrichtung 2 kann eine oder mehrere Anwendungen 46 und die Tastatur-Anwendung 8 enthalten. Die Tastatur-Anwendung 8 kann das durch die Rechnervorrichtung 2 betreibbare Graphik-Tasten-Modul 10 enthalten. Das Betriebssystem 44, die Anwendungen 46 und die Tastatur-Anwendung 8 sind ebenfalls mittels der Rechnervorrichtung 2 betreibbar. Sämtliche der Komponenten 30, 32, 34, 36, 38, 40, 42, 44, 46, 6, 8 und 10 können (physisch, kommunikativ und/oder betriebsmäßig) für Inter-Komponenten-Kommunikationsvorgänge miteinander verbunden werden.
  • Die Prozessoren 30 können derart konfiguriert sein, dass in ihnen die Funktionalität und/oder die Prozess-Instruktionen zur Ausführung in der Rechnervorrichtung 2 implementiert sind. Die Prozessoren 30 können in der Lage sein, in dem Speicher 32 gespeicherte Instruktionen oder in den Speichervorrichtungen 36 gespeicherte Instruktionen zu verarbeiten.
  • Der Speicher 32 kann derart konfiguriert sein, dass er während des Betriebs Information in der Rechnervorrichtung 2 speichert. Gemäß einigen Beispielen kann der Speicher 32 als nichtflüchtiges oder greifbares computerlesbares Speichermedium beschrieben werden. Gemäß einigen Beispielen ist der Speicher ein temporärer Speicher, was bedeutet, dass der Hauptzweck des Speichers 32 nicht in einer langfristigen Speicherung liegt. Gemäß einigen Beispielen kann der Speicher 32 auch als flüchtiger Speicher beschrieben werden, was bedeutet, dass der Speicher 32 gespeicherte Inhalte nicht beibehält, wenn der Computer abgeschaltet wird. Zu den Beispielen flüchtiger Speicher zählen Speicher mit wahlweisem Zugriff (RAM), dynamische Speicher mit wahlweisem Zugriff (DRAM), statische Speicher mit wahlweisem Zugriff (SRAM) und andere auf dem Gebiet bekannte Formen flüchtiger Speicher. Gemäß einigen Beispielen kann der Speicher 32 zum Speichern von Programminstruktionen verwendet werden, die zur Ausführung durch Prozessoren 30 vorgesehen sind. Der Speicher 32 kann mittels Software oder Anwendungen verwendet werden, die an der Rechnervorrichtung 2 laufen (z. B. eine oder mehrere Anwendungen 46), um während der Programmausführung Information vorübergehend zu speichern.
  • Zu den Speichervorrichtungen 36 können ferner ein oder mehrere nichtflüchtige oder greifbare computerlesbare Speichermedien zählen. Die Speichervorrichtungen 36 können zum Speichern größerer Mengen an Information als der Speicher 32 konfiguriert sein. Die Speichervorrichtungen 36 können zur langfristigen Speicherung von Information konfiguriert sein. Gemäß einigen Beispielen können die Speichervorrichtungen 36 nichtflüchtige Speicherelemente enthalten. Zu den Beispielen solcher nichtflüchtiger Speicherelemente können magnetische Hard Discs, optische Discs, Floppy Discs, Flash-Speicher oder Formen elektrisch programmierbarer Speicher (EPROM) oder elektrisch löschbarer und programmierbarer Speicher (EEPROM) zählen. Gemäß einem Beispiel enthält die Speichervorrichtung 36 eine Datenbank, die ein Mapping von Eigenschaften des Gesten-Eingabe (wie z. B. der Gesten-Eingabe 16) auf Inkremente (wie z. B. das Inkrement 29) enthält. Gemäß einem derartigen Beispiel kann das Graphik-Tasten-Modul 10 auf die in der Speichervorrichtung 36 gespeicherte Datenbank zugreifen, wenn es die Gesten-Eingabe 16 interpretiert.
  • Die Rechnervorrichtung 2 enthält ferner ein Netzwerk-Interface 34. Die Rechnervorrichtung 2 kann das Netzwerk-Interface 34 verwenden, um über ein oder mehrere Netze mit externen Vorrichtungen zu kommunizieren. Gemäß einem Beispiel kann das Netzwerk-Interface 34 einem Interface zum Empfangen von Daten aus Rechnervorrichtungen entsprechen (z. B. den Rechnervorrichtungen 22 und 24 gemäß 1). Das Netzwerk-Interface 34 kann eine Netzwerk-Interface-Karte wie z. B. eine Ethernet-Karte sein, die zur Kommunikation über z. B. ein Ethernet, Transmission Control Protocol (TCP), ein Internet-Protokoll (IP), einen asynchronen Übertragungsmodus (ATM) oder andere Netzwerk-Kommunikationsprotokolle konfiguriert ist. Gemäß weiteren Beispielen kann das Netzwerk-Interface 34 ein optischer Transceiver, ein Funkfrequenz-Transceiver oder ein beliebiger anderer Typ von Vorrichtung sein, die Information senden und empfangen kann.
  • Zu den Beispielen derartiger Netzwerk-Interfaces 34 können Bluetooth®, 3G- und WiFi®-Radios in mobilen Computervorrichtungen sowie USB zählen. Das Netzwerk-Interface 34 kann konfiguriert sein zum Anschluss an ein Weitbereichs-Netzwerk wie z. B. das Internet, ein Lokalbereichs-Netzwerk (LAN), ein Firmen-Netzwerk, ein drahtloses Netzwerk, ein zelluläres Netzwerk, ein Telefonie-Netzwerk, ein großstädtisches Netzwerk (z. B. Wi-Fi, WAN oder WiMAX), einen oder mehrere andere Typen von Netzwerken, oder eine Kombination aus zwei oder mehr verschiedenen Typen von Netzwerken (z. B. eine Kombination aus einem zellulären Netzwerk und dem Internet). Gemäß einigen Beispielen kann die Rechnervorrichtung 2 das Netzwerk-Interface 34 verwenden, um drahtlos mit einer externen Vorrichtung oder einer anderen vernetzten Rechnervorrichtung zu kommunizieren.
  • Die Rechnervorrichtung 2 kann ferner eine oder mehrere Eingabevorrichtungen 38 enthalten. Die Eingabevorrichtung 38 kann derart konfiguriert sein, dass sie vom Benutzer 14 eine Eingabe über einen taktilen, eine Audio- oder einen Video-Eingabevorgang empfängt. Zu den Beispielen einer Eingabevorrichtung 38 können eine berührungs-sensitive Anzeigevorrichtung, eine Maus, eine Tastatur, ein sprachreaktives System, ein Mikrophon, eine Videokamera oder ein anderer Typ von Vorrichtung zum Detektieren eines Befehls von Benutzer 14 zählen.
  • Ferner können eine oder mehrere Ausgabevorrichtungen 40 in der Rechnervorrichtung 2 enthalten sein, z. B. die Anzeigevorrichtung 12. Die Ausgabevorrichtung 40 kann derart konfiguriert sein, dass sie an den Benutzer 14 Ausgangssignale mittels taktiler, Audio- oder Video-Impulse ausgibt. Die Ausgabevorrichtung 40 kann eine berührungs-sensitive Anzeigevorrichtung, eine Sound-Karte, eine Videografik-Adapterkarte oder einen beliebigen anderen Typ von Vorrichtung enthalten, mit der ein Signal in eine geeignete Form, die für Menschen oder Maschinen verständlich ist, konvertiert werden kann. Zu weiteren Beispielen einer Ausgabevorrichtung 40 können ein Lautsprecher, ein Kathodenstrahlröhren-(CRT-)Monitor, eine Flüssigkristallanzeige (LCD) oder ein beliebiger anderer Typ von Vorrichtung zählen, der ein Ausgangssignal an den Benutzer 14 ausgeben kann.
  • Die Rechnervorrichtung 2 kann eine oder mehrere Batterien oder andere Energiequellen 42 enthalten, die wiederaufladbar sein können und der Rechnervorrichtung 2 Energie zuführen können. Die eine oder die mehreren Batterien 42 können aus Nickel-Cadmium, Lithium-Ionen oder einem anderen geeigneten Material ausgebildet sein. Gemäß weiteren Beispielen sind die eine oder die mehreren Energiequellen 42 außerhalb der Rechnervorrichtung 2 angeordnet. Die eine oder die mehreren Batterien 42 können wiederaufladbar sein, und/oder die Rechnervorrichtung 2 kann über eine Energieverbindung mit Energie versorgt werden.
  • Die Rechnervorrichtung 2 kann ein Betriebssystem 44 enthalten. Das Betriebssystem 44 kann den Betrieb von Komponenten der Rechnervorrichtung 2 steuern. Beispielsweise kann das Betriebssystem 44 die Interaktion der Anwendung 46 oder der Tastatur-Anwendung 8 mit den Prozessoren 30, dem Speicher 32, dem Netzwerk-Interface 34, der Speichervorrichtung 36, der Eingabevorrichtung 38, der Ausgabevorrichtung 40 und der Batterie 42 erleichtern. Zu den Beispielen des Betriebssystems 44 zählen Android®, Apple iOS®, Blackberry® OS, Symbian OS®, Linux®, Microsoft Windows Phone7® oder dgl.
  • Die Tastatur-Anwendung 8 kann zusätzlich das Graphik-Tasten-Modul 10 enthalten, das als Teil des Betriebssystems 44 ausgeführt sein kann. In anderen Fällen kann das Graphik-Tasten-Modul 10 durch andere Komponenten der Rechnervorrichtung 2 implementiert oder ausgeführt sein. Das Graphik-Tasten-Modul 10 kann eine Gesten-Eingabe verarbeiten, z. B. die Gesten-Eingabe 16, und kann eine graphische Taste 18 bereitstellen, damit diese von der Anzeigevorrichtung 20 angezeigt werden kann. Zusätzlich kann das Graphik-Tasten-Modul 10 eine Eingabe von einer Komponente wie z. B. den Prozessoren 30, dem Speicher 32, dem Netzwerk-Interface 34, der Speichervorrichtung 36, der einen oder der mehreren Ausgabevorrichtungen 40, der Batterie 42 oder dem Betriebssystem 44 empfangen. In einigen Fällen kann das Graphik-Tasten-Modul 10 zusätzliche Verarbeitungsvorgänge an der Gesten-Eingabe 16 oder dem graphischen Selektor 24 vornehmen. In anderen Fällen kann das Graphik-Tasten-Modul 10 eine Eingabe zu einer Anwendung, z. B. der Anwendung 46, oder einer anderen Komponente in der Rechnervorrichtung 2 übertragen.
  • Jegliche Anwendungen, z. B. die Anwendung 46 oder die Tastatur-Anwendung 8, die in der Rechnervorrichtung 2 implementiert oder von dieser ausgeführt werden, können in Komponenten der Rechnervorrichtung 2, z. B. den Prozessoren 30, dem Speicher 32, dem Netzwerk-Interface 34, und/oder der Speichervorrichtung 36, implementiert oder enthalten sein, von diesen betätigbar sein, von diesen ausgeführt werden und/oder betriebsmäßig/kommunikativ mit diesen verbunden sein.
  • 3 ist ein Flussdiagramm zur Veranschaulichung eines Beispiels eines Verfahrens 50 gemäß einem oder mehreren Aspekten der vorliegenden Erfindung, das von einer Rechnervorrichtung 2 zum Realisieren der Funktionalität einer graphischen Taste durchgeführt werden kann. Beispielsweise kann das Verfahren 50 von der Rechnervorrichtung 2 wie in 1 oder 2 gezeigt durchgeführt werden. Gemäß einem Beispiel kann mit dem Verfahren 50 ein graphischer Selektor basierend auf mindestens einer Eigenschaft der Gesten-Eingabe um mindestens ein Inkrement bewegt werden.
  • Das Verfahren 50 umfasst das Aktivieren einer graphischen Taste, die mittels eines berührungsbasierten Interface einer Rechnervorrichtung 52 angezeigt wird. Beispielsweise aktiviert der Benutzer 14 die graphische Taste 18 durch Berühren der graphischen Taste mit einem Finger oder einem anderen Gegenstand. Gemäß einem Beispiel kann die graphische Taste 18 deaktiviert werden, wenn eine Berührung, mit der die Richtungs-Taste 18 aktiviert wurde, aufgehoben wird. Gemäß einigen Beispielen kann durch das Antippen der graphischen Taste 18 die graphische Taste 18 aktiviert und deaktiviert werden. Gemäß einem weiteren Beispiel kann eine graphische Taste durch eine Swipe-Geste, die irgendwo auf der Anzeigevorrichtung 20 vorgenommen wird (d. h. nicht nur durch solche Gesten, die von der graphischen Taste 18 ausgehen), hin- und hergeschaltet werden. Gemäß einem derartigen Beispiel kann eine irgendwo an der berührungsbasierten Vorrichtung 12 durchgeführte Swipe-Geste verwendet werden, um den graphischen Selektor 24 zu bewegen, während die Rechnervorrichtung 2 in dem Graphik-Tasten-Modus arbeitet. Gemäß einem Beispiel kann der Graphik-Tasten-Modus hin- und hergeschaltet werden, indem die graphische Taste 18 angetippt wird.
  • Das Verfahren 50 kann ferner umfassen, dass bei Aktivierung der graphischen Taste 18 eine Gesten-Eingabe empfangen wird, die einer direktionalen Geste unter Verwendung des berührungsbasierten Interface der Rechnervorrichtung 54 entspricht. Beispielsweise kann die einer direktionalen Geste entsprechende Gesten-Eingabe eine von der graphischen Taste ausgehende Swipe-Bewegung sein, z. B. die von der graphischen Taste 18 ausgehende Gesten-Eingabe 16. Gemäß einigen Beispielen kann die Gesten-Eingabe 16 eine Swipe-Bewegung sein, die nicht von der graphischen Taste 18 ausgeht.
  • Das Verfahren 50 kann ferner umfassen, dass ein auf der Rechnervorrichtung angezeigter graphischer Selektor 24 um mindestens ein gewähltes Segment, das auf einer Eigenschaft der Gesten-Eingabe 56 basiert, von einer ersten graphischen Position zu einer zweiten graphischen Position bewegt wird. Beispielsweise kann der graphische Selektor 24 basierend auf einer Richtung der Gesten-Eingabe 16 von der ersten graphischen Position 26 zu der zweiten graphischen Position 28 bewegt werden. Dies bedeutet, dass die Distanz, um die der graphische Selektor 24 bewegt wird, und die Richtung, in welcher der graphische Selektor 24 bewegt wird, auf einer oder mehr Eigenschaften der Gesten-Eingabe 16 basieren können. Beispielsweise ist gemäß 1B die Gesten-Eingabe 16 eine Swipe-Geste nach links. Somit bewegt das Graphik-Tasten-Modul 10 den graphischen Selektor 24 um mindestens ein Inkrement nach links.
  • Bei der Eigenschaft der Gesten-Eingabe 16 kann es sich z. B. um eine Richtung der Gesten-Eingabe 16 handeln. Gemäß einem derartigen Beispiel kann der graphische Selektor 24 in einer Richtung bewegt werden, die in Beziehung zu der Richtung der Gesten-Eingabe 16 steht (links, wie in 1B gezeigt). Gemäß weiteren Beispielen kann der graphische Selektor 24 basierend auf einer Richtung der direktionalen Geste in einer anderen Richtung bewegt werden, wie z. B. – jedoch ohne Beschränkung auf diese Richtungen – nach links, rechts, oben, unten, oder diagonal.
  • Gemäß einem weiteren Beispiel kann es sich bei der Eigenschaft der Gesten-Eingabe 16 um einen Versatz der Gesten-Eingabe 16 handeln. Beispielsweise kann die Distanz von einer Position, an der die Gesten-Eingabe 16 initiiert wird (z. B. wo eine Berührung beginnt), zu einer Position, an der die Gesten-Eingabe 16 abgeschlossen wird (z. B. wo die Berührung aufgehoben wird) verwendet werden, um zu bestimmen, wie weit der graphische Selektor 24 bewegt werden soll. Dies bedeutet, dass das Graphik-Tasten-Modul 10 basierend auf dem Versatz der Gesten-Eingabe 16 wählen kann, um welches Inkrement 29 oder um wie viele Inkremente 29 der graphische Selektor 24 bewegt werden soll.
  • Beispielsweise wählt das Graphik-Tasten-Modul 10, wenn der Versatz der Gesten-Eingabe 16 unterhalb eines Versatz-Schwellwerts liegt, ein Inkrement mit einem ersten Betrag. In ähnlicher Weise wählt das Graphik-Tasten-Modul 10, wenn der Versatz der Gesten-Eingabe 16 dem Versatz-Schwellwert gleich oder größer als dieser ist, ein Inkrement mit einem zweiten Betrag, wobei der zweite Betrag größer als der erste Betrag ist. Beispielsweise kann der Versatz-Schwellwert auf ungefähr 1 Zentimeter (cm) gesetzt werden. Jedes Mal, wenn eine direktionale Geste weniger als ungefähr 1 cm beträgt, kann der graphische Selektor 24 um einen Buchstaben, einen Leerschritt oder ein Zeichen in einer der direktionalen Geste entsprechenden Richtung bewegt werden. Jedes Mal hingegen, wenn eine direktionale Geste gleich oder größer als ungefähr 1 cm ist, kann der graphische Selektor 24 um ein Wort in einer der direktionalen Geste entsprechenden Richtung bewegt werden. Gemäß weiteren Beispielen können andere Inkremente und Schwellwerte implementiert werden.
  • Gemäß einem weiteren Beispiel kann es sich bei einer Eigenschaft der Gesten-Eingabe 16 um eine Geschwindigkeit der Gesten-Eingabe 16 handeln. Gemäß einem derartigen Beispiel kann der graphische Selektor 24 um ein erstes Inkrement bewegt werden, wenn die Geschwindigkeit der Gesten-Eingabe 16 unterhalb eines Geschwindigkeits-Schwellwerts liegt, und kann um ein zweites Inkrement bewegt werden, wenn die Geschwindigkeit der Gesten-Eingabe 16 über dem Geschwindigkeits-Schwellwert liegt oder diesem gleich ist. Gemäß einem derartigen Beispiel kann das zweite Inkrement größer als das erste Inkrement sein. Beispielsweise kann, wenn die Geschwindigkeit der Gesten-Eingabe 16 relativ gering ist, der graphische Selektor 24 um einen Buchstaben, einen Leerschritt, ein Zeichen oder eine Zeile in einer der direktionalen Geste der Gesten-Eingabe 16 entsprechenden Richtung bewegt werden. In ähnlicher Weise kann, wenn die Geschwindigkeit der Gesten-Eingabe 16 relativ hoch ist, der graphische Selektor 24 um ein Wort oder einen Anschnitt in einer der direktionalen Geste der Gesten-Eingabe 16 entsprechenden Richtung bewegt werden. Gemäß weiteren Beispielen können andere Inkremente und Schwellwerte implementiert sein.
  • Gemäß weiteren Beispielen können andere Merkmale der Gesten-Eingabe 16 verwendet werden, um zu bestimmen, wie der graphische Selektor 24 bewegt werden soll. Beispielsweise kann der Aspekt, um welches Inkrement 29 und um wie viele Inkremente 29 der graphische Selektor 24 bewegt werden soll, auf der Dauer basieren, während derer der Benutzer 14 die graphische Taste 18 drückt, bevor er sie loslässt.
  • Gemäß weiteren Beispielen kann der graphische Selektor 24 um ein oder mehrere gewählte Inkremente bewegt werden. Gemäß einem derartigen Beispiel kann die Anzahl der gewählten Inkremente zu mindestens einer Eigenschaft der Gesten-Eingabe proportional sein. Dies bedeutet, dass sich die Anzahl von Operationen, die von dem Graphik-Tasten-Modul 10 auf die Gesten-Eingabe 16 hin durchgeführt werden, mit dem Versatz der Gesten-Eingabe 16 vergrößern kann. Beispielsweise kann das Graphik-Tasten-Modul 10 den graphischen Selektor 24 bei jedem ungefähr 1 cm betragendem Versatz der Gesten-Eingabe 16 um ein Inkrement bewegen. Gemäß einem derartigen Beispiel kann, wenn die Gesten-Eingabe 16 einer direktionale Geste von ungefähr 4,3 cm entspricht, das Graphik-Tasten-Modul 10 den graphischen Selektor 24 um vier Inkremente in der Richtung der Gesten-Eingabe 16 bewegen. Gemäß einigen Beispielen wird eine Position des graphischen Selektors 24 während der Durchführung der direktionale Geste in Echtzeit aktualisiert. Gemäß weiteren Beispielen wird der graphische Selektor 24 bis zum Abschluss der direktionale Geste nicht bewegt.
  • Gemäß einigen Beispielen kann eine direktionale Geste in mehrere Sub-Gesten fragmentiert werden. Das Bewegen des graphischen Selektors 24 kann das Bewegen des graphischen Selektors entsprechend der einen oder den mehreren Eigenschaften jeder Sub-Geste umfassen. Beispielsweise kann, wenn es sich bei der direktionalen Geste nicht um eine ungefähr lineare Gesten-Eingabe, sondern eher um eine kurvenförmige Eingabe handelt, die Kurve in im Wesentlichen lineare Sub-Gesten fragmentiert werden. Jede dieser Sub-Gesten kann als separate Gesten-Eingabe 16 behandelt werden. Gemäß einem Beispiel werden die mehreren Sub-Gesten in eine chronologische Reihenfolge von Eingaben gebracht, wobei der graphische Selektor 24 sequentiell in der chronologischen Reihenfolge von Eingaben bewegt wird. Gemäß einem weiteren Beispiel können nichtlineare direktionale Gesten in einer im Wesentlichen kurvenförmgen Bewegung des graphischen Selektors 24 resultieren.
  • Gemäß einem weiteren Beispiel kann die graphische Taste 18 eine bereits existierende Taste einer graphischen Tastatur 4 sein, wobei der bereits existierenden Taste eine direktionale Funktionalität übergelegt ist. Gemäß einem Beispiel kann die bereits existierende Taste der graphischen Tastatur 4 eine Leertaste sein. Das Aktivieren der graphischen Taste 18 kann das Durchführen einer von der Leertaste ausgehenden Swipe-Geste umfassen.
  • Gemäß einem Beispiel kann die Reaktion der graphischen Taste 18 vom Benutzer konfigurierbar sein. Dies bedeutet, dass der Benutzer 14 wählen kann, welche Eigenschaften der Gesten-Eingabe 16 erkannt werden und wie diese Eigenschaften verwendet werden sollen, um den graphischen Selektor 24 zu bewegen. Diese vom Benutzer konfigurierbare Information kann in einer Mapping-Datenbank in der Speichervorrichtung 36 gespeichert sein.
  • Gemäß einigen Beispielen kann die Rechnervorrichtung 2 mindestens teilweise in einer Textumgebung arbeiten. In einer derartigen Textumgebung kann der graphische Selektor 24 ein Text-Cursor sein. Wiederum kann es sich bei einem Inkrement um einen Leerschritt, einen Buchstaben, ein Wort, eine Zeile, einen Satz, einen Abschnitt oder um Kombinationen derselben handeln. Gemäß weiteren Beispielen kann die Rechnervorrichtung 2 mindestens teilweise in einer piktoriellen oder Bild-Umgebung arbeiten. In einer derartigen Bild-Umgebung kann der graphische Selektor 24 ein Pointer sein. In entsprechender Weise kann es sich bei einem Inkrement um ein einzelnes Pixel, eine gewählte Anzahl von Pixeln, einen Block, ein Bildsegment oder um Kombinationen derselben handeln. 4 zeigt ein Beispiel einer Graphik-Tasten-Funktionalität in einer Bild-Umgebung.
  • 4 zeigt ein Schaubild eines Beispiels eines graphischen Selektors, der mittels einer graphischen Taste in einer Bild-Umgebung gesteuert wird, gemäß einem oder mehreren Aspekten der vorliegenden Offenbarung. Gemäß dem in 4 gezeigten Beispiel kann eine Anzeigevorrichtung 20 ein gepixeltes Bild 70 anzeigen. In diesem Beispiel kann der graphische Selektor ein Pointer 74 sein.
  • 4 zeigt mindestens einen Teil der Anzeigevorrichtung 20 in zwei verschiedenen Zeit-Instanzen. Die erste Zeit-Instanz ist durch die durchgezogene Linie des Pointers 74-1 angedeutet, und die zweite Zeit-Instanz ist durch die unterbrochene Linie des Pointers 74-2 angedeutet. In der ersten Zeit-Instanz ist der Pointer 74-1 an der ersten graphischen Position 72 angeordnet und zeigt auf ein erstes gewähltes Pixel 76. Ein Benutzer wie z. B. der Benutzer 14 aktiviert eine graphische Taste, um den Pointer 74-1 in der zweiten Zeit-Instanz an eine zweite graphische Position 78 zu bewegen. Wie gezeigt wird der Pointer 74-2 um 4 Pixel in einer nach rechts oben verlaufenden Diagonalrichtung bewegt. Der Pointer 74-2 wählt nun das zweite gewählte Pixel 80.
  • Gemäß einem weiteren Beispiel kann eine kurze oder langsame Geste den Pointer 74 um ein Pixel, eine Reihe oder eine Spalte in einer der Geste entsprechenden Richtung bewegen, während eine lange oder schnelle Geste den Pointer um zwei oder mehr Pixel, Reihen oder Spalten in einer der Geste entsprechenden Richtung bewegen kann.
  • Gemäß Techniken der vorliegenden Offenbarung kann eine graphische Taste vorgesehen sein, die zum präzisen Anordnen eines in einer Rechnervorrichtung angezeigten graphischen Selektors verwendet werden kann. Der graphische Selektor kann um mindestens ein gewähltes Segment, das auf einer Eigenschaft der Gesten-Eingabe basiert, von einer ersten graphischen Position zu einer zweiten graphischen Position bewegt werden. Beispielsweise kann eine kurze oder langsame Geste den graphischen Selektor um ein Zeichen oder eine Linie in einer der Geste entsprechenden Richtung bewegen, während eine lange oder schnelle Geste den graphischen Selektor um ein Wort oder einen Abschnitt in einer der Geste entsprechenden Richtung bewegen kann. Dies ermöglicht dem Benutzer ein Feinbewegen eines graphischen Selektors, selbst wenn ein berührungs-sensitiver Bildschirm der Rechnervorrichtung im Vergleich mit dem Hilfsmittel, das zum Berühren des berührungs-sensitiven Bildschirms verwendet wird, relativ klein ist.
  • Die hier beschriebenen Techniken können mindestens teilweise in Hardware, Software, Firmware oder jeglicher Kombination derselben verwendet werden. Beispielsweise können verschiedene Aspekte der beschriebenen Ausführungsformen innerhalb eines oder mehrerer Prozessoren einschließlich eines oder mehrerer Mikroprozessoren, Digitalsignalprozessoren (DSPs), anwendungsspezifischer IC-Schaltungen (ASICs), feldprogrammierbarer Gate-Arrays (FPGAs) oder anderer äquivalenter IC- oder diskreter Logik-Schaltungen sowie jeglicher Kombinationen derartiger Komponenten implementiert werden. Der Ausdruck ”Prozessor” oder ”Prozessorschaltung” kann sich generell auf irgendeine der vorgenannten Logikschaltungen, allein oder in Verbindung mit anderen Logikschaltungen, oder auf jede andere äquivalente Schaltung beziehen. Eine Steuereinheit, die Hardware enthält, kann ebenfalls eine oder mehrere der Techniken gemäß dieser Offenbarung durchführen.
  • Derartige Hardware, Software oder Firmware kann innerhalb der gleichen Vorrichtung oder innerhalb separater Vorrichtungen implementiert werden, um die verschiedenen hier beschriebenen Techniken zu stützen. Zudem können sämtliche der hier beschriebenen Einheiten, Module oder Komponenten zusammen oder separat als diskrete, jedoch interoperable Logik-Vorrichtungen implementiert werden. Die Beschreibung verschiedener Merkmale als Module oder Einheiten dient der Betonung verschiedener funktionaler Aspekte und impliziert nicht notwendigerweise, dass derartige Module oder Einheiten durch separate Hardware-, Firmware- oder Software-Komponenten realisiert werden. Vielmehr kann die Funktionalität, die dem bzw. der einen oder den mehreren Modulen oder Einheiten zugewiesen ist, auch durch separate Hardware-, Firmware- oder Software-Komponenten ausgeführt werden oder in gemeinsamen Hardware-, Firmware- oder Software-Komponenten integriert sein.
  • Hier beschriebene Techniken können ferner in einem Industrieprodukt – einschließlich eines mit Instruktionen kodierten computerlesbaren Speichermediums – ausgebildet oder kodiert sein. In einem Industrieprodukt einschließlich eines kodierten computerlesbaren Speichermediums ausgebildete oder kodierte Instruktionen können einen oder mehrere programmierbare Prozessoren oder andere Prozessoren veranlassen, eine oder mehrere der hier beschriebenen Techniken zu implementieren, wie z. B. wenn in dem computerlesbaren Speichermedium ausgebildete oder kodierte Instruktionen von dem einen oder den mehreren Prozessoren ausgeführt werden. Zu den computerlesbaren Speichermedien zählen Speicher mit wahlweisem Zugriff (RAM), Nurlesespeicher (ROM), programmierbare Nurlesespeicher (PROM), löschbare programmierbare Nurlesespeicher (EPROM), elektronisch löschbare programmierbare Nurlesespeicher (EEPROM), Flash-Speicher, eine Festplatte, eine Compact-Disc-ROM (CD-ROM), eine Diskette, eine Kassette, magnetische Medien, optische Medien oder andere computerlesbare Medien. Gemäß einigen Beispielen kann ein Industrieprodukt ein oder mehrere computerlesbaren Speichermedien aufweisen.
  • Gemäß einigen Beispielen können computerlesbare Speichermedien nichtflüchtige Medien aufweisen. Der Ausdruck ”nichtflüchtig” kann darauf hinweisen, dass das Speichermedium nicht in einer Trägerwelle oder einem ausgegebenen Signal ausgebildet ist. Gemäß bestimmten Beispielen kann ein nichtflüchtiges Speichermedium Daten speichern, die sich über der Zeit ändern können (z. B. in einem RAM oder Cache).
  • Es sind verschiedene Aspekte der Offenbarung beschrieben worden. Aspekte oder Merkmale hier beschriebener Beispiele können mit jedem anderen Aspekt oder Merkmal, der bzw. das in einem anderen Beispiel beschrieben ist, kombiniert werden. Diese und weitere Ausführungsformen fallen unter den Umfang der folgenden Ansprüche.

Claims (58)

  1. Rechnervorrichtung mit: einem oder mehreren Prozessoren; einer Eingabevorrichtung, die eine Gesten-Eingabe empfängt, welche einer direktionalen Geste entspricht; einer Ausgabevorrichtung, die einen graphischen Selektor anzeigt; und einer Vorrichtung, um den graphischen Selektor um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert, von einer ersten graphischen Position zu einer zweiten graphischen Position zu bewegen.
  2. Rechnervorrichtung nach Anspruch 1, bei der der Prozessor zum Aktivieren einer graphischen Taste konfiguriert ist, die mittels der Ausgabevorrichtung angezeigt wird, und bei der die Eingabevorrichtung die Gesten-Eingabe auf die Aktivierung der graphischen Taste hin empfängt.
  3. Rechnervorrichtung nach Anspruch 1 oder 2, bei der der Prozessor ferner zum Aktivieren der graphischen Taste als Reaktion darauf konfiguriert ist, dass die Eingabevorrichtung eine Touch-Eingabe nahe an einem graphischen Bereich der Eingabevorrichtung empfängt, welcher der graphischen Taste entspricht.
  4. Rechnervorrichtung nach einem der Ansprüche 1 bis 3, bei der die direktionale Geste eine von der graphischen Taste ausgehende Swipe-Bewegung aufweist.
  5. Rechnervorrichtung nach einem der Ansprüche 1 bis 4, bei der die Eigenschaft der Gesten-Eingabe eine Bewegungsrichtung der Gesten-Eingabe aufweist, und bei der der graphische Selektor in einer Richtung bewegt wird, die mit der Bewegungsrichtung der Gesten-Eingabe in Beziehung steht.
  6. Rechnervorrichtung nach einem der Ansprüche 1 bis 5, bei der die Eigenschaft der Gesten-Eingabe einen Versatz der direktionalen Geste aufweist.
  7. Rechnervorrichtung nach Anspruch 6, bei der das mindestens eine gewählte Inkrement einen ersten Betrag aufweist, wenn der Versatz der Gesten-Eingabe unter einem Versatz-Schwellwert liegt, und bei der das mindestens eine gewählte Inkrement einen größer als der erste Betrag bemessenen zweiten Betrag aufweist, wenn der Versatz der Gesten-Eingabe gleich dem Versatz-Schwellwert ist oder über diesem liegt.
  8. Rechnervorrichtung nach einem der Ansprüche 1 bis 7, bei der die Eigenschaft der Gesten-Eingabe eine Bewegungsgeschwindigkeit der Gesten-Eingabe aufweist.
  9. Rechnervorrichtung nach Anspruch 8, bei der das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, bei der der graphische Selektor um das erste Inkrement bewegt wird, wenn die Bewegungsgeschwindigkeit der Gesten-Eingabe unter einem Geschwindigkeits-Schwellwert liegt, und bei der der graphische Selektor um ein zweites Inkrement bewegt wird, wenn die Geschwindigkeit der Gesten-Eingabe über dem Geschwindigkeits-Schwellwert liegt oder diesem gleich ist, wobei das zweite Inkrement größer als das erste Inkrement ist.
  10. Rechnervorrichtung nach einem der Ansprüche 1 bis 9, bei der der graphische Selektor einen Text-Cursor aufweist; und bei der das mindestens eine gewählte Inkrement ein Raumbereich, ein Buchstabe, ein Wort, eine Zeile, ein Satz, ein Abschnitt oder irgendeine Kombination derselben ist.
  11. Rechnervorrichtung nach einem der Ansprüche 1 bis 9, bei der der graphische Selektor einen Pointer aufweist; und bei der das mindestens eine gewählte Inkrement ein einzelnes Pixel, eine gewählte Anzahl von Pixeln, ein Block, ein Bildsegment oder irgendeine Kombination derselben ist.
  12. Rechnervorrichtung nach einem der Ansprüche 1 bis 11, bei der die graphische Taste eine bereits existierende Taste einer graphischen Tastatur aufweist und bei der die Ausgabevorrichtung ein präsenz-sensitives Interface aufweist.
  13. Rechnervorrichtung nach Anspruch 12, bei der die bereits existierende Taste eine Leertaste ist, und bei der der Prozessor derart konfiguriert ist, dass er die graphische Taste auf den Empfang einer von der Leertaste ausgehenden Swipe-Geste hin aktiviert.
  14. Rechnervorrichtung nach einem der Ansprüche 1 bis 13, bei der die Vorrichtung zum Bewegen des graphischen Selektors ferner eine Vorrichtung zum Bewegen des graphischen Selektors um ein oder mehrere gewählte Inkremente aufweist, wobei die Anzahl gewählter Inkremente proportional zu der mindestens einen Eigenschaft der Gesten-Eingabe ist.
  15. Rechnervorrichtung nach Anspruch 14, bei der der Prozessor derart konfiguriert ist, dass er eine Position des graphischen Selektors in Echtzeit aktualisiert, während er die direktionale Geste empfängt.
  16. Rechnervorrichtung nach Anspruch 14, bei der der Prozessor derart konfiguriert ist, dass er die direktionale Geste in mehrere Sub-Gesten fragmentiert, und bei der die Vorrichtung zum Bewegen des graphischen Selektors ferner eine Vorrichtung zum Bewegen des graphischen Selektors entsprechend einer oder mehrerer Eigenschaften jeder Sub-Geste aufweist.
  17. Rechnervorrichtung nach Anspruch 16, bei der der Prozessor ferner derart konfiguriert ist, dass er die mehreren Sub-Gesten in einer chronologischen Reihenfolge von Eingaben ordnet, und bei der die Vorrichtung zum Bewegen des graphischen Selektors ferner ein sequentielles Bewegen des graphischen Selektors in der chronologischen Reihenfolge von Eingaben umfasst.
  18. Rechnervorrichtung nach einem der Ansprüche 1 bis 17, bei der der Prozessor derart konfiguriert ist, dass er die graphische Taste bei Abschluss der direktionalen Geste deaktiviert.
  19. Rechnervorrichtung nach Anspruch 18, bei der die Eingabevorrichtung ein berührungsbasiertes Interface ist, und bei der die direktionale Geste abgeschlossen ist, wenn ein Benutzer eine Berührung des berührungsbasierten Interface aufhebt.
  20. Greifbares computerlesbares Medium mit Instruktionen, um einen programmierbaren Prozessor zum Durchführen von Operationen zu veranlassen, die umfassen: mittels einer Rechnervorrichtung vorgenommenes Aktivieren einer graphischen Taste, die unter Verwendung des eines präsenz-sensitiven Interface der Rechnervorrichtung angezeigt wird; bei Aktivierung der graphischen Taste, Empfangen einer Gesten-Eingabe, die einer direktionalen Geste entspricht, unter Verwendung des des präsenz-sensitiven Interface der Rechnervorrichtung, und Bewegen eines mittels der Rechnervorrichtung angezeigten graphischen Selektors von einer ersten graphischen Position zu einer zweiten graphischen Position um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert.
  21. Greifbares computerlesbares Medium nach Anspruch 20, bei dem die direktionale Geste eine von der graphischen Taste ausgehende Swipe-Bewegung aufweist.
  22. Greifbares computerlesbares Medium nach Anspruch 20 oder 21, bei dem die Eigenschaft der Gesten-Eingabe eine Bewegungsrichtung der Gesten-Eingabe aufweist, und bei dem der graphische Selektor in einer Richtung bewegt wird, die mit der Bewegungsrichtung der Gesten-Eingabe in Beziehung steht.
  23. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 22, bei dem die Eigenschaft der Gesten-Eingabe einen Versatz der direktionalen Geste aufweist.
  24. Greifbares computerlesbares Medium nach Anspruch 23, bei dem das mindestens eine gewählte Inkrement einen ersten Betrag aufweist, wenn der Versatz der Gesten-Eingabe unter einem Versatz-Schwellwert liegt, und bei dem das mindestens eine gewählte Inkrement einen größer als der erste Betrag bemessenen zweiten Betrag aufweist, wenn der Versatz der Gesten-Eingabe gleich dem Versatz-Schwellwert ist oder über diesem liegt.
  25. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 24, bei dem die Eigenschaft der Gesten-Eingabe eine Bewegungsgeschwindigkeit der Gesten-Eingabe aufweist.
  26. Greifbares computerlesbares Medium nach Anspruch 25, bei dem das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, bei dem der graphische Selektor um das erste Inkrement bewegt wird, wenn die Bewegungsgeschwindigkeit der Gesten-Eingabe unter einem Geschwindigkeits-Schwellwert liegt, und bei dem der graphische Selektor um ein zweites Inkrement bewegt wird, wenn die Geschwindigkeit der Gesten-Eingabe über dem Geschwindigkeits-Schwellwert liegt oder diesem gleich ist, wobei das zweite Inkrement größer als das erste Inkrement ist.
  27. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 26, bei dem der graphische Selektor einen Text-Cursor aufweist; und bei dem das mindestens eine gewählte Inkrement ein Raumbereich, ein Buchstabe, ein Wort, eine Zeile, ein Satz, ein Abschnitt oder irgendeine Kombination derselben ist.
  28. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 26, bei dem der graphische Selektor einen Pointer aufweist; und bei dem das mindestens eine gewählte Inkrement ein einzelnes Pixel, eine gewählte Anzahl von Pixeln, ein Block, ein Bildsegment oder irgendeine Kombination derselben ist.
  29. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 28, bei dem die graphische Taste eine bereits existierende Taste einer graphischen Tastatur ist.
  30. Greifbares computerlesbares Medium nach Anspruch 29, bei dem die bereits existierende Taste eine Leertaste ist, und bei dem das Aktivieren der graphischen Taste das Aktivieren der graphischen Taste auf den Empfang einer von der Leertaste ausgehenden Swipe-Geste hin umfasst.
  31. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 30, bei dem das Aktivieren der graphischen Taste das Aktivieren der graphischen Taste als Reaktion auf eine Berührung der graphischen Taste durch einen Benutzer umfasst.
  32. Greifbares computerlesbares Medium nach einem der Ansprüche 20 bis 31, bei dem das Bewegen des graphischen Selektors ferner das Bewegen des graphischen Selektors um ein oder mehrere gewählte Inkremente umfasst, wobei die Anzahl gewählter Inkremente proportional zu der mindestens einen Eigenschaft der Gesten-Eingabe ist.
  33. Greifbares computerlesbares Medium nach Anspruch 32, ferner mit: dem Aktualisieren einer Position des graphischen Selektors in Echtzeit, während die direktionale Geste empfangen wird.
  34. Greifbares computerlesbares Medium nach Anspruch 32 oder 33, ferner mit: dem Fragmentieren der direktionalen Geste in mehrere Sub-Gesten, wobei das Bewegen des graphischen Selektors ferner das Bewegen des graphischen Selektors entsprechend einer oder mehrerer Eigenschaften jeder Sub-Geste umfasst.
  35. Greifbares computerlesbares Medium nach Anspruch 34, ferner mit: dem Ordnen der mehreren Sub-Gesten in einer chronologischen Reihenfolge von Eingaben, wobei das Bewegen des graphischen Selektors ferner ein sequentielles Bewegen des graphischen Selektors in der chronologischen Reihenfolge von Eingaben umfasst.
  36. Greifbares computerlesbares Medium nach Anspruch 20 bis 35, ferner mit: dem Deaktivieren der graphischen Taste bei Abschluss der direktionalen Geste.
  37. Greifbares computerlesbares Medium nach Anspruch 36, bei dem das präsenz-basierte Interface ein berührungsbasiertes Interface ist, und bei dem die direktionale Geste abgeschlossen ist, wenn ein Benutzer eine Berührung des berührungsbasierten Interface aufhebt.
  38. Computerlesbares Medium mit Instruktionen, um einen programmierbaren Prozessor zum Durchführen von Operationen zu veranlassen, die umfassen: mittels einer Rechnervorrichtung vorgenommenes Aktivieren einer graphischen Taste, die ein Touch-Target aufweist und die an einem berührungsbasierten Interface der Rechnervorrichtung angezeigt wird; bei Aktivierung der graphischen Taste, Empfangen einer Gesten-Eingabe, die einer direktionalen Geste an dem berührungsbasierten Interface der Rechnervorrichtung entspricht, und Bewegen eines an dem berührungsbasierten Interface angezeigten Text-Cursors von einer ersten graphischen Position an dem berührungsbasierten Interface zu einer zweiten graphischen Position an dem berührungsbasierten Interface um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert, wobei das mindestens eine gewählte Inkrement ein Leerschritt, ein Buchstabe, ein Wort, eine Zeile, ein Satz, ein Abschnitt oder irgendeine Kombination derselben ist.
  39. Computerlesbares Medium nach Anspruch 38, bei dem die direktionale Geste eine von einer graphischen Position der graphischen Taste ausgehende Swipe-Bewegung aufweist.
  40. Computerlesbares Medium nach Anspruch 38 oder 39, bei dem: die Eigenschaft der Gesten-Eingabe eine Bewegungsrichtung der Gesten-Eingabe aufweist, und der Text-Cursor in einer Richtung bewegt wird, die mit der Bewegungsrichtung der Gesten-Eingabe in Beziehung steht.
  41. Computerlesbares Medium nach einem der Ansprüche 38 bis 40, bei dem die Eigenschaft der Gesten-Eingabe einen Versatz der direktionalen Geste aufweist.
  42. Computerlesbares Medium nach Anspruch 41, bei dem: das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, wenn der Versatz der Gesten-Eingabe unter einem Versatz-Schwellwert liegt, und das mindestens eine gewählte Inkrement ein größer als der erste Inkrement bemessenes zweites Inkrement aufweist, wenn der Versatz der Gesten-Eingabe gleich dem Versatz-Schwellwert ist oder über diesem liegt.
  43. Computerlesbares Medium nach einem der Ansprüche 38 bis 42, bei dem die Eigenschaft der Gesten-Eingabe eine Bewegungsgeschwindigkeit der Gesten-Eingabe aufweist.
  44. Computerlesbares Medium nach einem der Ansprüche 38 bis 43, bei dem: das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, der Text-Cursor um das erste Inkrement bewegt wird, wenn die Bewegungsgeschwindigkeit der Gesten-Eingabe unter einem Geschwindigkeits-Schwellwert liegt, und der Text-Cursor um ein zweites Inkrement bewegt wird, wenn die Geschwindigkeit der Gesten-Eingabe über dem Geschwindigkeits-Schwellwert liegt oder diesem gleich ist, wobei das zweite Inkrement größer als das erste Inkrement ist.
  45. Computerlesbares Medium nach einem der Ansprüche 38 bis 44, bei dem die graphische Taste eine bereits existierende Taste einer graphischen Tastatur ist.
  46. Computerlesbares Medium nach Anspruch 45, bei dem: die bereits existierende Taste eine Leertaste ist, und das Aktivieren der graphischen Taste das Aktivieren der graphischen Taste auf den Empfang einer von der Leertaste ausgehenden Swipe-Geste hin umfasst.
  47. Computerlesbares Medium nach einem der Ansprüche 38 bis 46, bei dem das Aktivieren der graphischen Taste das Aktivieren der graphischen Taste als Reaktion auf eine Berührung der graphischen Taste durch einen Benutzer umfasst.
  48. Computerlesbares Medium nach einem der Ansprüche 38 bis 47, bei dem das Bewegen des Text-Cursors ferner das Bewegen des Text-Cursors um ein oder mehrere gewählte Inkremente umfasst, wobei die Anzahl gewählter Inkremente proportional zu der mindestens einen Eigenschaft der Gesten-Eingabe ist.
  49. Computerlesbares Medium nach Anspruch 48, ferner mit: dem Aktualisieren einer Position des Text-Cursors im Wesentlichen in Echtzeit, während die direktionale Geste empfangen wird.
  50. Computerlesbares Medium nach Anspruch 48 oder 49, ferner mit: dem Definieren mehrerer Sub-Gesten basierend auf der direktionalen Geste, wobei das Bewegen des Text-Cursors ferner das Bewegen des graphischen Selektors entsprechend einer oder mehrerer Eigenschaften jeder Sub-Geste umfasst.
  51. Computerlesbares Medium nach Anspruch 50, ferner mit: dem Ordnen der mehreren Sub-Gesten in einer chronologischen Reihenfolge von Eingaben, wobei das Bewegen des Text-Cursors ferner ein sequentielles Bewegen des Text-Cursors in der chronologischen Reihenfolge von Eingaben umfasst.
  52. Computerlesbares Medium nach einem der Ansprüche 38 bis 51, ferner mit: dem Deaktivieren der graphischen Taste bei Abschluss der direktionalen Geste.
  53. Computerlesbares Medium nach einem der Ansprüche 38 bis 52, bei dem die direktionale Geste abgeschlossen ist, wenn ein Benutzer eine Berührung des berührungsbasierten Interface aufhebt.
  54. Greifbares computerlesbares Medium mit Instruktionen, um einen programmierbaren Prozessor zum Durchführen von Operationen zu veranlassen, die umfassen: mittels einer Rechnervorrichtung vorgenommenes Aktivieren einer graphischen Taste, die ein Touch-Target aufweist und an einem berührungsbasierten Interface der Rechnervorrichtung angezeigt wird; bei Aktivierung der graphischen Taste, Empfangen einer Gesten-Eingabe, die einer direktionalen Geste an dem berührungsbasierten Interface der Rechnervorrichtung entspricht, und Bewegen eines an der Rechnervorrichtung angezeigten Text-Cursors von einer ersten graphischen Position an dem berührungsbasierten Interface zu einer zweiten graphischen Position an dem berührungsbasierten Interface um mindestens ein gewähltes Inkrement, das auf einer Eigenschaft der Gesten-Eingabe basiert, wobei das mindestens eine gewählte Inkrement ein Leerschritt, ein Buchstabe, ein Wort, eine Zeile, ein Satz, ein Abschnitt oder irgendeine Kombination derselben ist.
  55. Greifbares computerlesbares Medium nach Anspruch 54, bei dem: die Eigenschaft der Gesten-Eingabe eine Bewegungsgeschwindigkeit der Gesten-Eingabe aufweist, wobei das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, bei dem der Text-Cursor um das erste Inkrement bewegt wird, wenn die Bewegungsgeschwindigkeit der Gesten-Eingabe unter einem Geschwindigkeits-Schwellwert liegt, und bei dem der Text-Cursor um ein zweites Inkrement bewegt wird, wenn die Geschwindigkeit der Gesten-Eingabe über dem Geschwindigkeits-Schwellwert liegt oder diesem gleich ist, wobei das zweite Inkrement größer als das erste Inkrement ist.
  56. Rechnervorrichtung mit: einem oder mehreren Prozessoren; einer Eingabevorrichtung, die eine Gesten-Eingabe empfängt, welche einer direktionalen Geste entspricht; einer Ausgabevorrichtung, die einen Text-Kursor anzeigt; und einer Vorrichtung, um den Text-Cursor von einer ersten graphischen Position an dem berührungsbasierten Interface zu einer zweiten graphischen Position an dem berührungsbasierten Interface um mindestens ein gewähltes Inkrement zu bewegen, das auf einer Eigenschaft der Gesten-Eingabe basiert, wobei das mindestens eine gewählte Inkrement ein Leerschritt, ein Buchstabe, ein Wort, eine Zeile, ein Satz, ein Abschnitt oder irgendeine Kombination derselben ist.
  57. Rechnervorrichtung nach Anspruch 56, bei der: die Eigenschaft der Gesten-Eingabe einen Versatz der direktionalen Geste aufweist. das mindestens eine gewählte Inkrement ein erstes Inkrement aufweist, wenn der Versatz der Gesten-Eingabe unter einem Versatz-Schwellwert liegt, und das mindestens eine gewählte Inkrement ein größer als der erste Inkrement bemessenes zweites Inkrement aufweist, wenn der Versatz der Gesten-Eingabe gleich dem Versatz-Schwellwert ist oder über diesem liegt.
  58. Rechnervorrichtung mit: einem oder mehreren Prozessoren; einer Eingabevorrichtung, die eine Gesten-Eingabe empfängt, welche einer direktionalen Geste entspricht; einer Ausgabevorrichtung, die einen graphischen Selektor anzeigt; wobei der eine oder die mehreren Prozessoren Operationen durchführen, die durch die Instruktionen des computerlesbaren Mediums nach einem der Ansprüche 38 bis 55 veranlasst werden.
DE202012005481U 2011-05-27 2012-05-25 Bewegen eines graphischen Selektors Expired - Lifetime DE202012005481U1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US13/117,924 2011-05-27
US13/117,924 US8826190B2 (en) 2011-05-27 2011-05-27 Moving a graphical selector
US13/250,675 US8656315B2 (en) 2011-05-27 2011-09-30 Moving a graphical selector
US13/250,675 2011-09-30

Publications (1)

Publication Number Publication Date
DE202012005481U1 true DE202012005481U1 (de) 2012-10-25

Family

ID=47228741

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202012005481U Expired - Lifetime DE202012005481U1 (de) 2011-05-27 2012-05-25 Bewegen eines graphischen Selektors

Country Status (2)

Country Link
US (1) US8656315B2 (de)
DE (1) DE202012005481U1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062356A1 (en) * 2012-10-16 2014-04-24 Google Inc. Gesture-based cursor control

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
EP2776906A4 (de) 2011-11-09 2015-07-22 Blackberry Ltd Berührungsempfindliche anzeige mit dualem trackpad
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
CN103380407B (zh) 2012-02-24 2017-05-03 黑莓有限公司 在触摸屏键盘与候选字母靠近关联的分区中提供词预测的触摸屏键盘
US20130342452A1 (en) * 2012-06-21 2013-12-26 Research In Motion Limited Electronic device including touch-sensitive display and method of controlling a position indicator
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US8656296B1 (en) 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9804777B1 (en) 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
KR20140089696A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 가상 키패드 운용 방법 및 이를 지원하는 단말기
US20140306897A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
US9146672B2 (en) * 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
JP2015127872A (ja) * 2013-12-27 2015-07-09 ソニー株式会社 制御装置、制御方法、及び、プログラム
KR102217560B1 (ko) * 2014-03-20 2021-02-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102160105B1 (ko) * 2014-10-15 2020-09-25 삼성전자주식회사 사용자 인터페이스를 제공하는 방법 및 장치
WO2016060501A1 (en) * 2014-10-15 2016-04-21 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
US9864515B1 (en) * 2014-10-24 2018-01-09 Google Llc Virtual joystick on a touch-sensitive screen
US20160313888A1 (en) * 2015-04-27 2016-10-27 Ebay Inc. Graphical user interface for distraction free shopping on a mobile device
US20170024086A1 (en) * 2015-06-23 2017-01-26 Jamdeo Canada Ltd. System and methods for detection and handling of focus elements
CN106855796A (zh) * 2015-12-09 2017-06-16 阿里巴巴集团控股有限公司 一种数据处理方法、装置和智能终端

Family Cites Families (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4566000A (en) 1983-02-14 1986-01-21 Prime Computer, Inc. Image display apparatus and method having virtual cursor
US5327161A (en) 1989-08-09 1994-07-05 Microtouch Systems, Inc. System and method for emulating a mouse input device with a touchpad input device
US5666113A (en) 1991-07-31 1997-09-09 Microtouch Systems, Inc. System for using a touchpad input device for cursor control and keyboard emulation
US5523775A (en) 1992-05-26 1996-06-04 Apple Computer, Inc. Method for selecting objects on a computer display
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
JP3280559B2 (ja) * 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
US5953541A (en) 1997-01-24 1999-09-14 Tegic Communications, Inc. Disambiguating system for disambiguating ambiguous input sequences by displaying objects associated with the generated input sequences in the order of decreasing frequency of use
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
KR100327209B1 (ko) 1998-05-12 2002-04-17 윤종용 첨펜의자취를이용한소프트웨어키보드시스템및그에따른키코드인식방법
US7032171B1 (en) 1998-12-31 2006-04-18 International Business Machines Corporation System and method for selecting and processing information in an electronic document
US7293231B1 (en) 1999-03-18 2007-11-06 British Columbia Ltd. Data entry for personal computing devices
US7750891B2 (en) 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
WO2000074240A1 (en) 1999-05-27 2000-12-07 America Online Keyboard system with automatic correction
US7821503B2 (en) * 2003-04-09 2010-10-26 Tegic Communications, Inc. Touch screen and graphical user interface
EP1303805B1 (de) 2000-07-21 2010-02-10 Speedscript AG Verfahren für ein schnellschreibsystem und schnellschreibgerät
US6704034B1 (en) 2000-09-28 2004-03-09 International Business Machines Corporation Method and apparatus for providing accessibility through a context sensitive magnifying glass
US6891551B2 (en) 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US20030234766A1 (en) 2001-02-15 2003-12-25 Hildebrand Alfred P. Virtual image display with virtual keyboard
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP3971907B2 (ja) 2001-09-17 2007-09-05 アルプス電気株式会社 座標入力装置及び電子機器
US6956979B2 (en) 2001-10-04 2005-10-18 International Business Machines Corporation Magnification of information with user controlled look ahead and look behind contextual information
US7042443B2 (en) 2001-10-11 2006-05-09 Woodard Scott E Speed Writer program and device with Speed Writer program installed
US9213443B2 (en) 2009-02-15 2015-12-15 Neonode Inc. Optical touch screen systems using reflected light
US7075520B2 (en) 2001-12-12 2006-07-11 Zi Technology Corporation Ltd Key press disambiguation using a keypad of multidirectional keys
US7466307B2 (en) * 2002-04-11 2008-12-16 Synaptics Incorporated Closed-loop sensor on a solid-state object position detector
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
CN1717648A (zh) 2002-11-29 2006-01-04 皇家飞利浦电子股份有限公司 具有触摸区域的移动表示的用户界面
US7199786B2 (en) 2002-11-29 2007-04-03 Daniel Suraqui Reduced keyboards system using unistroke input and having automatic disambiguating and a recognition method using said system
US7251367B2 (en) 2002-12-20 2007-07-31 International Business Machines Corporation System and method for recognizing word patterns based on a virtual keyboard layout
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US7453439B1 (en) 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
SG135918A1 (en) 2003-03-03 2007-10-29 Xrgomics Pte Ltd Unambiguous text input method for touch screens and reduced keyboard systems
US7571393B2 (en) 2003-04-15 2009-08-04 Microsoft Corporation Method for navigation between elements on a page of content in a handheld device
US20050076300A1 (en) 2003-10-02 2005-04-07 International Business Machines Corporation Block marker system
US7250938B2 (en) 2004-01-06 2007-07-31 Lenovo (Singapore) Pte. Ltd. System and method for improved user input on personal computing devices
US7706616B2 (en) 2004-02-27 2010-04-27 International Business Machines Corporation System and method for recognizing word patterns in a very large vocabulary based on a virtual keyboard layout
US20060005151A1 (en) 2004-07-02 2006-01-05 Adobe Systems Graphical interface for adjustment of text selections
US20060176283A1 (en) 2004-08-06 2006-08-10 Daniel Suraqui Finger activated reduced keyboard and a method for performing text input
US7508324B2 (en) 2004-08-06 2009-03-24 Daniel Suraqui Finger activated reduced keyboard and a method for performing text input
US7434173B2 (en) * 2004-08-30 2008-10-07 Microsoft Corporation Scrolling web pages using direct interaction
CN101014927A (zh) 2004-09-14 2007-08-08 诺基亚公司 使用指示设备的方法
WO2006036887A2 (en) 2004-09-28 2006-04-06 Yost David A Improved system of gui text cursor, caret, and selection
US7683889B2 (en) 2004-12-21 2010-03-23 Microsoft Corporation Pressure based selection
US8036878B2 (en) 2005-05-18 2011-10-11 Never Wall Treuhand GmbH Device incorporating improved text input mechanism
TWI307854B (en) 2005-09-30 2009-03-21 Hon Hai Prec Ind Co Ltd Apparatus and method for controlling a cursor
US7659887B2 (en) 2005-10-20 2010-02-09 Microsoft Corp. Keyboard with a touchpad layer on keys
US7877685B2 (en) 2005-12-29 2011-01-25 Sap Ag Persistent adjustable text selector
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
KR100813062B1 (ko) 2006-05-03 2008-03-14 엘지전자 주식회사 휴대용 단말기 및 이를 이용한 텍스트 표시 방법
KR100897806B1 (ko) 2006-05-23 2009-05-15 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
US8421602B2 (en) 2006-09-13 2013-04-16 Savant Systems, Llc Remote control unit for a programmable multimedia controller
US8570278B2 (en) 2006-10-26 2013-10-29 Apple Inc. Portable multifunction device, method, and graphical user interface for adjusting an insertion point marker
US20080307350A1 (en) 2007-06-09 2008-12-11 Alessandro Francesco Sabatelli Method and Apparatus for Improved Desktop Arrangement
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US9619143B2 (en) * 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US20090064045A1 (en) * 2007-09-04 2009-03-05 Christopher Tremblay Low memory rendering of graphical objects
US8482521B2 (en) * 2007-10-05 2013-07-09 Gvbb Holdings S.A.R.L. Pointer controlling apparatus
US9274698B2 (en) 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
US20090189862A1 (en) 2008-01-24 2009-07-30 Viberg Daniel Method, computer program product and device for text editing
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
CN101266520B (zh) 2008-04-18 2013-03-27 上海触乐信息科技有限公司 一种可实现灵活键盘布局的系统
TW201005598A (en) * 2008-07-18 2010-02-01 Asustek Comp Inc Touch-type mobile computing device and display method thereof
WO2010016065A1 (en) 2008-08-08 2010-02-11 Moonsun Io Ltd. Method and device of stroke based user input
US8356059B2 (en) 2008-11-14 2013-01-15 Microsoft Corporation Method and system for rapid and cost-effective development of user generated content
US8584031B2 (en) 2008-11-19 2013-11-12 Apple Inc. Portable touch screen device, method, and graphical user interface for using emoji characters
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
CA2751480C (en) * 2009-02-23 2017-05-30 Research In Motion Limited Touch-sensitive display and method of controlling same
US20100235784A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
US8739055B2 (en) * 2009-05-07 2014-05-27 Microsoft Corporation Correction of typographical errors on touch displays
US20100293460A1 (en) 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
US8135582B2 (en) 2009-10-04 2012-03-13 Daniel Suraqui Keyboard system and method for global disambiguation from classes with dictionary database from first and last letters
KR20110037298A (ko) * 2009-10-06 2011-04-13 삼성전자주식회사 리스트 편집 방법 및 이를 지원하는 휴대 단말기
US8365059B2 (en) 2009-11-03 2013-01-29 Oto Technologies, Llc E-reader semantic text manipulation
US8839150B2 (en) * 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
US8756522B2 (en) * 2010-03-19 2014-06-17 Blackberry Limited Portable electronic device and method of controlling same
US9292161B2 (en) * 2010-03-24 2016-03-22 Microsoft Technology Licensing, Llc Pointer tool with touch-enabled precise placement
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US20110273379A1 (en) * 2010-05-05 2011-11-10 Google Inc. Directional pad on touchscreen
US20110320978A1 (en) 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120013541A1 (en) 2010-07-14 2012-01-19 Research In Motion Limited Portable electronic device and method of controlling same
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
US10503255B2 (en) 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
US20120185787A1 (en) 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US9092132B2 (en) * 2011-01-24 2015-07-28 Apple Inc. Device, method, and graphical user interface with a dynamic gesture disambiguation threshold
US20120268387A1 (en) 2011-04-19 2012-10-25 Research In Motion Limited Text indicator method and electronic device
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US8677232B2 (en) 2011-05-31 2014-03-18 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
CN103608760A (zh) 2011-06-03 2014-02-26 谷歌公司 用于选择文本的手势
US9323415B2 (en) 2011-06-29 2016-04-26 Nokia Technologies Oy Apparatus and associated methods related to touch sensitive displays
US9317196B2 (en) 2011-08-10 2016-04-19 Microsoft Technology Licensing, Llc Automatic zooming for text selection/cursor placement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014062356A1 (en) * 2012-10-16 2014-04-24 Google Inc. Gesture-based cursor control

Also Published As

Publication number Publication date
US8656315B2 (en) 2014-02-18
US20130036388A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
DE202012005481U1 (de) Bewegen eines graphischen Selektors
DE102014002848B4 (de) Austausch von Zeichenfolgen
DE102013211011B4 (de) Entsperrungsverfahren und Mobilgerät, das dasselbe verwendet
DE102017105924A1 (de) Computergeräte mit Wischoberflächen und Verfahren für deren Betrieb
DE112012000299T5 (de) Verfahren und Vorrichtung zur Textauswahl
DE112013003891B4 (de) Anzeigen einer grafischen Tastatur
DE202016001024U1 (de) Navigations-Benutzerschnittstelle
DE102013017195A1 (de) Löschung mit visueller Rückkopplung
DE102013103616A1 (de) Berührungsbildschirm Texteingabe
DE202016001819U1 (de) Berührungseingabe-Cursor-Manipulation
DE212009000073U1 (de) Navigieren zwischen Aktivitäten in einem Computergerät
DE112013002409T5 (de) Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Anzeige zusätzlicher Informationen in Reaktion auf einen Benutzerkontakt
DE202012005717U1 (de) Zeichenerkennung für überlappende Benutzer-Texteingabe
DE102018100809A1 (de) Verfahren, vorrichtung und endgerät zum anzeigen einer virtuellen tastatur
DE202011106877U1 (de) Modusumschaltung
DE112011101209T5 (de) Warnmeldungs-Anzeige auf einer tragbaren elektronischen Vorrichtung
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE69221204T2 (de) Datenverarbeitungsgerät zur Fensterpositionensteuerung
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
DE102016006762A1 (de) Informationsverarbeitungsvorrichtung zum editieren elektronischer daten durch berührung
DE102013009009B4 (de) System und Verfahren zur Datenauswahl mittels einer berührungsempfindlichen Oberfläche
DE102017111384A1 (de) Informationsverarbeitungsgerät, Verfahren zur Eingabe und Programm

Legal Events

Date Code Title Description
R207 Utility model specification

Effective date: 20121220

R150 Utility model maintained after payment of first maintenance fee after three years
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: DOMPATENT VON KREISLER SELTING WERNER - PARTNE, DE

R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: DOMPATENT VON KREISLER SELTING WERNER - PARTNE, DE

R151 Utility model maintained after payment of second maintenance fee after six years
R152 Utility model maintained after payment of third maintenance fee after eight years
R071 Expiry of right