DE112011105894T5 - Eingabemethode auf der Grundlage eines Standorts einer Handbewegung - Google Patents

Eingabemethode auf der Grundlage eines Standorts einer Handbewegung Download PDF

Info

Publication number
DE112011105894T5
DE112011105894T5 DE112011105894.2T DE112011105894T DE112011105894T5 DE 112011105894 T5 DE112011105894 T5 DE 112011105894T5 DE 112011105894 T DE112011105894 T DE 112011105894T DE 112011105894 T5 DE112011105894 T5 DE 112011105894T5
Authority
DE
Germany
Prior art keywords
input
sensor
hand movement
user
origin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112011105894.2T
Other languages
English (en)
Inventor
Robert Campbell
Stanley Xu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112011105894T5 publication Critical patent/DE112011105894T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Eine Vorrichtung zur Erkennung eines Ausgangs- und Endpunktes einer Handbewegung eines Benutzers, zur Erkennung einer Eingabemethode der Vorrichtung aufgrund mindestens eines vom Ausgangs- und Endpunkt der Handbewegung und zur Ausführung eines in die Vorrichtung eingegebenen Befehls, der Eingabemethode und Handbewegung des Benutzers entspricht.

Description

  • HINTERGRUND
  • Bei einer Interaktion mit einer Benutzeroberfläche eines Geräts kann ein Benutzer auf eine Eingabekomponente des Geräts, z. B. eine Tastatur und/oder Maus, zugreifen. Der Benutzer kann die Maus von einer Stelle in eine andere verschieben, um die Benutzeroberfläche zu manipulieren und auf visuelle Inhalte auf der Oberfläche zugreifen zu können. Bei einem weiteren Beispiel kann der Benutzer Tastenkürzel auf der Tastatur verwenden, um auf der Benutzeroberfläche zu navigieren und auf visuelle Inhalte zuzugreifen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Verschiedene Merkmale und Vorteile der beschriebenen Ausführungsformen ergeben sich aus der nachfolgenden näheren Beschreibung in Verbindung mit den beigefügten Zeichnungen, die zusammen die Merkmale der beschriebenen Ausführungsformen beispielhaft veranschaulichen.
  • 1 zeigt ein Gerät gemäß einem Ausführungsbeispiel.
  • 2 zeigt eine beispielhafte Eingabekomponente, die eine Benutzeroberfläche anzeigt, sowie einen Sensor zur Erkennung einer Handbewegung eines Benutzers.
  • 3 ist ein beispielhaftes Blockdiagramm einer Eingabeanwendung, die eine Eingabemethode eines Geräts identifiziert;
  • 4 ist ein beispielhaftes Flussdiagramm eines Verfahrens zur Erkennung einer Eingabe eines Geräts.
  • 5 ist ein Flussdiagramm eines Verfahrens zur Erkennung einer Eingabe durch ein Gerät nach einem weiteren Beispiel.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ein Gerät umfasst einen Sensor zur Erkennung der Daten einer Handbewegung eines Benutzers des Geräts, um einen Ausgangs- und Endpunkt der Handbewegung zu erkennen. Der Ausgangspunkt entspricht dem Punkt, an dem die Handbewegung beginnt, und der Endpunkt dem Punkt, an dem die Handbewegung endet. Beim Sensor kann es sich um ein Touchpad oder Tastfläche handeln, mit denen das Berühren einer Oberfläche des Sensors zur Ausführung einer oder mehrerer Handbewegungen durch den Benutzer erkannt wird. Als Reaktion auf die Erkennung des Ausgangs- und Endpunktes der Handbewegung kann das Gerät eine Eingabemethode des Geräts erkennen. Eine Eingabemethode des Geräts entspricht der Weise, wie das Gerät eine Handbewegung als Eingabebefehl des Geräts interpretiert und bearbeitet.
  • Gemäß einer Ausführungsform kann eine Eingabemethode eine Durchziehmethode umfassen, die einem Benutzer das Navigieren in den auf einer Benutzeroberfläche angezeigten Inhalten ermöglicht. Die Inhalte können eine Anwendung, Datei, Medien, Einstellung und/oder Hintergrundbild des Geräts umfassen. Gemäß einer weiteren Ausführungsform kann eine Eingabemethode eine Zeigermethode umfassen, die einem Benutzer das Navigieren in den auf einer Benutzeroberfläche derzeit angezeigten Inhalten ermöglicht. Befindet sich entweder der Ausgangs- oder Endpunkt der Handbewegung in der Nähe eines Randes des Sensors, identifiziert das Gerät die Eingabemethode des Geräts als Durchziehen. Gemäß einer weiteren Ausführungsform identifiziert das Gerät die Eingabemethode des Geräts als Zeigermethode, wenn sich entweder der Ausgangs- oder Endpunkt der Handbewegung in der Nähe eines Randes des Sensors befindet.
  • Auf die Identifizierung einer Eingabemethode hin kann das Gerät einen auf dem Gerät auszuführenden Eingabebefehl identifizieren, der der identifizierten Eingabemethode sowie den Daten der Antastbewegung des Benutzers entspricht. Wenn z. B. die identifizierte Methode die Durchziemethode ist, kann der Eingabebefehl beinhalten, dass zwischen Inhalten navigiert und/oder ein Menü des Geräts auf der Benutzeroberfläche angezeigt wird. Wenn in einem weiteren Beispiel die identifizierte Eingabemethode die Zeigermethode ist, kann der Eingabebefehl beinhalten, dass im derzeit angezeigten Inhalt navigiert wird, indem ein Kursor oder Zeiger über einem Teilbereich des angezeigten Inhalts verschoben wird. Folglich kann das Gerät einen oder mehrere Eingabebefehle auf dem Gerät identifizieren, damit ein Benutzer mit einer oder mehreren Handbewegungen auf eine Benutzeroberfläche zugreifen und darin navigieren kann.
  • 1 zeigt ein Gerät 100 gemäß einem Ausführungsbeispiel. Das Gerät 100 kann ein Laptop, Notebook, Tablet, Netbook, Mehrzweckgerät und/oder Desktop sein. Gemäß einer weiteren Ausführungsform kann es sich beim Gerät 100 um ein Mobilfunkgerät, PDA (Personal Digital Assistant), E-Lesegerät und/oder ein beliebiges anderes Gerät handeln, dass eine Eingabemethode 140 und einen Eingabebefehl 145 des Geräts 100 identifizieren kann. Das Gerät 100 umfasst eine Steuerung 120, einen Sensor 130 und einen Kommunikationskanal 150, damit Komponenten des Geräts 100 miteinander kommunizieren können. Gemäß einer weiteren Ausführungsform umfasst das Gerät 100 eine Eingabeanwendung, die unabhängig und/oder in Verbindung mit der Steuerung 120 eingesetzt werden kann, um das Gerät 100 zu verwalten. Die Eingabeanwendung kann eine Firmware oder eine Anwendung sein, die von der Steuerung 120 aus einem nicht flüchtigen computerlesbaren Speicher des Geräts 100 ausführbar ist.
  • Im vorliegenden Sinne entspricht eine Eingabemethode 140 des Geräts 100 der Art und Weise, wie die Steuerung und/oder Eingabeanwendung eine Handbewegung interpretieren, um einen Eingabebefehl 145 des Geräts 100 zu identifizieren. Gemäß einer Ausführungsform umfasst eine Eingabemethode 140 eine Durchziehmethode. Befindet sich das Gerät 100 in der Durchziehmodus, kann eine Handbewegung eines Benutzers als Eingabebefehl 145 zum Navigieren zwischen den auf einer Benutzerobefläche des Geräts 100 angezeigten Inhalten interpretiert werden. Die Benutzeroberfläche umfasst visuelle Inhalte wie z. B. Dateien, Dokumente, Medien, Anwendungen und/oder Hintergrundbilder. In einem weiteren Beispiel können die visuellen Inhalte ein Menü und/oder Einstellungen einer Datei, einer Anwendung und/oder eines Betriebssystems des Geräts 100 umfassen. Gemäß weiteren Ausführungsformen kann eine Eingabemethode 140 eine Zeigermethode des Geräts 100 umfassen. Befindet sich das Gerät 100 im Zeigermodus, kann eine Handbewegung eines Benutzers als Eingabebefehl 145 zum Navigieren zwischen den derzeit auf einer Benutzeroberfläche angezeigten Inhalten interpretiert werden. Außerdem kann der Zeigermodus zum Navigieren in den auf der Benutzeroberfläche angezeigten Inhalten verwendet werden.
  • Bei der Bestimmung, welche Eingabemethode 140 für das Gerät zu verwenden ist, kann ein Sensor 130 des Geräts zunächst eine Handbewegung eines Benutzers des Geräts 100 suchen. Der Benutzer kann eine beliebige Person sein, die durch eine oder mehrere Handbewegungen auf das Gerät 100 zugreifen kann. Handbewegung kann insbesondere sein, dass ein oder mehrere Finger und/oder Hand des Benutzers in die Nähe des Sensors 130 kommen. Gemäß einer weiteren Ausführungsform kann eine Handbewegung sein, dass der Benutzer mit mindestens einem Finger und/oder einer Hand in der Nähe des Sensors 130 eine Bewegung ausführt. Gemäß weiteren Ausführungsformen kann die Handbewegung eine Antastbewegung sein, bei der eine Hand oder Finger des Benutzers eine Oberfläche des Sensors 130 berührt und/oder damit Kontakt hält. Im vorliegenden Sinne ist ein Sensor 130 eine Hardwarekomponente des Geräts 100, die eine Hand oder Finger des Benutzers erkennen kann, wenn der Benutzer eine oder mehrere Handbewegungen macht. Gemäß einer Ausführungsform kann der Sensor 130 ein Touchpad und/oder Antastfläche des Geräts 100 sein.
  • Bei der Erkennung der Handbewegung kann der Sensor 130 in der Handbewegung enthaltene Daten erkennen. Die Daten können eine oder mehrere Koordinate enthalten, die Stellen am Sensor 130 entsprechen, auf die ein Zugriff erfolgt ist. Eine oder mehrere Koordinaten können einen Ausgangs- und einen Endpunkt der Handbewegung enthalten. Der Ausgangspunkt entspricht einer Stelle, an der der Beginn der Handbewegung vom Sensor 130 erkannt wurde. Der Endpunkt entspricht einer Stelle, an der das Ende der Handbewegung vom Sensor 130 erkannt wurde. Gemäß einer weiteren Ausführungsform kann die Information eine Anzahl Finger erkennen, die bei der Handbewegung verwendet wurden. Gemäß weiteren Ausführungsformen kann die Information angeben, ob die Handbewegung eine Bewegung und Bewegungsrichtung enthält.
  • Wenn z. B. der Benutzer eine Handgeste macht, bei der eine obere mittlere Stelle am Sensor 130 berührt und anschließend auf eine untere mittlere Stelle am Sensor 130 übergegangen wird, wird als Ausgangspunkt von der Steuerung 120 und/oder der Eingabeanwendung der obere mittlere Rand und als Endpunkt der untere Mittelpunkt erkannt. Außerdem umfasst die Handbewegung eine Bewegung, die von oben nach unten verläuft. Wenn in einem weiteren Beispiel der Benutzer eine Handbewegung macht, bei der die Mitte des Sensors 130 berührt und anschließend freigesetzt wird, wird als Ausgangs- und Endpunkt von der Steuerung 120 und/oder der Eingabeanwendung die Mitte des Sensors 130 erkannt. Ferner umfasst die Handbewegung keinerlei Bewegungen.
  • Auf die Erkennung einer Handbewegung hin kann der Sensor 130 Daten der Handbewegung auf die Steuerung 120 und/oder Eingabeanwendung übertragen. Die Steuerung 120 und/oder Eingabeanwendung kann unter Zuhilfe der erkannten Daten eine Eingabemethode 140 des Geräts 100 identifizieren, indem ermittelt wird, ob zum Ausgangs- und/oder Endpunkt der Handbewegung eine Stelle in der Nähe eines Randes des Sensors 130 gehört. Der Rand kann einen oberen, unteren, linken und/oder rechten Rand des Sensors 130 umfassen. Gemäß einer Ausführungsform umfasst der Rand des Sensors 130 einen Umfang eines Touchpads oder einer Antastfläche. Die Steuerung 120 und/oder Eingabeanwendung können eine Koordinate des Ausgangs- und/oder eine Koordinate des Endpunktes der Handbewegung mit Koordinaten des Umfangs des Sensors 130 vergleichen.
  • Stimmt die Koordinate des Ausgangs- und/oder Endpunktes mit einer Koordinate des Umfangs überein, stellen Steuerung 120 und/oder Eingabeanwendung fest, dass die Eingabemethode 140 des Geräts 100 der Durchziehmodus ist. Stimmt bei einer weiteren Ausführungsform weder die Koordinate des Ausgangs- noch des Endpunktes mit einer Koordinate des Umfangs überein, stellen Steuerung 120 und/oder Eingabeanwendung fest, dass die Eingabemethode 140 des Geräts 100 der Zeigermodus ist. Auf die Erkennung der Eingabemethode 140 des Geräts 100 hin, identifizieren Steuerung 120 und/oder Eingabeanwendung einen Eingabebefehl 145 des Geräts 100, der der Eingabemethode 140 und der Handbewegung entspricht. Im vorliegenden Sinne umfasst ein Eingabebefehl 145 ein Eingabebefehl zum Zugreifen auf und/oder Navigieren in der Benutzeroberfläche.
  • Wenn gemäß einer Ausführungsform die Eingabemethode 140 der Durchziehmodus ist, kann mithilfe der Handbewegung zwischen Inhalten auf der Benutzeroberfläche navigiert werden. Wenn gemäß einer weiteren Ausführungsform die Eingabemethode 140 der Zeigermodus ist, kann mithilfe der Handbewegung zwischen derzeit auf der Benutzeroberfläche angezeigten Inhalten navigiert werden. Bei der Identifizierung eines Eingabebefehls 145 können Steuerung 120 und/oder Eingabeanwendung die Information der Handgeste mit vorbestimmten Informationen über Eingabebefehle 145 vergleichen, die der identifizierten Eingabemethode 140 entspricht. Auf die Identifizierung des Eingabebefehls 145 hin können Steuerung 120 und/oder Eingabeanwendung den Eingabebefehl 145 auf dem Gerät 100 ausführen.
  • 2 zeigt eine beispielhafte Anzeigekomponente 260, die eine Benutzeroberfläche 265 anzeigt, sowie einen Sensor 230 zur Erkennung einer Handbewegung eines Benutzers. Die Anzeigekomponente 260 ist eine Hardware-Ausgangskomponente, die eine Benutzeroberfläche 265 anzeigen und/oder ändern kann, um visuelle Inhalte 205 zum Einsehen bzw. zur Interaktion durch einen Benutzer 205 des Geräts 200 anzuzeigen. Gemäß einer Ausführungsform handelt es sich bei der Anzeige 260 um eine LCD, LED, Kathodenstrahlröhre, Plasmaanzeige, Projektor und/oder ein beliebiges weiteres Gerät, das zur Anzeige visueller Inhalte auf der Benutzeroberfläche 265 konfiguriert ist. Die visuellen Inhalte können eine Datei, Dokument, Medien, Menü, Einstellungen und/oder Hintergrundbild des Geräts 200 umfassen.
  • Der Benutzer 205 kann auf die Benutzeroberfläche 265 zugreifen und/oder damit in Interaktion treten, indem er eine oder mehrere Handbewegungen zur Erkennung durch einen Sensor 230 macht. Die Handbewegung kann mit mindestens einem Finger und/oder Hand des Benutzers 205 gemacht werden. Außerdem kann die Handbewegung beinhalten, dass der Benutzer 205 den Sensor 230 berührt und/oder beim Berühren des Sensors 230 eine oder mehrere Bewegungen vollzieht. Wie oben erwähnt, handelt es sich beim Sensor 230 um eine Hardwarekomponente des Geräts 200, die eine oder mehrere Handbewegungen des Benutzers 205 erkennen kann. Der Sensor 230 kann ein Touchpad, Antastfläche und/oder eine beliebige andere Handwarekomponente sein, die eine Hand und/oder Finger des Benutzers 205 erkennen kann. Gemäß einer Ausführungsform kann der Sensor 230 als Teil des Geräts 200 integriert sein. Gemäß einer weiteren Ausführungsform kann der Sensor 230 ein mit einer Schnittstelle des Geräts 200 gekoppeltes Peripheriegerät sein.
  • Wie in 2 gezeigt, kann der Sensor 230 einen oder mehrere um einen Umfang des Sensors 230 herum angeordnete Ränder 270 umfassen. Einer oder mehrere Ränder 270 des Sensors 230 können einen oberen, unteren und/oder seitlichen Rand des Sensors 230 umfassen. Gemäß einer Ausführungsform kann der Sensor 230, wie in 2 gezeigt, eine oder mehrere sichtbare Markierungen umfassen, die den Standort der Ränder kennzeichnen. Eine sichtbare Markierung kann ein sichtbarer Aufdruck auf der Oberfläche des Sensors 230 sein. Gemäß einer weiteren Ausführungsform kann eine sichtbare Markierung Spalten oder Stellen auf der Oberfläche des Sensors 230 umfassend, die von einer Lichtquelle des Geräts 200 beleuchtet werden. Bei weiteren Ausführungsformen kann eine sichtbare Markierung ein beliebiges weiteres sichtbares Objekt sein, dass zur Kennzeichnung eines Standortes eines oder mehrerer Ränder des Sensors 230 verwendet werden kann.
  • Bei der Erkennung der Handbewegung kann der Sensor 230 in der Handbewegung enthaltene Daten des Benutzers 205 erkennen. Die Information eine Anzahl Finger erkennen, die bei der Handbewegung verwendet wurden. Gemäß weiteren Ausführungsformen kann die Information einen Ausgangs- und Endpunkt der Handbewegung enthalten. Wie oben erwähnt, entspricht der Ausgangspunkt einer Stelle, an der der Beginn der Handbewegung vom Sensor 230 erkannt wurde.
  • Beispielsweise kann der Ausgangspunkt eine Koordinate der Stelle sein, wo der Benutzer zunächst eine Oberfläche des Touchpads oder Antastfläche berührt. Der Endpunkt entspricht einer Stelle, an der das Ende der Handbewegung vom Sensor 230 erkannt wurde. Beispielsweise kann der Endpunktpunkt eine Koordinate der Stelle sein, wo der Benutzer zuletzt eine Oberfläche des Touchpads oder Antastfläche berührt. Gemäß weiteren Ausführungsformen kann die Information angeben, ob die Handbewegung eine Bewegung enthält und/oder eine Richtung einer der Bewegungen.
  • Auf die Erkennung der Information der Handbewegung hin identifizieren eine Steuerung und/oder Eingabeanwendung des Geräts 200 eine Eingabemethode des Geräts 200 aufgrund des Ausgangs- und/oder Endpunktes der Handbewegung. Gemäß einer weiteren Ausführungsform umfasst das Gerät 200, wie in 2 dargestellt, ferner einen zweiten Sensor 235 zur Erkennung einer Information der Handbewegung wie z. B. des Ausgangs- und Endpunktes. Ähnlich dem Sensor 230 ist der zweite Sensor 235 eine Hardwarekomponente des Geräts 200, die eine oder mehrere Handbewegungen des Benutzers 205 erkennen kann. Gemäß einer Ausführungsform ist der zweite Sensor eine Bildgebungskomponente, Näherungssensor, Infrarotkomponente und/oder ein beliebiges zusätzliches Gerät, das weitere Informationen der Handbewegung aus einem anderen Blickwinkel oder Perspektive erkennen kann. Mithilfe der zusätzlichen Information des zweiten Sensors 235 können eine Steuerung und/oder Eingabeanwendung die vom Sensor 230 erkannte Information der Handbewegung bestätigen, indem die Handbewegung aus einem anderen Blickwinkel erkannt wird. Mit den erkannten Informationen können die Steuerung und/oder die Eingabeanwendung eine Eingabemethode des Gerätes 200 und einen auf dem Gerät 200 auszuführenden Eingabebefehl präzise erkennen.
  • 3 ist ein beispielhaftes Blockdiagramm einer Eingabeanwendung 310, die aufgrund eines Ausgangs- und/oder Endpunktes einer Handbewegung eine Eingabemethode eines Geräts identifiziert. Gemäß einer Ausführungsform kann die Eingabeanwendung 310 eine in eine oder mehrere Komponenten des Geräts eingebettete Firmware sein. Gemäß einer weiteren Ausführungsform kann die Eingabeanwendung 310 eine einem nicht flüchtigen computerlesbaren Speicher des Geräts zugängliche Anwendung sein. Der computerlesbare Speicher ist eine greifbare Vorrichtung, die die Anwendung zum Einsatz durch oder in Verbindung mit dem Gerät enthält, speichert, kommuniziert oder überträgt. Gemäß einer Ausführungsform ist der computerlesbare Speicher eine Festplatte, eine CD, Flash-Speicher, Netzwerklaufwerk oder eine beliebige sonstige mit dem Gerät gekoppelte greifbare Vorrichtung.
  • Steuerung 320 und/oder Eingabeanwendung 310 können dem Sensor 330 den Befehl geben, eine Information der Handbewegung zu erkennen. Gemäß einer Ausführungsform kann die Steuerung 320 und/oder Eingabeanwendung 310 auf die Erkennung eines oder mehrerer Finger des Benutzers durch den Sensor 330 hin außerdem eine Empfindlichkeit des Sensors 330 erhöhen. Die Erhöhung der Empfindlichkeit des Sensors 330 kann die Erhöhung einer dem Sensor 330 zugeführten Energiemenge umfassen. Gemäß einer weiteren Ausführungsform können Steuerung 320 und/oder Eingabeanwendung 310 eine Empfindlichkeit der Ränder des Sensors 330 erhöhen, ohne eine Empfindlichkeit anderer Bereiche oder Teilbereiche des Sensors 330 zu erhöhen.
  • Wie in 3 dargestellt, hat der Sensor 330 eine Information einer Handbewegung eines Benutzers 205 erkannt. Die Information enthält einen Ausgangspunkt, an dem die Handbewegung am Sensor 330 beginnt, sowie einen Endpunkt, an dem die Handbewegung endet. Ausgangs- und Endpunkt können eine Koordinate der Stelle an einer Oberfläche des Sensors 330 enthalten, an der die Handbewegung beginnt und endet. Gemäß einer Ausführungsform kann die Information eine Anzahl Finger enthalten, die bei der Handbewegung verwendet wurden. Gemäß weiteren Ausführungsformen kann die Information angeben, ob die Handbewegung eine Bewegung und/oder Bewegungsrichtung enthält.
  • Auf den Empfang der Information der Handbewegung hin können Steuerung 320 und/oder Eingabeanwendung 310 eine Eingabemethode des Geräts aufgrund des Ausgangs- und/oder Endpunktes der Handbewegung erkennen. Gemäß einer Ausführungsform können Steuerung 320 und/oder Eingabeanwendung auf die Identifizierung des Eingabebefehls 310 hin auf eine Liste, Tabelle und/oder Datenbank von Eingabemethoden des Geräts zugreifen. Die Liste, Tabelle und/oder Datenbank der Eingabemethoden können am Gerät lokal gespeichert sein, oder aber es kann über ein anderes Gerät dezentral auf sie zugegriffen werden. Bei dieser Ausführungsform umfasst das Gerät einen Zeiger- und einen Durchziehmodus. Mit dem Durchziehmodus wird zwischen Inhalten der Benutzeroberfläche navigiert; mit dem Zeigermodus wird auf einen derzeit auf der Benutzeroberfläche angezeigten Inhalt zugegriffen oder darin navigiert. In weiteren Ausführungsformen kann das Gerät neben oder statt der oben aufgeführten, in 3 dargestellten Methoden auch weitere Eingabemethoden umfassen.
  • Stellen Steuerung 320 und/oder Eingabeanwendung fest, dass sich der Ausgangs- und/oder Endpunkt der Handbewegung in der Nähe eines Randes des Sensors 330 befinden, identifiziert das Gerät die Eingabemethode des Geräts als Durchziehmodus. Die Handbewegung erfolgt in Randnähe, wenn mindestens ein Finger eine Stelle auf einer Oberfläche des Sensors 330 berührt, die einem Rand des Sensors 330 entspricht. Wie oben erwähnt, kann die Oberfläche des Sensors 330 sichtbare Markierungen umfassen, die die Stelle am Sensor 330 kennzeichen, an der ein Rand angeordnet ist. Gemäß einer weiteren Ausführungsform erfolgt die Handbewegung in Randnähe, wenn mindestens ein Finger eine Stelle am Sensor 330 berührt, die sich in einem vorbestimmten Abstand zum Rand befindet.
  • Gemäß einer Ausführungsform können Steuerung 320 und/oder Eingabeanwendung 310 ferner ermitteln, ob mehr als ein Finger den Sensor 330 berührt, bevor die Eingabemethode als Durchziehmodus identifiziert wird. Gemäß einer weiteren Ausführungsform ermitteln Steuerung 320 und/oder Eingabeanwendung ferner, ob ein erster Finger der Handbewegung in der Nähe eines Randes des Sensors 330 ist und ob ein zweiter Finger der Handbewegung in der Nähe der Mitte des Sensors 330, bevor die Eingabemethode als Durchziehmodus identifiziert wird. Stellen Steuerung 320 und/oder Eingabeanwendung fest, dass sich weder der Ausgangs- noch der Endpunkt der Handbewegung in der Nähe eines Randes des Sensors 330 befinden, wird Eingabemethode des Geräts als Durchziehmodus identifiziert.
  • Auf die Erkennung der Eingabemethode des Geräts hin, identifizieren Steuerung 320 und/oder Eingabeanwendung einen Eingabebefehl 310 des Geräts, der der Eingabemethode und der Handbewegung entspricht. Der Eingabebefehl umfasst ein ausführbaren Eingabebefehl zum Zugreifen auf und/oder Navigieren in der Benutzeroberfläche. Wie in 3 gezeigt, können die Liste, Tabelle und/oder Datenbank von Eingabemethoden Eingabebefehle auflisten, die einer Eingabemethode und Handbewegung entsprechen. Jede Eingabemethode kann unterschiedliche Eingabebefehle enthalten, die aufgrund von Informationen der erkannten Handbewegung auf dem Gerät ausführbar sind.
  • Steuerung 320 und/oder Eingabeanwendung 310 vergleichen die Information der vom Sensor 330 erkannten Handbewegung mit vorbestimmten Informationen über einen Eingabebefehl, um zu ermitteln, welcher Eingabebefehl auszuführen ist. Wenn gemäß einer Ausführungsform die Eingabemethode vorher als Durchziehmodus identifiziert wurde und die Information der Handbewegung beinhaltete, dass sie eine horizontale Bewegung umfasst, identifizieren Steuerung 320 und/oder Eingabeanwendung 310 als Befehl zum Navigieren zwischen Inhalten auf der Benutzeroberfläche. Steuerung 320 und/oder Eingabeanwendung 310 können den Eingabebefehl auf dem Gerät ausführen. Außerdem modifizieren Steuerung 320 und/oder Eingabeanwendung 310 die Benutzeroberfläche der Anzeige 360, so dass diese das Umschalten zwischen Inhalten anzeigt. Das Umschalten zwischen Inhalten der Benutzeroberfläche kann das Umschalten von einer geöffneten Anwendung oder Datei auf eine andere umfassen.
  • Wenn gemäß einer Ausführungsform die Eingabemethode vorher als Durchziehmodus identifiziert wurde und die Information der Handbewegung beinhaltete, dass sie eine vertikale Bewegung umfasst, identifizieren Steuerung 320 und/oder Eingabeanwendung 310 als Befehl zum Umschalten zwischen Inhalten durch Verschieben einer Menüleiste in den sichtbaren Bereich der Benutzeroberfläche. Wie oben erwähnt, kann die Menüleiste ein Menü oder Einstellungen des derzeit angezeigten Inhalts, z. B. Datei, Anwendung und/oder eines Betriebssystems des Geräts sein.
  • Wenn gemäß weiteren Ausführungsformen die Eingabemethode vorher als Zeigermodus identifiziert wurde und die Information der Handbewegung beinhaltete, dass sie eine horizontale Bewegung umfasst, identifizieren Steuerung 320 und/oder Eingabeanwendung 310 als Befehl zum Navigieren im derzeit angezeigten Inhalt durch horizontales Verschieben eines Zeigers oder Kursors über den Inhalt. Außerdem können Steuerung 320 und/oder Eingabeanwendung 310 die Benutzeroberfläche der Anzeige 360 anpassen, so dass diese das horizontale Verschieben eines Zeigers oder Kursors über den derzeit angezeigten Inhalt anzeigt. Gemäß weiteren Ausführungsformen können Steuerung 320 und/oder Eingabeanwendung 310 neben und/oder anstatt der oben aufgeführten Eingabebefehle auch weitere Eingabebefehle des Geräts aufgrund einer Eingabemethode und Information einer Handbewegung identifizieren.
  • 4 ist ein beispielhaftes Flussdiagramm eines Verfahrens zur Erkennung einer Eingabe eines Geräts. Eine Steuerung und/oder Eingabeanwendung können unabhängig von und/oder in Verbindung miteinander zur Identifizierung eines Eingabebefehls des Geräts aufgrund einer Eingabemethode des Geräts und einer Handbewegung des Benutzers eingesetzt werden.
  • Ein Sensor eines Geräts, z. B. Touchpad oder Antastfläche, kann zunächst eine Information einer Handbewegung erkennen, damit die Steuerung und/oder Eingabeanwendung einen Ausgangs- und Endpunkt einer Handbewegung eines Benutzers bei 400. Die erkannte Information kann die Stelle am Sensor enthalten, die der Benutzer bei der Ausführung der Handbewegung zunächst berührt, sowie die Stelle am Sensor, die der Benutzer bei der Ausführung der Handbewegung zuletzt berührt. Gemäß einer weiteren Ausführungsform kann die Information angeben, ob die Handbewegung eine Bewegung und/oder Bewegungsrichtung enthält.
  • Steuerung und/oder Eingabeanwendung können unter Zuhilfenahme der vom Sensor erkannten Information den Ausgangs- und Endpunkt der Handbewegung erkennen. Wie oben ausgeführt, entspricht der Ausgangspunkt dem Punkt, an dem die Handbewegung beginnt, und der Endpunkt dem Punkt, an dem die Handbewegung endet. Aufgrund des Ausgangs- und/oder Endpunktes der Handbewegung können Steuerung und/oder Eingabeanwendung bei 410 eine Eingabemethode des Geräts erkennen. Eine Eingabemethode des Geräts entspricht der Weise, wie die Steuerung und/oder Eingabeanwendung die Handbewegung als Eingabebefehl des Geräts interpretieren. Stellen Steuerung und/oder Eingabeanwendung fest, dass sich der Ausgangs- und/oder Endpunkt der Handbewegung in der Nähe eines Randes des Sensors befinden, kann die Eingabemethode des Geräts als Durchziehmodus zum Navigieren zwischen Inhalten der Benutzeroberfläche identifiziert werden. Stellen Steuerung und/oder Eingabeanwendung bei einer anderen Ausführungsform fest, dass sich weder der Ausgangs- noch der Endpunkt der Handbewegung in der Nähe eines Randes des Sensors befinden, kann die Eingabemethode des Geräts als Zeigermodus zum Zugreifen auf und Navigieren in einem auf der Benutzeroberfläche derzeit angezeigten Inhalt identifiziert werden.
  • Auf die Identifizierung der Eingabemethode des Geräts hin identifizieren Steuerung und/oder Eingabeanwendung bei 420 einen Eingabebefehl, der der Eingabemethode und der Handbewegung des Benutzers entspricht, und führen diesen aus. Wie oben erwähnt, können Steuerung und/oder Eingabeanwendung auf eine Liste, Tabelle und/oder Datenbank von Eingabemethoden zugreifen und jede Eingabemethode kann Eingabebefehle enthalten, die der Eingabemethode und der Handbewegung entsprechen. Die Steuerung und/oder Eingabeanwendung können die Information der Handbewegung mit vorbestimmten Informationen über Eingabebefehle vergleichen, die unter der identifizierten Eingabemethode des Geräts aufgeführt sind. Wird unter der identifizierten Eingabemethode ein Treffer gefunden, wird die Eingabemethode des Geräts identifiziert. Steuerung und/oder Eingabeanwendung können dann den Eingabebefehl auf dem Gerät ausführen. Das Verfahren ist dann abgeschlossen. In weiteren Ausführungsformen umfasst das Verfahren der 4 neben oder statt der oben aufgeführten, in 4 dargestellten Schritte auch weitere Verfahrensschritte.
  • 5 ist ein beispielhaftes Flussdiagramm eines Verfahrens zur Erkennung einer Eingabe eines Geräts. Steuerung und/oder Schnittstellenanwendung verwenden zunächst einen Sensor des Geräts, um eine Handbewegung eines Benutzers zu erkennen. Gemäß einer Ausführungsform umfasst der Sensor ein Touchpad oder Antastfläche zur Erkennung einer Mehrzahl Finger, die bei 500 eine Oberfläche des Sensors berühren. Erkennt der Sensor keine Mehrzahl Finger, sucht der Sensor bei 500 weiterhin eine Mehrzahl Finger. Wird eine Mehrzahl Finger erkannt, können Steuerung und/oder Eingabeanwendung eine Empfindlichkeit des Sensors erhöhen, um eine Information einer Handbewegung des Benutzers bei 510 zu erkennen. Die Erhöhung der Empfindlichkeit des Sensors umfasst die Erhöhung einer dem Sensor zugeführten Energiemenge.
  • Wird eine Handbewegung erkannt, kann der Sensor eine Information der Handbewegung erkennen, damit die Steuerung und/oder Eingabeanwendung den Ausgangs- und Endpunkt der Handbewegung bei 520 identifizieren können. Der Sensor kann bei einer Ausführungsform eine Koordinate des Ausgangs- und/oder Endpunktes des Antastens erkennen und die Koordinaten mit der Steuerung und/oder Eingabeanwendung teilen. Der Sensor kann ferner erkennen, ob die Handbewegung eine Bewegung und/oder Bewegungsrichtung enthält. Die Steuerung und/oder Eingabeanwendung können dann bei 530 ermitteln, ob der Ausgangs- und/oder Endpunkt der Handbewegung in der Nähe eines Randes des Sensors liegen. Wie oben erwähnt, umfasst der Rand einen oberen, unteren, linken und/oder rechten Rand der Sensoroberfläche. Die Steuerung und/oder Eingabeanwendung vergleichen die Koordinate des Ausgangs- und die Koordinate des Endpunktes mit Koordinaten des Randes, um zu ermitteln, ob der Ausgangs- und/oder Endpunkt der Handbewegung in der Nähe des Sensorrandes liegen.
  • Liegt weder der Ausgangs- noch der Endpunkt der Handbewegung in der Nähe eines Randes des Sensors befinden, identifizieren Steuerung und/oder Eingabeanwendung die Eingabemethode des Geräts bei 540 als Zeigermodus zum Zugreifen auf und Navigieren in einem auf der Benutzeroberfläche derzeit angezeigten Inhalt. Liegen bei einer weiteren Ausführungsform Ausgangs- und/oder Endpunkt der Handbewegung in der Nähe des Randes des Sensors, identifizieren Steuerung und/oder Eingabeanwendung bei 550 die Eingabemethode des Geräts als Durchziehmodus zum Navigieren zwischen Inhalten der Benutzeroberfläche.
  • Auf die Erkennung der Eingabemethode des Geräts hin, identifizieren Steuerung und/oder Eingabeanwendung bei 560 einen Eingabebefehl des Geräts, der der identifizierten Eingabemethode und der Handbewegung des Benutzers entspricht, und führen diesen aus. Wie oben erwähnt, können Steuerung und/oder Eingabeanwendung auf eine Liste, Tabelle und/oder Datenbank von Eingabemethoden zugreifen, die Eingabebefehle auflisten, die einer Eingabemethode entsprechen. Die Steuerung und/oder Eingabeanwendung können die erkannte Information der Handbewegung mit vorbestimmten Informationen über Eingabebefehle vergleichen, die der identifizierten Eingabemethode entsprechen. Wird ein Treffer gefunden, führen Steuerung und/oder Eingabeanwendung den Eingabebefehl auf dem Gerät aus.
  • Bei der Ausführung des Eingabebefehls können Steuerung und/oder Eingabeanwendung die Benutzeroberfläche bei 570 aufgrund des Eingabebefehls modifizieren. Handelt es sich bei der Eingabemethode um den Durchziehmodus können Steuerung und/oder Eingabeanwendung die Benutzeroberfläche derart modifizieren, dass das Navigieren zwischen Inhalten angezeigt wird.
  • Das Navigieren zwischen Inhalten kann das Umschalten von einer Anwendung auf eine andere sowie das Sichtbarmachen eines Menüs auf der Benutzeroberfläche umfassen. Handelt es sich gemäß einer weiteren Ausführungsform bei der Eingabemethode um den Zeigermodus modifizieren Steuerung und/oder Eingabeanwendung die Benutzeroberfläche derart, dass das Navigieren zwischen den derzeit angezeigten Inhalten angezeigt wird. Das Navigieren in den derzeit angezeigten Inhalten umfasst das Anzeigen des Verschiebens eines Kursors oder Zeigers über den derzeit angezeigten Inhalt. Das Verfahren ist dann abgeschlossen. In weiteren Ausführungsformen umfasst das Verfahren der 5 neben und/oder statt der oben aufgeführten, in 5 dargestellten Schritte auch weitere Verfahrensschritte.

Claims (15)

  1. Vorrichtung, umfassend: einen Sensor zur Erkennung eines Ausgangs- und Endpunktes einer Handbewegung eines Benutzers; und eine Steuerung, die: eine Eingabemethode des Geräts als mindestens einen von einem Durchzieh- oder einem Zeigermodus aufgrund mindestens eines vom Ausgangs- und Endpunkt der Handbewegung identifiziert; und auf dem Gerät einen Eingabebefehl ausführt, der der Eingabemethode und der Handbewegung des Benutzers entspricht.
  2. Vorrichtung nach Anspruch 1, wobei der Sensor mindestens eines von einer Antastfläche und einem Touchpad umfasst.
  3. Vorrichtung nach Anspruch 2, wobei der Sensor eine sichtbare Markierung zur Kennzeichnung mindestens eines Randes des Sensors umfasst.
  4. Vorrichtung nach Anspruch 1, ferner umfassend einen zweiten Sensor zur Erkennung des Ausgangs- und Endpunktes der Handbewegung des Benutzers.
  5. Vorrichtung nach Anspruch 4, wobei der zweite Sensor mindestens entweder eine Bildgebungskomponente oder einen Näherungssensor umfasst, um die Verschiebung der Handbewegung des Benutzers über eine Oberfläche des Sensors zu erkennen.
  6. Vorrichtung nach Anspruch 1, ferner umfassend eine Anzeigekomponente zur Veränderung einer Benutzeroberfläche aufgrund des Eingabebefehls.
  7. Vorrichtung nach Anspruch 1, wobei mit dem Durchziehmodus zwischen Inhalten einer Benutzeroberfläche des Geräts navigiert wird.
  8. Vorrichtung nach Anspruch 1, wobei mit dem Zeigermodus in einem auf einer Benutzeroberfläche des Geräts derzeit angezeigten Inhalt navigiert wird.
  9. Verfahren zur Erkennung einer Eingabe eines Geräts, umfassend: Erkennen eines Ausgangs- und Endpunktes einer Handbewegung eines Benutzers; Identifizieren einer Eingabemethode eines Geräts aufgrund mindestens entweder des Ausgangs- oder des Endpunktes der Handbewegung; und Ausführen des Eingabebefehls auf dem Gerät ausführt, der der Eingabemethode und der Handbewegung des Benutzers entspricht.
  10. Verfahren zur Erkennung einer Eingabe eines Geräts nach Anspruch 9, ferner umfassend das Identifizieren der Eingabemethode des Geräts als Durchziehmodus, wenn mindestens einer vom Ausgangs- und Endpunkt der Handbewegung in der Nähe eines Randes einer Antastfläche des Geräts liegen.
  11. Verfahren zur Erkennung einer Eingabe eines Geräts nach Anspruch 9, ferner umfassend das Identifizieren der Eingabemethode des Geräts als Zeigermodus, wenn weder der Ausgangs- noch der Endpunkt der Handbewegung in der Nähe eines Randes einer Antastfläche des Geräts liegt.
  12. Verfahren zur Erkennung einer Eingabe eines Geräts nach Anspruch 9, wobei die Erkennung des Ausgangs- und Endpunktes der Handbewegung das Suchen nach einer Mehrzahl Finger des Benutzers umfasst.
  13. Verfahren zur Erkennung einer Eingabe eines Geräts nach Anspruch 9, wobei die Erkennung des Ausgangs- und Endpunktes der Handbewegung das Suchen mindestens eines Fingers des Benutzers in der Nähe eines Mittelpunktes der Antastfläche des Geräts umfasst.
  14. Computerlesbarer Datenträger, umfassend Befehle, die im Falle ihrer Ausführung eine Steuerung dazu veranlassen: eine Mehrzahl Finger eines Benutzers zu suchen, um einen Ausgangs- und Endpunkt einer Handbewegung zu erkennen; eine Eingabemethode eines Geräts aufgrund mindestens entweder des Ausgangs- oder des Endpunktes der Handbewegung zu identifizieren; und auf dem Gerät einen Eingabebefehl ausführt, der der Eingabemethode und der Handbewegung des Benutzers entspricht.
  15. Computerlesbarer Datenträger nach Anspruch 14, wobei die Steuerung eine Empfindlichkeit eines Sensors derart modifiziert, dass ein Finger des Benutzers an einem Rand einer Antastfläche erkannt wird, wenn der Ausgangs- und Endpunkt der Handbewegung erkannt werden.
DE112011105894.2T 2011-11-30 2011-11-30 Eingabemethode auf der Grundlage eines Standorts einer Handbewegung Ceased DE112011105894T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/062573 WO2013081594A1 (en) 2011-11-30 2011-11-30 Input mode based on location of hand gesture

Publications (1)

Publication Number Publication Date
DE112011105894T5 true DE112011105894T5 (de) 2014-11-06

Family

ID=48535892

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011105894.2T Ceased DE112011105894T5 (de) 2011-11-30 2011-11-30 Eingabemethode auf der Grundlage eines Standorts einer Handbewegung

Country Status (5)

Country Link
US (1) US20140285461A1 (de)
CN (1) CN104137034A (de)
DE (1) DE112011105894T5 (de)
GB (1) GB2510774A (de)
WO (1) WO2013081594A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9740923B2 (en) * 2014-01-15 2017-08-22 Lenovo (Singapore) Pte. Ltd. Image gestures for edge input
EP3234742A4 (de) * 2014-12-16 2018-08-08 Quan Xiao Verfahren und vorrichtung für hochintuitive mensch-computer-schnittstelle
US9746930B2 (en) 2015-03-26 2017-08-29 General Electric Company Detection and usability of personal electronic devices for field engineers
CN107479700B (zh) * 2017-07-28 2020-05-12 Oppo广东移动通信有限公司 黑屏手势控制方法、装置、存储介质及移动终端
CN107450837B (zh) * 2017-07-28 2019-09-24 Oppo广东移动通信有限公司 响应黑屏手势的方法、装置、存储介质及移动终端
CN108227919B (zh) * 2017-12-22 2021-07-09 潍坊歌尔电子有限公司 用户手指位置信息的确定方法及装置、投影仪、投影系统
US20200012350A1 (en) * 2018-07-08 2020-01-09 Youspace, Inc. Systems and methods for refined gesture recognition
KR102582863B1 (ko) * 2018-09-07 2023-09-27 삼성전자주식회사 사용자 의도 기반 제스처 인식 방법 및 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298311B2 (en) * 2005-06-23 2016-03-29 Apple Inc. Trackpad sensitivity compensation
US8296684B2 (en) * 2008-05-23 2012-10-23 Hewlett-Packard Development Company, L.P. Navigating among activities in a computing device
KR20080041809A (ko) * 2006-11-08 2008-05-14 삼성전자주식회사 휴대용 단말기에서 디스플레이 제어 방법 및 장치
WO2009006556A1 (en) * 2007-07-03 2009-01-08 Cypress Semiconductor Corporation Normalizing capacitive sensor array signals
CN101315593B (zh) * 2008-07-18 2010-06-16 华硕电脑股份有限公司 触控式移动运算装置与应用于其上的触控方法
TW201005599A (en) * 2008-07-18 2010-02-01 Asustek Comp Inc Touch-type mobile computing device and control method of the same
KR101001824B1 (ko) * 2008-10-16 2010-12-15 주식회사 팬택 터치 입력을 이용한 휴대용 단말기 제어 방법 및 휴대용 단말기
CN101727268A (zh) * 2008-11-03 2010-06-09 英业达股份有限公司 手持式电子装置与其程序显示切换方法
CN101876879B (zh) * 2009-04-29 2012-09-19 深圳富泰宏精密工业有限公司 双轴式滑动界面应用系统及方法
TWI433003B (zh) * 2009-10-06 2014-04-01 Pixart Imaging Inc 觸控系統及其觸碰感測方法
TWI411946B (zh) * 2009-11-06 2013-10-11 Elan Microelectronics Corp The touchpad controls how the cursor on the display is on the screen
KR20110061285A (ko) * 2009-12-01 2011-06-09 삼성전자주식회사 휴대용 디바이스 및 이의 터치 패널 운용 방법
US9098138B2 (en) * 2010-08-27 2015-08-04 Apple Inc. Concurrent signal detection for touch and hover sensing
US9244606B2 (en) * 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US20120169671A1 (en) * 2011-01-03 2012-07-05 Primax Electronics Ltd. Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor
US9983785B2 (en) * 2011-07-28 2018-05-29 Hewlett-Packard Development Company, L.P. Input mode of a device

Also Published As

Publication number Publication date
US20140285461A1 (en) 2014-09-25
GB201409347D0 (en) 2014-07-09
GB2510774A (en) 2014-08-13
CN104137034A (zh) 2014-11-05
WO2013081594A1 (en) 2013-06-06

Similar Documents

Publication Publication Date Title
DE112011105894T5 (de) Eingabemethode auf der Grundlage eines Standorts einer Handbewegung
DE112008004156B4 (de) System und verfahren für einen gestenbasierten editiermodus und computerlesbares medium hierfür
DE102013111978B4 (de) Identifikation und Verwendung von Gesten in der Nähe eines Sensors
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE112012000192T5 (de) Vereindeutigen einer Berührungseingabe auf der Basis einer Änderung eines Parameters, wie z.B. Geschwindigkeit oder Druck, entlang einer Berührungsspur
AU2007241972B2 (en) Method and apparatus for controlling display output of multidimensional information
DE102014111989A1 (de) Virtuelle Multi-Touch-Maus
DE112012007203T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202014011564U1 (de) Anwendungszuordnungsverarbeitungsvorrichtung
DE112012006199T5 (de) Virtuelle Hand basierend auf kombinierten Daten
DE202008000261U1 (de) Vielfach-Berührungsdatenfussionssystem
DE112010002760T5 (de) Benutzerschnittstelle
DE202011110907U1 (de) Markierungsmenüs für Mehrfachberührung und richtungsabhängige musterbildende Gesten
DE102010036906A1 (de) Konfigurierbares Pie-Menü
DE202005021427U1 (de) Elektronische Vorrichtung mit berührungsempfindlicher Eingabeeinrichtung
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE112012007167T5 (de) Informations-Anzeigevorrichtung, Anzeigeinformations-Operationsverfahren
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
KR102237363B1 (ko) 그래픽 인터페이스 및 디스플레이 된 요소를 터치-선택하는 동안 그래픽 인터페이스를 관리하는 방법
DE202008005344U1 (de) Elektronische Vorrichtung mit schaltbarer Benutzerschnittstelle und elektronische Vorrichtung mit zugreifbarer Berührbedienung
DE202012005481U1 (de) Bewegen eines graphischen Selektors
DE102015120864A1 (de) Mobile elektronische Vorrichtung, Verfahren zum Anzeigen der Benutzeroberfläche und Aufzeichnungsmedium dafür
DE202011052465U1 (de) Eingabewerkzeug für einen Berührungssensor mit einem Abstand zwischen einem Berührungsicon und einem Eingabeicon
DE112013006924T5 (de) Programmierbare Anzeigevorrichtung und Bildschirmbedienungsverarbeitungsprogramm hierfür
DE102019200287A1 (de) Bildmessgerät und computerlesbares Medium

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER, SCHE, DE

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER & PAR, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final