DE112011105888T5 - Eingabebefehl, der auf Handgeste basiert - Google Patents

Eingabebefehl, der auf Handgeste basiert Download PDF

Info

Publication number
DE112011105888T5
DE112011105888T5 DE112011105888.8T DE112011105888T DE112011105888T5 DE 112011105888 T5 DE112011105888 T5 DE 112011105888T5 DE 112011105888 T DE112011105888 T DE 112011105888T DE 112011105888 T5 DE112011105888 T5 DE 112011105888T5
Authority
DE
Germany
Prior art keywords
input
hand gesture
housing
command
input component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112011105888.8T
Other languages
English (en)
Inventor
Dustin Hoffman
Wendy S. Spurlock
Michael Delpier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112011105888T5 publication Critical patent/DE112011105888T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

Beispiele offenbaren ein Gerät mit einem Sensor zum Erkennen einer Position eines Gehäuses, die nicht eine Eingabekomponente für ein Handgeste umfasst, und zum Ausführen eines Eingabebefehls in dem Gerät basierend auf der Handgeste, und wenn die Handgeste an einer Position des Gehäuses erkannt wird, die nicht die Eingabekomponente umfasst.

Description

  • HINTERGRUND DER ERFINDUNG
  • Bei Interaktion mit einer Nutzeroberfläche, die auf einem Gerät wiedergegeben wird, kann ein Nutzer auf eine Eingabekomponente des Geräts, wie eine Tastatur und/oder eine Maus zugreifen. Der Nutzer kann die Maus von einem Ort zu einem anderen neu positionieren, um auf der Nutzeroberfläche zu navigieren und auf sichtbare Inhalte zuzugreifen, die auf der Nutzeroberfläche wiedergegeben werden. In einem weiteren Beispiel kann der Nutzer Kurzbefehle auf der Tastatur nutzen, um auf sichtbare Inhalte auf der Nutzeroberfläche zuzugreifen und/oder zwischen diesen zu navigieren.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • Aus der folgenden ausführlichen Beschreibung, zusammen mit den begleitenden Zeichnungen, werden verschiedene Funktionen und Vorteile der offenbarten Ausführungsformen ersichtlich, die zusammen beispielhaft Funktionen der offenbarten Ausführungsformen veranschaulichen.
  • 1 zeigt ein Gerät gemäß eines Beispiels.
  • 2A und 2B zeigen ein Gehäuse eines Geräts und einen Sensor zum Erkennen einer Handgeste eines Nutzers gemäß eines Beispiels.
  • 3 zeigt ein Blockdiagramm einer Eingabeanwendung, die einen Eingabebefehl für ein Gerät gemäß eines Beispiels erkennt.
  • 4 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels veranschaulicht.
  • 5 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines weiteren Beispiels veranschaulicht.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Ein Gerät umfasst einen Sender und ein Gehäuse mit einer Eingabekomponente des Geräts. Das Gehäuse kann ein Rahmen, eine Einfassung und/oder eine Hülle des Geräts sein. Die Eingabekomponente kann ein Touchpad oder eine Tastatur sein, das/die sich nicht an ein oder mehreren Positionen des Gehäuses, wie einer Kante des Gehäuses, befindet. Der Sensor kann ein Berührungssensor, ein Näherungssensor, eine Berühroberfläche und/oder eine Bilderfassungskomponente sein, die Informationen einer Handgeste eines Nutzers des Geräts erkennen kann. In Reaktion auf das Erkennen von Informationen der Handgeste kann das Gerät bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wird, die nicht die Eingabekomponente umfasst. Wenn die Handgeste an einer Position des Gehäuses erkannt wird, die nicht die Eingabekomponente umfasst, kann das Gerät dies identifizieren und basierend auf Informationen der Handgeste einen Eingabebefehl für das Gerät ausführen. Ein Eingabebefehl kann eine Eingabeanweisung des Geräts sein, auf die Nutzeroberfläche zuzugreifen und/oder auf dieser zu navigieren.
  • In einer Ausführungsform kann der Eingabebefehl als Handgestenbefehl identifiziert werden, um zwischen Inhalten einer Nutzeroberfläche des Geräts zu navigieren, wenn die Handgeste an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst. Der Inhalt kann eine Anwendung, eine Datei, ein Medium, ein Menü, eine Einstellung und/oder einen Bildschirmschoner umfassen. In einer weiteren Ausführungsform, wenn auf die Eingabekomponente durch die Handgeste zugegriffen wird, identifiziert das Gerät einen Eingabebefehl für das Gerät als einen Zeigerbefehl. Ein Zeigerbefehl kann verwendet werden, um auf einen aktuell auf der Nutzeroberfläche wiedergegebenen Inhalt zuzugreifen bzw. auf dieser zu navigieren. Durch Erkennen einer Handgeste und Bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst, kann das Gerät ein oder mehrere Eingabebefehle am Gerät genau identifizieren, so dass der Nutzer mit ein oder mehreren Handgesten auf eine Nutzeroberfläche zugreifen and auf dieser navigieren kann.
  • 1 zeigt ein Gerät 100 gemäß eines Beispiels. Das Gerät 100 kann ein Laptop, Notebook, Tablet, Netbook, All-in-One-System und/oder ein Desktop sein. In einer weiteren Ausführungsform kann das Gerät 100 ein Mobilgerät, ein PDA (Personal Digital Assistant), ein E (Electronic) Reader und oder ein beliebiges Gerät mit einem Gehäuse 180 sein, mit dem ein Nutzer mittels einer Handgeste interagieren kann. Das Gerät 100 umfasst ein Gehäuse 105, einen Controller 120, eine Eingabekomponente 135, einen Sensor 130 und einen Kommunikationskanal 150, so dass Komponenten des Geräts 100 miteinander kommunizieren können. In einer Ausführungsform umfasst das Gerät 100 eine Eingabeanwendung, die unabhängig von und/oder in Verbindung mit dem Controller 120 genutzt werden kann, um das Gerät 100 zu verwalten. Die Eingabeanwendung kann eine Firmware oder Anwendung sein, die von dem Controller 120 von einem nicht-flüchtigen, computerlesbaren Speicher des Geräts 100 ausführbar ist.
  • Ein Nutzer kann mit dem Gerät 100 durch Ausführen ein oder mehrerer Handgesten an einer Position des Rahmens 180 interagieren, die dort von einem Sensor 130 des Geräts 100 erkannt werden. Zum Zweck dieser Anmeldung umfasst das Gehäuse 180 einen Rahmen, eine Umfassung und/oder eine Hülle des Geräts 100. Das Gehäuse 180 umfasst ein oder mehrere Positionen, die eine Eingabekomponente 135 des Geräts 100 nicht umfassen. Die Eingabekomponente 135 ist eine Hardware-Komponente des Geräts 100, wie ein Touchpad und/oder eine Tastatur. Zum Zweck dieser Anmeldung umfasst eine Position des Gehäuses 180, die nicht die Eingabekomponente 135 umfasst, einen Raum und/oder einen Teil des Gehäuses 180, wie eine Kante des Gehäuses 180, an dem sich die Eingabekomponente 135 nicht befindet. Ein oder mehrere Kanten können eine Oberkante, eine Unterkante, eine linke Kante und/oder eine rechte Kante des Gehäuses 180 umfassen. In einer Ausführungsform umfasst das Gehäuse 180 einen oberen Teil und einen unteren Teil. Sowohl der obere Teil als auch der untere Teil des Gehäuses 180 kann ein oder mehrere entsprechende Positionen umfassen, die nicht die Eingabekomponente 135 umfassen.
  • Der Sensor 130 ist eine Hardware-Komponente des Geräts 100, die an ein oder mehreren Positionen des Gehäuses 180, die nicht die Eingabekomponente 135 umfassen, eine Hand oder einen Finger des Nutzers erkennen können, wenn der Nutzer ein oder mehrere Handgesten zur Interaktion mit dem Gerät 100 ausführt. In einer Ausführungsform kann der Sensor 130 eine Berühroberfläche oder ein Näherungssensor des Geräts 100 sein, die/der sich an einer entsprechenden Position des Gehäuses 180 befindet, die nicht die Eingabekomponente 135 umfasst. In anderen Ausführungsformen kann der Sensor 130 eine Bilderfassungskomponente sein, die eine Ansicht einer Handgeste erfassen kann, die auf ein oder mehrere der entsprechenden Positionen des Gehäuses 180 zugreift. Zum Zweck dieser Anmeldung umfasst eine Handgeste einen Finger und/oder eine Hand des Nutzers, der/die eine Position des Gehäuses 180 berührt oder in deren Nähe kommt. In einer weiteren Ausführungsform kann eine Handgeste umfassen, dass der Nutzer eine Bewegung mit mindestens einem Finger und/oder einer Hand macht, wenn er die Position des Gehäuses 180 berührt oder in deren Nähe kommt.
  • Wenn der Sensor 130 eine Handgeste erkennt, kann er die Information der Handgeste erkennen. Die Information kann ein oder mehrere Koordinaten umfassen, die Positionen des Gehäuses 180 und/oder des Sensors 130 entsprechen, auf die zugegriffen wurde. Unter Verwendung der erkannten Informationen der zugegriffenen Positionen können der Controller 120 und/oder die Eingabeanwendung erkennen, ob die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. Weiterhin können der Controller 120 und/oder die Eingabeanwendung unter Verwendung der erkannten Information der zugegriffenen Positionen erkennen, ob die Handgeste eine Bewegung und eine Bewegungsrichtung umfasst.
  • Der Sensor 130 kann Informationen der erkannten Handgeste an den Controller 120 und/oder die Eingabeanwendung weiterleiten. Der Controller 120 und/oder die Eingabeanwendung können die Information dazu verwenden zu bestimmen, ob die Handgeste an einer entsprechenden Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. In einer Ausführungsform, wenn der Sensor 130 eine Berühroberfläche oder ein Näherungssensor an einer Position des Gehäuses 180 ist, die nicht die Eingabekomponente 135 umfasst, bestimmen der Controller 120 und/oder die Eingabeanwendung in Reaktion auf das Empfangen von Informationen einer Handgeste von dem Sensor 130, dass die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. In einer weiteren Ausführungsform können der Controller 120 und/oder die Eingabeanwendung Koordinaten der zugegriffenen Position mit zuvor definierten Koordinaten vergleichen, die Positionen des Gehäuses 180 entsprechen, die nicht die Eingabekomponente 135 umfassen. Wenn eine Übereinstimmung festgestellt wird, bestimmen der Controller 120 und/oder die Eingabeanwendung, dass die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst.
  • Wenn die Handgeste an einer Position des Gehäuses 180 erkannt wird, die nicht die Eingabekomponente 135 umfasst, fahren der Controller 120 und/oder die Eingabeanwendung fort, einen Eingabebefehl 140 als Handgestenbefehl zu identifizieren. Zum Zweck dieser Anmeldung umfasst ein Eingabebefehl 140 eine Eingabeanweisung zum Zugriff auf die Nutzeroberfläche und/oder zum Navigieren darauf. Ein Handgestenbefehl kann eine Anweisung zum Navigieren zwischen Inhalten einer Nutzeroberfläche des Geräts 100 sein. Wenn ein entsprechender Handgestenbefehl identifiziert wird, vergleichen der Controller 120 und/oder die Eingabeanwendung die Informationen der Handgeste mit zuvor definierten Informationen von Handgestenbefehlen. Wenn die erkannten Informationen mit einem entsprechenden Handgestenbefehl übereinstimmen, wurde der Eingabebefehl 140 identifiziert und der Controller 120 und/oder die Eingabeanwendung können den Eingabebefehl 140 am Gerät 100 ausführen.
  • In einer weiteren Ausführungsform, wenn auf eine Position des Gehäuses 180, die nicht die Eingabekomponente 135 umfasst, nicht zugegriffen wurde, können der Controller 120 und/oder die Eingabeanwendung bestimmen, ob auf die Eingabekomponente 135 zugegriffen wurde. Der Nutzer kann auf die Eingabekomponente 135 durch Ausführen einer Handgeste an der Eingabekomponente 135 zugreifen. Wenn auf die Eingabekomponente 135 zugegriffen wird, können der Controller und/oder die Eingabeanwendung bestimmen, dass ein Eingabebefehl 140 für das Gerät 100 kein Handgestenbefehl ist. In einer Ausführungsform, wenn auf das Touchpad zugegriffen wird, bestimmen der Controller 120 und/oder die Eingabeanwendung, dass der Eingabebefehl 140 ein Zeigerbefehl zum Zugriff auf aktuell dargestellte Inhalte an der Nutzeroberfläche und zum Navigieren darauf ist. In einer weiteren Ausführungsform, wenn auf die Tastatur zugegriffen wird, können der Controller 120 und/oder die Eingabeanwendung eine entsprechende alphanumerische Eingabe identifizieren, die der Taste der Tastatur entspricht, auf die der Nutzer zugegriffen hat.
  • 2A und 2B zeigen ein Gehäuse 280 eines Geräts 200 und einen Sensor 230 zum Erkennen einer Handgeste eines Nutzers 205 gemäß eines Beispiels. Der Nutzer 205 kann eine beliebige Person sein, die auf das Gerät 200 durch ein oder mehrere Handgesten zugreifen kann. Das Gehäuse 280 kann ein Rahmen, eine Umfassung und/oder eine Hülle zum Aufnehmen ein oder mehrerer Komponenten des Geräts 200 sein. In einer Ausführungsform kann eine Anordnung des Gehäuses 280 ein Legierungs-, Kunststoff-, Carbonfaser-, Fiberglas- und/oder ein beliebiges weiteres Element oder Kombinationen von Elementen zusätzlich zu und/oder anstelle von den oben genannten umfassen. Wie in 2A gezeigt, umfasst das Gehäuse 280 ein oder mehrere entsprechende Positionen 270, die eine Eingabekomponente 235 des Geräts 200 nicht umfassen. Wie oben erwähnt, umfasst eine Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, einen Raum und/oder einen Teil des Gehäuses 280, wie eine Kante des Gehäuses 280, wo die Eingabekomponente 235 nicht angeordnet ist.
  • In einer Ausführungsform umfasst eine Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, eine Kante des Gehäuses 280. Ein oder mehrere Kanten umfassen eine Oberkante, eine Unterkante, eine rechte Kante und/oder eine linke Kante des Gehäuses 280. Weiterhin, wie in 2A gezeigt, können ein oder mehrere entsprechende Positionen 270 sichtbare Markierungen umfassen, um anzuzeigen, wo auf dem Gehäuse 280 die entsprechenden Positionen 270 angeordnet sind. Eine sichtbare Markierung kann ein sichtbarer Aufdruck auf die Oberfläche des Gehäuses 280 sein. In einer weiteren Ausführungsform kann eine sichtbare Markierung Spalten oder Positionen auf der Oberfläche des Gehäuses 280 sein, die von einer Lichtquelle des Geräts 200 beleuchtet werden. In anderen Ausführungsformen kann eine sichtbare Markierung ein beliebiges weiteres sichtbares Objekt sein, das zur Anzeige einer entsprechenden Position des Gehäuses 280 verwendet werden kann, die nicht die Eingabekomponente 235 umfasst.
  • Das Gehäuse 280 kann einen oberen Teil und einen unteren Teil umfassen. Sowohl der obere Teil als auch der untere Teil können entsprechende Positionen 270 umfassen, die eine Eingabekomponente 235 nicht umfassen. In einer Ausführungsform kann eine entsprechende Position 270 des unteren Teils des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, über, unter, links und/oder rechts der Eingabekomponente 235 angeordnet sein. Die Eingabekomponente 235 kann in dem unteren Teil des Gehäuses 280 angeordnet sein. Zum Zweck dieser Anmeldung ist eine Eingabekomponente 235 eine Hardware-Komponente des Geräts 200, wie ein Touchpad oder eine Tastatur, auf die ein Nutzer 205 für Befehle zugreifen kann, die nicht Handgesten sind.
  • Weiterhin kann im oberen Teil des Gehäuses 280 eine Anzeigekomponente 260 des Geräts angeordnet sein. Die Anzeigekomponente 260 ist eine Hardware-Ausgabekomponente, die sichtbare Inhalte auf einer Nutzeroberfläche 265 anzeigen kann, damit ein Nutzer 205 des Geräts 200 diese ansehen und/oder mit diesen interagieren kann. In einer Ausführungsform ist die Anzeigekomponente 260 ein LCD (Liquid Crystal Display), eine LED (Light Emitting Diode)-Anzeige, eine CRT (Cathode Ray Tube)-Anzeige, eine Plasmaanzeige, ein Projektor und/oder ein beliebiges weiteres Gerät, das so gestaltet ist, dass es die Nutzeroberfläche 265 anzeigen kann, um sichtbare Inhalte zu umfassen. Der sichtbare Inhalt kann eine Datei, eine Anwendung, ein Dokument, ein Medium, ein Menü, ein Untermenü und/oder einen Bildschirmhintergrund des Geräts 200 umfassen.
  • Wie in 2A gezeigt, kann das Gerät 200 ein oder mehrere Sensoren 230 umfassen, um eine Handgeste an entsprechenden Positionen 270 des Gehäuses 280 zu erkennen, die nicht die Eingabekomponente 235 umfassen. Zum Zweck dieser Anmeldung ist der Sensor 230 eine Hardware-Komponente des Geräts 200, die Informationen einer Handgeste des Nutzers 205 erkennen kann. In einer Ausführungsform kann der Sensor 230 an eine einzige Position 270 des Geräts 280, wie einer Kante des Geräts 280, in der Nähe einer Tastatur des Geräts 200 gekoppelt oder dort integriert sein. In einer weiteren Ausführungsform kann das Gerät 200 mehr als einen Sensor 230 umfassen, die an verschiedenen Positionen 270 des Gehäuses 280 angeordnet sind, die eine Eingabekomponente 235 nicht umfassen. Der Sensor 230 kann einen Berührungssensor, eine Berühroberfläche, einen Näherungssensor und/oder eine beliebige weitere Hardware-Komponente umfassen, die Informationen einer Handgeste erkennen kann, die eine Position 270 des Geräts 280, die nicht die Eingabekomponente 235 umfasst, berührt oder in deren Nähe kommt.
  • In einer weiteren Ausführungsform, wie in 2B dargestellt, umfassen ein oder mehrere Positionen 235 des Geräts 280, die nicht eine Eingabekomponente 234 umfassen, einen Bereich oder ein Intervall zwischen einer Kante des Gehäuses 280 und der Eingabekomponente 235. Wie in der vorliegenden Ausführungsform gezeigt, ist eine entsprechende Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, an der Seite einer Touchpad-Komponente des Geräts 200 angeordnet und reicht nicht bis zu einer Kante des Gehäuses 280. In anderen Ausführungsformen können ein oder mehrere Sensoren 230 eine Bilderfassungskomponente umfassen, die an einen oberen Teil des Gehäuses 280 gekoppelt sein kann. Die Bilderfassungskomponente kann eine Ansicht der entsprechenden Positionen 270 des unteren Teils erfassen, um eine Handgeste des Nutzers 205 zu erkennen.
  • Wenn ein Nutzer 205 auf eine entsprechende Position 270 des Gehäuses 280 mit einer Handgeste zugreift, kann der Sensor 230 Informationen der Handgeste erkennen. Der Nutzer 205 kann einen Finger und/oder eine Hand verwenden, um eine Handgeste durch Berühren des Gehäuses 280 oder Annäherung daran auszuführen. Der Sensor 230 kann Informationen der Handgeste des Nutzers 205 erkennen, indem er Positionen 270 des Gehäuses 280 für die Handgeste erkennt, die nicht die Eingabekomponente 235 umfassen. In einer Ausführungsform kann die Information Koordinaten des Gehäuses 280 oder Koordinaten des Sensors 230 umfassen, auf die mit der Handgeste zugegriffen wird. Der Sensor 230 kann die erkannten Informationen der Handgeste mit einem Controller und/oder einer Eingabeanwendung des Geräts 200 teilen. In Reaktion auf den Empfang der erkannten Information der Handgeste können der Controller und/oder die Eingabeanwendung einen Eingabebefehl für das Gerät 200 identifizieren.
  • 3 zeigt ein Blockdiagramm einer Eingabeanwendung 310, die einen Eingabebefehl für ein Gerät gemäß eines Beispiels identifiziert. In einer Ausführungsform kann die Eingabeanwendung 310 eine Firmware sein, die in ein oder mehrere Komponenten des Geräts eingebaut ist. In einer weiteren Ausführungsform kann die Eingabeanwendung 310 eine Anwendung sein, auf die von einem nicht-flüchtigen, computerlesbaren Speicher des Geräts zugegriffen werden kann. Der computerlesbare Speicher ist ein materieller Apparat, der die Anwendung zur Verwendung durch das Gerät oder in Verbindung mit dem Gerät enthält, speichert, kommuniziert oder transportiert. In einer Ausführungsform ist der computerlesbare Speicher eine Festplatte, eine Compact Disk, ein Flash-Laufwerk, ein Netzlaufwerk oder eine beliebige andere Form eines materiellen Apparats, der mit dem Gerät gekoppelt ist.
  • Wie in 3 gezeigt, hat der Sensor 330 Informationen eine Handgeste eines Nutzers erkannt. In einer Ausführungsform umfasst die Information Positionen des Gehäuses, an denen die Handgeste erkannt wurde. In einer weiteren Ausführungsform, wenn der Sensor 330 an einer Position des Gehäuses umfasst ist, die nicht eine Eingabekomponente umfasst, kann die Information Positionen des Sensors 330 umfassen, auf die durch die Handgeste zugegriffen wurde. Die Positionen des Gehäuses und/oder Sensors 330 können von dem Sensor 330 als Koordinaten des Gehäuses oder Sensors 330 geteilt werden. Unter Verwendung der erkannten Informationen der Handgeste kann der Controller 320 und/oder die Eingabeanwendung 310 einen Eingabebefehl identifizieren, der auf Informationen der erkannten Handgeste basiert.
  • In einer Ausführungsform kann der Controller 320 und/oder die Eingabeanwendung 310 anfangs auf eine Liste, Tabelle und/oder Datenbank von Eingabebefehlen zugreifen und die erkannte Information der Handgeste mit zuvor definierten Informationen vergleichen, die Eingabebefehlen des Geräts entsprechen. Die Liste, Tabelle und/oder Datenbank von Eingabebefehlen kann lokal in dem Gerät oder entfernt zugreifbar von einem anderen Gerät gespeichert sein. Wie in der vorliegenden Ausführungsform gezeigt, kann die Liste, Tabelle und/oder Datenbank von Eingabebefehlen ein oder mehrere Handgestenbefehle und oder ein oder mehrere Zeigerbefehle umfassen. Ein Handgestenbefehl kann verwendet werden, um zwischen Inhalten der Nutzeroberfläche zu navigieren. Ein Zeigerbefehl kann dazu verwendet werden, auf aktuell dargestellte Inhalte der Nutzeroberfläche zuzugreifen und/oder zwischen diesen zu navigieren. In weiteren Ausführungsformen kann das Gerät weitere Eingabebefehle zusätzlich zu oder anstelle von den oben erwähnten und in 3 dargestellten umfassen.
  • Wenn der Controller 320 und/oder die Eingabeanwendung 310 bestimmen, dass die Handgeste an einer Position des Gehäuses, wie eine Kante des Gehäuses, erkannt wurde, die nicht die Eingabekomponente umfasst, wird der Eingabebefehl als ein Handgestenbefehl identifiziert. Der Controller 320 und/oder die Eingabeanwendung 310 können bestimmen, dass die Handgeste an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, wenn der Sensor 330 an einer Kante des Gehäuses umfasst ist und auf den Sensor 330 mit einer Handgeste zugegriffen wurde.
  • In einer weiteren Ausführungsform, wenn der Sensor 330 eine Bilderfassungskomponente ist, die eine Ansicht von den Kanten erfasst, vergleichen der Controller 320 und/oder die Eingabeanwendung 210 die zugegriffenen Positionen des Gehäuses mit zuvor definierten Koordinaten, die Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen. Wenn eine der zugegriffenen Positionen mit einer zuvor definierten Koordinate übereinstimmt, die Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen, bestimmen der Controller 320 und/oder die Eingabeanwendung 310, dass auf eine Kante des Gehäuses mit der Handgeste zugegriffen wurde. Die zuvor definierten Koordinaten der Positionen des Gehäuses können von dem Controller 320, der Eingabeanwendung 310, einem Nutzer und/oder einem Hersteller des Geräts definiert werden.
  • In Reaktion auf die Bestimmung, dass auf eine Position des Gehäuses, die nicht die Eingabekomponente umfasst, durch eine Handgeste zugegriffen wurde, fahren der Controller 320 und/oder die Eingabeanwendung 310 fort, auf die Liste von Handgestenbefehlen zuzugreifen und die Informationen der Handgeste mit zuvor definierten Informationen für jeden Handgestenbefehl zu vergleichen. Wenn eine Übereinstimmung festgestellt wird, fahren der Controller und/oder die Eingabeanwendung 310 fort, den identifizierten Handgestenbefehl am Gerät auszuführen.
  • In einer Ausführungsform, wenn die erkannten Informationen der Handgeste festlegen, dass die Handgeste eine Horizontalbewegung an der Kante des Gehäuses umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als einen Handgestenbefehl zum Navigieren zwischen Inhalten der Nutzeroberfläche. In einer weiteren Ausführungsform, wenn die erkannten Informationen der Handgeste festlegen, dass die Handgeste eine Vertikalbewegung an der Kante des Gehäuses umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als einen Handgestenbefehl zum Aufrufen eines Menüs oder der Einstellungen. Das Menü oder die Einstellungen können einem Inhalt entsprechen, der aktuell auf der Nutzeroberfläche wiedergegeben wird, oder das Menü oder die Einstellungen können einem Menü oder Einstellungen eines Betriebssystems des Geräts entsprechen. Wenn das Menü oder die Einstellungen auf der Nutzeroberfläche wiedergegeben werden, kann der Nutzer ein oder mehrere weitere Handgesten zum Navigieren im Menü oder in den Einstellungen ausführen.
  • Weiterhin kann der Nutzer ein oder mehrere Handgesten ausführen, um ein Objekt des Menüs oder der Einstellungen auszuwählen oder ein Untermenü anzuzeigen.
  • In einer weiteren Ausführungsform, wenn der Controller 320 und/oder die Eingabeanwendung 310 bestimmen, dass die Handgeste nicht an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, bestimmen der Controller und/oder die Eingabeanwendung 310, ob auf die Eingabekomponente zugegriffen wurde. Wie oben erwähnt, kann die Eingabekomponente eine Tastatur und/oder ein Touchpad des Geräts sein. Wenn auf das Touchpad zugegriffen wurde, bestimmen der Controller 320 und/oder die Eingabeanwendung 310, dass der Eingabebefehl für das Gerät ein Zeigerbefehl ist. Der Controller 320 und/oder die Eingabeanwendung 310 können basierend auf der Informationen der Handgeste bestimmen, welcher Zeigerbefehl auszuführen ist.
  • Wenn die erkannten Informationen festlegen, dass eine Handgeste eine Horizontalbewegung mit der Eingabekomponente umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als Zeigerbefehl, den Zeiger horizontal neu zu positionieren. In einer weiteren Ausführungsform, wenn die erkannten Informationen festlegen, dass die Handgeste eine Vertikalbewegung unter Verwendung der Eingabekomponente umfasst, wird der Eingabebefehl als Zeigerbefehl identifiziert, den Zeiger vertikal neu zu positionieren. Wenn die Eingabekomponente eine Tastatur ist, können der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als eine Tastatureingabe identifizieren und basierend darauf, auf welche Taste der Tastatur zugegriffen wurde, identifizieren, welche alphanumerische Eingabe zu verarbeiten ist.
  • In weiteren Ausführungsformen können der Controller 320 und/oder die Eingabeanwendung 310 zusätzlich berücksichtigen, auf welche Position des Gehäuses, die nicht die Eingabekomponente umfasst, beim Identifizieren eines Eingabebefehls zugegriffen wurde. Der Controller 320, die Eingabeanwendung 310 und/oder der Nutzer des Geräts können definieren, welche Position des Gehäuses für Handgestenbefehle und welche Position des Gehäuses für Zeigerbefehle verwendet werden kann.
  • In einer Ausführungsform kann eine erste Kante des Gehäuses für einen Handgestenbefehl verwendet werden, während eine zweite Kante des Gehäuses für einen Zeigerbefehl verwendet werden kann. Wenn z. B. auf eine rechte Kante des Gehäuses mit der Handgeste zugegriffen wird, können der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als Handgestenbefehl identifizieren. Wenn weiterhin auf eine linke Kante des Gehäuses, die gegenüber der rechten Kante angeordnet ist, durch die Handgeste zugegriffen wird, können der Controller 320 und/oder die Eingabeanwendung den Eingabebefehl als Zeigerbefehl identifizieren. Der Controller 320 und/oder die Eingabeanwendung 310 können dann basierend auf den Informationen der Handgeste fortfahren, den entsprechenden Eingabebefehl zu identifizieren und auszuführen.
  • 4 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels darstellt. Ein Controller und/oder eine Eingabeanwendung können unabhängig und/oder in Verbindung miteinander genutzt werden, um einen Eingabebefehl des Geräts zu identifizieren. Ein Sensor des Geräts, wie ein Berührungssensor, eine Berühroberfläche und/oder ein Näherungssensor können eingangs Informationen einer Handgeste erkennen, die an einer Position des Gehäuses ausgeführt wurde, die nicht eine Eingabekomponente 400 umfasst. Das Gehäuse kann ein Rahmen, eine Umfassung und/oder eine Hülle des Geräts sein, in dem die Eingabekomponente angeordnet ist Das Gehäuse umfasst ein oder mehrere Positionen, wie eine Kante des Gehäuses, an denen die Eingabekomponente nicht umfasst ist und/oder an denen die Eingabekomponente nicht angeordnet ist.
  • Wenn der Sensor eine Handgeste erkennt, kann der Sensor Informationen einer Handgeste, wie Positionen von zugegriffenen Positionen des Gehäuses, weiterleiten, so dass der Controller und/oder die Eingabeanwendung einen Eingabebefehl des Geräts identifizieren können. Der Controller und/oder die Eingabeanwendung können die erkannten Informationen der Handgeste verwenden, um zu bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst. Wenn der Controller und/oder die Eingabeanwendung bestimmen, dass die Handgeste an einer entsprechenden Position des Gehäuses ausgeführt wurde, können der Controller und/oder die Eingabeanwendung basierend auf den Informationen der Handgeste bei 410 fortfahren, einen Eingabebefehl, wie einen Handgestenbefehl, am Gerät auszuführen.
  • In einer weiteren Ausführungsform, wenn die Handgeste nicht an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst, können der Controller und/oder die Eingabeanwendung bestimmen, ob die Handgeste auf eine Eingabekomponente, wie ein Touchpad oder eine Tastatur, zugreift. Wenn auf die Eingabekomponente zugegriffen wurde, können der Controller und/oder die Eingabeanwendung basierend auf Informationen der Handgeste einen entsprechenden Zeigerbefehl identifizieren und ausführen. Das Verfahren ist dann abgeschlossen. In anderen Ausführungsformen umfasst das Verfahren von 4 weitere Schritte zusätzlich zu und/oder anstelle von denen, die in 4 dargestellt sind.
  • 5 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels darstellt. Der Controller und/oder die Eingabeanwendung verwenden einen Sensor des Geräts, um Informationen einer Handgeste zu erkennen, die auf eine Eingabekomponente oder eine Position des Gehäuses zugreift, die nicht eine Eingabekomponente bei 500 umfasst. Wie oben erwähnt, können die entsprechenden Positionen des Gehäuses sichtbare Markierungen umfassen, die anzeigen, wo diese am Gehäuse angeordnet sind. Der Controller und/oder die Eingabeanwendung können die erkannten Informationen verwenden, um zu bestimmen, ob der Finger oder die Hand der Handgeste eine entsprechende Position des Gehäuses, die nicht die Eingabekomponente bei 510 umfasst, berührt oder sich in der Nähe befindet.
  • In einer Ausführungsform, wenn der Sensor an einer entsprechenden Position des Gehäuses angeordnet ist, die nicht die Eingabekomponente umfasst, bestimmen der Controller und/oder die Eingabeanwendung, dass eine Handgeste an der entsprechenden Position in Reaktion darauf erkannt wurde, dass der Sensor eine Handgeste erkannt hat. In einer weiteren Ausführungsform, wenn der Sensor eine Bilderfassungskomponente ist, die eine Ansicht der entsprechenden Positionen erfasst, können der Controller und/oder die Eingabeanwendung die zugegriffenen Positionen der Handgeste mit zuvor definierten Koordinaten vergleichen, die den Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen. Wenn eine der zugegriffenen Positionen mit einer zuvor definierten Koordinate übereinstimmt, bestimmen der Controller und/oder die Eingabeanwendung, dass auf eine Position des Gehäuses, die nicht die Eingabekomponente umfasst, durch der Handgeste zugegriffen wurde.
  • Wenn bestimmt wird, dass auf eine entsprechende Position des Gehäuses, die nicht die Handgeste umfasst, nicht zugegriffen wurde, bestimmen der Controller und/oder die Eingabeanwendung, ob auf eine Eingabekomponente zugegriffen wurde. Wenn auf die Eingabekomponente durch die Handgeste zugegriffen wurde, wird der Eingabebefehl als ein Zeigerbefehl bei 520 identifiziert. In einer Ausführungsform können der Controller und/oder die Eingabeanwendung auf eine Liste, Tabelle und/oder Datenbank von Eingabebefehlen zugreifen und die erkannten Informationen der Handgeste mit zuvor definierten Informationen von Zeigerbefehlen vergleichen. Wenn eine Übereinstimmung festgestellt wird, können der Controller und/oder die Eingabeanwendung fortfahren, den entsprechenden Zeigerbefehl auszuführen, um auf aktuell wiedergegebene Inhalte am Gerät bei 530 zuzugreifen und/oder zwischen diesen zu navigieren.
  • Wenn die Handgeste an einer entsprechenden Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, identifizieren der Controller und/oder die Eingabeanwendung den Eingabebefehl als einen Handgestenbefehl bei 540. Der Controller und/oder die Eingabeanwendung greifen auf die Liste, Tabelle und/oder Datenbank von Eingabebefehlen zu und vergleichen die erkannten Informationen der Handgeste mit zuvor definierten Informationen von Handgestenbefehlen. Wenn eine Übereinstimmung festgestellt wird, fahren der Controller und/oder die Eingabeanwendung fort, den entsprechenden Handgestenbefehl auszuführen und zwischen Inhalten des Geräts bei 550 zu navigieren. Das Verfahren ist dann abgeschlossen. In anderen Ausführungsformen umfasst das Verfahren von 5 weitere Schritte zusätzlich zu und/oder anstelle von denen, die in 5 dargestellt sind.

Claims (15)

  1. Gerät, das Folgendes umfasst: ein Gehäuse, das eine Eingabekomponente umfasst; einen Sensor zum Erkennen einer Handgeste an einer Position des Gehäuses, die nicht die Eingabekomponente umfasst; und einen Controller zum Ausführen eines Eingabebefehls am Gerät basierend auf der Handgeste, wenn die Handgeste an der Position des Gehäuses erkannt wird, die nicht die Eingabekomponente umfasst.
  2. Gerät nach Anspruch 1, wobei die Eingabekomponente mindestens eine Tastatur oder ein Touchpad des Geräts umfasst.
  3. Gerät nach Anspruch 1, wobei die Position des Gehäuses, die nicht die Eingabekomponente umfasst, eine Kante des Gehäuses umfasst.
  4. Gerät nach Anspruch 1, wobei die Position des Gehäuses, die nicht die Eingabekomponente umfasst, mindestens einen Teil des Gehäuses zwischen einer Kante des Gehäuses und der Eingabekomponente umfasst.
  5. Gerät nach Anspruch 1, wobei der Sensor mindestens einen aus Berührungssensor, Berührungsoberfläche und Näherungssensor umfasst, der an einer Kante des Gehäuses angeordnet ist.
  6. Gerät nach Anspruch 1, wobei der Sensor eine Bilderfassungskomponente ist, die eine Ansicht der Kanten des Gehäuses erfasst.
  7. Gerät nach Anspruch 6, wobei das Gehäuse einen oberen Teil umfasst, der den Sensor umfasst, und einen unteren Teil, der die Eingabekomponente umfasst.
  8. Verfahren zum Erkennen einer Eingabe für ein Gerät, das Folgendes umfasst: Erkennen einer Handgeste an einer Position eines Gehäuses eines Geräts, die nicht eine Eingabekomponente umfasst, mit einem Sensor, und Ausführen eines Eingabebefehls in dem Gerät basierend auf der Handgeste, wenn die Handgeste an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst.
  9. Verfahren zum Erkennen einer Eingabe für ein Gerät nach Anspruch 8, wobei das Erkennen der Handgeste an einer Kante das Erkennen einer Kante des Gehäuses für eine Handgeste umfasst.
  10. Verfahren zum Erkennen einer Eingabe für ein Gerät nach Anspruch 8, das weiter das Erkennen einer Handgeste umfasst, die auf die Eingabekomponente zugreift.
  11. Verfahren zum Erkennen einer Eingabe für ein Gerät nach Anspruch 10, das weiter das Bestimmen umfasst, ob der Eingabebefehl ein Handgestenbefehl oder ein Zeigerbefehl ist.
  12. Verfahren zum Erkennen einer Eingabe für ein Gerät nach Anspruch 11, wobei der Eingabebefehl als Handgestenbefehl zum Navigieren zwischen Inhalten des Geräts identifiziert wird, wenn die Handgeste an einer Kante des Geräts erkannt wird.
  13. Verfahren zum Erkennen einer Eingabe für ein Gerät nach Anspruch 11, wobei der Eingabebefehl als Zeigerbefehl zum Navigieren in aktuell wiedergegebenen Inhalten des Geräts identifiziert wird, wenn die Eingabekomponente eine Handgeste erkennt.
  14. Computerlesbares Medium, das Anweisungen umfasst, die bei Ausführung bewirken, dass ein Controller Folgendes ausführt: Erkennen einer Position eines Gehäuses eines Geräts, die nicht eine Eingabekomponente für eine Handgeste umfasst, mit einem Sensor, und Ausführen eines Eingabebefehls in dem Gerät basierend auf der Handgeste, wenn die Handgeste an einer Position des Gehäuses erkannt wird, die nicht die Eingabekomponente umfasst.
  15. Computerlesbares Medium nach Anspruch 14, wobei der Controller weiterhin den Eingabebefehl als Handgestenbefehl identifiziert, wenn die Handgeste an einer ersten Kante des Gehäuses erkannt wird, und der Eingabebefehl wird als Zeigerbefehl identifiziert, wenn die Handgeste an einer zweiten Kante des Gehäuses erkannt wird.
DE112011105888.8T 2011-12-23 2011-12-23 Eingabebefehl, der auf Handgeste basiert Withdrawn DE112011105888T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/067079 WO2013095602A1 (en) 2011-12-23 2011-12-23 Input command based on hand gesture

Publications (1)

Publication Number Publication Date
DE112011105888T5 true DE112011105888T5 (de) 2014-09-11

Family

ID=48669243

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011105888.8T Withdrawn DE112011105888T5 (de) 2011-12-23 2011-12-23 Eingabebefehl, der auf Handgeste basiert

Country Status (6)

Country Link
US (1) US20140253438A1 (de)
CN (1) CN103999019A (de)
DE (1) DE112011105888T5 (de)
GB (1) GB2511976A (de)
TW (1) TWI468989B (de)
WO (1) WO2013095602A1 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210155663A (ko) * 2020-06-16 2021-12-23 에스케이하이닉스 주식회사 메모리 장치 및 그 동작 방법
US11853480B2 (en) 2021-06-04 2023-12-26 Zouheir Taher Fadlallah Capturing touchless inputs and controlling a user interface with the same
US11507197B1 (en) * 2021-06-04 2022-11-22 Zouheir Taher Fadlallah Capturing touchless inputs and controlling an electronic device with the same

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7834855B2 (en) * 2004-08-25 2010-11-16 Apple Inc. Wide touchpad on a portable computer
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6522962B2 (en) * 2000-08-24 2003-02-18 Delphi Technologies, Inc. Distributed control architecture for mechatronic automotive systems
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7692627B2 (en) * 2004-08-10 2010-04-06 Microsoft Corporation Systems and methods using computer vision and capacitive sensing for cursor control
US7242588B2 (en) * 2005-09-13 2007-07-10 Kitsopoulos Sotirios Constanti Multifunction modular electronic apparatus
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
US7995034B2 (en) * 2006-06-22 2011-08-09 Microsoft Corporation Input device having a presence sensor
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
US7961173B2 (en) * 2006-09-05 2011-06-14 Navisense Method and apparatus for touchless calibration
WO2008093683A1 (ja) * 2007-01-31 2008-08-07 Alps Electric Co., Ltd. 静電容量式モーション検出装置及びそれを用いた入力装置
US20080186287A1 (en) * 2007-02-05 2008-08-07 Nokia Corporation User input device
TWM320708U (en) * 2007-02-16 2007-10-11 Arima Computer Corp Ultra mobile personal computer
KR101606655B1 (ko) * 2007-09-24 2016-03-25 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US20110047459A1 (en) * 2007-10-08 2011-02-24 Willem Morkel Van Der Westhuizen User interface
KR101234968B1 (ko) * 2007-11-19 2013-02-20 서크 코퍼레이션 디스플레이와 결합되며, 근접 및 터치 감지 성능을 가진 터치패드
US7971497B2 (en) * 2007-11-26 2011-07-05 Air Products And Chemicals, Inc. Devices and methods for performing inspections, repairs, and/or other operations within vessels
US9767681B2 (en) * 2007-12-12 2017-09-19 Apple Inc. Handheld electronic devices with remote control functionality and gesture recognition
TW200943062A (en) * 2008-04-10 2009-10-16 Inventec Corp Apparatus and method for automatically performing system configuration
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
JP4966292B2 (ja) * 2008-12-25 2012-07-04 株式会社東芝 情報処理装置および冷却性能判定方法
US20100164878A1 (en) * 2008-12-31 2010-07-01 Nokia Corporation Touch-click keypad
US8698741B1 (en) * 2009-01-16 2014-04-15 Fresenius Medical Care Holdings, Inc. Methods and apparatus for medical device cursor control and touchpad-based navigation
US8836648B2 (en) * 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
CN202142005U (zh) * 2009-07-22 2012-02-08 罗技欧洲公司 用于远程、虚拟屏幕输入的系统
US9551590B2 (en) * 2009-08-28 2017-01-24 Robert Bosch Gmbh Gesture-based information and command entry for motor vehicle
US20110260976A1 (en) * 2010-04-21 2011-10-27 Microsoft Corporation Tactile overlay for virtual keyboard
HK1147905A2 (en) * 2010-06-30 2011-08-19 Chi Ching Lee System and method for virtual touch sensing
US20120001923A1 (en) * 2010-07-03 2012-01-05 Sara Weinzimmer Sound-enhanced ebook with sound events triggered by reader progress
US8432301B2 (en) * 2010-08-10 2013-04-30 Mckesson Financial Holdings Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
US8624837B1 (en) * 2011-03-28 2014-01-07 Google Inc. Methods and apparatus related to a scratch pad region of a computing device
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US9257098B2 (en) * 2011-12-23 2016-02-09 Nokia Technologies Oy Apparatus and methods for displaying second content in response to user inputs
EP2798441A4 (de) * 2011-12-30 2015-08-05 Intel Corp Interaktive zeichnungserkennung

Also Published As

Publication number Publication date
TWI468989B (zh) 2015-01-11
TW201327279A (zh) 2013-07-01
GB2511976A (en) 2014-09-17
WO2013095602A1 (en) 2013-06-27
GB201410950D0 (en) 2014-08-06
US20140253438A1 (en) 2014-09-11
CN103999019A (zh) 2014-08-20

Similar Documents

Publication Publication Date Title
DE112010002760B4 (de) Benutzerschnittstelle
AU2013222958B2 (en) Method and apparatus for object size adjustment on a screen
AU2007241972B2 (en) Method and apparatus for controlling display output of multidimensional information
DE112013006066T5 (de) Die Druckempfindlichkeit auf Multi-Touch-Einheiten emulieren
DE202014103258U1 (de) Mobiles Endgerät
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE112012006165T5 (de) Touchscreen-Anwenderschnittstelle mit Spracheingabe
US20140015785A1 (en) Electronic device
DE112011105894T5 (de) Eingabemethode auf der Grundlage eines Standorts einer Handbewegung
US20130321350A1 (en) Virtual ruler for stylus input
DE112013004614T5 (de) Gestentastatur mit Gestenannullierung
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE102012014603A1 (de) System und Verfahren für den synchronisierten Betrieb einer Touch-vorrichtung
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
CN105929954B (zh) 一种控制光标的方法及装置、显示设备
DE102014019646A1 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
DE202017105674U1 (de) Steuerung eines Fensters unter Verwendung eines berührungsempfindlichen Rands
TW201610808A (zh) 手寫符號的識別方法、系統與裝置
DE112011105888T5 (de) Eingabebefehl, der auf Handgeste basiert
DE102015218476A1 (de) Verfahren zum Anzeigen von Symbolen und elektronische Vorrichtung
DE102018123925A1 (de) Finger Identification for new touch gestures using capacitance hover patterns
CN104956378A (zh) 电子设备和手写文档处理方法
DE112010005930T5 (de) Ein erstes Bild und ein zweites Bild auf einer Anzeige
EP2669783A1 (de) Virtuelles Lineal für Stifteingabe
DE102016204692A1 (de) Steuerung der Mehrfachauswahl auf berührungsempfindlichen Flächen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER, SCHE, DE

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER & PAR, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee