-
HINTERGRUND DER ERFINDUNG
-
Bei Interaktion mit einer Nutzeroberfläche, die auf einem Gerät wiedergegeben wird, kann ein Nutzer auf eine Eingabekomponente des Geräts, wie eine Tastatur und/oder eine Maus zugreifen. Der Nutzer kann die Maus von einem Ort zu einem anderen neu positionieren, um auf der Nutzeroberfläche zu navigieren und auf sichtbare Inhalte zuzugreifen, die auf der Nutzeroberfläche wiedergegeben werden. In einem weiteren Beispiel kann der Nutzer Kurzbefehle auf der Tastatur nutzen, um auf sichtbare Inhalte auf der Nutzeroberfläche zuzugreifen und/oder zwischen diesen zu navigieren.
-
KURZBESCHREIBUNG DER ZEICHNUNGEN
-
Aus der folgenden ausführlichen Beschreibung, zusammen mit den begleitenden Zeichnungen, werden verschiedene Funktionen und Vorteile der offenbarten Ausführungsformen ersichtlich, die zusammen beispielhaft Funktionen der offenbarten Ausführungsformen veranschaulichen.
-
1 zeigt ein Gerät gemäß eines Beispiels.
-
2A und 2B zeigen ein Gehäuse eines Geräts und einen Sensor zum Erkennen einer Handgeste eines Nutzers gemäß eines Beispiels.
-
3 zeigt ein Blockdiagramm einer Eingabeanwendung, die einen Eingabebefehl für ein Gerät gemäß eines Beispiels erkennt.
-
4 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels veranschaulicht.
-
5 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines weiteren Beispiels veranschaulicht.
-
AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
-
Ein Gerät umfasst einen Sender und ein Gehäuse mit einer Eingabekomponente des Geräts. Das Gehäuse kann ein Rahmen, eine Einfassung und/oder eine Hülle des Geräts sein. Die Eingabekomponente kann ein Touchpad oder eine Tastatur sein, das/die sich nicht an ein oder mehreren Positionen des Gehäuses, wie einer Kante des Gehäuses, befindet. Der Sensor kann ein Berührungssensor, ein Näherungssensor, eine Berühroberfläche und/oder eine Bilderfassungskomponente sein, die Informationen einer Handgeste eines Nutzers des Geräts erkennen kann. In Reaktion auf das Erkennen von Informationen der Handgeste kann das Gerät bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wird, die nicht die Eingabekomponente umfasst. Wenn die Handgeste an einer Position des Gehäuses erkannt wird, die nicht die Eingabekomponente umfasst, kann das Gerät dies identifizieren und basierend auf Informationen der Handgeste einen Eingabebefehl für das Gerät ausführen. Ein Eingabebefehl kann eine Eingabeanweisung des Geräts sein, auf die Nutzeroberfläche zuzugreifen und/oder auf dieser zu navigieren.
-
In einer Ausführungsform kann der Eingabebefehl als Handgestenbefehl identifiziert werden, um zwischen Inhalten einer Nutzeroberfläche des Geräts zu navigieren, wenn die Handgeste an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst. Der Inhalt kann eine Anwendung, eine Datei, ein Medium, ein Menü, eine Einstellung und/oder einen Bildschirmschoner umfassen. In einer weiteren Ausführungsform, wenn auf die Eingabekomponente durch die Handgeste zugegriffen wird, identifiziert das Gerät einen Eingabebefehl für das Gerät als einen Zeigerbefehl. Ein Zeigerbefehl kann verwendet werden, um auf einen aktuell auf der Nutzeroberfläche wiedergegebenen Inhalt zuzugreifen bzw. auf dieser zu navigieren. Durch Erkennen einer Handgeste und Bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst, kann das Gerät ein oder mehrere Eingabebefehle am Gerät genau identifizieren, so dass der Nutzer mit ein oder mehreren Handgesten auf eine Nutzeroberfläche zugreifen and auf dieser navigieren kann.
-
1 zeigt ein Gerät 100 gemäß eines Beispiels. Das Gerät 100 kann ein Laptop, Notebook, Tablet, Netbook, All-in-One-System und/oder ein Desktop sein. In einer weiteren Ausführungsform kann das Gerät 100 ein Mobilgerät, ein PDA (Personal Digital Assistant), ein E (Electronic) Reader und oder ein beliebiges Gerät mit einem Gehäuse 180 sein, mit dem ein Nutzer mittels einer Handgeste interagieren kann. Das Gerät 100 umfasst ein Gehäuse 105, einen Controller 120, eine Eingabekomponente 135, einen Sensor 130 und einen Kommunikationskanal 150, so dass Komponenten des Geräts 100 miteinander kommunizieren können. In einer Ausführungsform umfasst das Gerät 100 eine Eingabeanwendung, die unabhängig von und/oder in Verbindung mit dem Controller 120 genutzt werden kann, um das Gerät 100 zu verwalten. Die Eingabeanwendung kann eine Firmware oder Anwendung sein, die von dem Controller 120 von einem nicht-flüchtigen, computerlesbaren Speicher des Geräts 100 ausführbar ist.
-
Ein Nutzer kann mit dem Gerät 100 durch Ausführen ein oder mehrerer Handgesten an einer Position des Rahmens 180 interagieren, die dort von einem Sensor 130 des Geräts 100 erkannt werden. Zum Zweck dieser Anmeldung umfasst das Gehäuse 180 einen Rahmen, eine Umfassung und/oder eine Hülle des Geräts 100. Das Gehäuse 180 umfasst ein oder mehrere Positionen, die eine Eingabekomponente 135 des Geräts 100 nicht umfassen. Die Eingabekomponente 135 ist eine Hardware-Komponente des Geräts 100, wie ein Touchpad und/oder eine Tastatur. Zum Zweck dieser Anmeldung umfasst eine Position des Gehäuses 180, die nicht die Eingabekomponente 135 umfasst, einen Raum und/oder einen Teil des Gehäuses 180, wie eine Kante des Gehäuses 180, an dem sich die Eingabekomponente 135 nicht befindet. Ein oder mehrere Kanten können eine Oberkante, eine Unterkante, eine linke Kante und/oder eine rechte Kante des Gehäuses 180 umfassen. In einer Ausführungsform umfasst das Gehäuse 180 einen oberen Teil und einen unteren Teil. Sowohl der obere Teil als auch der untere Teil des Gehäuses 180 kann ein oder mehrere entsprechende Positionen umfassen, die nicht die Eingabekomponente 135 umfassen.
-
Der Sensor 130 ist eine Hardware-Komponente des Geräts 100, die an ein oder mehreren Positionen des Gehäuses 180, die nicht die Eingabekomponente 135 umfassen, eine Hand oder einen Finger des Nutzers erkennen können, wenn der Nutzer ein oder mehrere Handgesten zur Interaktion mit dem Gerät 100 ausführt. In einer Ausführungsform kann der Sensor 130 eine Berühroberfläche oder ein Näherungssensor des Geräts 100 sein, die/der sich an einer entsprechenden Position des Gehäuses 180 befindet, die nicht die Eingabekomponente 135 umfasst. In anderen Ausführungsformen kann der Sensor 130 eine Bilderfassungskomponente sein, die eine Ansicht einer Handgeste erfassen kann, die auf ein oder mehrere der entsprechenden Positionen des Gehäuses 180 zugreift. Zum Zweck dieser Anmeldung umfasst eine Handgeste einen Finger und/oder eine Hand des Nutzers, der/die eine Position des Gehäuses 180 berührt oder in deren Nähe kommt. In einer weiteren Ausführungsform kann eine Handgeste umfassen, dass der Nutzer eine Bewegung mit mindestens einem Finger und/oder einer Hand macht, wenn er die Position des Gehäuses 180 berührt oder in deren Nähe kommt.
-
Wenn der Sensor 130 eine Handgeste erkennt, kann er die Information der Handgeste erkennen. Die Information kann ein oder mehrere Koordinaten umfassen, die Positionen des Gehäuses 180 und/oder des Sensors 130 entsprechen, auf die zugegriffen wurde. Unter Verwendung der erkannten Informationen der zugegriffenen Positionen können der Controller 120 und/oder die Eingabeanwendung erkennen, ob die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. Weiterhin können der Controller 120 und/oder die Eingabeanwendung unter Verwendung der erkannten Information der zugegriffenen Positionen erkennen, ob die Handgeste eine Bewegung und eine Bewegungsrichtung umfasst.
-
Der Sensor 130 kann Informationen der erkannten Handgeste an den Controller 120 und/oder die Eingabeanwendung weiterleiten. Der Controller 120 und/oder die Eingabeanwendung können die Information dazu verwenden zu bestimmen, ob die Handgeste an einer entsprechenden Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. In einer Ausführungsform, wenn der Sensor 130 eine Berühroberfläche oder ein Näherungssensor an einer Position des Gehäuses 180 ist, die nicht die Eingabekomponente 135 umfasst, bestimmen der Controller 120 und/oder die Eingabeanwendung in Reaktion auf das Empfangen von Informationen einer Handgeste von dem Sensor 130, dass die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst. In einer weiteren Ausführungsform können der Controller 120 und/oder die Eingabeanwendung Koordinaten der zugegriffenen Position mit zuvor definierten Koordinaten vergleichen, die Positionen des Gehäuses 180 entsprechen, die nicht die Eingabekomponente 135 umfassen. Wenn eine Übereinstimmung festgestellt wird, bestimmen der Controller 120 und/oder die Eingabeanwendung, dass die Handgeste an einer Position des Gehäuses 180 erkannt wurde, die nicht die Eingabekomponente 135 umfasst.
-
Wenn die Handgeste an einer Position des Gehäuses 180 erkannt wird, die nicht die Eingabekomponente 135 umfasst, fahren der Controller 120 und/oder die Eingabeanwendung fort, einen Eingabebefehl 140 als Handgestenbefehl zu identifizieren. Zum Zweck dieser Anmeldung umfasst ein Eingabebefehl 140 eine Eingabeanweisung zum Zugriff auf die Nutzeroberfläche und/oder zum Navigieren darauf. Ein Handgestenbefehl kann eine Anweisung zum Navigieren zwischen Inhalten einer Nutzeroberfläche des Geräts 100 sein. Wenn ein entsprechender Handgestenbefehl identifiziert wird, vergleichen der Controller 120 und/oder die Eingabeanwendung die Informationen der Handgeste mit zuvor definierten Informationen von Handgestenbefehlen. Wenn die erkannten Informationen mit einem entsprechenden Handgestenbefehl übereinstimmen, wurde der Eingabebefehl 140 identifiziert und der Controller 120 und/oder die Eingabeanwendung können den Eingabebefehl 140 am Gerät 100 ausführen.
-
In einer weiteren Ausführungsform, wenn auf eine Position des Gehäuses 180, die nicht die Eingabekomponente 135 umfasst, nicht zugegriffen wurde, können der Controller 120 und/oder die Eingabeanwendung bestimmen, ob auf die Eingabekomponente 135 zugegriffen wurde. Der Nutzer kann auf die Eingabekomponente 135 durch Ausführen einer Handgeste an der Eingabekomponente 135 zugreifen. Wenn auf die Eingabekomponente 135 zugegriffen wird, können der Controller und/oder die Eingabeanwendung bestimmen, dass ein Eingabebefehl 140 für das Gerät 100 kein Handgestenbefehl ist. In einer Ausführungsform, wenn auf das Touchpad zugegriffen wird, bestimmen der Controller 120 und/oder die Eingabeanwendung, dass der Eingabebefehl 140 ein Zeigerbefehl zum Zugriff auf aktuell dargestellte Inhalte an der Nutzeroberfläche und zum Navigieren darauf ist. In einer weiteren Ausführungsform, wenn auf die Tastatur zugegriffen wird, können der Controller 120 und/oder die Eingabeanwendung eine entsprechende alphanumerische Eingabe identifizieren, die der Taste der Tastatur entspricht, auf die der Nutzer zugegriffen hat.
-
2A und 2B zeigen ein Gehäuse 280 eines Geräts 200 und einen Sensor 230 zum Erkennen einer Handgeste eines Nutzers 205 gemäß eines Beispiels. Der Nutzer 205 kann eine beliebige Person sein, die auf das Gerät 200 durch ein oder mehrere Handgesten zugreifen kann. Das Gehäuse 280 kann ein Rahmen, eine Umfassung und/oder eine Hülle zum Aufnehmen ein oder mehrerer Komponenten des Geräts 200 sein. In einer Ausführungsform kann eine Anordnung des Gehäuses 280 ein Legierungs-, Kunststoff-, Carbonfaser-, Fiberglas- und/oder ein beliebiges weiteres Element oder Kombinationen von Elementen zusätzlich zu und/oder anstelle von den oben genannten umfassen. Wie in 2A gezeigt, umfasst das Gehäuse 280 ein oder mehrere entsprechende Positionen 270, die eine Eingabekomponente 235 des Geräts 200 nicht umfassen. Wie oben erwähnt, umfasst eine Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, einen Raum und/oder einen Teil des Gehäuses 280, wie eine Kante des Gehäuses 280, wo die Eingabekomponente 235 nicht angeordnet ist.
-
In einer Ausführungsform umfasst eine Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, eine Kante des Gehäuses 280. Ein oder mehrere Kanten umfassen eine Oberkante, eine Unterkante, eine rechte Kante und/oder eine linke Kante des Gehäuses 280. Weiterhin, wie in 2A gezeigt, können ein oder mehrere entsprechende Positionen 270 sichtbare Markierungen umfassen, um anzuzeigen, wo auf dem Gehäuse 280 die entsprechenden Positionen 270 angeordnet sind. Eine sichtbare Markierung kann ein sichtbarer Aufdruck auf die Oberfläche des Gehäuses 280 sein. In einer weiteren Ausführungsform kann eine sichtbare Markierung Spalten oder Positionen auf der Oberfläche des Gehäuses 280 sein, die von einer Lichtquelle des Geräts 200 beleuchtet werden. In anderen Ausführungsformen kann eine sichtbare Markierung ein beliebiges weiteres sichtbares Objekt sein, das zur Anzeige einer entsprechenden Position des Gehäuses 280 verwendet werden kann, die nicht die Eingabekomponente 235 umfasst.
-
Das Gehäuse 280 kann einen oberen Teil und einen unteren Teil umfassen. Sowohl der obere Teil als auch der untere Teil können entsprechende Positionen 270 umfassen, die eine Eingabekomponente 235 nicht umfassen. In einer Ausführungsform kann eine entsprechende Position 270 des unteren Teils des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, über, unter, links und/oder rechts der Eingabekomponente 235 angeordnet sein. Die Eingabekomponente 235 kann in dem unteren Teil des Gehäuses 280 angeordnet sein. Zum Zweck dieser Anmeldung ist eine Eingabekomponente 235 eine Hardware-Komponente des Geräts 200, wie ein Touchpad oder eine Tastatur, auf die ein Nutzer 205 für Befehle zugreifen kann, die nicht Handgesten sind.
-
Weiterhin kann im oberen Teil des Gehäuses 280 eine Anzeigekomponente 260 des Geräts angeordnet sein. Die Anzeigekomponente 260 ist eine Hardware-Ausgabekomponente, die sichtbare Inhalte auf einer Nutzeroberfläche 265 anzeigen kann, damit ein Nutzer 205 des Geräts 200 diese ansehen und/oder mit diesen interagieren kann. In einer Ausführungsform ist die Anzeigekomponente 260 ein LCD (Liquid Crystal Display), eine LED (Light Emitting Diode)-Anzeige, eine CRT (Cathode Ray Tube)-Anzeige, eine Plasmaanzeige, ein Projektor und/oder ein beliebiges weiteres Gerät, das so gestaltet ist, dass es die Nutzeroberfläche 265 anzeigen kann, um sichtbare Inhalte zu umfassen. Der sichtbare Inhalt kann eine Datei, eine Anwendung, ein Dokument, ein Medium, ein Menü, ein Untermenü und/oder einen Bildschirmhintergrund des Geräts 200 umfassen.
-
Wie in 2A gezeigt, kann das Gerät 200 ein oder mehrere Sensoren 230 umfassen, um eine Handgeste an entsprechenden Positionen 270 des Gehäuses 280 zu erkennen, die nicht die Eingabekomponente 235 umfassen. Zum Zweck dieser Anmeldung ist der Sensor 230 eine Hardware-Komponente des Geräts 200, die Informationen einer Handgeste des Nutzers 205 erkennen kann. In einer Ausführungsform kann der Sensor 230 an eine einzige Position 270 des Geräts 280, wie einer Kante des Geräts 280, in der Nähe einer Tastatur des Geräts 200 gekoppelt oder dort integriert sein. In einer weiteren Ausführungsform kann das Gerät 200 mehr als einen Sensor 230 umfassen, die an verschiedenen Positionen 270 des Gehäuses 280 angeordnet sind, die eine Eingabekomponente 235 nicht umfassen. Der Sensor 230 kann einen Berührungssensor, eine Berühroberfläche, einen Näherungssensor und/oder eine beliebige weitere Hardware-Komponente umfassen, die Informationen einer Handgeste erkennen kann, die eine Position 270 des Geräts 280, die nicht die Eingabekomponente 235 umfasst, berührt oder in deren Nähe kommt.
-
In einer weiteren Ausführungsform, wie in 2B dargestellt, umfassen ein oder mehrere Positionen 235 des Geräts 280, die nicht eine Eingabekomponente 234 umfassen, einen Bereich oder ein Intervall zwischen einer Kante des Gehäuses 280 und der Eingabekomponente 235. Wie in der vorliegenden Ausführungsform gezeigt, ist eine entsprechende Position 270 des Gehäuses 280, die nicht die Eingabekomponente 235 umfasst, an der Seite einer Touchpad-Komponente des Geräts 200 angeordnet und reicht nicht bis zu einer Kante des Gehäuses 280. In anderen Ausführungsformen können ein oder mehrere Sensoren 230 eine Bilderfassungskomponente umfassen, die an einen oberen Teil des Gehäuses 280 gekoppelt sein kann. Die Bilderfassungskomponente kann eine Ansicht der entsprechenden Positionen 270 des unteren Teils erfassen, um eine Handgeste des Nutzers 205 zu erkennen.
-
Wenn ein Nutzer 205 auf eine entsprechende Position 270 des Gehäuses 280 mit einer Handgeste zugreift, kann der Sensor 230 Informationen der Handgeste erkennen. Der Nutzer 205 kann einen Finger und/oder eine Hand verwenden, um eine Handgeste durch Berühren des Gehäuses 280 oder Annäherung daran auszuführen. Der Sensor 230 kann Informationen der Handgeste des Nutzers 205 erkennen, indem er Positionen 270 des Gehäuses 280 für die Handgeste erkennt, die nicht die Eingabekomponente 235 umfassen. In einer Ausführungsform kann die Information Koordinaten des Gehäuses 280 oder Koordinaten des Sensors 230 umfassen, auf die mit der Handgeste zugegriffen wird. Der Sensor 230 kann die erkannten Informationen der Handgeste mit einem Controller und/oder einer Eingabeanwendung des Geräts 200 teilen. In Reaktion auf den Empfang der erkannten Information der Handgeste können der Controller und/oder die Eingabeanwendung einen Eingabebefehl für das Gerät 200 identifizieren.
-
3 zeigt ein Blockdiagramm einer Eingabeanwendung 310, die einen Eingabebefehl für ein Gerät gemäß eines Beispiels identifiziert. In einer Ausführungsform kann die Eingabeanwendung 310 eine Firmware sein, die in ein oder mehrere Komponenten des Geräts eingebaut ist. In einer weiteren Ausführungsform kann die Eingabeanwendung 310 eine Anwendung sein, auf die von einem nicht-flüchtigen, computerlesbaren Speicher des Geräts zugegriffen werden kann. Der computerlesbare Speicher ist ein materieller Apparat, der die Anwendung zur Verwendung durch das Gerät oder in Verbindung mit dem Gerät enthält, speichert, kommuniziert oder transportiert. In einer Ausführungsform ist der computerlesbare Speicher eine Festplatte, eine Compact Disk, ein Flash-Laufwerk, ein Netzlaufwerk oder eine beliebige andere Form eines materiellen Apparats, der mit dem Gerät gekoppelt ist.
-
Wie in 3 gezeigt, hat der Sensor 330 Informationen eine Handgeste eines Nutzers erkannt. In einer Ausführungsform umfasst die Information Positionen des Gehäuses, an denen die Handgeste erkannt wurde. In einer weiteren Ausführungsform, wenn der Sensor 330 an einer Position des Gehäuses umfasst ist, die nicht eine Eingabekomponente umfasst, kann die Information Positionen des Sensors 330 umfassen, auf die durch die Handgeste zugegriffen wurde. Die Positionen des Gehäuses und/oder Sensors 330 können von dem Sensor 330 als Koordinaten des Gehäuses oder Sensors 330 geteilt werden. Unter Verwendung der erkannten Informationen der Handgeste kann der Controller 320 und/oder die Eingabeanwendung 310 einen Eingabebefehl identifizieren, der auf Informationen der erkannten Handgeste basiert.
-
In einer Ausführungsform kann der Controller 320 und/oder die Eingabeanwendung 310 anfangs auf eine Liste, Tabelle und/oder Datenbank von Eingabebefehlen zugreifen und die erkannte Information der Handgeste mit zuvor definierten Informationen vergleichen, die Eingabebefehlen des Geräts entsprechen. Die Liste, Tabelle und/oder Datenbank von Eingabebefehlen kann lokal in dem Gerät oder entfernt zugreifbar von einem anderen Gerät gespeichert sein. Wie in der vorliegenden Ausführungsform gezeigt, kann die Liste, Tabelle und/oder Datenbank von Eingabebefehlen ein oder mehrere Handgestenbefehle und oder ein oder mehrere Zeigerbefehle umfassen. Ein Handgestenbefehl kann verwendet werden, um zwischen Inhalten der Nutzeroberfläche zu navigieren. Ein Zeigerbefehl kann dazu verwendet werden, auf aktuell dargestellte Inhalte der Nutzeroberfläche zuzugreifen und/oder zwischen diesen zu navigieren. In weiteren Ausführungsformen kann das Gerät weitere Eingabebefehle zusätzlich zu oder anstelle von den oben erwähnten und in 3 dargestellten umfassen.
-
Wenn der Controller 320 und/oder die Eingabeanwendung 310 bestimmen, dass die Handgeste an einer Position des Gehäuses, wie eine Kante des Gehäuses, erkannt wurde, die nicht die Eingabekomponente umfasst, wird der Eingabebefehl als ein Handgestenbefehl identifiziert. Der Controller 320 und/oder die Eingabeanwendung 310 können bestimmen, dass die Handgeste an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, wenn der Sensor 330 an einer Kante des Gehäuses umfasst ist und auf den Sensor 330 mit einer Handgeste zugegriffen wurde.
-
In einer weiteren Ausführungsform, wenn der Sensor 330 eine Bilderfassungskomponente ist, die eine Ansicht von den Kanten erfasst, vergleichen der Controller 320 und/oder die Eingabeanwendung 210 die zugegriffenen Positionen des Gehäuses mit zuvor definierten Koordinaten, die Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen. Wenn eine der zugegriffenen Positionen mit einer zuvor definierten Koordinate übereinstimmt, die Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen, bestimmen der Controller 320 und/oder die Eingabeanwendung 310, dass auf eine Kante des Gehäuses mit der Handgeste zugegriffen wurde. Die zuvor definierten Koordinaten der Positionen des Gehäuses können von dem Controller 320, der Eingabeanwendung 310, einem Nutzer und/oder einem Hersteller des Geräts definiert werden.
-
In Reaktion auf die Bestimmung, dass auf eine Position des Gehäuses, die nicht die Eingabekomponente umfasst, durch eine Handgeste zugegriffen wurde, fahren der Controller 320 und/oder die Eingabeanwendung 310 fort, auf die Liste von Handgestenbefehlen zuzugreifen und die Informationen der Handgeste mit zuvor definierten Informationen für jeden Handgestenbefehl zu vergleichen. Wenn eine Übereinstimmung festgestellt wird, fahren der Controller und/oder die Eingabeanwendung 310 fort, den identifizierten Handgestenbefehl am Gerät auszuführen.
-
In einer Ausführungsform, wenn die erkannten Informationen der Handgeste festlegen, dass die Handgeste eine Horizontalbewegung an der Kante des Gehäuses umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als einen Handgestenbefehl zum Navigieren zwischen Inhalten der Nutzeroberfläche. In einer weiteren Ausführungsform, wenn die erkannten Informationen der Handgeste festlegen, dass die Handgeste eine Vertikalbewegung an der Kante des Gehäuses umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als einen Handgestenbefehl zum Aufrufen eines Menüs oder der Einstellungen. Das Menü oder die Einstellungen können einem Inhalt entsprechen, der aktuell auf der Nutzeroberfläche wiedergegeben wird, oder das Menü oder die Einstellungen können einem Menü oder Einstellungen eines Betriebssystems des Geräts entsprechen. Wenn das Menü oder die Einstellungen auf der Nutzeroberfläche wiedergegeben werden, kann der Nutzer ein oder mehrere weitere Handgesten zum Navigieren im Menü oder in den Einstellungen ausführen.
-
Weiterhin kann der Nutzer ein oder mehrere Handgesten ausführen, um ein Objekt des Menüs oder der Einstellungen auszuwählen oder ein Untermenü anzuzeigen.
-
In einer weiteren Ausführungsform, wenn der Controller 320 und/oder die Eingabeanwendung 310 bestimmen, dass die Handgeste nicht an einer Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, bestimmen der Controller und/oder die Eingabeanwendung 310, ob auf die Eingabekomponente zugegriffen wurde. Wie oben erwähnt, kann die Eingabekomponente eine Tastatur und/oder ein Touchpad des Geräts sein. Wenn auf das Touchpad zugegriffen wurde, bestimmen der Controller 320 und/oder die Eingabeanwendung 310, dass der Eingabebefehl für das Gerät ein Zeigerbefehl ist. Der Controller 320 und/oder die Eingabeanwendung 310 können basierend auf der Informationen der Handgeste bestimmen, welcher Zeigerbefehl auszuführen ist.
-
Wenn die erkannten Informationen festlegen, dass eine Handgeste eine Horizontalbewegung mit der Eingabekomponente umfasst, identifizieren der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als Zeigerbefehl, den Zeiger horizontal neu zu positionieren. In einer weiteren Ausführungsform, wenn die erkannten Informationen festlegen, dass die Handgeste eine Vertikalbewegung unter Verwendung der Eingabekomponente umfasst, wird der Eingabebefehl als Zeigerbefehl identifiziert, den Zeiger vertikal neu zu positionieren. Wenn die Eingabekomponente eine Tastatur ist, können der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als eine Tastatureingabe identifizieren und basierend darauf, auf welche Taste der Tastatur zugegriffen wurde, identifizieren, welche alphanumerische Eingabe zu verarbeiten ist.
-
In weiteren Ausführungsformen können der Controller 320 und/oder die Eingabeanwendung 310 zusätzlich berücksichtigen, auf welche Position des Gehäuses, die nicht die Eingabekomponente umfasst, beim Identifizieren eines Eingabebefehls zugegriffen wurde. Der Controller 320, die Eingabeanwendung 310 und/oder der Nutzer des Geräts können definieren, welche Position des Gehäuses für Handgestenbefehle und welche Position des Gehäuses für Zeigerbefehle verwendet werden kann.
-
In einer Ausführungsform kann eine erste Kante des Gehäuses für einen Handgestenbefehl verwendet werden, während eine zweite Kante des Gehäuses für einen Zeigerbefehl verwendet werden kann. Wenn z. B. auf eine rechte Kante des Gehäuses mit der Handgeste zugegriffen wird, können der Controller 320 und/oder die Eingabeanwendung 310 den Eingabebefehl als Handgestenbefehl identifizieren. Wenn weiterhin auf eine linke Kante des Gehäuses, die gegenüber der rechten Kante angeordnet ist, durch die Handgeste zugegriffen wird, können der Controller 320 und/oder die Eingabeanwendung den Eingabebefehl als Zeigerbefehl identifizieren. Der Controller 320 und/oder die Eingabeanwendung 310 können dann basierend auf den Informationen der Handgeste fortfahren, den entsprechenden Eingabebefehl zu identifizieren und auszuführen.
-
4 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels darstellt. Ein Controller und/oder eine Eingabeanwendung können unabhängig und/oder in Verbindung miteinander genutzt werden, um einen Eingabebefehl des Geräts zu identifizieren. Ein Sensor des Geräts, wie ein Berührungssensor, eine Berühroberfläche und/oder ein Näherungssensor können eingangs Informationen einer Handgeste erkennen, die an einer Position des Gehäuses ausgeführt wurde, die nicht eine Eingabekomponente 400 umfasst. Das Gehäuse kann ein Rahmen, eine Umfassung und/oder eine Hülle des Geräts sein, in dem die Eingabekomponente angeordnet ist Das Gehäuse umfasst ein oder mehrere Positionen, wie eine Kante des Gehäuses, an denen die Eingabekomponente nicht umfasst ist und/oder an denen die Eingabekomponente nicht angeordnet ist.
-
Wenn der Sensor eine Handgeste erkennt, kann der Sensor Informationen einer Handgeste, wie Positionen von zugegriffenen Positionen des Gehäuses, weiterleiten, so dass der Controller und/oder die Eingabeanwendung einen Eingabebefehl des Geräts identifizieren können. Der Controller und/oder die Eingabeanwendung können die erkannten Informationen der Handgeste verwenden, um zu bestimmen, ob die Handgeste an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst. Wenn der Controller und/oder die Eingabeanwendung bestimmen, dass die Handgeste an einer entsprechenden Position des Gehäuses ausgeführt wurde, können der Controller und/oder die Eingabeanwendung basierend auf den Informationen der Handgeste bei 410 fortfahren, einen Eingabebefehl, wie einen Handgestenbefehl, am Gerät auszuführen.
-
In einer weiteren Ausführungsform, wenn die Handgeste nicht an einer Position des Gehäuses ausgeführt wurde, die nicht die Eingabekomponente umfasst, können der Controller und/oder die Eingabeanwendung bestimmen, ob die Handgeste auf eine Eingabekomponente, wie ein Touchpad oder eine Tastatur, zugreift. Wenn auf die Eingabekomponente zugegriffen wurde, können der Controller und/oder die Eingabeanwendung basierend auf Informationen der Handgeste einen entsprechenden Zeigerbefehl identifizieren und ausführen. Das Verfahren ist dann abgeschlossen. In anderen Ausführungsformen umfasst das Verfahren von 4 weitere Schritte zusätzlich zu und/oder anstelle von denen, die in 4 dargestellt sind.
-
5 ist ein Flussdiagramm, das ein Verfahren zum Erkennen einer Eingabe für ein Gerät gemäß eines Beispiels darstellt. Der Controller und/oder die Eingabeanwendung verwenden einen Sensor des Geräts, um Informationen einer Handgeste zu erkennen, die auf eine Eingabekomponente oder eine Position des Gehäuses zugreift, die nicht eine Eingabekomponente bei 500 umfasst. Wie oben erwähnt, können die entsprechenden Positionen des Gehäuses sichtbare Markierungen umfassen, die anzeigen, wo diese am Gehäuse angeordnet sind. Der Controller und/oder die Eingabeanwendung können die erkannten Informationen verwenden, um zu bestimmen, ob der Finger oder die Hand der Handgeste eine entsprechende Position des Gehäuses, die nicht die Eingabekomponente bei 510 umfasst, berührt oder sich in der Nähe befindet.
-
In einer Ausführungsform, wenn der Sensor an einer entsprechenden Position des Gehäuses angeordnet ist, die nicht die Eingabekomponente umfasst, bestimmen der Controller und/oder die Eingabeanwendung, dass eine Handgeste an der entsprechenden Position in Reaktion darauf erkannt wurde, dass der Sensor eine Handgeste erkannt hat. In einer weiteren Ausführungsform, wenn der Sensor eine Bilderfassungskomponente ist, die eine Ansicht der entsprechenden Positionen erfasst, können der Controller und/oder die Eingabeanwendung die zugegriffenen Positionen der Handgeste mit zuvor definierten Koordinaten vergleichen, die den Positionen des Gehäuses entsprechen, die nicht die Eingabekomponente umfassen. Wenn eine der zugegriffenen Positionen mit einer zuvor definierten Koordinate übereinstimmt, bestimmen der Controller und/oder die Eingabeanwendung, dass auf eine Position des Gehäuses, die nicht die Eingabekomponente umfasst, durch der Handgeste zugegriffen wurde.
-
Wenn bestimmt wird, dass auf eine entsprechende Position des Gehäuses, die nicht die Handgeste umfasst, nicht zugegriffen wurde, bestimmen der Controller und/oder die Eingabeanwendung, ob auf eine Eingabekomponente zugegriffen wurde. Wenn auf die Eingabekomponente durch die Handgeste zugegriffen wurde, wird der Eingabebefehl als ein Zeigerbefehl bei 520 identifiziert. In einer Ausführungsform können der Controller und/oder die Eingabeanwendung auf eine Liste, Tabelle und/oder Datenbank von Eingabebefehlen zugreifen und die erkannten Informationen der Handgeste mit zuvor definierten Informationen von Zeigerbefehlen vergleichen. Wenn eine Übereinstimmung festgestellt wird, können der Controller und/oder die Eingabeanwendung fortfahren, den entsprechenden Zeigerbefehl auszuführen, um auf aktuell wiedergegebene Inhalte am Gerät bei 530 zuzugreifen und/oder zwischen diesen zu navigieren.
-
Wenn die Handgeste an einer entsprechenden Position des Gehäuses erkannt wurde, die nicht die Eingabekomponente umfasst, identifizieren der Controller und/oder die Eingabeanwendung den Eingabebefehl als einen Handgestenbefehl bei 540. Der Controller und/oder die Eingabeanwendung greifen auf die Liste, Tabelle und/oder Datenbank von Eingabebefehlen zu und vergleichen die erkannten Informationen der Handgeste mit zuvor definierten Informationen von Handgestenbefehlen. Wenn eine Übereinstimmung festgestellt wird, fahren der Controller und/oder die Eingabeanwendung fort, den entsprechenden Handgestenbefehl auszuführen und zwischen Inhalten des Geräts bei 550 zu navigieren. Das Verfahren ist dann abgeschlossen. In anderen Ausführungsformen umfasst das Verfahren von 5 weitere Schritte zusätzlich zu und/oder anstelle von denen, die in 5 dargestellt sind.