DE102014000214B4 - Steuern eines Steuerparameters durch Gestenerkennung - Google Patents

Steuern eines Steuerparameters durch Gestenerkennung Download PDF

Info

Publication number
DE102014000214B4
DE102014000214B4 DE102014000214.4A DE102014000214A DE102014000214B4 DE 102014000214 B4 DE102014000214 B4 DE 102014000214B4 DE 102014000214 A DE102014000214 A DE 102014000214A DE 102014000214 B4 DE102014000214 B4 DE 102014000214B4
Authority
DE
Germany
Prior art keywords
distance
body part
control
human body
control parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102014000214.4A
Other languages
English (en)
Other versions
DE102014000214A1 (de
Inventor
Martin GOTSCHLICH
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of DE102014000214A1 publication Critical patent/DE102014000214A1/de
Application granted granted Critical
Publication of DE102014000214B4 publication Critical patent/DE102014000214B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

Verfahren zum Steuern wenigstens eines Steuerparameters eines Steuerelements, wobei das Verfahren Folgendes umfasst:das Bestimmen erster Informationen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben;das Bestimmen, auf Basis der ersten Informationen, von zweiten Informationen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben; unddas Modifizieren des Umformungsverhältnisses auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz.

Description

  • 3D-Distanzkameras, die zum Beispiel auf dem ToF-Prinzip (Time Of Flight, Laufzeitverfahren) basieren, stellen ein neues Innovationsgebiet für die Erkennung menschlicher Gesten in normalen Nutzerschnittstellen bereit. Zum Beispiel können solche 3D-Distanzkameras als Ersatz für die Maus innerhalb des Nahbereichs (-Bereich) vor einem Notebook verwendet werden. Es wäre nützlich, eine Steuerung eines Steuerparameters auf Basis der Erkennung menschlicher Gesten zu haben, die einfaches und sicheres Steuern des Steuerparameters gestattet.
  • Die DE 112014000441 T5 beschreibt ein Eingeben von Gesten eines Benutzers unabhängig von einer Positions des Benutzers. Ein Erfassen wird durchgeführt ob ein Benutzer bestimmt ist, mit einem virtuellen Objekt basierend auf Messungen eines Fertigstellungsgrad von Gesten und Erstellen von Oberflächenelementen im 3D Raum zu interagieren.
  • Die US 2006161871 A1 beschreibt eine elektronische Vorrichtung mit einem Display und einem Näherungssensor. Sofern erfasst wird, dass sich ein Objekt in einem Raum über der elektronischen Vorrichtung beginder wird ein Graphisches Benutzer Interface für einen Satz von Betriebsbedingungen aktiviert.
  • Die US 2007125633 A1 offenbart ein Verfahren zum Aktivieren einer berührungslosen Steuerung. Das Verfahren umfasst ein Erfassen einer Bewegung eines Fingers, das Aktivieren einer berührungslosen Steuerung durch ein Positionieren eines Fingers auf einer Fläche.
  • Die US 20080042985 A1 offenbart eine Informationsverarbeitungsvorrichtung, die einen ersten Sensor zum Erfassen einer direkten Berührung mit einer Betriebsoberfläche, einen Annäherungssensor zum Erfassen ob eine Positionszeigervorrichtung sich einem ersten Erfassungsbereich annähert, und einen zweiten Sensor aufweist, um zu Erfassen, ob ein Annhähern der Positionszeigervorrichtung an einen zweiten Erfassungsbereich vorliegt.
  • Die US 2009091540 A1 zeigt eine elektronische Vorrichtung mit einem Eingabevorrichtung, die ein Eingabegeschwindigkeit und einen Abstand zum Finger eines Benutzers erfasst. Ein momentanes Intervall zwischen zwei Eingabeoperationen wird erfasst und ein mittleres Intervall berechnet. Basierend auf einem Referenzintervall wird bestimmt ob das momentane Intervall gleich oder geringer als das Referenzintervall ist. Das Auftreten einer zweiten Systemzustandsänderung wird ausgesetzt, bis ein erster Systemzustand antwortet, sofern das momentane Intervall gleich oder kleiner als das Referenzintervall ist.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, eine einfache und sichere Steuerung von Steuerparametern zu ermöglichen.
  • Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 und eine Vorrichtung nach Anspruch 16 gelöst.
  • Gemäß einem Aspekt umfasst ein Verfahren zum Steuern wenigstens eines Steuerparameters eines Steuerelements Folgendes: das Bestimmen erster Informationen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben; das Bestimmen, auf Basis der ersten Informationen, von zweiten Informationen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben. Das Umformungsverhältnis wird auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz modifiziert.
  • Das Verfahren kann weiterhin umfassen ein Anzeigen des Steuerelements auf einem Display und ein Anzeigen visueller Informationen auf dem Display, die den aktuellen Wert der Steuerparametereinstellung angeben.
  • Eine Größe des Steuerelements kann unverändert aufrechterhalten werden, wenn das Umsetzungsverhältnis modifiziert wird oder ein Maßstab zur Angabe des aktuellen Werts des Steuerparameters auf dem Display kann sich ändern, wenn das Umsetzungsverhältnis modifiziert wird. Das Steuerelement kann durch eine gestische Bewegung des menschlichen Körperteils gesteuert werden, wobei das Umsetzungsverhältnis eine Änderung des Steuerparameters pro Gestenbewegungsdistanzeinheit anzeigt.
  • Die Distanz der gestischen Bewegung kann eine Entfernung der Bewegung des Körperteils in eine Richtung ist, die vom angezeigten Steuerelement vorbestimmt wird.
  • Das Steuerelement kann ein Schieber oder ein Drehelement sein.
  • Das Verfahren kann weiterhin Folgendes umfassen ein Steuern eines ersten Steuerparameters durch eine gestische Bewegung in eine erste Richtung und Steuern eines zweiten Steuerparameters durch eine gestische Bewegung in eine zweite Richtung, die sich von der ersten Richtung unterscheidet, und Bestimmen eines ersten Übersetzungsverhältnisses, das dem ersten Steuerparameter entspricht, auf Basis der Entfernung und Bestimmen eines zweiten Übersetzungsverhältnisses, das dem zweiten Steuerparameter entspricht, auf Basis der Entfernung. Das Umformungsverhältnis kann fortlaufend auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körperteil und der Referenz modifiziert werden.
  • Das Umsetzungsverhältnis kann linear mit der Entfernung zwischen dem menschlichen Körperteil und der Referenz modifiziert werden. Das Verfahren kann weiterhin das Erkennen des Körperteils in drei Dimensionen auf Basis der Entfernungsinformationen. Ferner kann eine von einem Nutzer mit dem Körperteil ausgeführten Geste erfasst werden, wobei das Bestimmen der ersten Informationen, der zweiten Informationen und das Modifizieren des Umsetzungsverhältnisses nur ausgeführt wird, wenn eine vorbestimmte Geste erkannt wird. Das Verfahren kann ferner das das Umschalten in einen Gestenerkennungs-Steuermodus umfassen, bei dem ein Übersetzungsverhältnis unabhängig von der Entfernung zwischen dem menschlichen Körperteil und der Referenz aufrechterhalten wird. Das Umsetzungsverhältnis wird bei Ausführungsbeispielen modifiziert, um eine gröbere Justierung des Steuerparameterwertes durch eine gestische Bewegung zu erreichen, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz verringert, und es modifiziert wird, um eine feinere Justierung des Steuerparameterwertes durch eine gestische Bewegung zu erreichen, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz erhöht.
  • Gemäß einem weiteren Aspekt umfasst eine Vorrichtung eine Einrichtung, die dazu ausgelegt ist, erste Informationen zu bestimmen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben. Eine Schaltung ist dazu ausgelegt, auf Basis der ersten Informationen zweite Informationen zu bestimmen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer durch die gestische Bewegung bewirkten Änderung des Steuerparameters angeben. Die Schaltung ist dazu ausgelegt, das Umformungsverhältnis auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz zu modifizieren.
  • Die Einrichtung kann dazu ausgelegt sein, erste Informationen zu bestimmen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben; eine Schaltung, die dazu ausgelegt ist, auf Basis der ersten Informationen zweite Informationen zu bestimmen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben, wobei die Schaltung dazu ausgelegt ist, das Umformungsverhältnis auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz zu modifizieren.
  • Ein Display kann dazu ausgelegt sein, ein Steuerelement und Informationen, die einen aktuellen Wert des Steuerparameters angeben, auf dem Display anzuzeigen.
  • Eine Größe des Steuerelements kann unverändert aufrechterhalten werden, wenn das Umsetzungsverhältnis modifiziert wird. Die Vorrichtung kann dazu ausgelegt sein, einen Maßstab zur Angabe des aktuellen Werts des Parameters auf dem Display zu ändern, wenn das Umsetzungsverhältnis modifiziert wird. Die Vorrichtung kann dazu ausgelegt sein, das Steuerelement durch eine gestische Bewegung des menschlichen Körperteils zu steuern, und wobei die Schaltung dazu ausgelegt ist, das Umsetzungsverhältnis bereitzustellen, das eine Änderung des Steuerparameters pro Gestenbewegungsdistanzeinheit anzeigt.
  • Die Vorrichtung kann dazu ausgelegt sein, auf einem Display eine vorbestimmte Richtung anzugeben, wobei die Distanz der gestischen Bewegung eine Distanz der Bewegung des Körperteils in die vorbestimmte Richtung ist. Das Steuerelement kann ein Schieber oder ein Drehelement sein.
  • Die Vorrichtung kann dazu ausgelegt sein, einen ersten Steuerparameter durch eine gestische Bewegung in eine erste Richtung zu steuern und einen zweiten Steuerparameter durch eine gestische Bewegung in eine zweite Richtung zu steuern, die sich von der ersten Richtung unterscheidet, wobei die Vorrichtung weiterhin dazu ausgelegt ist, ein erstes Übersetzungsverhältnis, das dem ersten Steuerparameter entspricht, auf Basis der Entfernung zu bestimmen und ein zweites Übersetzungsverhältnis, das dem zweiten Steuerparameter entspricht, auf Basis der Entfernung zu bestimmen.
  • Die Vorrichtung kann dazu ausgelegt sein, das Umformungsverhältnis fortlaufend auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körperteil und der Referenz zu modifizieren. Die Vorrichtung kann dazu ausgelegt sein, das Umsetzungsverhältnis linear mit der Entfernung zwischen dem menschlichen Körperteil und der Referenz zu modifizieren.
  • Die Vorrichtung kann weiterhin dazu ausgelegt ist, den Körperteil in drei Dimensionen auf Basis der Entfernungsinformationen zu erkennen. Die Vorrichtung kann dazu ausgelegt sein, eine von einem Nutzer mit dem Körperteil ausgeführten Geste zu erkennen, so dass das Umsetzungsverhältnis nur modifiziert wird, wenn eine vorbestimmte Geste erkannt wird. Die Vorrichtung kann ferner dazu ausgelegt sein, das Umschalten in einen Gestenerkennungs-Steuermodus durchzuführen, bei dem ein Übersetzungsverhältnis unabhängig von der Entfernung zwischen dem menschlichen Körperteil und der Referenz aufrechterhalten wird. Die Vorrichtung kann dazu ausgelegt sein, das Umsetzungsverhältnis zu modifizieren, so dass eine gröbere Justierung des Steuerparameterwertes durch eine gestische Bewegung erreicht wird, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz verringert, und so dass eine feinere Justierung des Steuerparameterwertes durch eine gestische Bewegung erreicht wird, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz erhöht.
  • Weitere Ausführungsbeispiele sind der Erfindung sind Gegenstand der Unteransprüche sowie der folgenden Beschreibung bevorzugter Ausführungbeispiele unter Bezugnahme auf die beigefügten Figuren, bei denen:
    • 1 ein Diagramm gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
    • 2 ein Flussdiagramm gemäß einer Ausführungsform der vorliegenden Erfindung zeigt;
    • 3 ein Diagramm gemäß einer Ausführungsform der vorliegenden Erfindung zeigt; und
    • 4 ein Steuern durch einen Nutzer gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Die folgende ausführliche Beschreibung erklärt Ausführungsbeispiele der vorliegenden Erfindung.
  • In den Ausführungsbeispielen, die in den Zeichnungen gezeigt und unten beschrieben werden, kann jede direkte Verbindung oder Verschaltung zwischen Funktionsblöcken, Bauelementen, Komponenten oder anderen physischen oder funktionalen Einheiten, die in den Zeichnungen gezeigt oder hierin beschrieben werden, ebenso durch eine indirekte Verbindung oder Verschaltung umgesetzt werden. Funktionsblöcke können als Hardware, Firmware, Software oder einer Kombination daraus ausgeführt sein.
  • Weiterhin soll verstanden werden, dass die Merkmale der verschiedenen hierin beschriebenen Ausführungsbeispiele miteinander kombiniert werden können, sofern nicht spezifisch etwas anderes angegeben ist.
  • In den verschiedenen Figuren können für identische oder ähnliche Entitäten, Module, Bauelemente usw. die gleiche Referenznummer vergeben sein. Ausführungsbeispiele werden jetzt ausführlicher unter Bezugnahme auf die zugehörigen Zeichnungen beschrieben. Allerdings können Ausführungsformen in vielen unterschiedlichen Formen ausgeführt sein und sollten nicht so ausgelegt werden, dass sie auf die hierin dargelegten Ausführungsformen eingeschränkt sind.
  • In den beschriebenen Ausführungsformen werden verschiedene spezifische Ansichten oder schematische Ansichten von Elementen, Vorrichtungen, Merkmalen usw. für ein besseres Verständnis der Ausführungsformen gezeigt und beschrieben. Es versteht sich, dass solche Ansichten nicht maßstabsgetreu gezeichnet sind können. Weiterhin können solche Ausführungsformen nicht alle Merkmale, Elemente usw. zeigen, die in einer oder mehreren Figuren mit einem gleichen Maßstab umfasst sind, d. h. einige Merkmale, Elemente usw. können zu groß gezeigt sein, so dass in einer gleichen Figur einige Merkmale, Elemente usw. mit einem vergrößerten oder verkleinerten Maßstab im Vergleich zu anderen Merkmalen, Elementen usw. gezeigt werden.
  • Räumlich bezogene Begriffe, wie zum Beispiel „unterhalb“, „unter“, „unterer“, „über“, „oberer“ und ähnliche, können hier zur Vereinfachung der Beschreibung verwendet sein, um das Verhältnis einer Komponente und/oder eines Merkmals zu einer anderen Komponente und/oder Merkmal zu beschreiben oder anderer Komponente(n) und/oder Merkmal(e), wie in den Zeichnungen veranschaulicht wird. Es versteht sich, dass beabsichtigt ist, dass die räumlich bezogenen Begriffe unterschiedliche Ausrichtungen der verwendeten oder betriebenen Vorrichtung zusätzlich zu der in den Figuren aufgezeigten Ausrichtung umfassen.
  • Die unten beschriebenen Ausführungsformen sind auf ein neues Konzept zum Steuern eines Steuerelements durch Erkennung menschlicher Gesten gerichtet.
  • 1 zeigt eine Vorrichtung 100, die eine Einheit 102 zum Bestimmen dreidimensionaler Entfernungsinformationen in Bezug auf menschliche Objekte oder einen Teil eines menschlichen Objekts, wie zum Beispiel eine Hand-/Fingergeste, aufweist. Die Einheit 102 umfasst einen Sender 104, um Licht zum menschlichen Objekt zu senden, und einen Empfänger 106, um dreidimensionale Entfernungsinformationen in Bezug auf das menschliche Objekt auf Basis der zurückgelegten Entfernung des Lichts, das vom Objekt reflektiert wird, zu erlangen. In einer anderen Ausführungsform kann Einheit 102 andere 3D-Kameraprinzipien verwenden, um 3D-Informationen in Bezug auf das Objekt zu erlangen.
  • Die Vorrichtung 100 enthält eine Berechnungs- und Steuereinheit 108, die auf Hardware, Software/Firmware oder einer Mischung daraus basieren kann. Die Recheneinheit 108 empfängt die dreidimensionalen Informationen von der Einheit 102 und bestimmt die Entfernung zwischen einem Teil des menschlichen Objekts und einer Referenz. Die Referenz kann zum Beispiel enthalten eine Oberfläche eines Displays 110 oder andere geeignete Oberflächen oder Ebenen oder andere Referenzorte. In einer Ausführungsform kann die Recheneinheit 108 ein spezielles menschliches Körperteil erkennen, z. B. eine vom Nutzer ausgeführte Geste. In einer Ausführungsform kann der spezielle menschliche Körperteil ein oder mehrere Finger, eine Hand oder eine Geste sein, die von einem Finger und der Hand ausgeführt wird, usw. Auf Basis des erkannten Teils des menschlichen Körpers bestimmt die Steuereinheit erste Informationen, die eine Entfernung in Bezug auf die Referenz angeben. Wie nachstehend behandelt werden wird, wird die bestimmte erste Informationen dazu verwendet, ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung einzustellen oder zu modifizieren.
  • 2 zeigt ein Flussdiagramm 200 gemäß einer Ausführungsform. Die ersten Informationen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben, werden in 202 bestimmt. Dann werden auf Basis der ersten Informationen zweite Informationen bestimmt, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben, siehe 204. In 206 wird das Umformungsverhältnis dynamisch auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz modifiziert.
  • Das Steuerelement kann auf dem Display 110 zusammen mit visuellen Informationen angezeigt werden, die einen aktuellen Wert der Steuerparametereinstellung auf dem Display angeben.
  • Während der Modifikation des Umformungsverhältnisses bleibt in einer Ausführungsform die Größe des Steuerelements unverändert. In einer anderen Ausführungsform kann sich ein Maßstab zur Angabe des aktuellen Parameterwertes auf dem Display ändern, wie zum Beispiel durch Fokussierung oder Defokussierung in Bezug auf die Umgebung der aktuellen Parameterwerteinstellung, wenn das Umformungsverhältnis modifiziert wird.
  • Das Steuerelement, das auf dem Display 110 angezeigt wird, kann durch eine gestische Bewegung des menschlichen Körperteils gesteuert werden, und das Umformungsverhältnis ist eine Angabe der Änderung des Steuerparameters in relativen oder absoluten Einheiten pro Bewegungseinheit der gestischen Bewegung.
  • Die Entfernung der gestischen Bewegung kann eine Entfernung der Bewegung des Körperteils in einer Richtung sein, die durch visuelle Informationen vorbestimmt wird, zum Beispiel durch das angezeigte Steuerelement.
  • In einigen Ausführungsformen kann die Modifikation davon abhängig sein, ob eine gewisse Geste ausgeführt wird. Somit wird die Modifikation des Umformungsverhältnisses nur ausgeführt, wenn eine spezielle Geste von einem Nutzer mit dem Körperteil ausgeführt und von der Vorrichtung 100 erkannt wird.
  • In einigen Ausführungsformen kann die Vorrichtung 100 nicht nur im dynamischen Justierungsmodus betreibbar sein, in dem das Gesten-Übersetzungsverhältnis entsprechend der Entfernung geändert wird, sondern es kann auch ein Umschalten in einen Gestenerkennungs-Steuermodus bewirkt werden, in dem ein Übersetzungsverhältnis unabhängig von der Entfernung zwischen dem menschlichen Körperteil und der Referenz aufrechterhalten wird.
  • In einigen Ausführungsformen kann das Umsetzungsverhältnis linear mit der Entfernung zwischen dem menschlichen Körperteil und der Referenz modifiziert werden. Allerdings können andere, nicht lineare Verhältnisse bereitgestellt sein, wie zum Beispiel logarithmische oder exponentielle Modifikationen oder Kombinationen aus linearen und nicht linearen Modifikationen.
  • 3 zeigt ein Beispiel eines Steuerelements, das einen Schieber 300 zum Steuern enthält. Während Ausführungsformen in Bezug auf einen Schieber als ein Steuerelement erklärt sein können, versteht es sich, dass andere Ausführungsformen andere Arten von Steuerelementen umfassen können, wie zum Beispiel Dreh-Steuerelemente oder andere. Während Ausführungsformen in Bezug auf virtuelle Steuerelemente erklärt sein können, die auf einem Display, wie zum Beispiel auf einem Bildschirm, permanent oder dann angezeigt sein können, wenn eine Steuerungsänderung oder SteuerungsJustierung erforderlich ist oder initialisiert wird, versteht es sich weiterhin, dass andere Ausführungsformen andere Steuerelemente verwenden können, einschließlich fester Steuerelemente oder permanent angezeigter Steuerelemente. Der in 3 gezeigte Schieber 300 kann ein typisches Element einer Benutzerschnittstelle (MMI, Man Machine Interface) sein. Indem ein virtuelles Schiebeelement zwischen seinen beiden Endpositionen (xmin und xmax) bewegt wird, wird ein bezogener Parameterwert (x) entsprechend justiert. Ein Beispiel eines Justierschiebers bzw. Justierschiebers, wie er in 1 gezeigt wird, kann ein Lautstärke-Steuerelement zum Steuern einer Lautstärke eines Lautsprechers sein.
  • In einer Nutzerschnittstelle mit 3D-Gestenerkennung kann der virtuelle Schieber durch eine spezielle Finger-/Handgeste bewegt werden, wobei der Schieber der Fingerbewegung folgt. Zum Beispiel bewegt das Aufwärtsbewegen der Hand bzw. der Finger den Schieber aufwärts und umgekehrt.
  • In einige Umsetzungsformen folgt der Schieber, der virtuell einen Parameter (x) abbildet, der Hand-/Fingerposition (pos) entsprechend einem proportionalen Verhältnis (k). delta _ x = . delta _ pos
    Figure DE102014000214B4_0001
  • Zum Beispiel ruft das Bewegen der Hand bzw. der Finger um delta_pos = 1cm eine Schieberbewegung von delta_x = 2mm → k = 0,2 hervor.
  • Das proportionale Verhältnis (k) zwischen Hand-/Fingerbewegung und bewirkter Parameteränderung kann entsprechend der Entfernung (d) zwischen der Hand bzw. den Fingern und dem Bildschirm angepasst werden, auf dem der Schieber angezeigt wird. k = f ( d )
    Figure DE102014000214B4_0002
  • Eine geringe Entfernung führt zu einer direkten, groben Änderung des Parameterwerts bei Verwendung von nur kleinen Hand-/Fingerbewegungen (großer Wert von k). Eine große Entfernung führt zu einer indirekten, feinen Änderung des Parameterwerts bei Verwendung von großen Hand-/Fingerbewegungen (kleiner Wert von k).
  • Das gleiche Prinzip kann nicht nur bei linearen eindimensionalen Schiebeelementen angewandt werden, sondern auch bei zweidimensionalen Schiebeflächen, in denen ein Schieber in einer Fläche positioniert ist, die zwei Parameterwerte abbildet (z. B. x- und y-Achse).
  • Dann kann ein erster Steuerparameter durch eine gestische Bewegung in eine erste Richtung gesteuert werden, und ein zweiter Steuerparameter kann durch eine gestische Bewegung in eine zweite Richtung gesteuert werden, die sich von der ersten Richtung unterscheidet. Ähnlich wie bei der eindimensionalen Ausführungsform wird ein erstes Übersetzungsverhältnis, das dem ersten Steuerparameter entspricht, auf Basis der bestimmten Entfernung der Hand bzw. des Fingers bestimmt, und ein zweites Übersetzungsverhältnis, das dem zweiten Steuerparameter entspricht, wird auf Basis der bestimmten Entfernung der Hand bzw. des Fingers bestimmt.
  • Ohne eine Änderung der Umgebung der Steuerschnittstelle und ohne dass er physisch Steuerelemente berühren muss, wird es dem Nutzer somit ermöglicht, das Gesten-Umsetzungsverhältnis selbst aktiv zu ändern, indem er sich näher an die Referenz heran oder weiter davon weg bewegt.
  • Indem solcherart die Entfernung zwischen einer Referenz, zum Beispiel einem Bildschirm oder einer anderen Referenzfläche oder Oberfläche oder einem Referenzpunkt, und der Hand bzw. den Fingern in Betracht gezogen wird, werden sowohl grobe als auch feine Justierungen eines Parameterwerts, der durch einen virtuellen Schieber abgebildet wird, auf natürliche Art und Weise ermöglicht, wie in 4 gezeigt wird.
  • Typischerweise kann die Referenz ein vorbestimmter Ort oder Ebene sein, wie zum Beispiel eine vorbestimmte Position auf dem Display der Vorrichtung oder eine Oberfläche der Vorrichtung. Die Entfernungsinformationen können daher die relative Entfernung des Körperteils in Bezug auf diesen Ort oder die relative Entfernung des menschlichen Körperteils in Bezug auf die Ebene sein, d. h. die geringste Entfernung des detektierten menschlichen Körperteils in Bezug auf die Ebene, was die Entfernung in Richtung des Normalvektors von der Ebene zum menschlichen Körperteil ist.
  • Aus dem Vorstehende wird deutlich, dass die beschriebene neue Gestenerkennungs-Steuerung ein einfacheres, schnelleres und sichereres Steuern der Steuerparameter bereitstellt, was eine feiner justierte Einstellung in geringerer Zeit als mit konventionellen Steuerungen erlaubt.
  • Es ist weiter anzumerken, dass in der Beschreibung und in den Ansprüchen verwendete spezifische Begriffe in einem sehr weiten Sinne interpretiert werden können. Zum Beispiel sind die Begriffe „Schaltung“ oder „Schaltkreise“ in einem Sinn zu interpretieren, dass sie nicht nur Hardware, sondern auch Software, Firmware oder jede Kombination daraus enthalten. Der Begriff „Daten“ kann so interpretiert, dass er jede Form von Abbildung enthält, wie zum Beispiel eine Analogsignalabbildung, eine Digitalsignalabbildung, eine Modulation auf Trägersignale usw. Der Begriff „Informationen“ kann zusätzlich zu jeder Form von digitalen Informationen auch andere Formen des Abbildens von Informationen enthalten. Der Begriff „Entität“ oder „Einheit“ kann in Ausführungsformen sowohl jede Vorrichtung, Vorrichtungen, Schaltungen, Hardware, Software, Firmware, Chips oder andere Halbleiter- als auch Logikeinheiten oder physikalische Umsetzungsformen von Protokollschichten usw. enthalten. Weiter können die Begriffe „verschaltet“ oder „verbunden“ in einem weiten Sinne interpretierbar sein, was nicht nur direktes, sondern auch indirektes Verschalten abdeckt.
  • Es ist weiterhin anzumerken, dass Ausführungsformen, die kombiniert mit speziellen Einheiten beschrieben werden, zusätzlich zu einer Umsetzung in dieser Einheit auch eine oder mehrere Umsetzungen in einer oder mehreren Untereinheiten oder Unterteilen der beschriebenen Entität enthalten können. Zum Beispiel werden spezifische, hierin beschriebene Ausführungsformen, die hierin so beschrieben werden, dass sie einen Sender, Empfänger oder Transceiver umsetzen sollen, in Untereinheiten umgesetzt sein können, wie zum Beispiel in einem Chip oder einer Schaltung, die in solch einer Einheit bereitgestellt werden.
  • Die zugehörigen Zeichnungen, die einen Teil hiervon bilden, zeigen veranschaulichend und nicht einschränkend spezifische Ausführungsformen, in denen der Gegenstand angewendet werden kann.
  • Weiterhin ist beabsichtigt, dass in dieser ausführlichen Beschreibung ebenso ein oder mehrere beschriebene Merkmale, Elemente usw. in einer umgekehrten oder miteinander vertauschten Art und Weise enthalten sind, es sei denn, es ist anders angegeben.
  • Es ist weiterhin anzumerken, dass in der Spezifikation oder in den Ansprüchen offenbarte Verfahren durch eine Vorrichtung umgesetzt werden können, die Mittel zum Ausführen jedes der entsprechenden Schritte dieses Verfahrens aufweisen.
  • Weiterhin versteht es sich, dass die Offenbarung mehrerer, in der Darstellung oder den Ansprüchen offenbarter Schritte oder Funktionen nicht so auslegbar sein können, dass sie in einer spezifischen Reihenfolge vorhanden sind. Demzufolge wird die Offenbarung mehrerer Schritte oder Funktionen diese nicht auf eine besondere Reihenfolge einschränken, es sei denn, solche Schritte oder Funktionen sind aus technischen Gründen nicht austauschbar.
  • Weiterhin kann in einigen Ausführungsformen ein einzelner Schritt mehrere Unterschritte enthalten oder kann in diese aufgebrochen sein. Solche Unterschritte können in der Offenbarung enthalten sein und ein Teil der Offenbarung dieses einzelnen Schritts sein, es sei denn, dies ist ausdrücklich ausgeschlossen.

Claims (30)

  1. Verfahren zum Steuern wenigstens eines Steuerparameters eines Steuerelements, wobei das Verfahren Folgendes umfasst: das Bestimmen erster Informationen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben; das Bestimmen, auf Basis der ersten Informationen, von zweiten Informationen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben; und das Modifizieren des Umformungsverhältnisses auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz.
  2. Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin Folgendes umfasst: Anzeigen eines Steuerelements auf einem Display; und Anzeigen visueller Informationen auf dem Display, die den aktuellen Wert der Steuerparametereinstellung angeben.
  3. Verfahren nach Anspruch 1 oder 2, wobei eine Größe des Steuerelements unverändert aufrechterhalten wird, wenn das Umsetzungsverhältnis modifiziert wird.
  4. Verfahren nach Anspruch 2, wobei ein Maßstab zur Angabe des aktuellen Werts des Steuerparameters auf dem Display sich ändert, wenn das Umsetzungsverhältnis modifiziert wird.
  5. Verfahren nach Anspruch 3 oder 4, wobei das Steuerelement durch eine gestische Bewegung des menschlichen Körperteils gesteuert wird, und wobei das Umsetzungsverhältnis eine Änderung des Steuerparameters pro Gestenbewegungsdistanzeinheit anzeigt.
  6. Verfahren nach Anspruch 5, wobei die Entfernung der gestischen Bewegung eine Entfernung der Bewegung des Körperteils in eine Richtung ist, die vom angezeigten Steuerelement vorbestimmt wird.
  7. Verfahren nach Anspruch 1, wobei das Steuerelement ein Schieber ist.
  8. Verfahren nach Anspruch 1, wobei das Steuerelement ein Drehelement ist.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren weiterhin Folgendes umfasst: Steuern eines ersten Steuerparameters durch eine gestische Bewegung in eine erste Richtung; und Steuern eines zweiten Steuerparameters durch eine gestische Bewegung in eine zweite Richtung, die sich von der ersten Richtung unterscheidet; Bestimmen eines ersten Übersetzungsverhältnisses, das dem ersten Steuerparameter entspricht, auf Basis der Entfernung; und Bestimmen eines zweiten Übersetzungsverhältnisses, das dem zweiten Steuerparameter entspricht, auf Basis der Entfernung.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Umformungsverhältnis fortlaufend auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körperteil und der Referenz modifiziert wird.
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Umsetzungsverhältnis linear mit der Entfernung zwischen dem menschlichen Körperteil und der Referenz modifiziert wird.
  12. Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin Folgendes umfasst: das Erkennen des Körperteils in drei Dimensionen auf Basis der Entfernungsinformationen.
  13. Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin Folgendes umfasst: das Erkennen einer von einem Nutzer mit dem Körperteil ausgeführten Geste, wobei das Bestimmen der ersten Informationen, der zweiten Informationen und das Modifizieren des Umsetzungsverhältnisses nur ausgeführt wird, wenn eine vorbestimmte Geste erkannt wird.
  14. Verfahren nach einem der vorhergehenden Ansprüche, das weiterhin das Umschalten in einen Gestenerkennungs-Steuermodus umfasst, in dem ein Übersetzungsverhältnis unabhängig von der Entfernung zwischen dem menschlichen Körperteil und der Referenz aufrechterhalten wird.
  15. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Umsetzungsverhältnis modifiziert wird, um eine gröbere Justierung des Steuerparameterwertes durch eine gestische Bewegung zu erreichen, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz verringert, und es modifiziert wird, um eine feinere Justierung des Steuerparameterwertes durch eine gestische Bewegung zu erreichen, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz erhöht.
  16. Vorrichtung, die Folgendes umfasst: eine Einheit, die dazu ausgelegt ist, erste Informationen zu bestimmen, die eine Entfernung zwischen einem menschlichen Körperteil und einer Referenz angeben; eine Schaltung, die dazu ausgelegt ist, auf Basis der ersten Informationen zweite Informationen zu bestimmen, die ein Umformungsverhältnis zwischen einer gestischen Bewegung des menschlichen Körperteils und einer bewirkten Änderung des Steuerparameters durch die gestische Bewegung angeben, wobei die Schaltung dazu ausgelegt ist, das Umformungsverhältnis auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körper und der Referenz zu modifizieren.
  17. Vorrichtung nach Anspruch 16, die weiterhin ein Display umfasst, das dazu ausgelegt ist, ein Steuerelement und Informationen, die einen aktuellen Wert des Steuerparameters angeben, auf dem Display anzuzeigen.
  18. Vorrichtung nach Anspruch 17, wobei eine Größe des Steuerelements unverändert aufrechterhalten wird, wenn das Umsetzungsverhältnis modifiziert wird.
  19. Vorrichtung nach Anspruch 17 oder 18, wobei die Vorrichtung dazu ausgelegt ist, einen Maßstab zur Angabe des aktuellen Werts des Parameters auf dem Display zu ändern, wenn das Umsetzungsverhältnis modifiziert wird.
  20. Vorrichtung nach einem der Ansprüche 17 bis 19, wobei die Vorrichtung dazu ausgelegt ist, das Steuerelement durch eine gestische Bewegung des menschlichen Körperteils zu steuern, und wobei die Schaltung dazu ausgelegt ist, das Umsetzungsverhältnis bereitzustellen, das eine Änderung des Steuerparameters pro Gestenbewegungsdistanzeinheit anzeigt.
  21. Vorrichtung nach Anspruch 20, wobei die Vorrichtung dazu ausgelegt ist, auf einem Display eine vorbestimmte Richtung anzugeben, wobei die Distanz der gestischen Bewegung eine Distanz der Bewegung des Körperteils in die vorbestimmte Richtung ist.
  22. Vorrichtung nach einem der Ansprüche 17 bis 21, wobei das Steuerelement ein Schieber ist.
  23. Vorrichtung nach einem der Ansprüche 17 bis 21, wobei das Steuerelement ein Drehelement ist.
  24. Vorrichtung nach einem der Ansprüche 16 bis 23, wobei die Vorrichtung dazu ausgelegt ist, einen ersten Steuerparameter durch eine gestische Bewegung in eine erste Richtung zu steuern und einen zweiten Steuerparameter durch eine gestische Bewegung in eine zweite Richtung zu steuern, die sich von der ersten Richtung unterscheidet, wobei die Vorrichtung weiterhin dazu ausgelegt ist, ein erstes Übersetzungsverhältnis, das dem ersten Steuerparameter entspricht, auf Basis der Entfernung zu bestimmen und ein zweites Übersetzungsverhältnis, das dem zweiten Steuerparameter entspricht, auf Basis der Entfernung zu bestimmen.
  25. Vorrichtung nach einem der Ansprüche 16 bis 24, wobei die Vorrichtung dazu ausgelegt ist, das Umformungsverhältnis fortlaufend auf Basis einer Änderung der Entfernung zwischen dem menschlichen Körperteil und der Referenz zu modifizieren.
  26. Vorrichtung nach einem der Ansprüche 16 bis 25, wobei die Vorrichtung dazu ausgelegt ist, das Umsetzungsverhältnis linear mit der Entfernung zwischen dem menschlichen Körperteil und der Referenz zu modifizieren.
  27. Vorrichtung nach einem der Ansprüche 16 bis 26, wobei die Vorrichtung weiterhin dazu ausgelegt ist, den Körperteil in drei Dimensionen auf Basis der Entfernungsinformationen zu erkennen.
  28. Vorrichtung nach einem der Ansprüche 16 bis 27, wobei die Vorrichtung dazu ausgelegt ist, eine von einem Nutzer mit dem Körperteil ausgeführten Geste zu erkennen, so dass das Umsetzungsverhältnis nur modifiziert wird, wenn eine vorbestimmte Geste erkannt wird.
  29. Vorrichtung nach einem der Ansprüche 16 bis 28, die weiterhin das Umschalten in einen Gestenerkennungs-Steuermodus umfasst, in dem ein Übersetzungsverhältnis unabhängig von der Entfernung zwischen dem menschlichen Körperteil und der Referenz aufrechterhalten wird.
  30. Vorrichtung nach einem der Ansprüche 16 bis 29, wobei die Vorrichtung dazu ausgelegt ist, das Umsetzungsverhältnis zu modifizieren, so dass eine gröbere Justierung des Steuerparameterwertes durch eine gestische Bewegung erreicht wird, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz verringert, und so dass eine feinere Justierung des Steuerparameterwertes durch eine gestische Bewegung erreicht wird, wenn sich die Entfernung zwischen dem menschlichen Körperteil und der Referenz erhöht.
DE102014000214.4A 2013-01-08 2014-01-07 Steuern eines Steuerparameters durch Gestenerkennung Active DE102014000214B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361749931P 2013-01-08 2013-01-08
US61/749,931 2013-01-08

Publications (2)

Publication Number Publication Date
DE102014000214A1 DE102014000214A1 (de) 2014-07-10
DE102014000214B4 true DE102014000214B4 (de) 2024-02-29

Family

ID=51019277

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014000214.4A Active DE102014000214B4 (de) 2013-01-08 2014-01-07 Steuern eines Steuerparameters durch Gestenerkennung

Country Status (3)

Country Link
US (1) US9141198B2 (de)
CN (1) CN103914146B (de)
DE (1) DE102014000214B4 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102106135B1 (ko) * 2013-10-01 2020-05-04 한국전자통신연구원 행동 인식 기반의 응용 서비스 제공 장치 및 그 방법
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
CN104811862B (zh) * 2015-03-31 2018-03-27 广东欧珀移动通信有限公司 一种音箱音量控制方法及终端
CN105679346A (zh) * 2015-12-31 2016-06-15 深圳还是威健康科技有限公司 控制收音机的方法和装置
EP3486750B1 (de) * 2016-07-12 2023-10-18 FUJIFILM Corporation Bildanzeigesystem, steuerungsvorrichtung für eine kopfmontierte anzeige und betriebsverfahren sowie betriebsprogramm zum betrieb davon
CN112639689A (zh) * 2020-04-30 2021-04-09 华为技术有限公司 基于隔空手势的控制方法、装置及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060161871A1 (en) 2004-07-30 2006-07-20 Apple Computer, Inc. Proximity detector in handheld device
US20070125633A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for activating a touchless control
US20080042985A1 (en) 2006-06-23 2008-02-21 Obi Katsuhito Information processing apparatus, operation input method, and sensing device
US20090091540A1 (en) 2007-10-04 2009-04-09 Linh Doan Method and apparatus for controlling timing of status change of electronics apparatus based on user's finger location and input speed
DE112014000441T5 (de) 2013-01-15 2015-10-15 David Holz Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6825455B1 (en) 1996-09-05 2004-11-30 Rudolf Schwarte Method and apparatus for photomixing
US6600475B2 (en) * 2001-01-22 2003-07-29 Koninklijke Philips Electronics N.V. Single camera system for gesture-based input and target indication
KR101504201B1 (ko) * 2008-07-02 2015-03-19 엘지전자 주식회사 이동단말기 및 그의 키패드 표시방법
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US8224392B2 (en) * 2009-04-29 2012-07-17 Lg Electronics Inc. Mobile terminal capable of recognizing fingernail touch and method of controlling the operation thereof
US20110205186A1 (en) * 2009-12-04 2011-08-25 John David Newton Imaging Methods and Systems for Position Detection
KR101634388B1 (ko) * 2009-12-07 2016-06-28 엘지전자 주식회사 이동 통신 단말기에서 방송 데이터를 표시하는 방법 및 이를 적용한 이동 통신 단말기
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
JP2012043180A (ja) * 2010-08-19 2012-03-01 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
US10146426B2 (en) * 2010-11-09 2018-12-04 Nokia Technologies Oy Apparatus and method for user input for controlling displayed information
CN102200834B (zh) * 2011-05-26 2012-10-31 华南理工大学 面向电视控制的指尖鼠标交互方法
US20130106898A1 (en) * 2011-10-26 2013-05-02 Google Inc. Detecting object moving toward or away from a computing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060161871A1 (en) 2004-07-30 2006-07-20 Apple Computer, Inc. Proximity detector in handheld device
US20070125633A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for activating a touchless control
US20080042985A1 (en) 2006-06-23 2008-02-21 Obi Katsuhito Information processing apparatus, operation input method, and sensing device
US20090091540A1 (en) 2007-10-04 2009-04-09 Linh Doan Method and apparatus for controlling timing of status change of electronics apparatus based on user's finger location and input speed
DE112014000441T5 (de) 2013-01-15 2015-10-15 David Holz Dynamische Benutzerinteraktionen für Displaysteuerung und Angepaßte Gesten Interpretation

Also Published As

Publication number Publication date
US20140333522A1 (en) 2014-11-13
CN103914146A (zh) 2014-07-09
CN103914146B (zh) 2017-03-01
US9141198B2 (en) 2015-09-22
DE102014000214A1 (de) 2014-07-10

Similar Documents

Publication Publication Date Title
DE102014000214B4 (de) Steuern eines Steuerparameters durch Gestenerkennung
EP1998996B1 (de) Interaktive bedienvorrichtung und verfahren zum betreiben der interaktiven bedienvorrichtung
DE112014004307B4 (de) Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm
DE102008016215B4 (de) Informationsvorrichtungsbediengerät
DE102010038655A1 (de) Verfahren und Vorrichtung für das Zoomen mit einer einzigen Berührung unter Verwendung einer Spiraldrehung
DE4406668C2 (de) Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE69517086T2 (de) Eingabesystem für Winkelinformation
DE112005003342B4 (de) Informationseingabevorrichtung für portable elektronische Geräte und Steuerungsverfahren
DE112013003647T5 (de) Gesten- und Berührungseingabeerfassung durch Kraftabtastung
DE202012101429U1 (de) Berührungssensor mit adaptiver Berührungsdetektionsschwelle
DE112010002760T5 (de) Benutzerschnittstelle
DE102008028223A1 (de) Modusabhängige Verarbeitung von Berührungsdaten
EP2876526B1 (de) Verfahren zur Erkennung von Gesten und Vorrichtung zur Gestenerkennung
DE112016006646T5 (de) Koordinatenkorrekturvorrichtung, koordinatenkorrekturverfahren und koordinatenkorrekturprogramm
DE102016204473A1 (de) Verfahren zum unterstützen einer benutzereingabe mit berührungsanzeige
DE102006057924A1 (de) Verfahren und Vorrichtung zum Steuern der Anzeige von Informationen in zwei Bereichen auf einer Anzeigefläche in einem Verkehrsmittel
EP2754016A1 (de) Bedienvorrichtung für ein kraftfahrzeug und verfahren zum bedienen der bedienvorrichtung für ein kraftfahrzeug
DE112014001224T5 (de) Tragbare Vorrichtung
DE112014007127T5 (de) Verfahren und System zum Kalibrieren eines Eye-Tracking-Systems
WO2014108147A1 (de) Zoomen und verschieben eines bildinhalts einer anzeigeeinrichtung
DE102015208563A1 (de) Handschuhberührungserkennung
EP2953793B1 (de) System zur druckmaschinenbedienung
WO2010083821A1 (de) Verfahren zur steuerung eines auf einem bildschirm dargestellten auswahlobjekts
DE112015006572T5 (de) Touch-Panel-Steuervorrichtung und Fahrzeuginformationsvorrichtung
DE102014106837A1 (de) Driftkompensation / Parallelminimierung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division