DE102014224641A1 - Method for operating an input device, input device - Google Patents

Method for operating an input device, input device Download PDF

Info

Publication number
DE102014224641A1
DE102014224641A1 DE102014224641.5A DE102014224641A DE102014224641A1 DE 102014224641 A1 DE102014224641 A1 DE 102014224641A1 DE 102014224641 A DE102014224641 A DE 102014224641A DE 102014224641 A1 DE102014224641 A1 DE 102014224641A1
Authority
DE
Germany
Prior art keywords
finger
hand
input device
size
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014224641.5A
Other languages
German (de)
Inventor
Stefan Andreas Kniep
Markus Langenberg
Daniel Zaum
Philippe Dreuw
Jens Heimsoth
Gerrit De Boer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014224641.5A priority Critical patent/DE102014224641A1/en
Priority to CN201510861510.2A priority patent/CN105653023A/en
Publication of DE102014224641A1 publication Critical patent/DE102014224641A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/14643D-gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), die mittels eines berührungsfrei arbeitenden Sensors (3) eine Position und/oder Positionsänderung mindestens eines Fingers (9, 10, 11, 12) einer Hand (6) eines Benutzers erfasst, wobei in Abhängigkeit von der Position und/oder Positionsänderung des Fingers (9, 10, 11, 12) auf eine Eingabe erkannt und diese ausgeführt wird. Dabei ist vorgesehen, dass in Abhängigkeit von einer erfassten Hin- und Herbewegung des Fingers (9, 10, 11, 12) eine analoge Größe durch die Eingabevorrichtung (2) verändert wird.The invention relates to a method for operating an input device (2), in particular a motor vehicle (1), by means of a non-contact sensor (3) a position and / or position change of at least one finger (9, 10, 11, 12) of a hand ( 6) of a user, whereby, depending on the position and / or position change of the finger (9, 10, 11, 12), an input is recognized and executed. It is provided that, depending on a detected reciprocating movement of the finger (9, 10, 11, 12) an analogous size is changed by the input device (2).

Description

Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen berührungsfrei arbeitenden Sensor zum Erfassen der Position und/oder Positionsänderung mindestens eines Fingers einer Hand eines Benutzers aufweist, wobei in Abhängigkeit von der erfassten Position und/oder Positionsänderung des Fingers auf eine Eingabe erkannt und diese ausgeführt wird. The invention relates to a method for operating an input device, in particular a motor vehicle, having a non-contact sensor for detecting the position and / or position change of at least one finger of a user's hand, depending on the detected position and / or position change of the finger an input is recognized and executed.

Ferner betrifft die Erfindung eine entsprechende Eingabevorrichtung. Furthermore, the invention relates to a corresponding input device.

Stand der TechnikState of the art

Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard. A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display.

Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit zumindest einem Finger seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers auf die Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, being detected in response to the detected position and / or position change to an input and this is executed. The user thus indicates with a movement of his hand or with at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input by means of the movement of the finger and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, the "increase volume" input can be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.

Aus der Offenlegungsschrift US 2012 010 5613 A1 ist es bereits bekannt, Hand- oder Fingergesten mittels einer Kamera aufzunehmen und Funktionen eines Kraftfahrzeugs in Abhängigkeit der erkannten Gesten zu steuern. Ein ähnliches System ist auch aus der Offenlegungsschrift EP 2 441 635 A1 bereits bekannt. Diese offenbart darüber hinaus eine Detektion des Zeitverlaufs von Positionsänderungen von Fingerspitzen im freien Raum.From the publication US 2012 010 5613 A1 It is already known to record hand or finger gestures by means of a camera and to control functions of a motor vehicle as a function of the recognized gestures. A similar system is also from the published patent application EP 2 441 635 A1 already known. This also discloses a detection of the time course of changes in position of fingertips in free space.

Offenbarung der ErfindungDisclosure of the invention

Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 hat den Vorteil, dass der Benutzer durch eine in einem freien Raum ausgeführte Geste auf einfache Art und Weise eine Einstellung einer analogen Größe, wie beispielsweise die Lautstärke eines Radius des Kraftfahrzeugs oder die Helligkeit einer Instrumententafelbeleuchtung oder dergleichen, einstellen kann. Erfindungsgemäß ist hierzu vorgesehen, dass in Abhängigkeit von einer erfassten Hin- und Herbewegung des mindestens einen Fingers eine analoge Größe verändert wird. Mittels des Sensors wird also die Hand eines Benutzers darauf überwacht, ob zumindest ein Finger des Benutzers eine Hin- und Herbewegung durchführt. In Abhängigkeit von der durchgeführten Hin- und Herbewegung wird dann die analoge Größe verändert. Dabei ist insbesondere vorgesehen, dass in Abhängigkeit von der Frequenz der durchgeführten Hin- und Herbewegung die analoge Größe schneller oder langsamer verändert wird. The inventive method with the features of claim 1 has the advantage that the user by a executed in a free space gesture in a simple manner, an adjustment of an analog variable, such as the volume of a radius of the motor vehicle or the brightness of an instrument panel lighting or the like , can adjust. According to the invention, it is provided for this purpose that an analogous variable is changed as a function of a detected reciprocating movement of the at least one finger. By means of the sensor, therefore, the hand of a user is monitored for whether at least one finger of the user performs a reciprocating movement. Depending on the back and forth movement then the analog size is changed. In this case, provision is made in particular for the analogue variable to be changed more rapidly or more slowly as a function of the frequency of the reciprocating movement that is carried out.

Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die Bewegung des Fingers auf Umkehrpunkte, in welchen der Finger seine Bewegungsrichtung ändert, überwacht wird, um auf die Hin- und Herbewegung zu erkennen. Bei dem Erfassen der Bewegung des Fingers wird dieser also auf das Erreichen von Umkehrpunkten überwacht. Erst wenn ein Umkehrpunkt erkannt wurde, kann von einer Hin- und Herbewegung des Fingers ausgegangen werden. Zweckmäßigerweise werden alle Umkehrpunkte der Bewegung erfasst und gezählt, wobei insbesondere in Abhängigkeit von der Anzahl der erfassten Umkehrpunkte die analoge Größe verändert wird. According to a preferred embodiment of the invention it is provided that the movement of the finger is monitored for reversal points in which the finger changes its direction of movement in order to detect the reciprocating movement. When detecting the movement of the finger this becomes so monitored for the achievement of reversal points. Only when a reversal point has been detected can it be assumed that the finger is moving back and forth. Appropriately, all reversal points of the movement are detected and counted, in particular, depending on the number of detected reversal points, the analog variable is changed.

Dabei ist besonders bevorzugt vorgesehen, dass die analoge Größe bei Erfassen jedes Umkehrpunktes um einen vorgebbaren Wert verändert wird. Mit jedem Umkehrpunkt wird somit die analoge Größe ein Stück weiter verändert, sodass auf einfache Art und Weise in Abhängigkeit von der Frequenz die Hin- und Herbewegung, also in Abhängigkeit von der Anzahl der Umkehrpunkte innerhalb eines Zeitraums, die analoge Größe schneller oder langsamer verändert wird. In this case, it is particularly preferably provided that the analogous variable is changed by a predefinable value upon detecting each reversal point. Thus, with each reversal point, the analogue quantity is changed a little bit further, so that in a simple manner, depending on the frequency, the reciprocating motion, that is, depending on the number of reversal points within a time period, the analogous quantity is changed faster or slower ,

Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die analoge Größe in Abhängigkeit von dem die Hin- und Herbewegung durchführenden Finger vergrößert oder verkleinert wird. Hierbei ist also vorgesehen, dass die Richtung, in welche die analoge Größe verändert wird, in Abhängigkeit des die Bewegung durchführenden Fingers bestimmt wird. Führt der Benutzer beispielsweise mit dem Zeigefinger die Bewegung durch, so wird die analoge Größe vergrößert. Führt er die Bewegung beziehungsweise Geste hingegen mit einem anderen Finger, beispielsweise mit dem Mittelfinger, durch, so wird die analoge Größe verkleinert. Mittels des berührungsfrei arbeitenden Sensors, für den insbesondere ein Kamerasensor oder Videosensor verwendet wird, kann auf Basis einer Bildauswertung nicht nur die Bewegung, sondern auch der die Bewegung durchführende Finger ermittelt werden. Gegebenenfalls können auch zwei Kamerasensoren vorgesehen sein, sodass die Hand des Benutzers von zwei unterschiedlichen Richtungen aus erfasst wird, sodass beispielsweise ein erster Kamerasensor die Hand von oben erfasst und ein zweiter die Hand von der Seite, wobei durch das Bild des ersten Sensors der Finger und auf Basis des Bildes des zweiten Sensors die Bewegung der Finger ermittelt wird. Durch eine Überlagerung der Daten kann dann auf einfache Art und Weise darauf geschlossen werden, welcher Finger welche Bewegung durchführt. Auf Basis einer Kantenermittlung lässt sich jedoch auch auf Basis nur eines Kamerabildes sowohl der Finger als auch die von dem Finger durchgeführte Bewegung erfassen und entsprechend auswerten. Hierbei ist insbesondere vorgesehen, dass die erfassten Bilddaten mit zuvor hinterlegten Handmodellen verglichen werden, um insbesondere die Finger voneinander zu unterscheiden. According to an advantageous embodiment of the invention, it is provided that the analogous size is increased or decreased as a function of the finger performing the reciprocating movement. In this case, it is thus provided that the direction in which the analog variable is changed is determined as a function of the finger performing the movement. For example, if the user makes the movement with his index finger, the analog size is increased. However, if he performs the movement or gesture with another finger, for example with the middle finger, the analogous size is reduced. By means of the non-contact sensor, for which in particular a camera sensor or video sensor is used, not only the movement but also the movement of the finger can be determined on the basis of an image evaluation. Optionally, two camera sensors can be provided so that the user's hand is detected from two different directions, such that, for example, a first camera sensor detects the hand from above and a second hand from the side, the finger and the image through the first sensor based on the image of the second sensor, the movement of the fingers is determined. By overlaying the data, it can then be concluded in a simple manner which finger performs which movement. Based on an edge determination, however, both the finger and the movement performed by the finger can be detected and evaluated on the basis of only one camera image. In this case, provision is made in particular for the captured image data to be compared with previously stored manual models in order in particular to distinguish the fingers from one another.

Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die analoge Größe in Abhängigkeit von einer Haltung der den Finger aufweisenden Hand vergrößert oder verkleinert wird. So kann der Benutzer durch die unterschiedliche Haltung der Hand in dem Erfassungsbereich des Sensors vorgeben, ob die durchgeführte Hin- und Herbewegung des Fingers zu einer Vergrößerung oder Verkleinerung der analogen Größe führen soll. Vorzugsweise ist dabei vorgesehen, dass die analoge Größe in Abhängigkeit von einer Ausrichtung der Hand vergrößert oder verkleinert wird. Die Ausrichtung der Hand kann beispielsweise in Abhängigkeit davon bestimmt werden, in welche Richtung der die Hand aufweisende Arm des Benutzers in dem Erfassungsbereich des Sensors verläuft. Auch ist es denkbar, die Ausrichtung der Hand dadurch zu bestimmen, ob die im Erfassungsbereich liegende Hand in einer Draufsicht, in welcher die Finger der Hand nebeneinander liegen, oder in einer Seitenansicht, in welcher die Finger der Hand hintereinander liegen, erfasst wird. In Abhängigkeit davon, wie die Hand ausgerichtet ist, wird dann die Hin- und Herbewegung des Fingers als ein Wunsch zum Vergrößern oder Verkleinern der analogen Größe gewertet und eine entsprechende Veränderung der analogen Größe durch die Eingabevorrichtung ausgeführt.According to a preferred embodiment of the invention it is provided that the analogous size is increased or decreased in dependence on an attitude of the finger having the hand. Thus, the user can specify by the different attitude of the hand in the detection range of the sensor, whether the performed back and forth movement of the finger should lead to an increase or decrease in the analog size. Preferably, it is provided that the analogous size is increased or decreased in dependence on an orientation of the hand. For example, the orientation of the hand may be determined depending on which direction the user's hand-held arm is in the sensing area of the sensor. It is also conceivable to determine the orientation of the hand by detecting the hand lying in the detection area in a plan view, in which the fingers of the hand lie next to one another, or in a side view, in which the fingers of the hand lie one behind the other. Depending on how the hand is aligned, then the to-and-fro movement of the finger is considered to be a desire to increase or decrease the analog size and to make a corresponding change in analog size through the input device.

Zusätzlich oder alternativ ist bevorzugt vorgesehen, dass die analoge Größe in Abhängigkeit von einer Positionierung der Hand in dem Erfassungsbereich des Sensors vergrößert oder verkleinert wird. Je nachdem, an welcher Stelle im Erfassungsbereich des Sensors der Benutzer die Hand hält und die Hin- und Herbewegung durchführt, wird die analoge Größe vergrößert oder verkleinert. So ist beispielsweise vorgesehen, dass der Erfassungsbereich in zwei Hälften aufgeteilt wird, wobei die analoge Größe vergrößert wird, wenn die Bewegung in der einen Hälfte durchgeführt wird, und verkleinert, wenn die Bewegung in der anderen Hälfte durchgeführt beziehungsweise erfasst wird. Additionally or alternatively, it is preferably provided that the analog variable is increased or decreased in dependence on a positioning of the hand in the detection range of the sensor. Depending on where in the detection range of the sensor, the user holds the hand and performs the reciprocating motion, the analog size is increased or decreased. For example, it is provided that the detection area is divided into halves, the analog size being increased when the movement is performed in one half, and made smaller when the movement is performed in the other half.

Insbesondere ist vorgesehen, dass die analoge Größe in Abhängigkeit von einer Ausrichtung des Daumens der Hand vergrößert oder verkleinert wird. Dadurch kann der Benutzer auf einfache Art und Weise angeben, ob die analoge Größe vergrößert oder verkleinert werden soll. Die Ausrichtung der Hand kann dabei die gleiche bleiben. So kann beispielsweise ein Ausrichten des Daumens in der optischen Achse des Kamerasensors oder parallel dazu ein Verkleinern der analogen Größe vorgeben, und ein Ausrichten des Daumens senkrecht zur optischen Achse ein Vergrößern, oder andersherum. Auch kann ein Anlegen des Daumens an die Finger zu einem Vergrößern oder Verkleinern führen, während ein Abspreizen des Daumens zu einem Verkleinern oder Vergrößern der analogen Größe führt, wobei die Größe der Veränderung erfindungsgemäß von der Hin- und Herbewegung des Fingers abhängt. In particular, it is provided that the analogous size is increased or decreased in dependence on an orientation of the thumb of the hand. This allows the user to easily specify whether the analog size should be increased or decreased. The orientation of the hand can remain the same. For example, aligning the thumb in the optical axis of the camera sensor or parallel to it may dictate reducing the analog size, and aligning the thumb perpendicular to the optical axis may increase or vice versa. Also, applying the thumb to the fingers may result in an increase or decrease in size, while spreading the thumb results in a reduction or enlargement of the analogue size, the amount of change depending on the reciprocation of the finger according to the invention.

Gemäß einer vorteilhaften Weiterbildung der Erfindung ist weiterhin vorgesehen, dass auf eine Hin- und Herbewegung des Fingers zum Verändern der analogen Größe nur dann erkannt wird, wenn der Finger an einem Umkehrpunkt auf einen Daumen derselben Hand trifft. Dadurch wird eine Unterscheidung zwischen einer absichtlich durchgeführten Geste und einer unbeabsichtigt durchgeführten Geste beziehungsweise Hin- und Herbewegung des Fingers erleichtert. Die Eingabevorrichtung wird gemäß dieser Ausführungsform nur dann die analoge Größe verändern, wenn bei der Hin- und Herbewegung der Finger auf den Daumen trifft, sodass an dem Daumen ein Umkehrpunkt entsteht. Darüber hinaus bietet dies den Vorteil, dass der Benutzer selbst ein haptisches Feedback bei der Bedienung der Eingabevorrichtung durch das Auftreffen des Fingers auf seinen eigenen Daumen erfährt. According to an advantageous embodiment of the invention is further provided that is recognized on a reciprocating motion of the finger to change the analog size only when the finger hits at a turning point on a thumb of the same hand. This makes it easier to distinguish between a deliberately performed gesture and an unintentionally performed gesture or reciprocation of the finger. According to this embodiment, the input device will only change the analogous size if, during the reciprocation, the finger strikes the thumb, so that a turning point arises on the thumb. Moreover, this offers the advantage that the user himself experiences a haptic feedback in the operation of the input device by the impact of the finger on his own thumb.

Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 zeichnet sich dadurch aus, dass sie bei bestimmungsgemäßen Gebrauch das erfindungsgemäße Verfahren durchführt. Hieraus ergeben sich die bereits genannten Vorteile. Weitere Merkmale und Vorteile ergeben sich aus dem zuvor Beschriebenen sowie aus den Ansprüchen. The input device according to the invention with the features of claim 10 is characterized in that it performs the inventive method when used as intended. This results in the advantages already mentioned. Other features and advantages will be apparent from the foregoing and from the claims.

Im Folgenden soll die Erfindung anhand der Zeichnung näher erläutert werden. Dazu zeigen:In the following, the invention will be explained in more detail with reference to the drawing. To show:

1 den Innenraum eines Kraftfahrzeugs mit einer vorteilhaften Eingabevorrichtung, 1 the interior of a motor vehicle with an advantageous input device,

2 eine von der Eingabevorrichtung erfasste Hand eines Benutzers. 2 a user's hand grasped by the input device.

1 zeigt eine schematische Darstellung des Innenraums eines hier nicht näher dargestellten Kraftfahrzeugs 1, welches eine Eingabevorrichtung 2 zum berührungslosen Eingeben von Steuerbefehlen aufweist. Die Eingabevorrichtung weist hierzu einen berührungsfrei arbeitenden Sensor 3 sowie eine Anzeigeeinheit 4 auf. Die Anzeigeeinheit 4 ist in das Armaturenbrett beziehungsweise in die Bedienkonsole des Kraftfahrzeugs 1 eingebracht angeordnet. Die Anzeigeeinheit 4 ist als Bildschirm, insbesondere Display, ausgebildet und kann beispielsweise Bestandteil eines Navigationssystems oder eines Entertainmentsystems des Kraftfahrzeugs 1 sein. Auch ist es denkbar, die Anzeigeeinheit 4 alternativ oder zusätzlich als Head-Up-Display (HUD) auszubilden. Der berührungsfrei arbeitende Sensor 3 ist bevorzugt als zweidimensional arbeitende Videokamera beziehungsweise Kameraeinrichtung ausgebildet, die den mit gestrichelten Linien dargestellten Erfassungsbereich 7 aufweist. Die Videokamera ist dabei bevorzugt derart ausgerichtet, dass sie auf das frontseitige Ende einer mittleren Armauflage 5 des Kraftfahrzeugs 1 weist. Die Armauflage 5 weist selbst keine reale Eingabeoberfläche auf, auf welcher ein Fahrer mittels einer hier nur schematisch dargestellten Hand 6 durch Berührung der Eingabeoberfläche einen Befehl eingeben könnte. 1 shows a schematic representation of the interior of a motor vehicle not shown here 1 which is an input device 2 for non-contact input of control commands. For this purpose, the input device has a non-contact sensor 3 and a display unit 4 on. The display unit 4 is in the dashboard or in the control console of the motor vehicle 1 arranged arranged. The display unit 4 is designed as a screen, in particular display, and may for example be part of a navigation system or an entertainment system of the motor vehicle 1 be. It is also conceivable, the display unit 4 alternatively or additionally as a Head-Up Display (HUD) form. The non-contact sensor 3 is preferably designed as a two-dimensionally operating video camera or camera device, the detection area shown with dashed lines 7 having. The video camera is preferably oriented such that it faces the front end of a central armrest 5 of the motor vehicle 1 has. The armrest 5 itself has no real input surface on which a driver by means of a hand only schematically shown here 6 could enter a command by touching the input interface.

Die Eingabevorrichtung 2 ist stattdessen dazu ausgebildet, eine Position und/oder Positionsänderung zumindest eines Fingers der Hand 6 im Raum zu erfassen und in Abhängigkeit davon auf eine Eingabe zu erkennen und diese auszuführen.The input device 2 is instead adapted to a position and / or position change of at least one finger of the hand 6 in the room to capture and depending on an input to recognize and execute.

Das im Folgenden beschriebene Verfahren ermöglicht es dem Benutzer durch einfache Fingerbewegungen eine analoge Größe des Kraftfahrzeugs, wie beispielsweise eine Lautstärke eines Unterhaltungssystems 8 des Kraftfahrzeugs 1, gezielt zu vergrößern oder zu verkleinern. Dazu muss der Benutzer seine Hand 6 in den Erfassungsbereich 7 des Sensors 3 bewegen und dort eine Hin- und Herbewegung mit zumindest einem Finger seiner Hand durchführen. The method described below allows the user by simple finger movements an analog size of the motor vehicle, such as a volume of an entertainment system 8th of the motor vehicle 1 to selectively zoom in or out. To do this, the user has his hand 6 in the coverage area 7 of the sensor 3 move and do a back and forth movement with at least one finger of his hand.

2 zeigt dazu beispielhaft das von dem Sensor 3 erfasste Bild der Hand 6 eines Benutzers. Der Benutzer hält dabei seine Hand 6 derart ausgerichtet, dass die Finger 9, 10, 11, 12 der Hand 6 aus Sicht des Sensors 3 zumindest im Wesentlichen hintereinander liegend angeordnet sind, und der Finger 9 (Zeigefinger) und der Daumen 13 eine Ebene aufspannen, die im Wesentlichen senkrecht zur optischen Achse des Sensors 3 ausgerichtet ist. 2 shows by way of example that of the sensor 3 captured picture of the hand 6 a user. The user holds his hand 6 aligned so that the fingers 9 . 10 . 11 . 12 the hand 6 from the perspective of the sensor 3 at least substantially lying one behind the other, and the finger 9 (Index finger) and the thumb 13 span a plane that is substantially perpendicular to the optical axis of the sensor 3 is aligned.

Zum Ermitteln der Fingerbewegung und der Ausrichtung der Hand 6 erfolgt zunächst eine Hintergrundmodellierung zum Bestimmen des Hinter- und des Vordergrunds anhand des von dem Sensor 3 erfassten Bildes, wobei sowohl statische als auch dynamische Modelle benutzt werden können. Durch eine anschließende Schwellwertbildung wird eine binäre Vordergrundmaske berechnet. Anschließend wird eine Handkonturberechnung auf der Vordergrundmaske durchgeführt, um die Konturen der Hand und der einzelnen Finger, sofern sie in dem Bild ersichtlich sind, zu ermitteln und dadurch die Bewegungen der Finger zu erfassen. Insbesondere werden Fingerspitzen der Finger 9, 10, 11, 12 ermittelt und deren Bewegung nachverfolgt beziehungsweise aufgezeichnet. To determine the finger movement and the orientation of the hand 6 First, a background modeling for determining the background and the foreground on the basis of the sensor 3 captured image using both static and dynamic models. Subsequent thresholding computes a binary foreground mask. Subsequently, a hand contour calculation is performed on the foreground mask to detect the contours of the hand and the individual fingers, if they are visible in the image, and thereby detect the movements of the fingers. In particular, fingertips become the fingers 9 . 10 . 11 . 12 determined and tracked their movement or recorded.

Diese Positionsänderungen werden zunächst darauf ausgewertet, ob die Bewegung eines Fingers, beispielsweise des Fingers 9, Umkehrpunkte aufweist. Unter einem Umkehrpunkt wird der Zeitpunkt verstanden, an dem die Bewegung eines Fingers gestoppt und in die entgegengesetzte Richtung fortgesetzt oder wieder aufgenommen wird. Anhand des Verlaufs der Position der Fingerspitzen können die Umkehrpunkte der Bewegung eines Fingers auf einfache Art und Weise ermittelt werden. Hierfür wird vorteilhafterweise ein Vektor berechnet, der von der Position der Fingerspitze zu einem Zeitpunkt t – 1 zur Position der Fingerspitze zum Zeitpunkt t führt. Für jeden Zeitpunkt t, beziehungsweise für jedes von dem Sensor 3 geliefertes Bild/Sample mit Ausnahme des ersten Bildes, kann ein solcher Richtungsvektor berechnet/bestimmt werden. Wenn sich die Richtung des Vektors beim Wechsel von t – 1 auf t um ca. 180° ändert, das heißt wenn sich bis auf eine mögliche kleine Richtungsänderung nur die Orientierung des Vektors ändert, liegt zwischen t – 1 und t ein Umkehrzeitpunkt beziehungsweise ein Umkehrpunkt vor. These position changes are first evaluated on whether the movement of a finger, such as the finger 9 , Reversing points. A reversal point is understood as the point in time when the movement of one finger is stopped and continued or taken up in the opposite direction. Based on the course of the position of the fingertips, the reversal points of the movement of a finger can be determined in a simple manner. For this purpose, a vector is advantageously calculated, which leads from the position of the fingertip at a time t - 1 to the position of the fingertip at the time t. For each time t, or for each of the sensor 3 supplied image / sample with the exception of the first image, such a direction vector can be calculated / determined. If the direction of the vector changes by about 180 ° when changing from t - 1 to t, ie if only the orientation of the vector changes except for a possible small change in direction, between t - 1 and t there is a reversal point or a reversal point in front.

Zur Erhöhung der Robustheit wird vorteilhafterweise geprüft, ob die Richtungsvektoren der zwei Punkte t – 1 – n bis t – 1 bis auf mögliche Ausreißer ungefähr dieselbe Richtung haben. Dieselbe Prüfung wird für die Richtungsvektoren der zwei Punkte von t bis t + n durchgeführt. Durch die Prüfung wird verhindert, dass ein einziger Ausreißer (falsch erkannte Fingerspitzenposition) dazu führt, dass ein Zeitpunkt fälschlicherweise als Umkehrpunkt erkannt wurde. Je größer n gewählt wird, desto robuster ist das Verfahren gegenüber der Ausreißer. Die Größe von n ist nach oben durch die Anzahl der zwischen zwei Umkehrpunkten aufgenommenen Bilder/Sampler beschränkt. Als zusätzliches Kriterium kann auch der Betrag der Vektoren herangezogen werden, welcher sich aufgrund der (negativen) Beschleunigung des jeweiligen Fingers beziehungsweise der Fingerspitze vor einem Umkehrpunkt verringert und danach wieder vergrößert. Voraussetzung für die Anwendung dieses Kriteriums ist ein zeitlich festes Sampling durch den Sensor 3. To increase the robustness, it is advantageously checked whether the direction vectors of the two points t-1-n to t-1 have approximately the same direction except for possible outliers. The same test is performed for the direction vectors of the two points from t to t + n. The check prevents a single outlier (incorrectly recognized fingertip position) from causing a point in time to be incorrectly identified as a reversal point. The larger n is chosen, the more robust the process is over the outliers. The size of n is limited upwards by the number of pictures / samplers recorded between two reversal points. As an additional criterion, it is also possible to use the magnitude of the vectors, which decreases due to the (negative) acceleration of the respective finger or fingertip before a reversal point and then increases again. Prerequisite for the application of this criterion is a timely sampling by the sensor 3 ,

Liegt wenigstens ein Umkehrpunkt vor, so wird darauf erkannt, dass der Finger 9 eine Hin- und Herbewegung durchgeführt hat. Hierfür werden die Vektoren zwischen zwei Umkehrpositionen bestimmt. Die Vektoren von aufeinanderfolgenden Umkehrpositionen müssen ungefähr die gleiche Richtung, aber gegensätzliche Orientierung haben. Durch dieses Kriterium kann die Hin- und Herbewegung von einer Zickzack-Bewegung des Fingers 9 unterschieden werden. If there is at least one turning point, it is recognized that the finger 9 has performed a float. For this purpose, the vectors between two reversal positions are determined. The vectors of successive reversal positions must have approximately the same direction but opposite orientation. By this criterion, the reciprocation of a zigzag movement of the finger 9 be differentiated.

Die Geschwindigkeit der Änderung der analogen Größe wird durch Zählung der Umkehrpunkte bestimmt. Insbesondere ist vorgesehen, dass die analoge Größe für jeden erkannten Umkehrpunkt um einen festen vorgegebenen Wert erhöht oder verringert wird. Die Änderung wird nach der Erkennung eines Umkehrpunkts so schnell wie möglich vorgenommen. Aufgrund der Robustheitsprüfung ist die Erkennung eines Umkehrpunktes erst n-Zeitpunkte nach dem Auftreten des Umkehrzeitpunkts abgeschlossen. The rate of change of analog magnitude is determined by counting the reversal points. In particular, it is provided that the analog quantity is increased or reduced for each detected reversal point by a fixed predetermined value. The change is made as soon as possible after a reversal point is detected. Due to the robustness test, the detection of a reversal point is completed only n times after the occurrence of the reversal point in time.

Bei jeder Veränderung der analogen Größe wird entsprechend ein Wert x auf die analoge Größe aufaddiert oder von dieser abgezogen. Das Vorzeichen von x entscheidet darüber, ob der analoge Wert bei der Ausführung der Geste vergrößert oder verkleinert wird. Das Vorzeichen wird insbesondere durch die Haltung oder Position der Hand 6 im Erfassungsbereich des Sensors 3 bestimmt. Beispielsweise ist der Erfassungsbereich 7 des Sensors in einen linken Bereich B1 und einen rechten Bereich B2 aufgeteilt und das Vorzeichen des Wertes x wird über die Position der Hand festgelegt. Befindet sich die Hand bei der Durchführung der Geste in dem linken Bereich B1, so wird ein positives Vorzeichen gewählt, befindet sich die Hand bei der Durchführung der Bewegung in dem rechten Bereich B2, wird ein negatives Vorzeichen gewählt. Each time the analogue size is changed, a value x is added to or subtracted from the analogue quantity. The sign of x decides whether the analog value is increased or decreased when the gesture is executed. The sign is in particular by the attitude or position of the hand 6 in the detection range of the sensor 3 certainly. For example, the coverage area 7 of the sensor is divided into a left area B1 and a right area B2, and the sign of the value x is set by the position of the hand. If the hand is in the left-hand area B1 when carrying out the gesture, a positive sign is selected, and if the hand is in the right-hand area B2 when the movement is carried out, a negative sign is selected.

Alternativ kann vorgesehen sein, dass der Finger 9, mit dem die Geste ausgeführt wird, über das Vorzeichen entscheidet. Dabei wird ausgenutzt, dass mittels der Auswertung des von dem Sensor erfassten Bildes zwischen den einzelnen Fingern 9 bis 12 unterschieden wird. Wird ermittelt, dass die Hin- und Herbewegung durch den Zeigefinger ausgeführt wird, so wird beispielsweise ein positives Vorzeichen gewählt, wird hingegen die Bewegung mit dem Mittelfinger 10 ausgeführt, so wird ein negatives Vorzeichen gewählt. Alternatively it can be provided that the finger 9 with which the gesture is executed, decides on the sign. It is exploited that by means of the evaluation of the image captured by the sensor between the individual fingers 9 to 12 a distinction is made. If it is determined that the reciprocating motion is performed by the index finger, for example, a positive sign is selected, however, the movement with the middle finger 10 executed, a negative sign is selected.

Eine weitere Alternative besteht darin, das Vorzeichen über die Ausrichtung des Daumens 13 festzulegen. Zeigt der Daumen 13 beispielsweise in Richtung des Sensors 3, und ist insofern parallel zu der optischen Achse des Kamerasensors ausgerichtet, wird ein positives Vorzeichen gewählt, weist der Daumen 13 zur Seite, liegt er also in der in 2 gezeigten Ebene senkrecht zu der optischen Achse, so wird ein negatives Vorzeichen gewählt. Diese Variante hat den Vorteil, dass eine Änderung der Größe durch den Benutzer auch schnell rückgängig gemacht werden kann, indem er lediglich die Ausrichtung des Daumens verändert. Selbstverständlich können die oben beschriebenen Vorzeichen auch andersherum vergeben werden. Another alternative is to use the sign about the orientation of the thumb 13 set. Shows the thumb 13 for example, in the direction of the sensor 3 , and is thus aligned parallel to the optical axis of the camera sensor, a positive sign is selected, the thumb indicates 13 aside, he lies in the in 2 shown plane perpendicular to the optical axis, so a negative sign is selected. This variant has the advantage that a change in size by the user can also be reversed quickly by merely changing the orientation of the thumb. Of course, the signs described above can also be given the other way round.

Vorteilhafterweise wird eine Hin- und Herbewegung nur dann als solche erkannt, wenn einer der Umkehrpunkte an dem Daumen 13 liegt. Es wird also verlangt, dass der die Bewegung durchführende Finger auf den Daumen 13 trifft beziehungsweise auf diesem tippt, damit die analoge Größe verstellt wird. Hierdurch erhält der Benutzer einerseits ein haptisches Feedback bei der Betätigung der Eingabevorrichtung 2, und andererseits kann dadurch die durchgeführte Hin- und Herbewegung des Fingers von einer ungewollten Geste des Fingers unterschieden und damit die Bedienung der Eingabevorrichtung 2 verbessert werden. Advantageously, a reciprocating motion is recognized as such only when one of the turning points on the thumb 13 lies. It is therefore required that the finger passing the movement on the thumb 13 meets or taps on this, so that the analog size is adjusted. This gives the user on the one hand a haptic feedback in the operation of the input device 2 and on the other hand, it can distinguish the performed reciprocation of the finger from an unwanted gesture of the finger and thus the operation of the input device 2 be improved.

Im Folgenden soll beispielhaft die Erfassung und Auswertung der Position, der Positionsänderungen und/oder der Ausrichtung der Hand 6 beziehungsweise der Finger 9 bis 13 im Detail erläutert werden: Zunächst erfolgt eine Hintergrundmodellierung nach Zivkovic, Zoran ( Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 ) des durch den Sensor 3 erfassten Bildes. Dadurch werden der Hintergrund und der Vordergrund voneinander getrennt. Als Hintergrund wird dabei das statische beziehungsweise sich nicht verändernde von dem Sensor 3 erfasste Bild in dem Kraftfahrzeug verstanden. Das statische Bild dient als Referenzbild, dass zu jedem Zeitpunkt einer Bildfolge von einem aktuell erfassten Bild abgezogen wird, so dass nur Bildelemente beziehungsweise Pixel im resultierenden Differenzbild markiert sind, die sich vom vorher definierten/ erfassten statischen Hintergrundbild unterscheiden. Der Vordergrund ist die im Erfassungsbereich des Sensors 3 bewegte Hand 6 eines Benutzers, wie sie in 1 beispielhaft dargestellt ist. The following is an example of the detection and evaluation of the position, the position changes and / or the orientation of the hand 6 or the finger 9 to 13 be explained in detail: first a background modeling according to Zivkovic, Zoran ( Zivkovic, Zoran; " Improved Adaptive Gaussian Mixture Model for Background Substrate ", ICPR, 2004 ) of the sensor 3 captured image. This will separate the background and the foreground. The background is the static or non-changing of the sensor 3 captured image in the motor vehicle understood. The static image serves as a reference image that is subtracted from a currently acquired image at any time of an image sequence, so that only pixels or pixels are marked in the resulting difference image, which differ from the previously defined / detected static background image. The foreground is the one in the detection range of the sensor 3 moving hand 6 of a user, as in 1 is shown by way of example.

Alternativ oder zusätzlich zu der Hintergrundmodellierung ist vorgesehen, dass eine Vordergrundmodellierung nach Dadgostar und Sarrafzadeh ( Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 ) durchgeführt wird, bei welcher relevante Vordergrundregionen für die Handerkennung durch spezielle Hautfarbmodelle erfasst werden, wobei aufgrund des Farbunterschieds zwischen der Hand und dem Hintergrund die Hand erkannt wird. As an alternative or in addition to the background modeling, it is provided that a foreground modeling according to Dadgostar and Sarrafzadeh (US Pat. Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A Comparison of Two Motion Tracking Methods" Pattern Recognition Letters, 2006, 1342-1352 ), in which relevant foreground regions for hand recognition are detected by special skin color models, whereby the hand is recognized due to the color difference between the hand and the background.

Auf Basis der der durch die Vordergrund- und/oder Hintergrundmodellierung gewonnenen Daten wird eine Handkontur der Hand 6 ermittelt und insbesondere auch der Handkonturschwerpunkt berechnet. Vorteilhafterweise wird dazu eine Handkontursegmentierung nach Suzuki und Abe ( Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 ) durchgeführt. Anschließend werden Fingerspitzen der Hand 6 und damit einzelne Finger erkannt. Dies erfolgt vorzugsweise in Abhängigkeit von den erfassten Krümmungen der Handkontur, wie beispielsweise bei Malik ( Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 ) beschrieben wurde. Alternativ kann auch eine Handmodellierung, wie sie von Liu und Lovell (Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 ) beschrieben wurde durchgeführt werden, um sowohl die Hand als auch ihre Finger- und Fingerspitzen zu detektieren ( Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 ). Auf Basis der so bestimmten Fingerspitzen werden erneut geschlossene Konturen, berechnet, wobei deren Schwerpunktzentren die Position der finalen Fingerspitze repräsentieren. Falls mehrere falsche Fingerspitzen durch eine Übersegmentierung detektiert wurden, werden diese anhand von geometrischen Heuristiken und des Abstands zum Handkonturschwerpunkt verworfen. Hierdurch lassen sich auf einfache Art und Weise einzelne Fingerspitzen der Hand 6 ermitteln.On the basis of the data obtained by the foreground and / or background modeling, a hand contour of the hand becomes 6 determined and in particular also calculated the hand contour center of gravity. Advantageously, a hand contour segmentation according to Suzuki and Abe ( Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 ) carried out. Subsequently, fingertips become the hand 6 and thus recognize individual fingers. This is preferably done as a function of the detected curvatures of the hand contour, as for example in Malik ( Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 ) has been described. Alternatively, a hand modeling, as by Liu and Lovell (Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of Digital Image Computing on Techniques and Applications, 2005 ) to detect both the hand and its fingertips and fingertips ( Lee, J. and Kunii, TL: Model-Based Analysis of Hand Posture, IEEE Computer Graphics and Applications, 1995, 77-86 ). Based on the fingertips thus determined, again closed contours are calculated, with their centers of gravity representing the position of the final fingertip. If several false fingertips were detected by over-segmentation, they are discarded based on geometric heuristics and the distance to the hand contour center of gravity. As a result, individual fingertips of the hand can be easily achieved 6 determine.

Sowohl die gesamte Hand 6 als auch deren Fingerspitzen können mit bekannten Trackingverfahren, wie sie beispielsweise von Do, Asfour und Dillmann ( Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 ) beschrieben wurden, verfolgt werden. Die Erkennung statischer Zeigegesten kann durch standartisierte Klassifikationsverfahren und unabhängig zu jedem Bild einer Sequenz erfolgen, wie von Lockton und Fitzgibbon ( Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 ) oder Nagi ( Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 ) beschrieben. Probabilistische Sequenzmodellierungsverfahren erlauben sowohl die Erkennung einfacher statischer ( Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 ) als auch komplexer dynamischer Handgesten ( Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 ), die nicht notwendigerweise eine bereits segmentierte Handkontur als Eingabe erwarten, sondern mittels erscheinungsbasierter Merkmale auf dem gesamten Bild arbeiten. Ähnliche Verfahren, die auch angewendet können, basieren auf einer Analyse des optischen Flusses ( Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 ).Both the entire hand 6 and their fingertips can with known tracking methods, as for example by Do, Asfour and Dillmann ( Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 ). The detection of static pointers can be done by standardized classification methods and independently to each image of a sequence, as described by Lockton and Fitzgibbon ( Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 ) or Nagi ( Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 ). Probabilistic sequence modeling techniques allow both the detection of simple static ( Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 ) as well as complex dynamic hand gestures ( Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. Speech Recognition Techniques for a Sign Language Recognition System, Interspeech, Antwerp, Belgium, 2007, 2513-2516 ), which do not necessarily expect an already segmented hand contour as an input, but work on the entire image using appearance-based features. Similar methods that can be used are based on an analysis of the optical flow ( Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 ).

Durch das beschriebene Verfahren und die Eingabevorrichtung 2 wird es dem Benutzer somit ermöglicht, auf einfache Art und Weise eine analoge Größe des Kraftfahrzeugs 1, wie beispielsweise die Lautstärke des Unterhaltungssystems 8, die Lichtintensität einer Beleuchtung und/oder die Geschwindigkeit eines Scheibenwischers, einzustellen beziehungsweise zu verändern. Welche analoge Größe verändert wird, kann dabei in Abhängigkeit von der Position der Hand 6 in dem Erfassungsbereich des Sensors entschieden werden und/oder in Abhängigkeit von einem aktuell angezeigten Kontextmenü der Anzeigeeinheit 4.By the described method and the input device 2 Thus, the user will be able to easily find an analogous size of the motor vehicle 1 such as the volume of the entertainment system 8th to adjust or change the light intensity of an illumination and / or the speed of a windshield wiper. Which analogous size is changed, depending on the position of the hand 6 are decided in the detection range of the sensor and / or depending on a currently displayed context menu of the display unit 4 ,

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 20120105613 A1 [0005] US 20120105613 A1 [0005]
  • EP 2441635 A1 [0005] EP 2441635 A1 [0005]

Zitierte Nicht-PatentliteraturCited non-patent literature

  • Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 [0031] Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 [0031]
  • Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 [0032] Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "Adaptive real-time skin detector based on Hue thresholding: A comparison of two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 [0032]
  • Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 [0033] Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 [0033]
  • Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033] Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033]
  • (Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 [0033] (Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of Digital Image Computing on Techniques and Applications, 2005. [0033]
  • Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 [0033] Lee, J. and Kunii, TL: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 [0033]
  • Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 [0034] Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 [0034]
  • Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 [0034] Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 [0034]
  • Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 [0034] Nagi, Jawad et al. "Max Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 [0034]
  • Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 [0034] Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 [0034]
  • Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 [0034] Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recognition System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 [0034]
  • Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 [0034] Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gestural Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998. [0034]

Claims (10)

Verfahren zum Betreiben einer Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), die mittels eines berührungsfrei arbeitenden Sensors (3) eine Position und/oder Positionsänderung mindestens eines Fingers (9, 10, 11, 12) einer Hand (6) eines Benutzers erfasst, wobei in Abhängigkeit von der Position und/oder Positionsänderung des Fingers (9, 10, 11, 12) auf eine Eingabe erkannt und diese ausgeführt wird, dadurch gekennzeichnet, dass in Abhängigkeit von einer erfassten Hin- und Herbewegung des Fingers (9, 10, 11, 12) eine analoge Größe durch die Eingabevorrichtung (2) verändert wird. Method for operating an input device ( 2 ), in particular a motor vehicle ( 1 ), which by means of a non-contact sensor ( 3 ) a position and / or position change of at least one finger ( 9 . 10 . 11 . 12 ) of a hand ( 6 ) of a user, depending on the position and / or position change of the finger ( 9 . 10 . 11 . 12 ) is recognized and executed on an input, characterized in that in dependence on a detected reciprocation of the finger ( 9 . 10 . 11 . 12 ) an analogous size through the input device ( 2 ) is changed. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bewegung des Fingers (9, 10, 11, 12) auf Umkehrpunkte, in welchen der Finger (9, 10, 11, 12) seine Bewegungsrichtung ändert, überwacht wird, um auf die Hin- und Herbewegung zu erkennen. Method according to claim 1, characterized in that the movement of the finger ( 9 . 10 . 11 . 12 ) to reversal points in which the finger ( 9 . 10 . 11 . 12 ) changes its direction of motion, is monitored to detect the float. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe bei Erfassen jedes Umkehrpunktes um einen vorgegebenen Wert verändert wird. Method according to one of the preceding claims, characterized in that the analogous quantity is changed by a predetermined value upon detection of each reversal point. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe in Abhängigkeit von dem die Hin- und Herbewegung durchführenden Finger (9, 10, 11, 12) vergrößert oder verkleinert wird. Method according to one of the preceding claims, characterized in that the analogous size is dependent on the finger (s) performing the reciprocating motion ( 9 . 10 . 11 . 12 ) is increased or decreased. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe in Abhängigkeit von einer Haltung der den Finger (9, 10, 11, 12) aufweisenden Hand (6) vergrößert oder verkleinert wird. Method according to one of the preceding claims, characterized in that the analogous size is dependent on an attitude of the finger ( 9 . 10 . 11 . 12 ) hand ( 6 ) is increased or decreased. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe in Abhängigkeit von einer Ausrichtung der Hand (6) vergrößert oder verkleinert wird. Method according to one of the preceding claims, characterized in that the analogous size is dependent on an orientation of the hand ( 6 ) is increased or decreased. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe in Abhängigkeit von einer Positionierung der Hand (6) in einem Erfassungsbereich (7) des Sensors (3) vergrößert oder verkleinert wird. Method according to one of the preceding claims, characterized in that the analogous size is dependent on a positioning of the hand ( 6 ) in a coverage area ( 7 ) of the sensor ( 3 ) is increased or decreased. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass auf eine Hin- und Herbewegung des Fingers (9, 10, 11, 12) zum Verändern der analoge Größe nur dann erkannt wird, wenn dieser Finger (9, 10, 11, 12) an einem Umkehrpunkt auf einen Daumen (13) derselben Hand (6) trifft. Method according to one of the preceding claims, characterized in that a reciprocation of the finger ( 9 . 10 . 11 . 12 ) is detected to change the analogue size only if that finger ( 9 . 10 . 11 . 12 ) at a turning point on a thumb ( 13 ) of the same hand ( 6 ) meets. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die analoge Größe in Abhängigkeit von einer Ausrichtung des Daumens (13) der Hand (6) vergrößert oder verkleinert wird. Method according to one of the preceding claims, characterized in that the analogous size is dependent on an orientation of the thumb ( 13 ) of the hand ( 6 ) is increased or decreased. Eingabevorrichtung (2), insbesondere für ein Kraftfahrzeug (1), mit einem berührungsfrei arbeitenden Sensor (3) zum Erfassen einer Position und/oder Positionsänderung von mindestens einem Finger (9, 10, 11, 12) einer Hand (6) eines Benutzers, wobei die Eingabevorrichtung (2) dazu ausgebildet ist, in Abhängigkeit von der Position und/oder Positionsänderung des mindestens einen Fingers (9, 10, 11, 12) eine Eingabe zu erkennen und auszuführen, dadurch gekennzeichnet, dass die Eingabevorrichtung (2) bei bestimmungsgemäßen Gebrauch das Verfahren nach einem oder mehreren der Ansprüche 1 bis 9 durchführt. Input device ( 2 ), in particular for a motor vehicle ( 1 ), with a non-contact sensor ( 3 ) for detecting a position and / or position change of at least one finger ( 9 . 10 . 11 . 12 ) of a hand ( 6 ) of a user, wherein the input device ( 2 ) is adapted, depending on the position and / or position change of the at least one finger ( 9 . 10 . 11 . 12 ) to recognize and execute an input, characterized in that the input device ( 2 ) performs the method according to one or more of claims 1 to 9 when used as intended.
DE102014224641.5A 2014-12-02 2014-12-02 Method for operating an input device, input device Pending DE102014224641A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102014224641.5A DE102014224641A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device
CN201510861510.2A CN105653023A (en) 2014-12-02 2015-12-01 Method for operating an input device, and input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014224641.5A DE102014224641A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device

Publications (1)

Publication Number Publication Date
DE102014224641A1 true DE102014224641A1 (en) 2016-06-02

Family

ID=55967903

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014224641.5A Pending DE102014224641A1 (en) 2014-12-02 2014-12-02 Method for operating an input device, input device

Country Status (2)

Country Link
CN (1) CN105653023A (en)
DE (1) DE102014224641A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110280441A1 (en) * 2010-05-17 2011-11-17 Hon Hai Precision Industry Co., Ltd. Projector and projection control method
EP2441635A1 (en) 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20130300662A1 (en) * 2012-05-09 2013-11-14 Hung-Ta LIU Control system with gesture-based input method
US20140201674A1 (en) * 2013-01-15 2014-07-17 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5228439B2 (en) * 2007-10-22 2013-07-03 三菱電機株式会社 Operation input device
EP2700528A3 (en) * 2008-03-19 2014-12-24 Denso Corporation Vehicular manipulation input apparatus
JP5412227B2 (en) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 Video display device and display control method thereof
US9292093B2 (en) * 2010-11-18 2016-03-22 Alpine Electronics, Inc. Interface method and apparatus for inputting information with air finger gesture
KR101189633B1 (en) * 2011-08-22 2012-10-10 성균관대학교산학협력단 A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions
JP2013205983A (en) * 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program
CN103914126A (en) * 2012-12-31 2014-07-09 腾讯科技(深圳)有限公司 Multimedia player control method and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110280441A1 (en) * 2010-05-17 2011-11-17 Hon Hai Precision Industry Co., Ltd. Projector and projection control method
EP2441635A1 (en) 2010-10-06 2012-04-18 Harman Becker Automotive Systems GmbH Vehicle User Interface System
US20120105613A1 (en) 2010-11-01 2012-05-03 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20130300662A1 (en) * 2012-05-09 2013-11-14 Hung-Ta LIU Control system with gesture-based input method
US20140201674A1 (en) * 2013-01-15 2014-07-17 Leap Motion, Inc. Dynamic user interactions for display control and identifying dominant gestures

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
(Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of the Digital Image Computing on Techniques and Applications, 2005
Cutler, R. und Turk, M.: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998
Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352
Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011
Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128
Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recogntion System", Interspeech, Antwerp, Belgium, 2007, 2513-2516
Lee, J. und Kunii, T. L.: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86
Lockton, R. und Fitzgibbon, A. W.: "Real-time gesture recognition using deterministic boosting", BMVC, 2002
Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003
Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347
Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following." CVGIP, 1985, 32-46
Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Substration", ICPR, 2004

Also Published As

Publication number Publication date
CN105653023A (en) 2016-06-08

Similar Documents

Publication Publication Date Title
EP3642696B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102008048325A1 (en) Operation input device
DE102015110495A1 (en) INFORMATION PROCESSING DEVICE WHICH DETECTS A PARTICULAR OBJECT IN A RECORDED IMAGE AND METHOD FOR CONTROLLING IT
DE102008016215A1 (en) Information device operating unit
DE112013004801T5 (en) Multimodal touch screen emulator
DE102014226553A1 (en) Method for operating an input device, input device, motor vehicle
WO2016120251A1 (en) Method for operating an input device, input device
EP3234736B1 (en) Method for operating an input device, input device, motor vehicle
DE102013000066A1 (en) Zooming and moving an image content of a display device
DE102014207637A1 (en) Gesture interaction with a driver information system of a vehicle
DE202015100273U1 (en) input device
DE102014224599A1 (en) Method for operating an input device, input device
DE102013000072A1 (en) Operator interface for a handwritten character input into a device
EP3642697B1 (en) Method and device for detecting a user input on the basis of a gesture
DE102014224632A1 (en) Method for operating an input device, input device
DE102014224641A1 (en) Method for operating an input device, input device
DE102017007120A1 (en) Remote control method
EP3097511A1 (en) Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method
DE102014224598A1 (en) Method and device for operating an input device
DE102014224618A1 (en) Method and device for operating an input device
DE102013211046A1 (en) Method and device for obtaining a control signal from an operating gesture
EP3025214A1 (en) Method for operating an input device, and input device
DE102015201722A1 (en) Method for operating an input device, input device
DE102018211908A1 (en) Method for capturing a digital image of an environment of a motor vehicle and motor vehicle with an image capturing device
DE102015211521A1 (en) Method for operating an input device, input device

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed