DE102014224641A1 - Method for operating an input device, input device - Google Patents
Method for operating an input device, input device Download PDFInfo
- Publication number
- DE102014224641A1 DE102014224641A1 DE102014224641.5A DE102014224641A DE102014224641A1 DE 102014224641 A1 DE102014224641 A1 DE 102014224641A1 DE 102014224641 A DE102014224641 A DE 102014224641A DE 102014224641 A1 DE102014224641 A1 DE 102014224641A1
- Authority
- DE
- Germany
- Prior art keywords
- finger
- hand
- input device
- size
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000008859 change Effects 0.000 claims abstract description 22
- 210000003811 finger Anatomy 0.000 claims description 74
- 210000003813 thumb Anatomy 0.000 claims description 18
- 238000001514 detection method Methods 0.000 claims description 15
- 230000003247 decreasing effect Effects 0.000 claims description 13
- 230000001419 dependent effect Effects 0.000 claims 5
- 239000013598 vector Substances 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000003068 static effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 235000008375 Decussocarpus nagi Nutrition 0.000 description 1
- 244000309456 Decussocarpus nagi Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), die mittels eines berührungsfrei arbeitenden Sensors (3) eine Position und/oder Positionsänderung mindestens eines Fingers (9, 10, 11, 12) einer Hand (6) eines Benutzers erfasst, wobei in Abhängigkeit von der Position und/oder Positionsänderung des Fingers (9, 10, 11, 12) auf eine Eingabe erkannt und diese ausgeführt wird. Dabei ist vorgesehen, dass in Abhängigkeit von einer erfassten Hin- und Herbewegung des Fingers (9, 10, 11, 12) eine analoge Größe durch die Eingabevorrichtung (2) verändert wird.The invention relates to a method for operating an input device (2), in particular a motor vehicle (1), by means of a non-contact sensor (3) a position and / or position change of at least one finger (9, 10, 11, 12) of a hand ( 6) of a user, whereby, depending on the position and / or position change of the finger (9, 10, 11, 12), an input is recognized and executed. It is provided that, depending on a detected reciprocating movement of the finger (9, 10, 11, 12) an analogous size is changed by the input device (2).
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen berührungsfrei arbeitenden Sensor zum Erfassen der Position und/oder Positionsänderung mindestens eines Fingers einer Hand eines Benutzers aufweist, wobei in Abhängigkeit von der erfassten Position und/oder Positionsänderung des Fingers auf eine Eingabe erkannt und diese ausgeführt wird. The invention relates to a method for operating an input device, in particular a motor vehicle, having a non-contact sensor for detecting the position and / or position change of at least one finger of a user's hand, depending on the detected position and / or position change of the finger an input is recognized and executed.
Ferner betrifft die Erfindung eine entsprechende Eingabevorrichtung. Furthermore, the invention relates to a corresponding input device.
Stand der TechnikState of the art
Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard. A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display.
Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit zumindest einem Finger seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebsparameter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers auf die Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, being detected in response to the detected position and / or position change to an input and this is executed. The user thus indicates with a movement of his hand or with at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input by means of the movement of the finger and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, the "increase volume" input can be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.
Aus der Offenlegungsschrift
Offenbarung der ErfindungDisclosure of the invention
Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 hat den Vorteil, dass der Benutzer durch eine in einem freien Raum ausgeführte Geste auf einfache Art und Weise eine Einstellung einer analogen Größe, wie beispielsweise die Lautstärke eines Radius des Kraftfahrzeugs oder die Helligkeit einer Instrumententafelbeleuchtung oder dergleichen, einstellen kann. Erfindungsgemäß ist hierzu vorgesehen, dass in Abhängigkeit von einer erfassten Hin- und Herbewegung des mindestens einen Fingers eine analoge Größe verändert wird. Mittels des Sensors wird also die Hand eines Benutzers darauf überwacht, ob zumindest ein Finger des Benutzers eine Hin- und Herbewegung durchführt. In Abhängigkeit von der durchgeführten Hin- und Herbewegung wird dann die analoge Größe verändert. Dabei ist insbesondere vorgesehen, dass in Abhängigkeit von der Frequenz der durchgeführten Hin- und Herbewegung die analoge Größe schneller oder langsamer verändert wird. The inventive method with the features of claim 1 has the advantage that the user by a executed in a free space gesture in a simple manner, an adjustment of an analog variable, such as the volume of a radius of the motor vehicle or the brightness of an instrument panel lighting or the like , can adjust. According to the invention, it is provided for this purpose that an analogous variable is changed as a function of a detected reciprocating movement of the at least one finger. By means of the sensor, therefore, the hand of a user is monitored for whether at least one finger of the user performs a reciprocating movement. Depending on the back and forth movement then the analog size is changed. In this case, provision is made in particular for the analogue variable to be changed more rapidly or more slowly as a function of the frequency of the reciprocating movement that is carried out.
Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die Bewegung des Fingers auf Umkehrpunkte, in welchen der Finger seine Bewegungsrichtung ändert, überwacht wird, um auf die Hin- und Herbewegung zu erkennen. Bei dem Erfassen der Bewegung des Fingers wird dieser also auf das Erreichen von Umkehrpunkten überwacht. Erst wenn ein Umkehrpunkt erkannt wurde, kann von einer Hin- und Herbewegung des Fingers ausgegangen werden. Zweckmäßigerweise werden alle Umkehrpunkte der Bewegung erfasst und gezählt, wobei insbesondere in Abhängigkeit von der Anzahl der erfassten Umkehrpunkte die analoge Größe verändert wird. According to a preferred embodiment of the invention it is provided that the movement of the finger is monitored for reversal points in which the finger changes its direction of movement in order to detect the reciprocating movement. When detecting the movement of the finger this becomes so monitored for the achievement of reversal points. Only when a reversal point has been detected can it be assumed that the finger is moving back and forth. Appropriately, all reversal points of the movement are detected and counted, in particular, depending on the number of detected reversal points, the analog variable is changed.
Dabei ist besonders bevorzugt vorgesehen, dass die analoge Größe bei Erfassen jedes Umkehrpunktes um einen vorgebbaren Wert verändert wird. Mit jedem Umkehrpunkt wird somit die analoge Größe ein Stück weiter verändert, sodass auf einfache Art und Weise in Abhängigkeit von der Frequenz die Hin- und Herbewegung, also in Abhängigkeit von der Anzahl der Umkehrpunkte innerhalb eines Zeitraums, die analoge Größe schneller oder langsamer verändert wird. In this case, it is particularly preferably provided that the analogous variable is changed by a predefinable value upon detecting each reversal point. Thus, with each reversal point, the analogue quantity is changed a little bit further, so that in a simple manner, depending on the frequency, the reciprocating motion, that is, depending on the number of reversal points within a time period, the analogous quantity is changed faster or slower ,
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die analoge Größe in Abhängigkeit von dem die Hin- und Herbewegung durchführenden Finger vergrößert oder verkleinert wird. Hierbei ist also vorgesehen, dass die Richtung, in welche die analoge Größe verändert wird, in Abhängigkeit des die Bewegung durchführenden Fingers bestimmt wird. Führt der Benutzer beispielsweise mit dem Zeigefinger die Bewegung durch, so wird die analoge Größe vergrößert. Führt er die Bewegung beziehungsweise Geste hingegen mit einem anderen Finger, beispielsweise mit dem Mittelfinger, durch, so wird die analoge Größe verkleinert. Mittels des berührungsfrei arbeitenden Sensors, für den insbesondere ein Kamerasensor oder Videosensor verwendet wird, kann auf Basis einer Bildauswertung nicht nur die Bewegung, sondern auch der die Bewegung durchführende Finger ermittelt werden. Gegebenenfalls können auch zwei Kamerasensoren vorgesehen sein, sodass die Hand des Benutzers von zwei unterschiedlichen Richtungen aus erfasst wird, sodass beispielsweise ein erster Kamerasensor die Hand von oben erfasst und ein zweiter die Hand von der Seite, wobei durch das Bild des ersten Sensors der Finger und auf Basis des Bildes des zweiten Sensors die Bewegung der Finger ermittelt wird. Durch eine Überlagerung der Daten kann dann auf einfache Art und Weise darauf geschlossen werden, welcher Finger welche Bewegung durchführt. Auf Basis einer Kantenermittlung lässt sich jedoch auch auf Basis nur eines Kamerabildes sowohl der Finger als auch die von dem Finger durchgeführte Bewegung erfassen und entsprechend auswerten. Hierbei ist insbesondere vorgesehen, dass die erfassten Bilddaten mit zuvor hinterlegten Handmodellen verglichen werden, um insbesondere die Finger voneinander zu unterscheiden. According to an advantageous embodiment of the invention, it is provided that the analogous size is increased or decreased as a function of the finger performing the reciprocating movement. In this case, it is thus provided that the direction in which the analog variable is changed is determined as a function of the finger performing the movement. For example, if the user makes the movement with his index finger, the analog size is increased. However, if he performs the movement or gesture with another finger, for example with the middle finger, the analogous size is reduced. By means of the non-contact sensor, for which in particular a camera sensor or video sensor is used, not only the movement but also the movement of the finger can be determined on the basis of an image evaluation. Optionally, two camera sensors can be provided so that the user's hand is detected from two different directions, such that, for example, a first camera sensor detects the hand from above and a second hand from the side, the finger and the image through the first sensor based on the image of the second sensor, the movement of the fingers is determined. By overlaying the data, it can then be concluded in a simple manner which finger performs which movement. Based on an edge determination, however, both the finger and the movement performed by the finger can be detected and evaluated on the basis of only one camera image. In this case, provision is made in particular for the captured image data to be compared with previously stored manual models in order in particular to distinguish the fingers from one another.
Gemäß einer bevorzugten Weiterbildung der Erfindung ist vorgesehen, dass die analoge Größe in Abhängigkeit von einer Haltung der den Finger aufweisenden Hand vergrößert oder verkleinert wird. So kann der Benutzer durch die unterschiedliche Haltung der Hand in dem Erfassungsbereich des Sensors vorgeben, ob die durchgeführte Hin- und Herbewegung des Fingers zu einer Vergrößerung oder Verkleinerung der analogen Größe führen soll. Vorzugsweise ist dabei vorgesehen, dass die analoge Größe in Abhängigkeit von einer Ausrichtung der Hand vergrößert oder verkleinert wird. Die Ausrichtung der Hand kann beispielsweise in Abhängigkeit davon bestimmt werden, in welche Richtung der die Hand aufweisende Arm des Benutzers in dem Erfassungsbereich des Sensors verläuft. Auch ist es denkbar, die Ausrichtung der Hand dadurch zu bestimmen, ob die im Erfassungsbereich liegende Hand in einer Draufsicht, in welcher die Finger der Hand nebeneinander liegen, oder in einer Seitenansicht, in welcher die Finger der Hand hintereinander liegen, erfasst wird. In Abhängigkeit davon, wie die Hand ausgerichtet ist, wird dann die Hin- und Herbewegung des Fingers als ein Wunsch zum Vergrößern oder Verkleinern der analogen Größe gewertet und eine entsprechende Veränderung der analogen Größe durch die Eingabevorrichtung ausgeführt.According to a preferred embodiment of the invention it is provided that the analogous size is increased or decreased in dependence on an attitude of the finger having the hand. Thus, the user can specify by the different attitude of the hand in the detection range of the sensor, whether the performed back and forth movement of the finger should lead to an increase or decrease in the analog size. Preferably, it is provided that the analogous size is increased or decreased in dependence on an orientation of the hand. For example, the orientation of the hand may be determined depending on which direction the user's hand-held arm is in the sensing area of the sensor. It is also conceivable to determine the orientation of the hand by detecting the hand lying in the detection area in a plan view, in which the fingers of the hand lie next to one another, or in a side view, in which the fingers of the hand lie one behind the other. Depending on how the hand is aligned, then the to-and-fro movement of the finger is considered to be a desire to increase or decrease the analog size and to make a corresponding change in analog size through the input device.
Zusätzlich oder alternativ ist bevorzugt vorgesehen, dass die analoge Größe in Abhängigkeit von einer Positionierung der Hand in dem Erfassungsbereich des Sensors vergrößert oder verkleinert wird. Je nachdem, an welcher Stelle im Erfassungsbereich des Sensors der Benutzer die Hand hält und die Hin- und Herbewegung durchführt, wird die analoge Größe vergrößert oder verkleinert. So ist beispielsweise vorgesehen, dass der Erfassungsbereich in zwei Hälften aufgeteilt wird, wobei die analoge Größe vergrößert wird, wenn die Bewegung in der einen Hälfte durchgeführt wird, und verkleinert, wenn die Bewegung in der anderen Hälfte durchgeführt beziehungsweise erfasst wird. Additionally or alternatively, it is preferably provided that the analog variable is increased or decreased in dependence on a positioning of the hand in the detection range of the sensor. Depending on where in the detection range of the sensor, the user holds the hand and performs the reciprocating motion, the analog size is increased or decreased. For example, it is provided that the detection area is divided into halves, the analog size being increased when the movement is performed in one half, and made smaller when the movement is performed in the other half.
Insbesondere ist vorgesehen, dass die analoge Größe in Abhängigkeit von einer Ausrichtung des Daumens der Hand vergrößert oder verkleinert wird. Dadurch kann der Benutzer auf einfache Art und Weise angeben, ob die analoge Größe vergrößert oder verkleinert werden soll. Die Ausrichtung der Hand kann dabei die gleiche bleiben. So kann beispielsweise ein Ausrichten des Daumens in der optischen Achse des Kamerasensors oder parallel dazu ein Verkleinern der analogen Größe vorgeben, und ein Ausrichten des Daumens senkrecht zur optischen Achse ein Vergrößern, oder andersherum. Auch kann ein Anlegen des Daumens an die Finger zu einem Vergrößern oder Verkleinern führen, während ein Abspreizen des Daumens zu einem Verkleinern oder Vergrößern der analogen Größe führt, wobei die Größe der Veränderung erfindungsgemäß von der Hin- und Herbewegung des Fingers abhängt. In particular, it is provided that the analogous size is increased or decreased in dependence on an orientation of the thumb of the hand. This allows the user to easily specify whether the analog size should be increased or decreased. The orientation of the hand can remain the same. For example, aligning the thumb in the optical axis of the camera sensor or parallel to it may dictate reducing the analog size, and aligning the thumb perpendicular to the optical axis may increase or vice versa. Also, applying the thumb to the fingers may result in an increase or decrease in size, while spreading the thumb results in a reduction or enlargement of the analogue size, the amount of change depending on the reciprocation of the finger according to the invention.
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist weiterhin vorgesehen, dass auf eine Hin- und Herbewegung des Fingers zum Verändern der analogen Größe nur dann erkannt wird, wenn der Finger an einem Umkehrpunkt auf einen Daumen derselben Hand trifft. Dadurch wird eine Unterscheidung zwischen einer absichtlich durchgeführten Geste und einer unbeabsichtigt durchgeführten Geste beziehungsweise Hin- und Herbewegung des Fingers erleichtert. Die Eingabevorrichtung wird gemäß dieser Ausführungsform nur dann die analoge Größe verändern, wenn bei der Hin- und Herbewegung der Finger auf den Daumen trifft, sodass an dem Daumen ein Umkehrpunkt entsteht. Darüber hinaus bietet dies den Vorteil, dass der Benutzer selbst ein haptisches Feedback bei der Bedienung der Eingabevorrichtung durch das Auftreffen des Fingers auf seinen eigenen Daumen erfährt. According to an advantageous embodiment of the invention is further provided that is recognized on a reciprocating motion of the finger to change the analog size only when the finger hits at a turning point on a thumb of the same hand. This makes it easier to distinguish between a deliberately performed gesture and an unintentionally performed gesture or reciprocation of the finger. According to this embodiment, the input device will only change the analogous size if, during the reciprocation, the finger strikes the thumb, so that a turning point arises on the thumb. Moreover, this offers the advantage that the user himself experiences a haptic feedback in the operation of the input device by the impact of the finger on his own thumb.
Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 zeichnet sich dadurch aus, dass sie bei bestimmungsgemäßen Gebrauch das erfindungsgemäße Verfahren durchführt. Hieraus ergeben sich die bereits genannten Vorteile. Weitere Merkmale und Vorteile ergeben sich aus dem zuvor Beschriebenen sowie aus den Ansprüchen. The input device according to the invention with the features of
Im Folgenden soll die Erfindung anhand der Zeichnung näher erläutert werden. Dazu zeigen:In the following, the invention will be explained in more detail with reference to the drawing. To show:
Die Eingabevorrichtung
Das im Folgenden beschriebene Verfahren ermöglicht es dem Benutzer durch einfache Fingerbewegungen eine analoge Größe des Kraftfahrzeugs, wie beispielsweise eine Lautstärke eines Unterhaltungssystems
Zum Ermitteln der Fingerbewegung und der Ausrichtung der Hand
Diese Positionsänderungen werden zunächst darauf ausgewertet, ob die Bewegung eines Fingers, beispielsweise des Fingers
Zur Erhöhung der Robustheit wird vorteilhafterweise geprüft, ob die Richtungsvektoren der zwei Punkte t – 1 – n bis t – 1 bis auf mögliche Ausreißer ungefähr dieselbe Richtung haben. Dieselbe Prüfung wird für die Richtungsvektoren der zwei Punkte von t bis t + n durchgeführt. Durch die Prüfung wird verhindert, dass ein einziger Ausreißer (falsch erkannte Fingerspitzenposition) dazu führt, dass ein Zeitpunkt fälschlicherweise als Umkehrpunkt erkannt wurde. Je größer n gewählt wird, desto robuster ist das Verfahren gegenüber der Ausreißer. Die Größe von n ist nach oben durch die Anzahl der zwischen zwei Umkehrpunkten aufgenommenen Bilder/Sampler beschränkt. Als zusätzliches Kriterium kann auch der Betrag der Vektoren herangezogen werden, welcher sich aufgrund der (negativen) Beschleunigung des jeweiligen Fingers beziehungsweise der Fingerspitze vor einem Umkehrpunkt verringert und danach wieder vergrößert. Voraussetzung für die Anwendung dieses Kriteriums ist ein zeitlich festes Sampling durch den Sensor
Liegt wenigstens ein Umkehrpunkt vor, so wird darauf erkannt, dass der Finger
Die Geschwindigkeit der Änderung der analogen Größe wird durch Zählung der Umkehrpunkte bestimmt. Insbesondere ist vorgesehen, dass die analoge Größe für jeden erkannten Umkehrpunkt um einen festen vorgegebenen Wert erhöht oder verringert wird. Die Änderung wird nach der Erkennung eines Umkehrpunkts so schnell wie möglich vorgenommen. Aufgrund der Robustheitsprüfung ist die Erkennung eines Umkehrpunktes erst n-Zeitpunkte nach dem Auftreten des Umkehrzeitpunkts abgeschlossen. The rate of change of analog magnitude is determined by counting the reversal points. In particular, it is provided that the analog quantity is increased or reduced for each detected reversal point by a fixed predetermined value. The change is made as soon as possible after a reversal point is detected. Due to the robustness test, the detection of a reversal point is completed only n times after the occurrence of the reversal point in time.
Bei jeder Veränderung der analogen Größe wird entsprechend ein Wert x auf die analoge Größe aufaddiert oder von dieser abgezogen. Das Vorzeichen von x entscheidet darüber, ob der analoge Wert bei der Ausführung der Geste vergrößert oder verkleinert wird. Das Vorzeichen wird insbesondere durch die Haltung oder Position der Hand
Alternativ kann vorgesehen sein, dass der Finger
Eine weitere Alternative besteht darin, das Vorzeichen über die Ausrichtung des Daumens
Vorteilhafterweise wird eine Hin- und Herbewegung nur dann als solche erkannt, wenn einer der Umkehrpunkte an dem Daumen
Im Folgenden soll beispielhaft die Erfassung und Auswertung der Position, der Positionsänderungen und/oder der Ausrichtung der Hand
Alternativ oder zusätzlich zu der Hintergrundmodellierung ist vorgesehen, dass eine Vordergrundmodellierung nach Dadgostar und Sarrafzadeh (
Auf Basis der der durch die Vordergrund- und/oder Hintergrundmodellierung gewonnenen Daten wird eine Handkontur der Hand
Sowohl die gesamte Hand
Durch das beschriebene Verfahren und die Eingabevorrichtung
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20120105613 A1 [0005] US 20120105613 A1 [0005]
- EP 2441635 A1 [0005] EP 2441635 A1 [0005]
Zitierte Nicht-PatentliteraturCited non-patent literature
- Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 [0031] Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 [0031]
- Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 [0032] Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "Adaptive real-time skin detector based on Hue thresholding: A comparison of two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 [0032]
- Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 [0033] Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 [0033]
- Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033] Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033]
- (Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 [0033] (Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of Digital Image Computing on Techniques and Applications, 2005. [0033]
- Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 [0033] Lee, J. and Kunii, TL: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 [0033]
- Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 [0034] Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 [0034]
- Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002 [0034] Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 [0034]
- Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 [0034] Nagi, Jawad et al. "Max Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 [0034]
- Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 [0034] Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 [0034]
- Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 [0034] Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recognition System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 [0034]
- Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 [0034] Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gestural Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998. [0034]
Claims (10)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224641.5A DE102014224641A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
CN201510861510.2A CN105653023A (en) | 2014-12-02 | 2015-12-01 | Method for operating an input device, and input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224641.5A DE102014224641A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014224641A1 true DE102014224641A1 (en) | 2016-06-02 |
Family
ID=55967903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014224641.5A Pending DE102014224641A1 (en) | 2014-12-02 | 2014-12-02 | Method for operating an input device, input device |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105653023A (en) |
DE (1) | DE102014224641A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110280441A1 (en) * | 2010-05-17 | 2011-11-17 | Hon Hai Precision Industry Co., Ltd. | Projector and projection control method |
EP2441635A1 (en) | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
US20120105613A1 (en) | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US20130300662A1 (en) * | 2012-05-09 | 2013-11-14 | Hung-Ta LIU | Control system with gesture-based input method |
US20140201674A1 (en) * | 2013-01-15 | 2014-07-17 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5228439B2 (en) * | 2007-10-22 | 2013-07-03 | 三菱電機株式会社 | Operation input device |
EP2700528A3 (en) * | 2008-03-19 | 2014-12-24 | Denso Corporation | Vehicular manipulation input apparatus |
JP5412227B2 (en) * | 2009-10-05 | 2014-02-12 | 日立コンシューマエレクトロニクス株式会社 | Video display device and display control method thereof |
US9292093B2 (en) * | 2010-11-18 | 2016-03-22 | Alpine Electronics, Inc. | Interface method and apparatus for inputting information with air finger gesture |
KR101189633B1 (en) * | 2011-08-22 | 2012-10-10 | 성균관대학교산학협력단 | A method for recognizing ponter control commands based on finger motions on the mobile device and a mobile device which controls ponter based on finger motions |
JP2013205983A (en) * | 2012-03-27 | 2013-10-07 | Sony Corp | Information input apparatus, information input method, and computer program |
CN103914126A (en) * | 2012-12-31 | 2014-07-09 | 腾讯科技(深圳)有限公司 | Multimedia player control method and device |
-
2014
- 2014-12-02 DE DE102014224641.5A patent/DE102014224641A1/en active Pending
-
2015
- 2015-12-01 CN CN201510861510.2A patent/CN105653023A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110280441A1 (en) * | 2010-05-17 | 2011-11-17 | Hon Hai Precision Industry Co., Ltd. | Projector and projection control method |
EP2441635A1 (en) | 2010-10-06 | 2012-04-18 | Harman Becker Automotive Systems GmbH | Vehicle User Interface System |
US20120105613A1 (en) | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
US20130300662A1 (en) * | 2012-05-09 | 2013-11-14 | Hung-Ta LIU | Control system with gesture-based input method |
US20140201674A1 (en) * | 2013-01-15 | 2014-07-17 | Leap Motion, Inc. | Dynamic user interactions for display control and identifying dominant gestures |
Non-Patent Citations (12)
Title |
---|
(Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of the Digital Image Computing on Techniques and Applications, 2005 |
Cutler, R. und Turk, M.: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 |
Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 |
Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 |
Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 |
Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recogntion System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 |
Lee, J. und Kunii, T. L.: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 |
Lockton, R. und Fitzgibbon, A. W.: "Real-time gesture recognition using deterministic boosting", BMVC, 2002 |
Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 |
Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 |
Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following." CVGIP, 1985, 32-46 |
Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Substration", ICPR, 2004 |
Also Published As
Publication number | Publication date |
---|---|
CN105653023A (en) | 2016-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3642696B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
DE102008048325A1 (en) | Operation input device | |
DE102015110495A1 (en) | INFORMATION PROCESSING DEVICE WHICH DETECTS A PARTICULAR OBJECT IN A RECORDED IMAGE AND METHOD FOR CONTROLLING IT | |
DE102008016215A1 (en) | Information device operating unit | |
DE112013004801T5 (en) | Multimodal touch screen emulator | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
WO2016120251A1 (en) | Method for operating an input device, input device | |
EP3234736B1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102013000066A1 (en) | Zooming and moving an image content of a display device | |
DE102014207637A1 (en) | Gesture interaction with a driver information system of a vehicle | |
DE202015100273U1 (en) | input device | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102013000072A1 (en) | Operator interface for a handwritten character input into a device | |
EP3642697B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
DE102014224632A1 (en) | Method for operating an input device, input device | |
DE102014224641A1 (en) | Method for operating an input device, input device | |
DE102017007120A1 (en) | Remote control method | |
EP3097511A1 (en) | Method for detecting a movement path of at least one moving object within a detection region, method for detecting gestures while using such a detection method, and device for carrying out such a detection method | |
DE102014224598A1 (en) | Method and device for operating an input device | |
DE102014224618A1 (en) | Method and device for operating an input device | |
DE102013211046A1 (en) | Method and device for obtaining a control signal from an operating gesture | |
EP3025214A1 (en) | Method for operating an input device, and input device | |
DE102015201722A1 (en) | Method for operating an input device, input device | |
DE102018211908A1 (en) | Method for capturing a digital image of an environment of a motor vehicle and motor vehicle with an image capturing device | |
DE102015211521A1 (en) | Method for operating an input device, input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |