DE102014224618A1 - Method and device for operating an input device - Google Patents
Method and device for operating an input device Download PDFInfo
- Publication number
- DE102014224618A1 DE102014224618A1 DE102014224618.0A DE102014224618A DE102014224618A1 DE 102014224618 A1 DE102014224618 A1 DE 102014224618A1 DE 102014224618 A DE102014224618 A DE 102014224618A DE 102014224618 A1 DE102014224618 A1 DE 102014224618A1
- Authority
- DE
- Germany
- Prior art keywords
- input
- fingers
- hand
- detected
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008859 change Effects 0.000 claims abstract description 33
- 210000003811 finger Anatomy 0.000 claims description 81
- 210000003813 thumb Anatomy 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 18
- 230000007480 spreading Effects 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 12
- 210000005224 forefinger Anatomy 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- FKOQWAUFKGFWLH-UHFFFAOYSA-M 3,6-bis[2-(1-methylpyridin-1-ium-4-yl)ethenyl]-9h-carbazole;diiodide Chemical compound [I-].[I-].C1=C[N+](C)=CC=C1C=CC1=CC=C(NC=2C3=CC(C=CC=4C=C[N+](C)=CC=4)=CC=2)C3=C1 FKOQWAUFKGFWLH-UHFFFAOYSA-M 0.000 description 1
- 235000008375 Decussocarpus nagi Nutrition 0.000 description 1
- 244000309456 Decussocarpus nagi Species 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1464—3D-gesture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/146—Instrument input by gesture
- B60K2360/1468—Touch gesture
- B60K2360/1476—Handwriting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/21—Optical features of instruments using cameras
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung (2), insbesondere eines Kraftfahrzeugs (1), die einen Sensor (3) zum Erfassen der Position und/oder Positionsänderung mindestens eines Fingers (8, 9) einer Hand (6) eines Benutzers aufweist, wobei in Abhängigkeit von der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese ausgeführt wird. Dabei ist vorgesehen, dass in Abhängigkeit von einer vorgebbaren Position von zumindest zwei Fingern (8, 9) der Hand (6) zueinander auf eine Eingabe erkannt wird.The invention relates to a method for operating an input device (2), in particular a motor vehicle (1), which has a sensor (3) for detecting the position and / or position change of at least one finger (8, 9) of a hand (6) of a user in which, depending on the detected position and / or position change, an input is detected and executed. It is provided that, depending on a predeterminable position of at least two fingers (8, 9), the hand (6) is recognized relative to one another for input.
Description
Die Erfindung betrifft ein Verfahren zum Betreiben einer Eingabevorrichtung, insbesondere eines Kraftfahrzeugs, die einen berührungsfrei arbeitenden Sensor zum Erfassen der Position und/oder Positionsänderung mindestens eines Fingers einer Hand eines Benutzers aufweist, wobei in Abhängigkeit von der erfassten Position und/oder Positionsänderung des Fingers auf eine Eingabe erkannt und durchgeführt wird. The invention relates to a method for operating an input device, in particular a motor vehicle, having a non-contact sensor for detecting the position and / or position change of at least one finger of a user's hand, depending on the detected position and / or position change of the finger an input is detected and performed.
Ferner betrifft die Erfindung eine entsprechende Eingabevorrichtung. Furthermore, the invention relates to a corresponding input device.
Stand der TechnikState of the art
Bei heutigen Kraftfahrzeugen werden Bedienkonzepte eingesetzt, bei denen eine Eingabevorrichtung und eine Anzeigevorrichtung nah beieinander angeordnet sind. Üblicherweise werden hierzu sogenannte berührungsempfindliche Bildschirme und sogenannte Touchscreens vorgesehen, bei denen Bedienung und Anzeige an der gleichen Stelle erfolgen. Häufig werden Anzeigevorrichtungen im oberen Bereich einer Bedienkonsole oder eines Armaturenbretts des Kraftfahrzeugs angebracht, damit der Fahrer zum Ablesen seinen Blick nicht zu stark von dem Verkehrsgeschehen abwenden muss. In anderen Fahrzeugen befinden sich ein Touchpad, also ein berührungsempfindlicher Sensor, im Bereich der Armauflage des Fahrers, und die Anzeigevorrichtung an gewohnter Stelle im Bereich des Armaturenbretts. Eine visuelle Rückmeldung an den Fahrer bei der Bedienung des Sensors kann dabei in Form von einer angedeuteten durchsichtigen Hand, die durch die Anzeigevorrichtung dargestellt wird, erfolgen. Dadurch kann der Fahrer bequem die Eingabevorrichtung betätigen, während ihm die Anzeige weiterhin in einem vorteilhaften Blickwinkel präsentiert wird. In diesem Fall ist es auch denkbar, die Anzeigevorrichtung nicht als Bildschirm, sondern als Head-Up-Display auszubilden. Während klassische berührungsempfindliche Sensoren beziehungsweise Touchpads eine Berührung durch den Benutzer zu ihrer Bedienung benötigen, sind auch Eingabevorrichtungen bekannt, die berührungsfrei Eingaben erkennen beziehungsweise registrieren. Dabei werden beispielsweise mithilfe von Tiefensensoren die Positionen von Hand, Fingern und/oder Arm eines Benutzers im Raum erkannt und für eine Gestikbedienung ausgewertet. Für Fingergesten ist eine hohe Auflösung erforderlich, die mit Sensoren, wie beispielsweise Time-of-Flight-Sensoren, mit Stereokameras, strukturiertem Licht oder ähnlichem erreicht werden kann. Für Hand- oder Körpergesten können auch Sensoren mit einer geringeren Auflösung eingesetzt werden, wie beispielsweise Radarsensoren. Durch einen oder mehrere Sensoren wird also die Position oder Positionsänderung der Hand eines Benutzers erfasst, wobei in Abhängigkeit der erfassten Position und/oder Positionsänderung auf eine Eingabe erkannt und diese durchgeführt wird. Der Benutzer zeigt somit mit einer Bewegung seiner Hand beziehungsweise mit zumindest einem Finger seiner Hand der Eingabevorrichtung an, welche Eingabe er vornehmen möchte. Die Eingabevorrichtung erkennt anhand der Fingerbewegung die gewünschte Eingabe und führt diese aus, indem sie den durch die Bewegung vorgegebenen Befehl umsetzt und beispielsweise einen Betriebspararmeter des Kraftfahrzeugs verändert. So kann beispielsweise in Abhängigkeit von der Position und Positionsänderung eines Fingers des Benutzers auf die Eingabe „Lautstärke erhöhen“ erkannt und von der Eingabevorrichtung ausgeführt werden, indem sie die Lautstärke, beispielsweise eines Unterhaltungssystems des Kraftfahrzeugs, erhöht.In today's motor vehicles operating concepts are used in which an input device and a display device are arranged close to each other. Usually, so-called touch-sensitive screens and so-called touch screens are provided for this purpose, in which operation and display take place at the same location. Frequently display devices are mounted in the upper part of a control panel or dashboard of the motor vehicle, so that the driver does not have to turn his eyes too far away from the traffic to read. In other vehicles are a touchpad, so a touch-sensitive sensor, in the area of the armrest of the driver, and the display device at the usual place in the area of the dashboard. A visual feedback to the driver in the operation of the sensor can take place in the form of an indicated transparent hand, which is represented by the display device. Thereby, the driver can conveniently operate the input device while the display is still presented to him in an advantageous viewpoint. In this case, it is also conceivable not to design the display device as a screen, but as a head-up display. While classical touch-sensitive sensors or touchpads require a touch by the user to operate them, input devices are also known which recognize or register inputs without contact. With the aid of depth sensors, for example, the positions of a user's hand, fingers and / or arm are detected in the room and evaluated for gesture operation. Finger gestures require high resolution, which can be achieved with sensors such as time-of-flight sensors, stereo cameras, structured light, or the like. For hand or body gestures, sensors with a lower resolution can also be used, such as radar sensors. By one or more sensors, therefore, the position or position change of the hand of a user is detected, being detected in response to the detected position and / or position change to an input and this is performed. The user thus indicates with a movement of his hand or with at least one finger of his hand to the input device, which input he wants to make. The input device recognizes the desired input by means of the movement of the finger and executes it by converting the command given by the movement and, for example, changing an operating parameter of the motor vehicle. For example, depending on the position and position change of a user's finger, the "increase volume" input can be detected and executed by the input device by increasing the volume of, for example, an entertainment system of the motor vehicle.
Offenbarung der ErfindungDisclosure of the invention
Das erfindungsgemäße Verfahren mit den Merkmalen des Anspruchs 1 hat den Vorteil, dass auf die Eingabeoberfläche verzichtet werden kann, indem auf einfache Art und Weise der Eingabevorrichtung zu erkennen gegeben wird, ob eine durchgeführte Positionsänderung als Eingabe zu werten ist oder nicht. Erfindungsgemäß ist es vorgesehen, dass in Abhängigkeit von beziehungsweise bei Erfassen einer vorgebbaren Position von zumindest zwei Fingern der Hand zueinander auf eine Eingabe erkannt und diese ausgeführt wird. Es ist also vorgesehen, dass die gewünschte Eingabe des Benutzers in Abhängigkeit von der Ausrichtung beziehungsweise Position von zumindest zwei Fingern zueinander erkannt wird. Dabei kann diese vorgebbare Position sowohl als Bedingung für das Erfassen einer Positionsänderung oder auch für das Anzeigen des Endes einer Eingabe genutzt werden. So ist es denkbar, dass die vorgebbare Position nach Durchführen einer Eingabe erfasst und dadurch die zuvor durchgeführte Eingabe erkannt und durchgeführt wird, oder dass die vorgebbare Position während der Eingabe als Bedingung für das Erfassen der Eingabe erfasst wird. Dadurch, dass die Position von zumindest zwei Fingern zueinander überwacht wird, kann auf das Vorsehen einer Eingabeoberfläche verzichtet werden. Üblicherweise wird die Eingabe durch den Benutzer mit einem Finger vorgenommen, beispielsweise wenn er einen Buchstaben oder ein Wort zeichnet. Durch das Bewegen eines zweiten Fingers in die vorgebbare Position zu dem ersten Finger teilt der Benutzer dem System auf einfache Art und Weise mit, dass eine Eingabe nun begonnen oder beendet wird, unabhängig davon, wo sich der die Bewegung durchführende Finger im Raum befindet. The method according to the invention with the features of
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass bei Erfassen der vorgebbaren Position der zwei Finger zueinander das Erfassen einer Positionsänderung unterbrochen wird. Zeichnet der Benutzer beispielsweise mit einem ersten Finger einen Buchstaben in die Luft, so kann er durch das Hinzufügen des zweiten Fingers in der vorgebbaren Position zu dem ersten Finger mitteilen, dass die durchgeführte Positionsänderung des ersten Fingers nunmehr beendet ist, und die darauffolgende Bewegung nicht mehr zu der durchzuführenden Eingabe zuzurechnen ist. Durch das Vorsehen des zweiten Fingers in der vorgebbaren Position zum ersten Finger wird somit mitgeteilt, dass das Erfassen der Positionsänderung unterbrochen und daher das Folgende nicht für die Auswertung der Positionsänderung und das Erkennen einer Eingabe genutzt werden soll. According to an advantageous development of the invention, it is provided that upon detection of the predeterminable position of the two fingers, the detection of a change in position in relation to each other is interrupted. For example, if the user draws a letter in the air with a first finger, he can tell by adding the second finger in the predeterminable position to the first finger that the positional change of the first finger has now ended and the subsequent movement is no longer complete attributable to the input to be made. By providing the second finger in the predeterminable position to the first finger, it is thus communicated that the detection of the position change is interrupted and therefore the following should not be used for the evaluation of the position change and the recognition of an input.
Weiterhin ist bevorzugt vorgesehen, dass bei einer durch die Positionsänderung erfolgenden Buchstabeneingabe durch den Benutzer bei Erfassen der vorgebbaren Position der zwei Finger zueinander die Buchstabeneingabe als abgeschlossen erkannt wird. Bewegt der Benutzer also seinen ersten Finger, um einen Buchstaben zu zeichnen, kann er durch Hinzufügen des zweiten Fingers in die vorgebbare Position zu dem ersten Finger mitteilen, dass der Buchstabe zu Ende gezeichnet wurde. Entsprechend wird dann das Erfassen und Auswerten einer Position und/oder Positionsänderung unterbrochen. Dadurch lassen sich Buchstaben durch das System auf einfache Art und Weise sicher erfassen. Furthermore, it is preferably provided that the character input is detected as completed when the user enters the predefinable position of the two fingers when the user enters a position change due to the position change. Thus, when the user moves his first finger to draw a letter, he can tell by adding the second finger in the predeterminable position to the first finger that the letter has been completed. Accordingly, the detection and evaluation of a position and / or position change is interrupted. This allows letters to be safely captured by the system in a simple manner.
Weiterhin ist bevorzugt vorgesehen, dass bei einer durch die Positionsänderung erfolgenden Worteingabe bei Erfassen der vorgebbaren Position der zwei Finger zueinander ein Leerzeichen gesetzt wird. Selbstverständlich kann der Benutzer durch das Bewegen des ersten Fingers auch gleich ein ganzes Wort schreiben. Durch das Hinzufügen des zweiten Fingers in der vorgebbaren Position zu dem ersten Finger teilt er dem System mit, dass das Wort beendet und ein Leerzeichen gesetzt werden soll. Wird also in diesem Fall die vorgebbare Position oder Ausrichtung der Finger zueinander erfasst, wird auf das Setzen eines Leerzeichens als Eingabe erkannt und von der Eingabevorrichtung ausgeführt. Furthermore, it is preferably provided that a space is entered when the predeterminable position of the two fingers is detected when the position input is changed. Of course, the user can also write a whole word by moving the first finger. By adding the second finger in the predeterminable position to the first finger, it tells the system to quit the word and set a space. If, in this case, the specifiable position or orientation of the fingers relative to one another is detected, the setting of a space is recognized as an input and executed by the input device.
Besonders bevorzugt ist vorgesehen, dass nur für die Dauer der erfassten vorgebbaren Position die Unterbrechung der Erfassung der Positionsänderung erfolgt. Solange der Benutzer also die zwei Finger in der vorgebbaren Position hält, wird eine weitere Positionsänderung nicht für das Erkennen der Eingabe ausgewertet. Sobald der Benutzer den zweiten Finger wieder entfernt beziehungsweise in eine andere sich von der vorgebbaren Position unterscheidende Position verlagert, wird die Position beziehungsweise Bewegung/Positionsänderung des verbleibenden Fingers wieder erfasst, um eine Eingabe zu erkennen und durchzuführen. Particularly preferably, it is provided that the interruption of the detection of the position change takes place only for the duration of the detected predefinable position. So long as the user holds the two fingers in the predeterminable position, another position change is not evaluated for recognizing the input. As soon as the user removes the second finger or moves it to another position that differs from the predefinable position, the position or movement / change in position of the remaining finger is detected again in order to recognize and carry out an input.
Ferner ist bevorzugt vorgesehen, dass als vorgebbare Position der Finger zueinander das Aufspreizen einer virtuellen Ebene durch die zwei Finger vorgegeben wird. Wird also durch den berührungsfrei arbeitenden Sensor, der insbesondere als Kameraeinrichtung ausgebildet ist, erkannt, dass zwei Finger des Benutzers eine Ebene aufspannen, insbesondere weil sie einen Winkel zwischen sich einschließen, so wird erkannt, dass die Finger die vorgebbare Position erreicht haben. Furthermore, it is preferably provided that the spreading of a virtual plane through the two fingers is predetermined as a preselectable position of the fingers relative to each other. Thus, if it is detected by the non-contact sensor, which is designed in particular as a camera device, that two fingers of the user span a plane, in particular because they enclose an angle between them, then it is recognized that the fingers have reached the predefinable position.
Besonders bevorzugt wird auf die Position dann erkannt, wenn die zwei Finger einen Winkel von mehr als 30°, insbesondere mehr als 45°, vorzugsweise einen Winkel zwischen 80° und 100°, miteinander einschließen. Insbesondere bei einem Winkel von 45° oder mehr kann davon ausgegangen werden, dass die Stellung der Finger zueinander keine zufällige Stellung darstellt, sondern durch den Benutzer gewünscht herbeigeführt wurde. Somit kann sicher die dadurch gewünschte Eingabe, wie beispielsweise das Setzen eines Trennzeichens oder eines Leerzeichens erkannt und durchgeführt werden. Particularly preferably, the position is recognized when the two fingers enclose an angle of more than 30 °, in particular more than 45 °, preferably an angle between 80 ° and 100 °. In particular, at an angle of 45 ° or more can be assumed that the position of the fingers to each other is not a random position, but was brought about by the user desired. Thus, the input desired thereby, such as setting a separator or a space, can be surely recognized and performed.
Gemäß einer vorteilhaften Weiterbildung der Erfindung ist vorgesehen, dass die Eingabe nur dann erkannt wird, wenn es sich bei den erfassten Fingern um Daumen und Zeigefinger der Hand handelt. Ob es sich bei den Fingern um Daumen und Zeigefinger der Hand handelt, kann durch herkömmliche Verfahren der Konturerkennung ermittelt werden. Insbesondere lässt sich dies auch durch den von den Fingern eingeschlossenen Winkel bestimmen. Ein Winkel von 80° oder mehr könnte beispielsweise üblicherweise nicht durch Zeigefinger und Mittelfinger der Hand eines Benutzers erreicht werden, sodass bei Vorliegen eines derartigen Winkels auf Daumen und Zeigefinger geschlossen werden kann. According to an advantageous development of the invention, it is provided that the input is recognized only when the detected fingers are the thumb and forefinger of the hand. Whether the fingers are the thumb and forefinger of the hand can be determined by conventional contour recognition techniques. In particular, this can also be determined by the angle enclosed by the fingers. An angle of 80 ° or more, for example, could not usually be achieved by the forefinger and middle finger of a user's hand, so that when such an angle is present, the thumb and forefinger can be closed.
Gemäß einer weiteren vorteilhaften Ausführungsform des Verfahrens ist vorgesehen, dass nur bei Erfassen der vorgebbaren Position der zumindest zwei Finger zueinander in Abhängigkeit von einer erfassten Positionsänderung von wenigstens einem der zumindest zwei Finger die Eingabe erkannt und durchgeführt wird. In diesem Fall ist also vorgesehen, dass durch das Erfassen der vorgebbaren Position die dabei erfasste Positionsänderung als Eingabe erkannt und durchgeführt wird. In diesem Fall arbeitet das Verfahren also umgekehrt, sodass durch das Hinzufügen des Weiteren, insbesondere abgespreizten Fingers, insbesondere Daumens, dem System mitgeteilt wird, dass nun eine Eingabe erfolgt, und nicht, wie zuvor beschrieben, dass eine Eingabe nun unterbrochen wird. According to a further advantageous embodiment of the method, it is provided that only upon detection of the predefinable position the at least two fingers are recognized and executed in response to a detected change in position of at least one of the at least two fingers. In this case, it is thus provided that the detected position change detected and performed as input by detecting the predetermined position. In this case, the method thus works in reverse, so that by adding the further, in particular splayed finger, in particular thumb, the system is informed that now an input is made, and not, as described above, that an input is now interrupted.
Die erfindungsgemäße Eingabevorrichtung mit den Merkmalen des Anspruchs 10 führt zu den oben bereits genannten Vorteilen. Sie zeichnet sich dadurch aus, dass die Eingabevorrichtung bei bestimmungsgemäßem Gebrauch bei Erfassen einer vorgebbaren Position von zumindest zwei Fingern der Hand zueinander eine Eingabe erkennt und durchführt. Vorzugsweise weist die Eingabevorrichtung außerdem eine Anzeigeeinheit auf, die dem Benutzer die Position seines oder seiner Finger in einem Sensorfeld des berührungsfrei arbeitenden Sensors darstellt, sodass der Benutzer sich leichter orientieren kann. Das Sensorfeld kann dabei auch in zwei unterschiedliche Bereiche, insbesondere in ein Tastaturfeld und in ein Auswahlfeld aufgeteilt und entsprechend auch durch die Anzeigeeinheit dargestellt werden. The input device according to the invention with the features of
Im Folgenden soll die Erfindung anhand der Zeichnung näher erläutert werden. Dazu zeigen:In the following, the invention will be explained in more detail with reference to the drawing. To show:
Die Eingabevorrichtung
Da eine reale Eingabeoberfläche nicht vorhanden ist, muss es dem Benutzer auf andere Art und Weise ermöglich werden, eindeutige Eingaben durchzuführen. Moderne Systeme sind bereits dazu ausgebildet, Schriftzeichen, die durch den Benutzer gezeichnet werden, zu erkennen. Um dies auch vorliegend zu ermöglichen, wird das im Folgenden beschriebene Verfahren durchgeführt. Since a real input interface does not exist, the user must be otherwise enabled to make unique inputs. Modern systems are already designed to recognize characters that are drawn by the user. In order to make this possible in the present case, the method described below is carried out.
Das Verfahren adressiert ein Problem, das insbesondere bei einem Interaktionskonzept „Tippen im freien Raum“ auftritt. Da es keine Berührungserkennung gibt, lässt sich auch eine Schrifterkennung nicht ohne Weiteres umsetzen, weil das System zwar die Position der Fingerspitzen erkennen kann, jedoch nicht, ob der Finger im Sinne des Fahrers aufgesetzt ist, also schreibt, oder nicht aufgesetzt sein soll, im Sinne eines nicht abgesetzten Stiftes, da sich der Finger ja permanent in der Luft befindet. The method addresses a problem that occurs in particular in an interaction concept "typing in free space". Since there is no touch detection, even a handwriting recognition can not be readily implemented, because the system can recognize the position of the fingertips, but not whether the finger is placed in the driver's sense, so writes, or should not be placed in the Meaning of a non-detached pin, since the finger is indeed permanently in the air.
Dieses Problem wird durch das vorteilhafte Verfahren dadurch gelöst, dass neben dem schreibenden Finger ein weiterer Finger genutzt wird, um dem erkennenden System, also der Eingabevorrichtung
Zunächst erfolgt eine Hintergrundmodellierung zur Bestimmung des Hinter- und des Vordergrunds anhand des von dem Sensor
First, a background modeling for the determination of the background and the foreground on the basis of the
Anschließend wird eine Handkonturberechnung auf der Vordergrundmaske durchgeführt, und ein Handkonturschwerpunkt berechnet. Danach folgt eine Berechnung der Fingerspitzenkandidaten durch das sogenannte „k-Curvature“-Maß entlang der erfassten Kontur der Hand. Pixel, deren „k-Curvature“-Maß einen gewissen Schwellwert überschreiten, werden in einer binären Maske als entsprechender Kandidat markiert.Subsequently, a hand contour calculation is performed on the foreground mask, and a hand contour center of gravity is calculated. This is followed by a calculation of the fingertip candidates by the so-called "k-curvature" measure along the detected contour of the hand. Pixels whose "k-curvature" measures exceed a certain threshold are marked as corresponding candidates in a binary mask.
Auf der binären Fingerspitzenkandidaten-Maske werden erneut geschlossene Konturen berechnet (sogenannte Blobbs), wobei deren Schwerpunktzentren die Positionen aller Fingerspitzen repräsentieren. Falls mehrere falsche Fingerspitzen durch eine Übersegmentierung detektiert wurden, werden diese vorzugsweise anhand von geometrischen Heuristiken und des Abstands zum Handkonturschwerpunkt verworfen. The binary fingertip candidate mask is used to recalculate contiguous contours (so-called blobbs), whose centroid centers represent the positions of all fingertips. If several false fingertips were detected by an over-segmentation, they are preferably discarded based on geometric heuristics and the distance to the hand contour center of gravity.
Vorteilhafterweise werden die Fingerspitzen über die Zeit verfolgt und die erfassten Positionsänderungen werden abgespeichert. Advantageously, the fingertips are tracked over time and the detected position changes are stored.
Für die Definition des Trennzeichens sind unterschiedlichste Ausführungen denkbar. Dabei wird davon ausgegangen, dass das Trennzeichen oder eine Eingabe in Abhängigkeit von der Position von zumindest zwei Fingern zueinander erkannt wird. So kann einfach die Sichtbarkeit des Daumens der Hand als Trennzeichen verwendet werden. For the definition of the delimiter various designs are conceivable. It is assumed that the separator or an input is detected in dependence on the position of at least two fingers to each other. Thus, simply the visibility of the thumb of the hand can be used as a separator.
Alternativ wäre es denkbar, dass Daumen und Zeigefinger permanent sichtbar sind, wie in
Dabei kann vorgesehen sein, dass ein Trennzeichen dadurch gesetzt wird, dass der Benutzer nach Abschluss eines Buchstabens den Daumen kurz abspreizt oder anlegt. Sobald der Daumen anschließend wieder angelegt oder abgespreizt ist, erfolgt die Eingabe des nächsten Buchstabens. It can be provided that a delimiter is set by the fact that the user spreads his thumb shortly after completion of a letter or applies. As soon as the thumb is then created or spread again, the next letter is entered.
Im Folgenden soll die Erfassung und Auswertung der Positionsänderung der Hand
Alternativ oder zusätzlich zu der Hintergrundmodellierung ist vorgesehen, dass eine Vordergrundmodellierung nach Dadgostar und Sarrafzadeh (
Auf Basis der der durch die Vordergrund- und/oder Hintergrundmodellierung gewonnenen Daten wird eine Handkontur der Hand
Sowohl die gesamte Hand
Durch das Verfahren und die Eingabevorrichtung
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte Nicht-PatentliteraturCited non-patent literature
- Zivkovic, Zoran; „Improved Adaptive Gaussian Mixture Model for Background Substration“, ICPR, 2004 [0031] Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Subtraction", ICPR, 2004 [0031]
- Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: „An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods“ Pattern Recognition Letters, 2006, 1342–1352 [0032] Dadgostar, Farhad and Sarrafzadeh, Abdolhossein: "Adaptive real-time skin detector based on Hue thresholding: A comparison of two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 [0032]
- Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following.“ CVGIP, 1985, 32–46 [0033] Suzuki, S. and Abe, K .: Topological Structural Analysis of Digitized Binary Images by Border Following. "CVGIP, 1985, 32-46 [0033]
- Malik, Shahzad: „Real-time Hand Tracking and Finger Tracking for Interaction“, Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033] Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 [0033]
- Liu, Nianjun and Lovell, Brian C. „Hand Gesture Extraction by Active Shape Models“, Proceedings of the Digital Image Computing on Techniques and Applications, 2005 [0033] Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of Digital Image Computing on Techniques and Applications, 2005 [0033]
- Lee, J. und Kunii, T. L.: „Model-Based Analysis of Hand Posture“, IEEE Computer Graphics and Applications, 1995, 77–86 [0033] Lee, J. and Kunii, TL: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 [0033]
- Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: „Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features“ MVA, 2011 [0034] Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 [0034]
- Lockton, R. und Fitzgibbon, A. W.: „Real-time gesture recognition using deterministic boosting“, BMVC, 2002) oder Nagi (Nagi, Jawad et al. „Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition“ ICSIPA, 2011, 342–347 [0034] Lockton, R. and Fitzgibbon, AW: "Real-time gesture recognition using deterministic boosting", BMVC, 2002) or Nagi (Nagi, Jawad et al., "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA). 2011, 342-347 [0034]
- Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: „Gesture Recognition Using Image Comparision Methods“, International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124–128 [0034] Dreuw, Philippe; Keyser, Daniel; Deselaers, Thomas and Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 [0034]
- Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. „Speech Recognition Techniques for a Sign Language Recogntion System“, Interspeech, Antwerp, Belgium, 2007, 2513–2516 [0034] Dreuw, Philippe; Rybach, David; Deselaer, Thomas; Zahedi, Morteza and Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recognition System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 [0034]
- Cutler, R. und Turk, M.: „View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition“, IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 [0034] Cutler, R. and Turk, M .: "View-Based Interpretation on Real-Time Optical Flow for Gestural Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998. [0034]
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224618.0A DE102014224618A1 (en) | 2014-12-02 | 2014-12-02 | Method and device for operating an input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102014224618.0A DE102014224618A1 (en) | 2014-12-02 | 2014-12-02 | Method and device for operating an input device |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102014224618A1 true DE102014224618A1 (en) | 2016-06-02 |
Family
ID=55967821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014224618.0A Pending DE102014224618A1 (en) | 2014-12-02 | 2014-12-02 | Method and device for operating an input device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102014224618A1 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6515669B1 (en) * | 1998-10-23 | 2003-02-04 | Olympus Optical Co., Ltd. | Operation input device applied to three-dimensional input device |
DE102004038965A1 (en) * | 2003-08-11 | 2005-03-17 | Mitsubishi Fuso Truck And Bus Corp. | Automotive driver switch control system identifies driver hand signals using digital camera linked to control switches and visual display unit, e.g. for controlling air-conditioner or audio controls |
US20050151850A1 (en) * | 2004-01-14 | 2005-07-14 | Korea Institute Of Science And Technology | Interactive presentation system |
DE102007041482A1 (en) * | 2007-08-31 | 2009-03-05 | Rheinische Friedrich-Wilhelms Universität | Method for automatic recognition of at least the type and / or the position of a gesture formed with a limb, in particular a hand gesture |
DE102007045967A1 (en) * | 2007-09-25 | 2009-04-02 | Continental Automotive Gmbh | Method and device for contactless input of characters |
US20100103092A1 (en) * | 2008-10-23 | 2010-04-29 | Tatung University | Video-based handwritten character input apparatus and method thereof |
US20110243380A1 (en) * | 2010-04-01 | 2011-10-06 | Qualcomm Incorporated | Computing device interface |
US20120105613A1 (en) * | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
DE102013000072A1 (en) * | 2013-01-08 | 2014-07-10 | Audi Ag | Operator interface for a handwritten character input into a device |
DE102013207528A1 (en) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | A method for interacting with an object displayed on a data goggle |
-
2014
- 2014-12-02 DE DE102014224618.0A patent/DE102014224618A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6515669B1 (en) * | 1998-10-23 | 2003-02-04 | Olympus Optical Co., Ltd. | Operation input device applied to three-dimensional input device |
DE102004038965A1 (en) * | 2003-08-11 | 2005-03-17 | Mitsubishi Fuso Truck And Bus Corp. | Automotive driver switch control system identifies driver hand signals using digital camera linked to control switches and visual display unit, e.g. for controlling air-conditioner or audio controls |
US20050151850A1 (en) * | 2004-01-14 | 2005-07-14 | Korea Institute Of Science And Technology | Interactive presentation system |
DE102007041482A1 (en) * | 2007-08-31 | 2009-03-05 | Rheinische Friedrich-Wilhelms Universität | Method for automatic recognition of at least the type and / or the position of a gesture formed with a limb, in particular a hand gesture |
DE102007045967A1 (en) * | 2007-09-25 | 2009-04-02 | Continental Automotive Gmbh | Method and device for contactless input of characters |
US20100103092A1 (en) * | 2008-10-23 | 2010-04-29 | Tatung University | Video-based handwritten character input apparatus and method thereof |
US20110243380A1 (en) * | 2010-04-01 | 2011-10-06 | Qualcomm Incorporated | Computing device interface |
US20120105613A1 (en) * | 2010-11-01 | 2012-05-03 | Robert Bosch Gmbh | Robust video-based handwriting and gesture recognition for in-car applications |
DE102013000072A1 (en) * | 2013-01-08 | 2014-07-10 | Audi Ag | Operator interface for a handwritten character input into a device |
DE102013207528A1 (en) * | 2013-04-25 | 2014-10-30 | Bayerische Motoren Werke Aktiengesellschaft | A method for interacting with an object displayed on a data goggle |
Non-Patent Citations (11)
Title |
---|
Cutler, R. und Turk, M.: "View-Based Interpretation on Real-Time Optical Flow for Gesture Recognition", IEEE International Conference on Automatic Face and Gesture Recognition, Nara, Japan, 1998 |
Dadgostar, Farhad und Sarrafzadeh, Abdolhossein: "An adaptive real-time skin detector based on Hue thresholding: A comparison on two motion tracking methods" Pattern Recognition Letters, 2006, 1342-1352 |
Do, Martin; Asfour, Tamim; and Dillmann, Rüdiger: "Particle Filter-Based Fingertip Tracking with Circular Hough Transform Features" MVA, 2011 |
Dreuw, Philippe; Keysers, Daniel; Deselaers, Thomas und Ney, Hermann: "Gesture Recognition Using Image Comparision Methods", International Workshop on Gesture in Human-Computer Interaction and Simulation, 2005, 124-128 |
Dreuw, Philippe; Rybach, David; Deselaers, Thomas; Zahedi, Morteza und Ney, Hermann. "Speech Recognition Techniques for a Sign Language Recogntion System", Interspeech, Antwerp, Belgium, 2007, 2513-2516 |
Lee, J. und Kunii, T. L.: "Model-Based Analysis of Hand Posture", IEEE Computer Graphics and Applications, 1995, 77-86 |
Liu, Nianjun and Lovell, Brian C. "Hand Gesture Extraction by Active Shape Models", Proceedings of the Digital Image Computing on Techniques and Applications, 2005 |
Lockton, R. und Fitzgibbon, A. W.: "Real-time gesture recognition using deterministic boosting", BMVC, 2002) oder Nagi (Nagi, Jawad et al. "Max-Pooling Convolutional Neural Networks for Vision-based Hand Gesture Recognition" ICSIPA, 2011, 342-347 |
Malik, Shahzad: "Real-time Hand Tracking and Finger Tracking for Interaction", Toronto: CSC2503F Project Report, University of Toronto, 2003 |
Suzuki, S. und Abe, K.: Topological Structural Analysis of Digitized Binary Images by Border Following." CVGIP, 1985, 32-46 |
Zivkovic, Zoran; "Improved Adaptive Gaussian Mixture Model for Background Substration", ICPR, 2004 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010007455B4 (en) | System and method for contactless detection and recognition of gestures in a three-dimensional space | |
EP3642696B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
EP2909584B1 (en) | Motor vehicle having an input device for handwriting recognition | |
DE102015110495A1 (en) | INFORMATION PROCESSING DEVICE WHICH DETECTS A PARTICULAR OBJECT IN A RECORDED IMAGE AND METHOD FOR CONTROLLING IT | |
DE102014226553A1 (en) | Method for operating an input device, input device, motor vehicle | |
DE112013004801T5 (en) | Multimodal touch screen emulator | |
DE102013225744A1 (en) | SYSTEM AND METHOD FOR EFFECTIVE RANGE DETECTION OF A HANDGESTE | |
WO2016120251A1 (en) | Method for operating an input device, input device | |
EP3234736B1 (en) | Method for operating an input device, input device, motor vehicle | |
DE102013000066A1 (en) | Zooming and moving an image content of a display device | |
WO2015162058A1 (en) | Gesture interaction with a driver information system of a vehicle | |
EP3642697B1 (en) | Method and device for detecting a user input on the basis of a gesture | |
WO2014108150A2 (en) | User interface for handwritten character input in a device | |
DE202015100273U1 (en) | input device | |
DE102014224599A1 (en) | Method for operating an input device, input device | |
DE102014224632A1 (en) | Method for operating an input device, input device | |
DE102014224618A1 (en) | Method and device for operating an input device | |
EP3025214B1 (en) | Method for operating an input device, and input device | |
DE102018100335B4 (en) | Method and device for 3D gesture recognition | |
DE102014224598A1 (en) | Method and device for operating an input device | |
DE102013016490B4 (en) | Motor vehicle with contactless handwriting recognition | |
DE102014224641A1 (en) | Method for operating an input device, input device | |
DE102020122969B4 (en) | Method for detecting a movement of an input object in relation to a display device via optical features, recording device with computing unit, display device and motor vehicle | |
DE112019000857T5 (en) | Reference position setting method and apparatus for displaying a virtual image | |
DE102015211521A1 (en) | Method for operating an input device, input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed |