WO2014108160A2 - User interface for the contactless selection of a device function - Google Patents

User interface for the contactless selection of a device function Download PDF

Info

Publication number
WO2014108160A2
WO2014108160A2 PCT/EP2013/003880 EP2013003880W WO2014108160A2 WO 2014108160 A2 WO2014108160 A2 WO 2014108160A2 EP 2013003880 W EP2013003880 W EP 2013003880W WO 2014108160 A2 WO2014108160 A2 WO 2014108160A2
Authority
WO
WIPO (PCT)
Prior art keywords
hand
movement
function
operator
motor vehicle
Prior art date
Application number
PCT/EP2013/003880
Other languages
German (de)
French (fr)
Other versions
WO2014108160A3 (en
Inventor
Michael SCHLITTENBAUER
Martin Roehder
Heiko Maiwand
Nathaniel COSER
Lorenz Bohrer
Alexander Sebastian Strauch
Original Assignee
Audi Ag
Volkswagen Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag, Volkswagen Ag filed Critical Audi Ag
Publication of WO2014108160A2 publication Critical patent/WO2014108160A2/en
Publication of WO2014108160A3 publication Critical patent/WO2014108160A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • B60K35/10
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • B60K2360/146
    • B60K2360/21

Definitions

  • the invention relates to a method for operating a control point of a device.
  • a position of a hand of a person is determined without contact and a function of the device is selected and activated as a function of a movement of the hand.
  • the invention also includes a motor vehicle with an operating interface for activating at least one function of the motor vehicle.
  • the invention includes a computer program product by means of which it is possible to carry out the method according to the invention with a mobile terminal, that is, for example, a smartphone or a tablet PC, and a corresponding mobile terminal.
  • Gesture recognition devices have the advantage that an operation of a device without buttons is possible. Keys are locally defined and usually must be located by an operator prior to operation. In particular, in connection with the operation of a motor vehicle while driving this is dangerous for a driver, because he is distracted from the traffic. Gesture recognition reduces attention loss by eliminating the need to search for a switch. The disadvantage of a gesture recognition, however, is that the operator has to remember the different gestures. Another drawback is that it can be difficult to ensure robust gesture recognition in varying light conditions.
  • the invention is based on the object to provide a user interface for a device, with which an operator can operate the device with little attention.
  • the method according to the invention is based on the approach described at the beginning, by means of an optical sensor device of an operator interface, to contactlessly determine a position of a hand of an operator and to select and activate a function of the device as a function of a movement of the hand.
  • an optical sensor device of an operator interface to contactlessly determine a position of a hand of an operator and to select and activate a function of the device as a function of a movement of the hand.
  • the optical sensor device works by the inventive method, so to speak, similar to a light barrier. This is achieved as follows.
  • the sensor device first detects whether the operator grasps his hand into a predefined spatial area. After detecting the hand in the room area then a function selection is activated. In this function selection, a wiping movement of the hand is detected to an edge of the room area. The wiping movement defines a direction of movement. This is determined by the sensor device accordingly. Depending on the direction of movement, a specific function associated with the direction of movement is then selected. This can then be activated either immediately or automatically after confirmation by the operator.
  • pivoting the hand to the left may trigger a first function, eg accepting a telephone call, and pivoting the hand to the right a second function, eg refusing the telephone call.
  • a current position of the hand in the spatial area can be defined as the starting position, and then a wiping movement of the hand starting from the starting position to an edge of the spatial area can be detected. Due to the starting position and the wiping movement emanating from this then the direction of movement is particularly clearly defined.
  • the method according to the invention has the advantage that the operator, without loss of attention, makes a binary selection with a single wiping motion (activate function or not). Another advantage is that the operation of the device is accelerated, if otherwise the function would otherwise first have to be selected from an operating menu of the device in order to then activate it.
  • the actual detection of the position of the hand and its movement can be carried out in a known manner. Thus, a system used for this purpose does not need to be structurally adapted in a particular way.
  • a further advantage results when, when activating the function selection via a display device of the operator interface of the operator is displayed, by which movement, ie which direction of movement, which function can be selected.
  • movement ie which direction of movement, which function can be selected.
  • at least one possible direction of movement and in each case one of the possible directions of movement assigned, selectable function is displayed.
  • the user interface is then without prior knowledge and thus very intuitive to use.
  • a user input regarding a specific function is received by the user interface and, depending on the user input, an assignment of the function to a possible direction of movement is determined.
  • Such an assignment thus represents an abbreviation (short cut) for The function selection is also possible. It is also possible for several functions in different directions of movement.
  • a further advantage results if the ZuOrd Vietnamesesvorschrift by which at least one function is assigned to a possible direction of movement, is determined depending on a current operating state of the device. Other functions are then offered when a telephone is currently active than when music is playing. To make this possible, several prepared ZuOrd Vietnamesesvorschriften are provided, for example, one for the telephony and one for music playback, and one of a change of the operating state, one of them as the current valid ZuOrd Vietnamesesvorschrift selected. Thus, a context-dependent user interface is realized in an advantageous manner.
  • an operator may be allowed to hand-grip into the space area and then determine whether to answer the telephone call (for example, pivoting the hand) to the left in the room area) or to reject the call (swiveling the hand to the right in the room area). If, on the other hand, the phone does not ring, but if, for example, music is being played back from a music file, it can be provided by a corresponding other assignment specification that the hand swiveling to the left is a previously played song and the hand is swiveling to the right to play one in the Playlist triggers subsequent song.
  • the sensor device additionally detects a respective finger position of at least one finger of the hand after the hand is detected within the spatial area and the function selection is activated only if the at least one finger has a respective predetermined finger position.
  • the operator interface responds only when the operator forms a predetermined character with his hand within the space area. This avoids accidental selection of functions.
  • the orientation of the rotation of the entire hand can also be checked to see whether it is inclined in a predetermined manner.
  • the recognition of the finger position and the inclination of the hand can be realized on the basis of a skeleton or hand model adapted to a shape of the hand recognizable in the image data. If the model conforms to the shape of the imaged hand, then a digital representation of the finger position and the position of the hand is available with the parameters of the model.
  • the invention also includes a motor vehicle.
  • the motor vehicle according to the invention has an operating interface for activating at least one function of the motor vehicle, wherein the operating interface identifies an optical sensor device and is designed to carry out an embodiment of the method according to the invention.
  • the operating interface is part of an infotainment system of the motor vehicle.
  • the motor vehicle according to the invention has the advantage that it is also possible for a driver to select and activate the functions of the motor vehicle during a journey without requiring a great deal of attention from the driver.
  • the sensor device has a TOF camera for observing the hand. Variable light conditions then have no particularly disturbing influence on the motion detection.
  • the use of a simple infrared camera can lead to an error detection when warm sunlight is received.
  • the TOF camera uses a light beam modulated in the light intensity (eg visible light or infrared light), so that foreign light sources can be reliably distinguished from the light source of the TOF camera.
  • the invention further includes a computer program product, ie a program stored on at least one storage medium. This is designed, when executed by a processor device of a mobile terminal, for example, a smartphone, a tablet PC, a personal digital assistant (PDA) or a notebook, on the basis of camera data of a camera of the mobile terminal, an embodiment of the method according to the invention perform.
  • the computer program product according to the invention thus has the advantage that the mobile terminal can be operated by simple wiping movements of one hand, if they are performed in a detection range of the camera of the mobile terminal.
  • the computer program product is preferably provided in a form known from the prior art in connection with so-called “apps” (applications - application programs) for mobile terminals.
  • the invention also encompasses a mobile terminal in which an embodiment of the computer program product according to the invention is provided.
  • the mobile terminal according to the invention may in particular be a smartphone, a tablet PC, a notebook or a personal digital assistant.
  • FIG. 1 shows a block diagram of an operating interface which may be installed in an embodiment of the motor vehicle according to the invention
  • FIG. 2 shows a sketch of an operating procedure as it is made possible for an operator on the basis of an embodiment of the method according to the invention.
  • a motor vehicle such as a passenger car
  • the optical sensor device 10 forms an operating
  • the playback device 12 can be, for example, an infotainment system, an audio system, a navigation system, a television system, a telephone system, a combination instrument or a head-up display.
  • the sensor device 10 comprises a measuring device 14 and a calculation unit 16.
  • the measuring device 14 comprises an optical sensor 18, which may be, for example, a TOF camera or PMD camera.
  • the optical sensor 18 may also be, for example, a stereo camera. In the example shown in FIG. 1, it has been assumed that the optical sensor 18 is a PMD camera.
  • the optical sensor 18 may be arranged, for example, in a headliner of the motor vehicle.
  • the optical sensor 8 can be configured in a manner known per se, ie a light source 20 for electromagnetic radiation, for example an infrared light, illuminates a detection area 22, for example a space above a center console of the motor vehicle. If there is an object in it, for example a hand 24 of the driver of the motor vehicle, then the radiation emitted by the light source 20 is reflected back by the hand 24 to a sensor array 26. By means of the sensor array 26 then 3D image data can be generated, which indicate 3D coordinates to individual surface elements of the hand 24. The 3D image data are transmitted from the measuring device 14 to the calculation unit 16.
  • the calculation unit 16 may be, for example, a control unit of the motor vehicle.
  • the signals are evaluated and then the evaluated data are made available to the vehicle, for example, by being transmitted to the reproduction device 12.
  • limbs such as, for example, the hand 24
  • limbs can be segmented from the 3D image data, whereby, for example, the position of a fingertip in the detection area 22 can be determined.
  • known per se segmentation algorithms can be used.
  • the 3D image data of the sensor array 26 of the optical sensor 18 can also represent a sequence of successive 3D images, ie movements of the hand 24 can also be detected with the optical sensor 18.
  • FIG. 2 shows how an embodiment of the method according to the invention can be implemented with the optical sensor device shown in FIG.
  • the optical sensor 26 is directed to an interior of the motor vehicle, so that in a detection area 28 of the optical sensor 26 therein objects are detected and to individual surface areas of the objects 3D image data, so for example coordinates, to their position in space by the measuring device 14th be generated and transferred to the calculation unit.
  • the detection area 28 may, for example, include a space area above a center console of the motor vehicle.
  • the calculation unit 26 recognizes from the 3D image data of the optical sensor 26 that it is a moving object in the shape of a hand and follows a movement trajectory of the hand 24 in the detection area 28.
  • the calculation unit 16 checks whether the hand is in a predetermined space area 30 is located.
  • the space region 30 may be, for example, a cuboid volume region, the edges of which may each independently have dimensions which are, for example, in a range from 20 cm to 50 cm.
  • a selection mode for a function selection is activated. It is thereby possible for the operator to select a function of the vehicle by means of a pivoting movement of the hand 24 in possible directions of movement 32, 34 (here, for example, either to the right or to the left), for example accepting a telephone call or changing a radio station, and this function then activate.
  • the function selection is activated, the calculation unit generates on a screen 36 a display 38 by means of which selectable functions 40, 42 are displayed.
  • the functions are represented in FIG. 2 by symbolic function names (F1, F2).
  • an image of a slide switch 44 is displayed, which intuitively suggests to the operator that from her now a movement with the hand 24 in one of the possible Movement directions 32, 34 is expected to select one of the functions 40, 42.
  • the selection is possible for the operator by a simple swipe with the hand 24 after the function selection has been activated.
  • the detection of the wiping movement is performed by the computing unit 16 based on the 3D image data of the optical sensor 26.
  • the current position of the hand 24 after activating the function selection is set as the starting position PO.
  • the computing unit 16 observes a change in the coordinates of a reference point on the hand 24, e.g. that reference point whose position has defined the starting position PO. As soon as the reference point has a distance to the starting position PO which is greater than a predetermined threshold, this is interpreted as a selection operation by the operator, i. H.
  • the direction of movement described by the starting point PO and the current position of the hand 24 is compared with one of the possible directions of movement 32, 34. If it is detected by the calculation unit that the hand 24 has been moved in one of the possible directions of movement 32, 34, then the corresponding function 40, 42 is selected and the selection of the display device 12 is signaled. As a result, the selected function can then be activated in the playback device 12.
  • the example shows how a clear and intuitive selection of functions can be made possible, which can be performed after a short learning period for a passenger by heart and without distraction from the traffic.
  • the operator can thus with a loss of attention with a single operating gesture make a selection, in particular a binary selection.
  • the operation can also be accelerated.

Abstract

The invention relates to a method for operating a user interface (10) of a device, in particular of a motor vehicle, in which an optical sensor device (26) observes, in a contact-free manner, a hand (24) of a user and in accordance with the direction of movement (32, 34) of the hand (24), a function (40, 42) of the device (12) is selected and is activated. The aim of the invention is to provide a user interface for a device with which the user can control the device even with paying minimum attention. Said sensor device (10) can detect whether the user introduces the hand (24) into a predefined spatial region (30), and after detecting the hand (24) in the spatial region (30) activates a function selection. A sliding movement of the hand (24) in the direction of the edge of the spatial area (30) is detected and a direction of movement (32, 34) defined by the sliding movement is determined. Finally, a function (40, 42) associated with the direction of movement (32, 34) is selected.

Description

Bedienschnittstelle zum berührungslosen Auswählen einer Gerätefunktion  Operator interface for contactless selection of a device function
BESCHREIBUNG: Die Erfindung betrifft ein Verfahren zum Betreiben einer Bedienstelle eines Geräts. Durch eine optische Sensoreinrichtung der Bedienschnittstelle wird berührungslos eine Position einer Hand einer Person ermittelt und in Abhängigkeit von einer Bewegung der Hand eine Funktion des Geräts ausgewählt und aktiviert. Zu der Erfindung gehört auch eine Kraftfahrzeug mit einer Be- dienschnittstelle zum Aktivieren von zumindest einer Funktion des Kraftfahrzeugs. Des Weiteren gehören zu der Erfindung ein Computerprogrammprodukt, mittels welchem es ermöglicht wird, das erfindungsgemäße Verfahren mit einem mobilen Endgerät, also beispielsweise einem Smartphone oder einem Tablet-PC, durchzuführen, sowie ein entsprechendes mobiles Endge- rät. DESCRIPTION: The invention relates to a method for operating a control point of a device. By means of an optical sensor device of the user interface, a position of a hand of a person is determined without contact and a function of the device is selected and activated as a function of a movement of the hand. The invention also includes a motor vehicle with an operating interface for activating at least one function of the motor vehicle. Furthermore, the invention includes a computer program product by means of which it is possible to carry out the method according to the invention with a mobile terminal, that is, for example, a smartphone or a tablet PC, and a corresponding mobile terminal.
Die berührungslose Beobachtung einer Hand einer Bedienperson und das von der Bewegung der Hand abhängige Steuern eines Geräts sind aus der US 2011/0286676 A1 im Zusammenhang mit einer Gestenerkennung be- kannt. Das in dieser Druckschrift beschriebene System erzeugt mittels einer TOF-Kamera (TOF - Time of Flight) 3D-Bilddaten zu einem Körperteil einer in einem Kraftfahrzeug befindlichen Person und führt anhand der 3D- Bilddaten die Gestenerkennung durch. Es wird zwischen dynamischen und statischen Gesten unterschieden. Wird eine Geste durch das System er- kannt, so wird eine dieser Geste zugeordnete Funktion in dem Kraftfahrzeug aktiviert. The non-contact observation of a hand of an operator and the movement of the hand-dependent control of a device are known from US 2011/0286676 A1 in connection with a gesture recognition. The system described in this document generates 3D image data about a body part of a person in a motor vehicle by means of a TOF camera (TOF - Time of Flight) and performs gesture recognition on the basis of the 3D image data. A distinction is made between dynamic and static gestures. When a gesture is detected by the system, a function associated with that gesture is activated in the motor vehicle.
Gestenerkennungseinrichtungen weisen den Vorteil auf, dass eine Bedienung eines Geräts ohne Tasten möglich ist. Tasten sind örtlich definiert und müssen meist von einer Bedienperson vor der Betätigung geortet werden. Insbesondere im Zusammenhang mit der Bedienung eines Kraftfahrzeugs während der Fahrt ist dies für einen Fahrer gefährlich, weil er hierbei vom Verkehrsgeschehen abgelenkt ist. Eine Gestenerkennung verringert den Aufmerksamkeitsverlust, da sie das Suchen eines Schalters erübrigt. Nachteil einer Gestenerkennung ist aber, dass die Bedienperson sich die unterschiedlichen Gesten merken muss. Ein weiterer Nachteil ist, dass es schwierig sein kann, eine robuste Gestenerkennung in veränderlichen Lichtverhältnissen sicherzustellen. Gesture recognition devices have the advantage that an operation of a device without buttons is possible. Keys are locally defined and usually must be located by an operator prior to operation. In particular, in connection with the operation of a motor vehicle while driving this is dangerous for a driver, because he is distracted from the traffic. Gesture recognition reduces attention loss by eliminating the need to search for a switch. The disadvantage of a gesture recognition, however, is that the operator has to remember the different gestures. Another drawback is that it can be difficult to ensure robust gesture recognition in varying light conditions.
Der Erfindung liegt die Aufgabe zu Grunde, eine Bedienschnittstelle für ein Gerät bereitzustellen, mit welcher eine Bedienperson das Gerät auch mit geringer Aufmerksamkeit bedienen kann. The invention is based on the object to provide a user interface for a device, with which an operator can operate the device with little attention.
Die Aufgabe wird durch ein Verfahren gemäß Patentanspruch 1 , ein Kraftfahrzeug gemäß Patentanspruch 7, ein Computerprogrammprodukt gemäß Patentanspruch 9 sowie ein mobiles Endgerät gemäß Patentanspruch 10 gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die Unteran- sprüche gegeben. The object is achieved by a method according to claim 1, a motor vehicle according to claim 7, a computer program product according to claim 9 and a mobile terminal according to claim 10. Advantageous developments of the invention are given by the subclaims.
Das erfindungsgemäße Verfahren basiert auf dem Eingangs beschriebenen Ansatz, mittels einer optischen Sensoreinrichtung einer Bedienschnittstelle berührungslos eine Position einer Hand einer Bedienperson zu ermitteln und in Abhängigkeit von einer Bewegung der Hand eine Funktion des Gerät auszuwählen und zu aktivieren. Anders als bei einer aufwändigen Gestenerkennungseinrichtung genügt es bei dem erfindungsgemäßen Verfahren aber, dass eine Bedienperson ihre Hand durch einen vorbestimmten Raumbereich z.B. nach links oder rechts hin hindurchschwenkt, um eine be- stimmte Funktion auszuwählen. The method according to the invention is based on the approach described at the beginning, by means of an optical sensor device of an operator interface, to contactlessly determine a position of a hand of an operator and to select and activate a function of the device as a function of a movement of the hand. Unlike an elaborate gesture recognition device, however, in the method according to the invention it is sufficient for an operator to move his hand through a predetermined spatial area, e.g. swings left or right to select a specific function.
Die optische Sensoreinrichtung funktioniert durch das erfindungsgemäße Verfahren sozusagen ähnlich wie eine Lichtschranke. Dies wird folgendermaßen erreicht. Durch die Sensoreinrichtung wird zunächst detektiert, ob die Bedienperson mit ihrer Hand in einen vordefinierten Raumbereich hineinfasst. Nach detektieren der Hand in dem Raumbereich wird dann eine Funktionsauswahl aktiviert. Bei dieser Funktionsauswahl wird eine Wischbewegung der Hand zu einem Rand des Raumbereichs hin erkannt. Durch die Wischbewegung ist eine Bewegungsrichtung definiert. Diese wird durch die Sensoreinrichtung entsprechend ermittelt. In Abhängigkeit von der Bewegungsrichtung wird dann eine bestimmte, der Bewegungsrichtung zugeordnete Funktion ausgewählt. Diese kann dann entweder sofort automatisch oder nach einer Bestätigung durch die Bedienperson aktiviert werden. So kann ein Schwenken der Hand nach links z.B. eine erste Funktion auslösen, z.B. das Annehmen eines Telfonanrufs, und ein Schwenken der Hand nach rechts eine zweite Funktion, z.B. das Ablehnen des Telefonanrufs. Für eine genauere Ermittlung der Bewegungsrichtung kann eine aktuelle Position der Hand in dem Raumbereich als Ausgangsposition festgelegt werden und da- nach eine von der Ausgangsposition ausgehend Wischbewegung der Hand zu einem Rand des Raumbereichs hin erkannt werden. Durch die Ausgangsposition und die von dieser ausgehenden Wischbewegung ist dann die Bewegungsrichtung besonders klar definiert. The optical sensor device works by the inventive method, so to speak, similar to a light barrier. This is achieved as follows. The sensor device first detects whether the operator grasps his hand into a predefined spatial area. After detecting the hand in the room area then a function selection is activated. In this function selection, a wiping movement of the hand is detected to an edge of the room area. The wiping movement defines a direction of movement. This is determined by the sensor device accordingly. Depending on the direction of movement, a specific function associated with the direction of movement is then selected. This can then be activated either immediately or automatically after confirmation by the operator. For example, pivoting the hand to the left may trigger a first function, eg accepting a telephone call, and pivoting the hand to the right a second function, eg refusing the telephone call. For a more accurate determination of the direction of movement, a current position of the hand in the spatial area can be defined as the starting position, and then a wiping movement of the hand starting from the starting position to an edge of the spatial area can be detected. Due to the starting position and the wiping movement emanating from this then the direction of movement is particularly clearly defined.
Das erfindungsgemäße Verfahren weist den Vorteil auf, dass die Bedienperson ohne Aufmerksamkeitsverlust mit einer einzelnen Wischbewegung eine binäre Auswahl trifft (Funktion aktivieren oder nicht). Ein weiterer Vorteil besteht darin, dass die Bedienung des Geräts beschleunigt wird, wenn die Funktion ansonsten beispielsweise zunächst aus einem Bedienmenü des Geräts herausgesucht werden müsste, um sie dann zu aktivieren. Bei dem erfindungsgemäßen Verfahren kann hierbei die eigentliche Erkennung der Position der Hand und ihrer Bewegung an sich in bekannter Weise durchgeführt werden. So muss ein hierfür verwendetes System nicht in besondere Weise baulich angepasst werden. The method according to the invention has the advantage that the operator, without loss of attention, makes a binary selection with a single wiping motion (activate function or not). Another advantage is that the operation of the device is accelerated, if otherwise the function would otherwise first have to be selected from an operating menu of the device in order to then activate it. In the case of the method according to the invention, the actual detection of the position of the hand and its movement can be carried out in a known manner. Thus, a system used for this purpose does not need to be structurally adapted in a particular way.
Ein weiterer Vorteil ergibt sich, wenn beim Aktivieren der Funktionsauswahl über eine Anzeigeeinrichtung der Bedienschnittstelle der Bedienperson angezeigt wird, durch welche Bewegung, also welche Bewegungsrichtung, welche Funktion auswählt werden kann. Es wird also zumindest eine mögliche Bewegungsrichtung sowie jeweils eine der möglichen Bewegungsrichtung zugeordnete, auswählbare Funktion angezeigt. Die Bedienschnittstelle ist dann ohne Vorkenntnisse und damit besonders intuitiv bedienbar. A further advantage results when, when activating the function selection via a display device of the operator interface of the operator is displayed, by which movement, ie which direction of movement, which function can be selected. Thus, at least one possible direction of movement and in each case one of the possible directions of movement assigned, selectable function is displayed. The user interface is then without prior knowledge and thus very intuitive to use.
Ein weiterer Vorteil ergibt sich, wenn besonders häufig benötigte Funktionen oder Funktionen, die in besonders fahrkritischen Situationen genutzt werden, über eine einfache Wischbewegung der Hand auswählbar gemacht werden können. Hierzu muss durch eine Bedienperson selbst eingestellt werden können, welche Funktion ausgewählt wird, wenn man die Hand in eine bestimmte Bewegungsrichtung innerhalb des Raumbereichs bewegt. Hierzu ist vorgesehen, dass in einem Konfigurationsmodus der Bedienschnittstelle eine Benutzereingabe betreffend eine bestimmte Funktion durch die Bedienschnittstelle empfangen wird und in Abhängigkeit von der Benutzereingabe eine Zuordnung der Funktion zu einer möglichen Bewegungsrichtung festgelegt wird. Eine solche Zuordnung stellt somit eine Abkürzung (Short-Cut) für die Funktionsauswahl dar. Sie ist auch für mehrere Funktionen zu unterschiedlichen Bewegungsrichtungen möglich. Another advantage arises when particularly frequently required functions or functions that are used in particularly driving-critical situations can be made selectable via a simple wiping movement of the hand. For this purpose, it must be possible to set by an operator himself which function is selected when moving the hand in a specific direction of movement within the spatial area. For this purpose, it is provided that in a configuration mode of the user interface, a user input regarding a specific function is received by the user interface and, depending on the user input, an assignment of the function to a possible direction of movement is determined. Such an assignment thus represents an abbreviation (short cut) for The function selection is also possible. It is also possible for several functions in different directions of movement.
Ein weiterer Vorteil ergibt sich, wenn diejenige ZuOrdnungsvorschrift, durch welche zumindest eine Funktion einer möglichen Bewegungsrichtung zugeordnet wird, in Abhängigkeit von einem aktuellen Betriebszustand des Gerät festgelegt wird. Es werden dann also andere Funktionen angeboten, wenn gerade ein Telefon aktiv ist als wenn gerade eine Musikwiedergabe läuft. Um dies zu ermöglichen, werden mehrere vorbereitete ZuOrdnungsvorschriften bereitgestellt, also z.B. eine für die Telephonie und eine für die Musikwiedergabe, und bei einer Änderung des Betriebszustands eine davon als die aktuelle gültige ZuOrdnungsvorschrift ausgewählt. So wird in vorteilhafter Weise eine kontextabhängige Bedienschnittstelle realisiert. Wird beispielsweise das Verfahren in einer Bedienschnittstelle eines Kraftfahrzeugs durchgeführt, so kann einer Bedienperson für den Fall, dass das Telefon läutet, ermöglicht werden, dass sie mit der Hand in den Raumbereich hineingreift und dann festlegt, ob sie den Telefonanruf annimmt (beispielsweise Verschwenken der Hand nach links in dem Raumbereich) oder das Telefonat ablehnen möchte (Verschwenken der Hand nach rechts in dem Raumbereich). Läutet dagegen nicht das Telefon, sondern wird beispielsweise Musik aus einer Musikdatei wiedergegeben, so kann durch eine entsprechende andere Zuordnungsvor- schrift vorgesehen werden, dass das Verschwenken der Hand nach links ein zuvor abgespieltes Lied und ein Verschwenken der Hand nach rechts das Abspielen eines in der Abspielliste nachfolgenden Liedes auslöst. Durch eine solche kontextabhängige Zuordnung von Funktionen zu Bewegungsrichtungen ergibt sich der Vorteil, dass mit einer einzigen Bedienschnittstelle und gleichbleibenden Bedienbewegungen einer Bedienperson die Steuerung mehrer unterschiedlicher Komponenten eines Geräts ermöglicht wird. Als besonders vorteilhaft hat es sich herausgestellt, wenn die optische Sensoreinrichtung die Hand mittels einer 3D-Kamera beobachtet und eine Position und Bewegung der Hand auf der Grundlage von 3D-Bilddaten der SD- Kamera ermittelt. So ist es möglich, dass als die möglichen Bewegungsrichtungen für die Auswahl von Funktionen alle drei Raumrichtungen ausgewer- tet werden können. Zudem ist die Anordnung der 3D-Kanriera unabhängig von einer Bewegungsebene der Wischbewegungen. Es können insbesondere auch Bewegungen von der 3D-Kamera weg oder zu ihr hin erkannt werden. Ein weiterer Vorteil ergibt sich, wenn durch die Sensoreinrichtung nach dem detektieren der Hand innerhalb des Raumbereichs zusätzlich eine jeweilige Fingerstellung zumindest eines Fingers der Hand erkannt wird und die Funktionsauswahl nur aktiviert wird, falls der zumindest eine Finger eine jeweils vorbestimmte Fingerstellung aufweist. Mit anderen Worten reagiert die Bedienschnittstelle nur dann, wenn die Bedienperson mit ihrer Hand innerhalb des Raumbereichs ein vorbestimmtes Zeichen formt. Hierdurch wird eine versehentliche Funktionsauswahl vermieden. Zusätzlich oder alternativ zur Fingerstellung kann auch die Ausrichtung der Rotation der gesamten Hand daraufhin überprüft werden, ob sie in einer vorgegebenen Weise geneigt ist. Die Erkennung der Fingerstellung und der Neigung der Hand kann auf der Grundlage eines Skelett- oder Handmodells realisiert werden, das an eine in den Bilddaten erkennbare Form der Hand angepasst wird. Bei Übereinstimmung des Modells mit der Form der abgebildeten Hand steht dann mit den Parametern des Modells eine digitale Repräsentation der Fingerstellung und der Lage der Hand zur Verfügung. A further advantage results if the ZuOrdnungsvorschrift by which at least one function is assigned to a possible direction of movement, is determined depending on a current operating state of the device. Other functions are then offered when a telephone is currently active than when music is playing. To make this possible, several prepared ZuOrdnungsvorschriften are provided, for example, one for the telephony and one for music playback, and one of a change of the operating state, one of them as the current valid ZuOrdnungsvorschrift selected. Thus, a context-dependent user interface is realized in an advantageous manner. For example, if the method is performed in an operator interface of a motor vehicle, an operator may be allowed to hand-grip into the space area and then determine whether to answer the telephone call (for example, pivoting the hand) to the left in the room area) or to reject the call (swiveling the hand to the right in the room area). If, on the other hand, the phone does not ring, but if, for example, music is being played back from a music file, it can be provided by a corresponding other assignment specification that the hand swiveling to the left is a previously played song and the hand is swiveling to the right to play one in the Playlist triggers subsequent song. By such a context-dependent assignment of functions to directions of movement, there is the advantage that the control of several different components of a device is made possible with a single user interface and constant operating movements of an operator. It has proven to be particularly advantageous if the optical sensor device observes the hand by means of a 3D camera and determines a position and movement of the hand on the basis of 3D image data of the SD camera. Thus, it is possible that all three spatial directions can be evaluated as the possible directions of movement for the selection of functions. In addition, the arrangement of the 3D Kanriera is independent of a movement plane of the wiping movements. In particular, it is also possible to detect movements away from or towards the 3D camera. A further advantage results if the sensor device additionally detects a respective finger position of at least one finger of the hand after the hand is detected within the spatial area and the function selection is activated only if the at least one finger has a respective predetermined finger position. In other words, the operator interface responds only when the operator forms a predetermined character with his hand within the space area. This avoids accidental selection of functions. In addition or alternatively to the finger position, the orientation of the rotation of the entire hand can also be checked to see whether it is inclined in a predetermined manner. The recognition of the finger position and the inclination of the hand can be realized on the basis of a skeleton or hand model adapted to a shape of the hand recognizable in the image data. If the model conforms to the shape of the imaged hand, then a digital representation of the finger position and the position of the hand is available with the parameters of the model.
Wie bereits ausgeführt, gehört zu der Erfindung auch ein Kraftfahrzeug. Das erfindungsgemäße Kraftfahrzeug weist eine Bedienschnittstelle zum Aktivie- ren von zumindest einer Funktion des Kraftfahrzeugs auf, wobei die Bedienschnittstelle eine optische Sensoreinrichtung ausweist und dazu ausgelegt ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Insbesondere ist bei dem erfindungsgemäßen Kraftfahrzeugs die Bedienschnittstelle Bestandteil eines Infotainmentsystems des Kraftfahrzeugs. Das erfindungsgemäße Kraftfahrzeug weist den Vorteil auf, dass es auch einem Fahrer ermöglicht wird, die Funktionen des Kraftfahrzeugs während einer Fahrt auszuwählen und zu aktivieren, ohne dass hierbei besonders viel Aufmerksamkeit von dem Fahrer verlangt wird. Bei dem erfindungsgemäßen Kraftwagen hat es sich als besonders vorteilhaft erwiesen, wenn die Sensoreinrichtung eine TOF-Kamera zum Beobachten der Hand aufweist. Veränderliche Lichtverhältnisse haben dann keinen besonders störenden Einfluss auf die Bewegungserkennung. Im Gegensatz dazu kann z.B. die Verwendung einer einfachen Infrarot-Kamera bei Ein- Strahlung von wärmendem Sonnenlicht zu einer Fehlerkennung führen. Die TOF-Kamera nutzt dagegen einen in der Leuchtintensität modulierten Lichtstrahl (z.B. sichtbares Licht oder Infrarot-Licht), so dass fremde Lichtquellen zuverlässig von der Lichtquelle der TOF-Kamera unterschieden werden können. Zu der Erfindung gehört des Weiteren ein Computerprogrammprodukt, d. h. ein auf zumindest einem Speichermedium gespeichertes Programm. Dieses ist dazu ausgelegt, bei Ausführen durch eine Prozessoreinrichtung eines mobilen Endgeräts, also beispielsweise eines Smartphones, eines Tablet- PCs, eines Personal Digital Assistants (PDA) oder eines Notebooks, auf der Grundlage von Kameradaten einer Kamera des mobilen Endgeräts eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Das erfindungsgemäße Computerprogrammprodukt weist somit den Vorteil auf, dass das mobile Endgerät durch einfache Wischbewegungen einer Hand bedient werden kann, wenn diese in einem Erfassungsbereich der Kamera des mobilen Endgeräts durchgeführt werden. Das Computerprogrammprodukt ist bevorzugt in einer Form bereitgestellt, wie sie aus dem Stand der Technik im Zusammenhang mit sogenannten„Apps" (Applikationen - Anwendungspro- gramme) für mobile Endgeräte bekannt ist. As already stated, the invention also includes a motor vehicle. The motor vehicle according to the invention has an operating interface for activating at least one function of the motor vehicle, wherein the operating interface identifies an optical sensor device and is designed to carry out an embodiment of the method according to the invention. In particular, in the motor vehicle according to the invention the operating interface is part of an infotainment system of the motor vehicle. The motor vehicle according to the invention has the advantage that it is also possible for a driver to select and activate the functions of the motor vehicle during a journey without requiring a great deal of attention from the driver. In the motor vehicle according to the invention, it has proved to be particularly advantageous if the sensor device has a TOF camera for observing the hand. Variable light conditions then have no particularly disturbing influence on the motion detection. In contrast to this, the use of a simple infrared camera, for example, can lead to an error detection when warm sunlight is received. In contrast, the TOF camera uses a light beam modulated in the light intensity (eg visible light or infrared light), so that foreign light sources can be reliably distinguished from the light source of the TOF camera. The invention further includes a computer program product, ie a program stored on at least one storage medium. This is designed, when executed by a processor device of a mobile terminal, for example, a smartphone, a tablet PC, a personal digital assistant (PDA) or a notebook, on the basis of camera data of a camera of the mobile terminal, an embodiment of the method according to the invention perform. The computer program product according to the invention thus has the advantage that the mobile terminal can be operated by simple wiping movements of one hand, if they are performed in a detection range of the camera of the mobile terminal. The computer program product is preferably provided in a form known from the prior art in connection with so-called "apps" (applications - application programs) for mobile terminals.
Von der Erfindung ist schließlich auch ein mobiles Endgerät umfasst, in welchem eine Ausführungsform des erfindungsgemäßen Computerprogrammprodukts bereitgestellt ist. Bei dem erfindungsgemäßen mobilen Endgerät kann es sich insbesondere um ein Smartphone, ein Tablet-PC, ein Notebook oder einen Personal Digital Assistant handeln. Finally, the invention also encompasses a mobile terminal in which an embodiment of the computer program product according to the invention is provided. The mobile terminal according to the invention may in particular be a smartphone, a tablet PC, a notebook or a personal digital assistant.
Im Folgenden ist die Erfindung noch einmal anhand eines konkreten Ausführungsbeispiels erläutert. Hierzu zeigt: In the following, the invention is explained once again with reference to a concrete embodiment. This shows:
Fig. 1 ein Blockschaltbild zu einer Bedienschnittstelle, die in einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs eingebaut sein kann, und Fig. 2 eine Skizze zu einem Bedienvorgang, wie er einer Bedienperson auf der Grundlage einer Ausführungsform des erfindungsgemäßen Verfahrens ermöglicht wird. 1 shows a block diagram of an operating interface which may be installed in an embodiment of the motor vehicle according to the invention, and FIG. 2 shows a sketch of an operating procedure as it is made possible for an operator on the basis of an embodiment of the method according to the invention.
Die gezeigten Beispiele stellen bevorzugte Ausführungsformen der Erfindung dar. The examples shown represent preferred embodiments of the invention.
In Fig. 1 sind von einem Kraftwagen, beispielsweise einem Personenkraftwagen, eine optische Sensoreinrichtung 10 und eine Wiedereingabeeinrichtung 12 gezeigt. Die optische Sensoreinrichtung 10 bildet eine Bedien- schnittsteile für die Wiedergabeeinrichtung 12. Bei der Wiedergabeeinrichtung 12 kann es sich beispielsweise um ein Infotainmentsystem, ein Audiosystem, ein Navigationssystem, ein Fernsehsystem, ein Telefonsystem, ein Kombiinstrument oder ein Head-up-Display handeln. Die Sensoreinrichtung 10 umfasst eine Messeinrichtung 14 und eine Berechnungseinheit 16. Die Messeinrichtung 14 umfasst einen optischen Sensor 18, der beispielsweise eine TOF-Kamera oder PMD-Kamera sein kann. Es kann sich bei dem optischen Sensor 18 auch beispielsweise um eine Stereokamera handeln. In dem in Fig. 1 gezeigten Beispiel ist davon ausgegangen, dass es sich bei dem optischen Sensor 18 um eine PMD-Kamera handelt. Der optische Sensor 18 kann beispielsweise in einem Dachhimmel des Kraftfahrzeugs angeordnet sein. In Fig. 1 of a motor vehicle, such as a passenger car, an optical sensor device 10 and a re-input device 12 are shown. The optical sensor device 10 forms an operating The playback device 12 can be, for example, an infotainment system, an audio system, a navigation system, a television system, a telephone system, a combination instrument or a head-up display. The sensor device 10 comprises a measuring device 14 and a calculation unit 16. The measuring device 14 comprises an optical sensor 18, which may be, for example, a TOF camera or PMD camera. The optical sensor 18 may also be, for example, a stereo camera. In the example shown in FIG. 1, it has been assumed that the optical sensor 18 is a PMD camera. The optical sensor 18 may be arranged, for example, in a headliner of the motor vehicle.
Der optische Sensor 8 kann in an sich bekannter Weise ausgestaltet sein, d.h. eine Leuchtquelle 20 für elektromagnetische Strahlung, z.B. eine Infrarotleuchte, beleuchtet einen Erfassungsbereich 22, beispielsweise einen Raum über einer Mittelkonsole des Kraftfahrzeugs. Befindet sich darin ein Objekt, beispielsweise eine Hand 24 des Fahrers des Kraftfahrzeugs, so wird die von der Leuchtquelle 20 ausgestrahlte Strahlung von der Hand 24 zu ei- nem Sensorarray 26 zurückgeworfen. Mittels des Sensorarrays 26 können dann 3D-Bilddaten erzeugt werden, welche 3D-Koordinaten zu einzelnen Flächenelementen der Hand 24 angeben. Die 3D-Bilddaten werden von der Messeinrichtung 14 an die Berechnungseinheit 16 übertragen. Bei der Berechnungseinheit 16 kann es sich beispielsweise um ein Steuergerät des Kraftfahrzeugs handeln. In der Berechnungseinheit 16 werden die Signale ausgewertet und dann dem Fahrzeug die ausgewerteten Daten zur Verfügung gestellt, indem sie beispielsweise an die Wiedergabeeinrichtung 12 übertragen werden. Durch die Berechnungseinheit 16 können Gliedma- ßen, wie beispielsweise die Hand 24, aus den 3D-Bilddaten segmentiert werden, wodurch beispielsweise die Position einer Fingerspitze in dem Erfassungsbereich 22 ermittelt werden kann. Hier können an sich bekannte Segmentierungsalgorithmen zugrunde gelegt werden. Durch die 3D-Bilddaten des Sensorarrays 26 des optischen Sensors 18 kann auch eine Sequenz von aufeinander folgenden 3D-Bildern repräsentiert sein, d.h. mit dem optischen Sensor 18 können auch Bewegungen der Hand 24 erfasst werden. Durch Verfolgen der Trajektorie beispielsweise der Fingerspitze oder des Handschwerpunktes in dieser 3D-Bildsequenz, insbesondere durch Verfolgen der Position und der Geschwindigkeit der Fingerspitze, kann so eine mit der Fingerspitze angedeutete Bewegungsgeste aus der Trajekto- rie extrapoliert werden. In Fig. 2 ist dargestellt, wie mit der in Fig. 1 dargestellten optischen Sensoreinrichtung eine Ausführungsform der erfindungsgemäßen Verfahrens realisiert werden kann. Der optische Sensor 26 ist auf einen Innenraum des Kraftfahrzeugs gerichtet, so dass in einem Erfassungsbereich 28 des optischen Sensors 26 darin befindliche Objekte erfasst werden und zu einzelnen Oberflächenbereichen der Objekte 3D-Bilddaten, also beispielsweise Koordinaten, zu ihrer Lage im Raum durch die Messeinrichtung 14 erzeugt und an die Berechnungseinheit übertragen werden. Der Erfassungsbereich 28 kann beispielsweise einen Raumbereich oberhalb einer Mittelkonsole des Kraftfahrzeugs umfassen. The optical sensor 8 can be configured in a manner known per se, ie a light source 20 for electromagnetic radiation, for example an infrared light, illuminates a detection area 22, for example a space above a center console of the motor vehicle. If there is an object in it, for example a hand 24 of the driver of the motor vehicle, then the radiation emitted by the light source 20 is reflected back by the hand 24 to a sensor array 26. By means of the sensor array 26 then 3D image data can be generated, which indicate 3D coordinates to individual surface elements of the hand 24. The 3D image data are transmitted from the measuring device 14 to the calculation unit 16. The calculation unit 16 may be, for example, a control unit of the motor vehicle. In the calculation unit 16, the signals are evaluated and then the evaluated data are made available to the vehicle, for example, by being transmitted to the reproduction device 12. By means of the calculation unit 16 limbs, such as, for example, the hand 24, can be segmented from the 3D image data, whereby, for example, the position of a fingertip in the detection area 22 can be determined. Here, known per se segmentation algorithms can be used. The 3D image data of the sensor array 26 of the optical sensor 18 can also represent a sequence of successive 3D images, ie movements of the hand 24 can also be detected with the optical sensor 18. By tracking the trajectory, for example, the fingertip or the center of gravity in this 3D image sequence, in particular By tracking the position and speed of the fingertip, a motion gesture indicated by the fingertip can be extrapolated from the trajectory. FIG. 2 shows how an embodiment of the method according to the invention can be implemented with the optical sensor device shown in FIG. The optical sensor 26 is directed to an interior of the motor vehicle, so that in a detection area 28 of the optical sensor 26 therein objects are detected and to individual surface areas of the objects 3D image data, so for example coordinates, to their position in space by the measuring device 14th be generated and transferred to the calculation unit. The detection area 28 may, for example, include a space area above a center console of the motor vehicle.
Eine Bedienperson, beispielsweise der Fahrer des Kraftfahrzeugs, hat ihre Hand 24 in den Erfassungsbereich 28 hinein bewegt. Die Berechnungseinheit 26 erkennt anhand der 3D-Bilddaten des optischen Sensors 26, dass es sich um ein bewegtes Objekt mit der Form einer Hand handelt und verfolgt eine Bewegungstrajektorie der Hand 24 in dem Erfassungsbereich 28. Die Berechnungseinheit 16 überprüft dabei, ob sich die Hand in einem vorbestimmten Raumbereich 30 befindet. Bei dem Raumbereich 30 kann es sich beispielsweise um einen quaderförmigen Volumenbereich handeln, dessen Kanten jeweils unabhängig voneinander Abmessungen aufweisen können, die beispielsweise in einem Bereich von 20 cm bis 50 cm liegen. An operator, for example the driver of the motor vehicle, has moved his hand 24 into the detection area 28. The calculation unit 26 recognizes from the 3D image data of the optical sensor 26 that it is a moving object in the shape of a hand and follows a movement trajectory of the hand 24 in the detection area 28. The calculation unit 16 checks whether the hand is in a predetermined space area 30 is located. The space region 30 may be, for example, a cuboid volume region, the edges of which may each independently have dimensions which are, for example, in a range from 20 cm to 50 cm.
Falls die Berechnungseinheit 16 erkennt, dass sich die Hand 24 in dem Raumbereich 30 befindet, wird ein Auswahlmodus für eine Funktionsauswahl aktiviert. Der Bedienperson ist es hierdurch möglich, durch eine Schwenk- bewegung der Hand 24 in mögliche Bewegungsrichtungen 32, 34 (hier z.B. entweder nach rechts oder nach links) eine Funktion des Fahrzeugs auszuwählen, beispielsweise das Annehmen eines Telefonats oder wechseln eines Radiosenders, und diese Funktion dann zu aktivieren. Die Berechnungseinheit erzeugt beim Aktivieren der Funktionsauswahl auf einem Bildschirm 36 eine Anzeige 38, mittels welcher auswählbare Funktionen 40, 42 angezeigt werden. Die Funktionen sind in Fig. 2 durch symbolische Funktionsnamen (F1 , F2) repräsentiert. Zusätzlich kann vorgesehen sein, dass ein Bild eines Schiebeschalters 44 dargestellt wird, was der Bedienperson intuitiv suggeriert, dass von ihr nun eine Bewegung mit der Hand 24 in eine der möglichen Bewegungsrichtungen 32, 34 erwartet wird, um eine der Funktionen 40, 42 auszuwählen. If the calculation unit 16 recognizes that the hand 24 is in the space area 30, a selection mode for a function selection is activated. It is thereby possible for the operator to select a function of the vehicle by means of a pivoting movement of the hand 24 in possible directions of movement 32, 34 (here, for example, either to the right or to the left), for example accepting a telephone call or changing a radio station, and this function then activate. When the function selection is activated, the calculation unit generates on a screen 36 a display 38 by means of which selectable functions 40, 42 are displayed. The functions are represented in FIG. 2 by symbolic function names (F1, F2). In addition, it may be provided that an image of a slide switch 44 is displayed, which intuitively suggests to the operator that from her now a movement with the hand 24 in one of the possible Movement directions 32, 34 is expected to select one of the functions 40, 42.
Das Auswählen ist der Bedienperson durch eine einfache Wischbewegung mit der Hand 24 möglich, nachdem die Funktionsauswahl aktiviert wurde. Die Erkennung der Wischbewegung wird durch die Berechnungseinheit 16 auf Grundlage der 3D-Bilddaten des optischen Sensors 26 durchgeführt. Hierzu wird die aktuelle Position der Hand 24 nach Aktivieren der Funktionsauswahl als Ausgangsposition PO festgelegt. Anschließend wird durch die Berech- nungseinheit 16 eine Veränderung der Koordinaten eines Referenzpunktes auf der Hand 24 beobachtet, z.B. desjenigen Referenzpunktes, dessen Position die Ausgangsposition PO definiert hat. Sobald der Referenzpunkt einen Abstand zur Ausgangsposition PO aufweist, der größer als ein vorbestimmter Schwellenwert ist, so wird dies als Auswahlbetätigung der Bedienperson in- terpretiert, d. h. die durch den Ausgangspunkt PO und die aktuelle Position der Hand 24 beschriebene Bewegungsrichtung wird mit einer der möglichen Bewegungsrichtungen 32, 34 verglichen. Wird durch die Berechnungseinheit erkannt, dass die Hand 24 in einer der möglichen Bewegungsrichtungen 32, 34 bewegt worden ist, so wird die entsprechende Funktion 40, 42 ausgewählt und die Auswahl der Wiedergabeeinrichtung 12 signalisiert. Hierdurch kann in der Wiedergabeeinrichtung 12 dann die ausgewählte Funktion aktiviert werden. The selection is possible for the operator by a simple swipe with the hand 24 after the function selection has been activated. The detection of the wiping movement is performed by the computing unit 16 based on the 3D image data of the optical sensor 26. For this purpose, the current position of the hand 24 after activating the function selection is set as the starting position PO. Subsequently, the computing unit 16 observes a change in the coordinates of a reference point on the hand 24, e.g. that reference point whose position has defined the starting position PO. As soon as the reference point has a distance to the starting position PO which is greater than a predetermined threshold, this is interpreted as a selection operation by the operator, i. H. the direction of movement described by the starting point PO and the current position of the hand 24 is compared with one of the possible directions of movement 32, 34. If it is detected by the calculation unit that the hand 24 has been moved in one of the possible directions of movement 32, 34, then the corresponding function 40, 42 is selected and the selection of the display device 12 is signaled. As a result, the selected function can then be activated in the playback device 12.
So ist es beispielsweise möglich, dass mit einer Geste nach links für die Be- dienung eines Radios oder Abspielgeräts ein vorheriger Track gespielt wird und mit einer Geste nach rechts ein Track weiter geschaltet wird. Anstelle der gezeigten binären Wischgeste (links/rechts) können auch Wischgesten „hoch'T'runter" oder eine nur einseitige Wischgeste in nur eine Bewegungsrichtung oder aber auch beispielsweise sechs Wischgesten (oben/unten, rechts/links, vor/zurück) als mögliche Bewegungen für eine Funktionsauswahl überwacht werden. Die Zuordnung der möglichen Bewegungsrichtungen 32, 34 zu auswählbaren Funktionen 40, 42 kann auch kontextabhängig erfolgen, d. h. die auswählbaren Funktionen 40, 42 können verändert werden. It is thus possible, for example, for a previous track to be played with a gesture to the left for the operation of a radio or a player, and a track being switched further to the right with a gesture. Instead of the shown binary swipe gesture (left / right) also swipe gestures "hoch'T'runter" or a one-sided swipe gesture in only one direction or even, for example, six swipe gestures (up / down, right / left, forward / back) as possible The assignment of the possible directions of movement 32, 34 to selectable functions 40, 42 can also be context-dependent, ie the selectable functions 40, 42 can be changed.
Durch das Beispiel ist gezeigt, wie eine eindeutige und intuitive Auswahl von Funktionen ermöglicht werden kann, die nach kurzer Lernphase für einen Insassen auswendig und ohne Ablenkung vom Straßenverkehr durchgeführt werden kann. Der Bediener kann so ohne Aufmerksamkeitsverlust mit einer einzigen Bediengeste eine Auswahl, insbesondere eine binäre Auswahl, treffen. Darüber hinaus kann die Bedienung auch beschleunigt werden. The example shows how a clear and intuitive selection of functions can be made possible, which can be performed after a short learning period for a passenger by heart and without distraction from the traffic. The operator can thus with a loss of attention with a single operating gesture make a selection, in particular a binary selection. In addition, the operation can also be accelerated.

Claims

PATENTANSPRÜCHE: CLAIMS:
1. Verfahren zum Betreiben einer Bedienschnittstelle (10) eines Geräts, insbesondere eines Kraftfahrzeugs, wobei durch eine optische Sensoreinrich- tung (26) der Bedienschnittstelle (10) berührungslos eine Hand (24) einer Bedienperson beobachtet und in Abhängigkeit von einer Bewegungsrichtung (32, 34) der Hand (24) eine Funktion (40, 42) des Geräts (12) ausgewählt und aktiviert wird, 1. A method for operating an operating interface (10) of a device, in particular of a motor vehicle, wherein an optical sensor device (26) of the operating interface (10) non-contact a hand (24) of an operator observed and in dependence on a direction of movement (32, 34) of the hand (24) a function (40, 42) of the device (12) is selected and activated,
dadurch gekennzeichnet, dass characterized in that
durch die Sensoreinrichtung (10) detektiert wird, ob die Bedienperson mit der Hand (24) in einen vordefinierten Raumbereich (30) hineinfasst, und nach Detektieren der Hand (24) in dem Raumbereich (30) eine Funktionsauswahl aktiviert wird, bei welcher eine Wischbewegung der Hand (24) zu einem Rand des Raumbereichs (30) hin erkannt wird und eine durch die Wischbe- wegung definierte Bewegungsrichtung (32, 34) ermittelt wird und eine der Bewegungsrichtung (32, 34) zugeordnete Funktion (40, 42) ausgewählt wird. is detected by the sensor device (10), whether the operator with the hand (24) into a predefined space area (30), and after detecting the hand (24) in the space area (30) a function selection is activated, in which a wiping movement the hand (24) is detected towards an edge of the spatial area (30) and a movement direction (32, 34) defined by the wiping movement is determined and a function (40, 42) associated with the movement direction (32, 34) is selected ,
2. Verfahren nach Anspruch 1 , wobei bei dem Aktivieren der Funktionsauswahl der Bedienperson auf einer Anzeigeeinrichtung (36) der Bedienschnitt- stelle (10) zumindest eine mögliche Bewegungsrichtung (32, 34) sowie jeweils eine der möglichen Bewegungsrichtung (32, 34) zugeordnete, auswählbare Funktion (40, 42) angezeigt wird. 2. The method of claim 1, wherein in activating the function selection of the operator on a display device (36) of the Bedienschnitt- point (10) at least one possible direction of movement (32, 34) and each one of the possible direction of movement (32, 34) associated, selectable function (40, 42) is displayed.
3. Verfahren nach Anspruch 1 oder 2, wobei eine Zuordnung zumindest einer auswählbaren Funktion (40, 42) zu einer möglichen Bewegungsrichtung (32,3. The method of claim 1 or 2, wherein an assignment of at least one selectable function (40, 42) to a possible direction of movement (32,
34) in einem Konfigurationsmodus der Bedienschnittstelle (10) durch die Bedienschnittstelle (10) in Abhängigkeit von einer Benutzereingabe festgelegt wird. 34) is set in a configuration mode of the operator interface (10) by the operator interface (10) in response to a user input.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Zuord- nungsvorschrift, durch welche zumindest eine Funktion (40, 42) einer möglichen Bewegungsrichtung (32, 34) zugeordnet wird, in Abhängigkeit von einem aktuellen Betriebszustand des Geräts (12) festgelegt wird und hierzu die ZuOrdnungsvorschrift aus mehreren vorbereiteten ZuOrdnungsvorschriften ausgewählt wird. 4. The method according to any one of the preceding claims, wherein an assignment rule, by which at least one function (40, 42) of a possible direction of movement (32, 34) is assigned, depending on a current operating state of the device (12) is determined and For this, the ZuOrdnungsvorschrift is selected from several prepared ZuOrdnungsvorschriften.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei bei der optischen Sensoreinrichtung (10) die Hand (24) mittels einer 3D-Kamera beo- bachtet wird und eine Position und/oder Bewegung der Hand (24) auf der Grundlage von 3D-Bilddaten der 3D-Kamera (26) ermittelt werden. 5. The method according to any one of the preceding claims, wherein in the optical sensor device (10) the hand (24) by means of a 3D camera beo- is observed and a position and / or movement of the hand (24) on the basis of 3D image data of the 3D camera (26) are determined.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei durch die Sensoreinrichtung (10) nach dem Detektieren der Hand (24) eine jeweilige6. The method according to any one of the preceding claims, wherein by the sensor device (10) after detecting the hand (24) has a respective
Fingerstellung zumindest eines Fingers der Hand (24) und/oder eine Ausrichtung einer Drehlage der Hand (24) erkannt wird und die Funktionsauswahl nur aktiviert wird, falls der zumindest eine Finger eine jeweils vorbestimmte Fingerstellung und/oder die Hand (24) eine vorgegebene Neigung aufweist. Fingerstellung of at least one finger of the hand (24) and / or alignment of a rotational position of the hand (24) is detected and the function selection is activated only if the at least one finger each predetermined finger position and / or the hand (24) has a predetermined inclination having.
7. Kraftfahrzeug mit einer Bedienschnittstelle (10) zum Aktivieren von zumindest einer Funktion des Kraftfahrzeugs, wobei die Bedienschnittstelle (10) eine optische Sensoreinrichtung (10) aufweist und dazu ausgelegt ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. 7. Motor vehicle with an operator interface (10) for activating at least one function of the motor vehicle, wherein the user interface (10) comprises an optical sensor device (10) and is adapted to perform a method according to one of the preceding claims.
8. Kraftfahrzeug nach Anspruch 7, wobei die Sensoreinrichtung (10) eine TOF-Kamera (26) zum Beobachten der Hand aufweist. 8. Motor vehicle according to claim 7, wherein the sensor device (10) comprises a TOF camera (26) for observing the hand.
9. Computerprogrammprodukt mit einem auf zumindest einem Speicherme- dium gespeicherten Programm, welches dazu ausgelegt ist, bei Ausführen des Programms durch eine Prozessoreinrichtung eines mobilen Endgeräts auf der Grundlage von Kameradaten einer Kamera des mobilen Endgeräts ein Verfahren nach einem der Ansprüche 1 bis 6 durchzuführen. 9. Computer program product with a program stored on at least one storage medium, which is designed to perform a method according to one of claims 1 to 6 when executing the program by a processor device of a mobile terminal based on camera data of a camera of the mobile terminal.
10. Mobiles Endgerät, welches ein Computerprogrammprodukt nach Anspruch 9 aufweist. 10. Mobile terminal, which has a computer program product according to claim 9.
PCT/EP2013/003880 2013-01-08 2013-12-20 User interface for the contactless selection of a device function WO2014108160A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013000081.5A DE102013000081B4 (en) 2013-01-08 2013-01-08 Operator interface for contactless selection of a device function
DE102013000081.5 2013-01-08

Publications (2)

Publication Number Publication Date
WO2014108160A2 true WO2014108160A2 (en) 2014-07-17
WO2014108160A3 WO2014108160A3 (en) 2014-11-27

Family

ID=49949611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/003880 WO2014108160A2 (en) 2013-01-08 2013-12-20 User interface for the contactless selection of a device function

Country Status (2)

Country Link
DE (1) DE102013000081B4 (en)
WO (1) WO2014108160A2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015006613A1 (en) * 2015-05-21 2016-11-24 Audi Ag Operating system and method for operating an operating system for a motor vehicle
DE102018208827A1 (en) * 2018-06-05 2019-12-05 Bayerische Motoren Werke Aktiengesellschaft User interface, means of transport and method for determining user input
DE102019206606B4 (en) * 2019-05-08 2021-01-28 Psa Automobiles Sa Method for contactless interaction with a module, computer program product, module and motor vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050063564A1 (en) * 2003-08-11 2005-03-24 Keiichi Yamamoto Hand pattern switch device
US20060136846A1 (en) * 2004-12-20 2006-06-22 Sung-Ho Im User interface apparatus using hand gesture recognition and method thereof
US20110286676A1 (en) * 2010-05-20 2011-11-24 Edge3 Technologies Llc Systems and related methods for three dimensional gesture recognition in vehicles

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411034B2 (en) * 2009-03-12 2013-04-02 Marc Boillot Sterile networked interface for medical systems
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
DE102009036369A1 (en) * 2009-08-06 2011-02-10 Volkswagen Ag Method for operating an operating device and operating device in a vehicle
JP5648207B2 (en) * 2009-09-04 2015-01-07 現代自動車株式会社 Vehicle control device
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8817087B2 (en) * 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US8861797B2 (en) * 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
US8619049B2 (en) * 2011-05-17 2013-12-31 Microsoft Corporation Monitoring interactions between two or more objects within an environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050063564A1 (en) * 2003-08-11 2005-03-24 Keiichi Yamamoto Hand pattern switch device
US20060136846A1 (en) * 2004-12-20 2006-06-22 Sung-Ho Im User interface apparatus using hand gesture recognition and method thereof
US20110286676A1 (en) * 2010-05-20 2011-11-24 Edge3 Technologies Llc Systems and related methods for three dimensional gesture recognition in vehicles

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARTIN ZOBL ET AL: "Gesture Components for Natural Interaction with In-Car Devices", 6. Februar 2004 (2004-02-06), GESTURE-BASED COMMUNICATION IN HUMAN-COMPUTER INTERACTION; [LECTURE NOTES IN COMPUTER SCIENCE;LECTURE NOTES IN ARTIFICIAL INTELLIGENCE;LNCS], SPRINGER-VERLAG, BERLIN/HEIDELBERG, PAGE(S) 448 - 459, XP019003059, ISBN: 978-3-540-21072-6 Seiten 448-459, das ganze Dokument *

Also Published As

Publication number Publication date
DE102013000081A1 (en) 2014-07-10
WO2014108160A3 (en) 2014-11-27
DE102013000081B4 (en) 2018-11-15

Similar Documents

Publication Publication Date Title
EP2451672B1 (en) Method and device for providing a user interface in a vehicle
EP2943367B1 (en) Method for synchronizing display devices in a motor vehicle
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
EP3507681B1 (en) Method for interacting with image contents displayed on a display device in a vehicle
DE102013012394A1 (en) Method and device for remote control of a function of a vehicle
EP3358454B1 (en) User interface, vehicle and method for user distinguishing
DE102012020607B4 (en) A motor vehicle with a gesture control device and method for controlling a selection element
WO2014108147A1 (en) Zooming and shifting of image content of a display device
EP2196359B1 (en) Control method and device
DE102013000071B4 (en) Synchronizing payload data between a motor vehicle and a mobile terminal
DE102013000069B4 (en) Motor vehicle user interface with a control element for detecting a control action
WO2014108160A2 (en) User interface for the contactless selection of a device function
WO2014108150A2 (en) User interface for handwritten character input in a device
EP1992515B1 (en) Multifunctional display and operational device and method for operating a multifunctional display and operational device in a motor vehicle
DE102013014889A1 (en) Mouse pointer control for an operating device
EP3108333B1 (en) User interface and method for assisting a user in the operation of a user interface
DE102015201722A1 (en) Method for operating an input device, input device
EP3426516B1 (en) Operating device and method for detecting a user selection of at least one operating function of the operating device
WO2015010829A1 (en) Method for operating an input device, and input device
DE102018204223A1 (en) Mobile, portable operating device for operating a device wirelessly coupled to the operating device, and method for operating a device using a mobile, portable operating device
EP2835719B1 (en) Motor vehicle with switchable operating device
DE102013000085A1 (en) Method for changing between passive mode and active mode of infotainment system of motor vehicle, involves generating control signal for changing to other modes, if determined distance is smaller than threshold value
DE102019131944A1 (en) Method for controlling at least one display unit, motor vehicle and computer program product
DE102012021252A1 (en) Operating device for actuating e.g. DVD player mounted in motor car, has sensors that detect coordinates of operating unit in spatial directions, and evaluation device that determines position of operating unit based on coordinates

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13818984

Country of ref document: EP

Kind code of ref document: A2

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
122 Ep: pct application non-entry in european phase

Ref document number: 13818984

Country of ref document: EP

Kind code of ref document: A2