DE102019206606B4 - Method for contactless interaction with a module, computer program product, module and motor vehicle - Google Patents

Method for contactless interaction with a module, computer program product, module and motor vehicle Download PDF

Info

Publication number
DE102019206606B4
DE102019206606B4 DE102019206606.2A DE102019206606A DE102019206606B4 DE 102019206606 B4 DE102019206606 B4 DE 102019206606B4 DE 102019206606 A DE102019206606 A DE 102019206606A DE 102019206606 B4 DE102019206606 B4 DE 102019206606B4
Authority
DE
Germany
Prior art keywords
operating
module
scanning device
information
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019206606.2A
Other languages
German (de)
Other versions
DE102019206606A1 (en
Inventor
Marten Wittorf
Peter Kahler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STELLANTIS AUTO SAS, FR
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Priority to DE102019206606.2A priority Critical patent/DE102019206606B4/en
Publication of DE102019206606A1 publication Critical patent/DE102019206606A1/en
Application granted granted Critical
Publication of DE102019206606B4 publication Critical patent/DE102019206606B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Beschrieben wird ein Verfahren zur berührungslosen Interaktion mit einem Modul, mit den folgenden Schritten:- mittels einer Scanvorrichtung Feststellen einer relativen Position eines Bedienobjektes zu der Scanvorrichtung innerhalb einer Bedienzone,- Projizieren wenigstens einer Bedieninformation in einen definierten Bereich auf das Bedienobjekt mittels einer Projektionsvorrichtung,- Feststellen einer Position einer Bedienvorrichtung innerhalb der Bedienzone mittels der Scanvorrichtung,- Ändern wenigstens eines Bedienparameters mittels des Moduls, wenn das Bedienobjekt eine festgelegte räumliche Korrelation zu der Bedieninformation einnimmt,- Feststellen einer Positionsveränderung des Bedienobjektes gegenüber der relativen Position mittels der Scanvorrichtung,wobei,- wenn eine Positionsveränderungsdistanz kleiner oder gleich einer Mindestveränderungsdistanz, die Projektion räumlich nicht bewegt wird,- wenn die Positionsveränderungsdistanz größer ist als die Mindestveränderungsdistanz, die Projektion räumlich mit der Bewegung des Bedienobjektes mitgeführt wird.Beschrieben werden des Weiteren ein Computerprogrammprodukt, ein Modul sowie ein Kraftfahrzeug.A method for contactless interaction with a module is described, with the following steps: - using a scanning device, determining a relative position of an operating object to the scanning device within an operating zone, - projecting at least one piece of operating information in a defined area onto the operating object using a projection device, - Determining a position of an operating device within the operating zone by means of the scanning device, - changing at least one operating parameter by means of the module, if the operating object assumes a defined spatial correlation to the operating information, - determining a change in position of the operating object compared to the relative position by means of the scanning device, whereby, if a position change distance is less than or equal to a minimum change distance, the projection is not spatially moved, - if the position change distance is greater than the minimum change distance, d The projection is spatially carried out with the movement of the control object. A computer program product, a module and a motor vehicle are also described.

Description

Vorliegend werden ein Verfahren zur berührungslosen Interaktion mit einem Modul, ein Computerprogrammprodukt, ein Modul sowie ein Kraftfahrzeug beschrieben.A method for contactless interaction with a module, a computer program product, a module and a motor vehicle are described here.

Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukte, Module sowie Kraftfahrzeuge der eingangs genannten Art sind im Stand der Technik bekannt. Zur Bedienung von elektrischen und elektronischen Geräten ist eine Interaktion eines Benutzers des entsprechenden Geräts mit dem Gerät notwendig. Hierzu sind vielfältige Benutzerschnittstellen bekannt, beispielsweise herkömmliche Schnittstellen mit Knöpfen, Tasten, Schiebereglern, Drehreglern und dergleichen sowie fortgeschrittene Schnittstellen wie Tastaturen, Mäuse, Eingabefelder (Trackpads), Dreh-Drück-Steller, elektronische Stifte, berührungsempfindliche Bildschirme, Sprachsteuerungen und Gestensteuerungen. Unter anderem sind Gestensteuerungen mit Projektionsvorrichtungen in bekannt, die zum Beispiel Bedienelemente auf eine Oberfläche projizieren können, die der Benutzer dann durch Tippgesten betätigen kann.Methods for contactless interaction with a module, computer program products, modules and motor vehicles of the type mentioned at the beginning are known in the prior art. In order to operate electrical and electronic devices, it is necessary for a user of the corresponding device to interact with the device. A wide variety of user interfaces are known for this purpose, for example conventional interfaces with buttons, keys, sliders, rotary controls and the like, as well as advanced interfaces such as keyboards, mice, input fields (trackpads), rotary push-button controls, electronic pens, touch-sensitive screens, voice controls and gesture controls. Gesture controls with projection devices are known, inter alia, which can project control elements onto a surface, for example, which the user can then operate using tapping gestures.

So ist aus der DE 10 2013 000 081 A1 eine kamerabasierte Gestensteuerung für ein Kraftfahrzeug bekannt.So is from the DE 10 2013 000 081 A1 a camera-based gesture control for a motor vehicle is known.

In der DE 10 2014 207 963 A1 wird zum Beispiel ein Verfahren zur berührungslosen Interaktion mit einem Modul vorgeschlagen, wobei das Modul ein erstes Teilmodul und ein zweites Teilmodul aufweist, wobei in einem ersten Verfahrensschritt durch das erste Teilmodul ein Primärstrahl erzeugt wird, wobei in einem zweiten Verfahrensschritt der Primärstrahl durch das zweite Teilmodul derart abgelenkt wird, dass eine Bildinformation in einen Projektionsbereich projiziert wird, wobei in einem dritten Verfahrensschritt der Primärstrahl durch das zweite Teilmodul derart abgelenkt wird, dass eine Bedieninformation in einen Bedienbereich projiziert wird, wobei in einem vierten Verfahrensschritt durch das Modul ein Steuersignal erzeugt wird, wenn ein Steuerbefehl in einer mit dem Primärstrahl assoziierten Ortungszone detektiert wird, wobei in dem dritten Verfahrensschritt der Bedienbereich auf ein Bedienobjekt projiziert wird, wenn das Bedienobjekt in der Ortungszone positioniert wird. Der Bedienbereich kann beispielsweise eine Hand des Benutzers sein. In the DE 10 2014 207 963 A1 For example, a method for contactless interaction with a module is proposed, wherein the module has a first sub-module and a second sub-module, a primary beam being generated by the first sub-module in a first method step, the primary beam being generated by the second sub-module in a second method step is deflected in such a way that image information is projected into a projection area, wherein in a third method step the primary beam is deflected by the second sub-module in such a way that operating information is projected into an operating area, with a control signal being generated by the module in a fourth method step, if a control command is detected in a locating zone associated with the primary beam, wherein in the third method step the operating area is projected onto an operating object when the operating object is positioned in the locating zone. The operating area can for example be a hand of the user.

Aus der US 2013/0086531 A1 ist eine Befehlsausgabevorrichtung mit einer Erfassungseinheit und einem Projektor bekannt. Mit einem einen Projektionsbereichserkenner können Bilder einer grafischen Benutzeroberfläche (GUI) auf den Projektionsbereich eines Fingers projiziert werden, der zum Bedienen eines zugeordneten Befehles zugewiesen ist.From the US 2013/0086531 A1 there is known an instruction issuing device having a detection unit and a projector. With a projection area detector, images of a graphical user interface (GUI) can be projected onto the projection area of a finger that is assigned to operate an assigned command.

Somit stellt sich die Aufgabe, Verfahren zur berührungslosen Interaktion mit einem Modul, Computerprogrammprodukte, Module sowie Kraftfahrzeuge der eingangs genannten Art dahingehend weiterzubilden, dass eine leichtere Bedienung möglich wird.Thus, the task arises of developing methods for contactless interaction with a module, computer program products, modules and motor vehicles of the type mentioned at the beginning in such a way that easier operation is possible.

Die Aufgabe wird gelöst durch ein Verfahren zur berührungslosen Interaktion mit einem Modul gemäß Anspruch 1, ein Computerprogrammprodukt gemäß dem nebengeordneten Anspruch 9, ein Modul gemäß dem nebengeordneten Anspruch 10 sowie ein Kraftfahrzeug gemäß dem nebengeordneten Anspruch 13. Weiterführende Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.The object is achieved by a method for contactless interaction with a module according to claim 1, a computer program product according to the independent claim 9, a module according to the independent claim 10 and a motor vehicle according to the independent claim 13. Further configurations and developments are the subject of the dependent claims .

Nachfolgend wird ein Verfahren zur berührungslosen Interaktion mit einem Modul beschrieben, mit den folgenden Schritten:

  • • mittels einer Scanvorrichtung Feststellen einer relativen Position eines Bedienobjektes zu der Scanvorrichtung innerhalb einer Bedienzone,
  • • Projizieren wenigstens einer Bedieninformation in einen definierten Bereich auf das Bedienobjekt mittels einer Projektionsvorrichtung,
  • • Feststellen einer Position einer Bedienvorrichtung innerhalb der Bedienzone mittels der Scanvorrichtung,
  • • Ändern wenigstens eines Bedienparameters mittels des Moduls, wenn das Bedienobjekt eine festgelegte räumliche Korrelation zu der Bedieninformation einnimmt,
  • • Feststellen einer Positionsveränderung des Bedienobjektes gegenüber der relativen Position mittels der Scanvorrichtung,
  • • wobei,
    • o wenn eine Positionsveränderungsdistanz kleiner oder gleich einer Mindestveränderungsdistanz ist, die Bedieninformation räumlich nicht bewegt wird,
    • o wenn die Positionsveränderungsdistanz größer ist als die Mindestveränderungsdistanz, die Bedieninformation räumlich mit der Bewegung des Bedienobjektes mitgeführt wird.
A method for contactless interaction with a module is described below, with the following steps:
  • • Using a scanning device to determine a relative position of an operating object to the scanning device within an operating zone,
  • • Projecting at least one piece of operating information in a defined area onto the operating object by means of a projection device,
  • • Determining a position of an operating device within the operating zone by means of the scanning device,
  • • Changing at least one operating parameter by means of the module when the operating object adopts a fixed spatial correlation to the operating information,
  • • Detecting a change in position of the operating object compared to the relative position by means of the scanning device,
  • • in which,
    • o if a position change distance is less than or equal to a minimum change distance, the operating information is not spatially moved,
    • o if the position change distance is greater than the minimum change distance, the control information is spatially carried along with the movement of the control object.

Das Bedienobjekt ist eine Hand eines Nutzers und/oder die Bedienvorrichtung ist wenigstens ein Finger eines Nutzers. Mittels der Scanvorrichtung werden biometrische Daten des Nutzers anhand der Hand und/oder des wenigstens einen Fingers erfasst.The operating object is a hand of a user and / or the operating device is at least one finger of a user. By means of the scanning device, biometric data of the user are recorded using the hand and / or the at least one finger.

Somit kann erreicht werden, dass die projizierte Bedieninformation räumlich nicht bewegt wird, wenn sich das Bedienobjekt nur geringfügig bewegt, beispielsweise durch Vibrationen in einem fahrenden Kraftfahrzeug. Erst, wenn sich das Bedienobjekt ausreichend stark bewegt, wird die Bedieninformation mit der Bewegung des Bedienobjektes durch Änderung des Ortes der Projektion der Bedieninformation nachgeführt. Hierdurch lässt sich das Modul besser bedienen, da die Projektion und damit die Darstellung der Bedieninformation stetiger bleibt.It can thus be achieved that the projected control information is not spatially moved if the control object only moves slightly, for example due to vibrations in a moving one Motor vehicle. Only when the operating object moves sufficiently strongly is the operating information updated with the movement of the operating object by changing the location of the projection of the operating information. This makes it easier to operate the module, as the projection and thus the display of the operating information remains more constant.

Der Bedienparameter kann innerhalb des Moduls oder außerhalb des Moduls verarbeitet werden, beispielsweise als eines von mehreren mittels des Moduls bedienbaren Systemen. Ein entsprechendes System kann beispielsweise ein Multimedia- oder Infotainmentsystem eines Kraftfahrzeugs sein.The operating parameter can be processed within the module or outside the module, for example as one of several systems that can be operated by means of the module. A corresponding system can be, for example, a multimedia or infotainment system of a motor vehicle.

Die Bedieninformation kann beispielsweise ein Element einer Liste oder ein Symbol in einer Auswahl von verschiedenen Symbolen sein.The operating information can be, for example, an element of a list or a symbol in a selection of different symbols.

Die festgelegte räumliche Korrelation kann ein Berühren des projizierten Bedienobjektes am Ort der Bedieninformation sein.The defined spatial correlation can be touching the projected operating object at the location of the operating information.

In einer ersten weiterführenden Ausgestaltung kann vorgesehen sein, dass die Projektion stetig mitgeführt wird.In a first further refinement, it can be provided that the projection is continuously carried along.

Hierdurch können plötzliche Sprünge in der Projektion vermieden werden, was die Bedienung für den Benutzer angenehmer macht, da die wenigstens eine Bedieninformation nicht plötzlich von einem Ort zum nächsten wechselt. Auch die Gefahr von Fehlbedienungen kann hierdurch reduziert werden, wenn ein Benutzer möglicherweise beabsichtigt, eine bestimmte Bedieninformation zu betätigen, aber bis zum Zeitpunkt des Herstellens der festgelegten räumlichen Korrelation sich durch die Nachführung eine andere Bedieninformation am gleichen Ort befindet.As a result, sudden jumps in the projection can be avoided, which makes operation more pleasant for the user, since the at least one operating information item does not suddenly change from one location to the next. The risk of operating errors can also be reduced as a result if a user intends to operate certain operating information, but until the point in time when the established spatial correlation is established, other operating information is at the same location due to the tracking.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Scanvorrichtung eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit des Bedienobjektes misst und mithilfe dieser Informationen eine Mitführtrajektorie der Bedieninformation berechnet.In a further refinement, it can be provided that the scanning device measures a direction of movement and a speed of movement of the operator control object and, with the aid of this information, calculates an entrainment trajectory of the operator control information.

Hierdurch kann ein stetiges, nicht abruptes Nachführen der Projektion der Bedieninformation erreicht werden, das vom Benutzer intuitiv nachvollziehbar und vorhersagbar ist.In this way, continuous, non-abrupt tracking of the projection of the operating information can be achieved, which the user can intuitively understand and predict.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Bedieninformation sowohl in Position als auch in Ausrichtung mit dem Bedienobjekt mitgeführt wird.In a further refinement, it can be provided that the operating information is carried along both in position and in alignment with the operating object.

Auf diese Weise kann eine konstante Ausrichtung der Bedieninformation auf dem Bedienobjekt unabhängig von dessen Ausrichtung relativ zur Projektionsvorrichtung sichergestellt werden.In this way, a constant alignment of the operating information on the operating object can be ensured regardless of its alignment relative to the projection device.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Scanvorrichtung ein zweites Bedienobjekt in der Bedienzone erkennt, wobei, wenn erstes Bedienobjekt und zweites Bedienobjekt sich in einer bestimmten Lage zueinander befinden oder zueinander begeben, die Projektionsvorrichtung die Bedieninformation auf dem zweiten Bedienobjekt darstellt.In a further refinement, it can be provided that the scanning device detects a second operating object in the operating zone, the projection device displaying the operating information on the second operating object if the first operating object and the second operating object are in a certain position relative to one another or are in relation to one another.

Auf diese Weise kann eine Übergabe von einem Bedienobjekt zu einem anderen Bedienobjekt erfolgen.In this way, a transfer from one control object to another control object can take place.

Eine Projektion auf eine Hand des Nutzers kann beispielsweise eine Kontamination der Hände des Nutzers durch die Notwendigkeit des Anfassens von öffentlich zugänglichen Bedienelementen verhindern. Stattdessen muss der Nutzer nur seine eigene Handfläche berühren.A projection onto a hand of the user can, for example, prevent contamination of the hands of the user due to the necessity of touching publicly accessible operating elements. Instead, the user just has to touch the palm of his hand.

In Kombination mit der zuvor erwähnten weiterführenden Ausgestaltung kann erreicht werden, dass die Bedieninformation von einer Hand zur anderen übergeben werden kann. Die Herstellung der bestimmten Lage zwischen dem ersten und dem zweiten Bedienobjekt kann beispielsweise durch eine vorgegebene Geste erreicht werden, z.B. durch Zusammenführen der Hände oder Handflächen.In combination with the further refinement mentioned above, it can be achieved that the operating information can be transferred from one hand to the other. The production of the specific position between the first and the second control object can be achieved, for example, by a predetermined gesture, e.g. by bringing the hands or palms together.

Durch die Erfassung der biometrischen Daten kann der Nutzer identifiziert werden und eine Individualisierung der Bedieninformation erfolgen.By capturing the biometric data, the user can be identified and the operating information can be customized.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die biometrischen Daten einen Fingerabdruck und/oder anatomische Daten der Hand und/oder Handlinien und/oder des wenigstens einen Fingers umfassen.In a further refinement, it can be provided that the biometric data include a fingerprint and / or anatomical data of the hand and / or hand lines and / or of the at least one finger.

Hierdurch ist eine eindeutige Erkennung eines Benutzers möglich.This enables a user to be clearly identified.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die biometrischen Daten mit Daten in einem Speicher verglichen werden, wobei bei Übereinstimmung der biometrischen Daten mit einem Datensatz im Speicher ein Nutzerprofil geladen wird, wobei das Nutzerprofil wenigstens eine Bedieninformation betrifft.In a further refinement, provision can be made for the biometric data to be compared with data in a memory, with a user profile being loaded if the biometric data matches a data record in the memory, the user profile relating to at least one piece of operating information.

Hiermit wird ermöglicht, dass eine Steuerung einer Anwendung mittels des Moduls nahtlos fortgesetzt werden kann.This enables the control of an application to be continued seamlessly by means of the module.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass das Modul den veränderten Bedienparameter an eine Steuerungsvorrichtung sendet, wobei die Steuerungsvorrichtung wenigstens eine Einstellung ändert.In a further refinement, it can be provided that the module transmits the changed operating parameters to a Control device sends, wherein the control device changes at least one setting.

Die Steuerungsvorrichtung kann beispielsweise eine Multimedia-oder Infotainment Steuerung sein. Die Steuerungsvorrichtung kann des Weiteren eine Schnittstelle zur Bedienung von Funktionen eines Kraftfahrzeugs sein (Mensch-Maschine-Schnittstelle).The control device can for example be a multimedia or infotainment control. The control device can also be an interface for operating functions of a motor vehicle (man-machine interface).

Ein erster unabhängiger Gegenstand betrifft eine Vorrichtung zur berührungslosen Interaktion mit einem Modul mit:

  • • einer Scanvorrichtung zum Feststellen einer relativen Position eines Bedienobjektes zu der Scanvorrichtung innerhalb einer Bedienzone,
  • • einer Projektionsvorrichtung zum Projizieren wenigstens einer Bedieninformation in einen definierten Bereich auf das Bedienobjekt,
  • • einer mit der Scanvorrichtung und der Projektionsvorrichtung verbundenen Recheneinheit zum Feststellen einer Position einer Bedienvorrichtung innerhalb der Bedienzone mittels der Scanvorrichtung,
  • • wobei die Recheneinheit zum Ändern wenigstens eines Bedienparameters ausgebildet ist, wenn das Bedienobjekt eine festgelegte räumliche Korrelation zu der Bedieninformation einnimmt,
  • • wobei die Recheneinheit zum Feststellen einer Positionsveränderung des Bedienobjektes gegenüber der relativen Position mittels der Scanvorrichtung ausgebildet ist,
  • • wobei die Recheneinheit dazu ausgebildet ist,
    • o die Projektion räumlich nicht zu bewegen, wenn eine Positionsveränderungsdistanz kleiner oder gleich einer Mindestveränderungsdistanz,
    • o die Projektion räumlich mit der Bewegung des Bedienobjektes mitzuführen, wenn die Positionsveränderungsdistanz größer ist als die Mindestveränderungsdistanz.
A first independent subject relates to a device for contactless interaction with a module with:
  • • a scanning device for determining a relative position of an operating object to the scanning device within an operating zone,
  • • a projection device for projecting at least one piece of operating information in a defined area onto the operating object,
  • A computing unit connected to the scanning device and the projection device for determining a position of an operating device within the operating zone by means of the scanning device,
  • • wherein the computing unit is designed to change at least one operating parameter when the operating object assumes a defined spatial correlation to the operating information,
  • • wherein the computing unit is designed to determine a change in position of the operating object in relation to the relative position by means of the scanning device,
  • • where the computing unit is designed to
    • o not moving the projection spatially if a position change distance is less than or equal to a minimum change distance,
    • o to move the projection spatially with the movement of the operating object if the position change distance is greater than the minimum change distance.

In einer ersten weiterführenden Ausgestaltung kann vorgesehen sein, dass die Recheneinheit dazu ausgebildet ist, die Projektion stetig mitgeführt wird.In a first further refinement, it can be provided that the computing unit is designed so that the projection is continuously carried along.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Scanvorrichtung zum Messen einer Bewegungsrichtung und einer Bewegungsgeschwindigkeit des Bedienobjektes ausgebildet ist, wobei die Recheneinheit dazu ausgebildet ist, mithilfe dieser Informationen eine Mitführtrajektorie der Projektion zu berechnen.In a further refinement, it can be provided that the scanning device is designed to measure a direction of movement and a speed of movement of the operating object, the computing unit being designed to use this information to calculate an entrainment trajectory of the projection.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Recheneinheit dazu ausgebildet ist, die Bedieninformation sowohl in Position als auch in Ausrichtung mit dem Bedienobjekt mitzuführen.In a further refinement, it can be provided that the computing unit is designed to carry the operating information with it both in position and in alignment with the operating object.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Scanvorrichtung zum Erkennen eines zweiten Bedienobjekts in der Bedienzone ausgebildet ist, wobei, die Recheneinheit dazu ausgebildet ist, wenn erstes Bedienobjekt und zweites Bedienobjekt sich in einer bestimmten Lage zueinander befinden oder zueinander begeben, die Projektionsvorrichtung so zu steuern, dass die Bedieninformation auf dem zweiten Bedienobjekt dargestellt wird.In a further refinement, it can be provided that the scanning device is designed to recognize a second operating object in the operating zone, the arithmetic unit being designed for the projection device when the first operating object and second operating object are in a certain position relative to one another or move towards one another control so that the operating information is displayed on the second operating object.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass das Bedienobjekt eine Hand eines Nutzers ist und/oder dass die Bedienvorrichtung wenigstens ein Finger eines Nutzers ist.In a further refinement, it can be provided that the operating object is a hand of a user and / or that the operating device is at least one finger of a user.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Scanvorrichtung dazu ausgebildet ist, biometrische Daten des Nutzers anhand der Hand und/oder dem wenigstens einen Finger zu erfassen.In a further refinement, it can be provided that the scanning device is designed to capture biometric data of the user using the hand and / or the at least one finger.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die biometrischen Daten einen Fingerabdruck und/oder anatomische Daten der Hand und/oder Handlinien und/oder des wenigstens einen Fingers umfassen.In a further refinement, it can be provided that the biometric data include a fingerprint and / or anatomical data of the hand and / or hand lines and / or of the at least one finger.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass die Recheneinheit dazu eingerichtet ist, die biometrischen Daten mit Daten in einem Speicher zu vergleichen oder vergleichen zu lassen, wobei die Recheneinheit dazu ausgebildet ist, bei Übereinstimmung der biometrischen Daten mit einem Datensatz im Speicher ein Nutzerprofil zu laden, wobei das Nutzerprofil wenigstens eine Bedieninformation betrifft.In a further refinement, it can be provided that the computing unit is set up to compare or have the biometric data compared with data in a memory, the computing unit being designed to create a user profile when the biometric data matches a data set in the memory to load, wherein the user profile relates to at least one piece of operating information.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass das Modul zum Senden des veränderten Bedienparameters an eine Steuerungsvorrichtung ausgebildet ist, wobei die Steuerungsvorrichtung dazu ausgebildet ist, wenigstens eine Einstellung in Abhängigkeit vom veränderten Bedienparameter zu ändern.In a further refinement, it can be provided that the module is designed to send the changed operating parameter to a control device, the control device being designed to change at least one setting as a function of the changed operating parameter.

Ein weiterer unabhängiger Gegenstand betrifft ein Computerprogrammprodukt, mit einem computerlesbaren Speichermedium, auf dem Befehle eingebettet sind, die, wenn sie von wenigstens einer Recheneinheit ausgeführt werden, bewirken, dass die wenigstens eine Recheneinheit dazu eingerichtet ist, das Verfahren nach einem der vorangegangenen Ansprüche auszuführen.Another independent subject matter relates to a computer program product with a computer-readable storage medium on which instructions are embedded which, when they are executed by at least one processing unit, cause the at least one processing unit to be set up for this purpose is to carry out the method according to one of the preceding claims.

Das Verfahren kann auf einer oder auf mehreren Recheneinheiten verteilt ausgeführt werden, sodass bestimmte Verfahrensschritte auf der einen Recheneinheit und andere Verfahrensschritte auf wenigstens einer weiteren Recheneinheit ausgeführt werden, wobei berechnete Daten sofern notwendig zwischen den Recheneinheiten übermittelt werden können.The method can be carried out distributed on one or more processing units, so that certain method steps are carried out on one processing unit and other method steps are carried out on at least one further processing unit, with calculated data being able to be transmitted between the processing units if necessary.

Ein weiterer unabhängiger Gegenstand betrifft ein Modul mit einem Speichermedium und wenigstens einer Recheneinheit, wobei in dem Speichermedium ein Computerprogrammprodukt der zuvor beschriebenen Art gespeichert ist.Another independent subject matter relates to a module with a storage medium and at least one processing unit, a computer program product of the type described above being stored in the storage medium.

In einer ersten weiterführenden Ausgestaltung kann vorgesehen sein, dass das Modul eine Scanvorrichtung, die das Bedienobjekt mit Licht in nicht sichtbarem Wellenlängenbereich scannt und/oder eine Projektionsvorrichtung mit einer fokussierbaren Optik aufweist.In a first further refinement, it can be provided that the module has a scanning device that scans the operating object with light in a non-visible wavelength range and / or a projection device with focusable optics.

Statt einer fokussierbaren Optik kann in einer alternativen weiterführenden Ausgestaltung eine Projektionsvorrichtung ohne Notwendigkeit zur Fokussierung vorgesehen sein, beispielsweise mithilfe von Laserstrahlen.Instead of focusable optics, in an alternative further refinement, a projection device can be provided without the need for focusing, for example with the aid of laser beams.

In einer weiteren weiterführenden Ausgestaltung kann vorgesehen sein, dass das Modul fest in einem Kraftfahrzeug verbaut ist.In a further refinement, it can be provided that the module is permanently installed in a motor vehicle.

Ein weiterer unabhängiger Gegenstand betrifft ein Kraftfahrzeug mit einem Modul der zuvor beschriebenen Art.Another independent subject matter relates to a motor vehicle with a module of the type described above.

Weitere Merkmale und Einzelheiten ergeben sich aus der nachfolgenden Beschreibung, in der - gegebenenfalls unter Bezug auf die Zeichnung - zumindest ein Ausführungsbeispiel im Einzelnen beschrieben ist. Beschriebene und/oder bildlich dargestellte Merkmale bilden für sich oder in beliebiger, sinnvoller Kombination den Gegenstand, gegebenenfalls auch unabhängig von den Ansprüchen, und können insbesondere zusätzlich auch Gegenstand einer oder mehrerer separater Anmeldung/en sein. Gleiche, ähnliche und/oder funktionsgleiche Teile sind mit gleichen Bezugszeichen versehen. Dabei zeigen schematisch:

  • Es zeigen schematisch:
    • 1 ein Kraftfahrzeug mit einem Modul;
    • 2 ein Modul des Kraftfahrzeugs;
    • 3 eine Darstellung einer Bedienung eines Menüs auf einer Hand;
    • 4 eine Darstellung einer geringfügigen Bewegung der Hand aus 3;
    • 5 eine Darstellung einer größeren Bewegung der Hand aus 3, sowie
    • 6 eine Geste zur Übergabe der Projektion von einer Hand zur anderen.
Further features and details emerge from the following description in which at least one exemplary embodiment is described in detail - possibly with reference to the drawing. Described and / or graphically represented features form the subject matter individually or in any meaningful combination, possibly also independently of the claims, and in particular can also be the subject matter of one or more separate applications. Identical, similar and / or functionally identical parts are provided with the same reference symbols. They show schematically:
  • They show schematically:
    • 1 a motor vehicle with a module;
    • 2 a module of the motor vehicle;
    • 3 an illustration of an operation of a menu on a hand;
    • 4th an illustration of a slight movement of the hand 3 ;
    • 5 an illustration of a larger movement of the hand 3 , such as
    • 6 a gesture to hand over the projection from one hand to the other.

1 zeigt ein Kraftfahrzeug 2 mit einem Modul 4. 1 shows a motor vehicle 2 with one module 4th .

Das Modul 4 ist zur Bedienung eines Infotainmentsystems 6 vorgesehen. Hierzu ist das Infotainmentsystems 6 mit dem Modul 4 signalleitend verbunden. Das Modul 4 kann Bedienparameter ändern und diese an das Infotainmentsystems 6 senden, welches wiederum Einstellungen ändert, zum Beispiel einen Musiktitel, eine Wiedergabelautstärke oder dergleichen.The module 4th is for operating an infotainment system 6 intended. The infotainment system is for this purpose 6 with the module 4th connected to conduct signals. The module 4th can change operating parameters and transfer them to the infotainment system 6 send, which in turn changes settings, for example a music title, a playback volume or the like.

2 zeigt das Modul 4 des Kraftfahrzeugs 2. 2 shows the module 4th of the motor vehicle 2 .

Das Modul 4 weist eine Scanvorrichtung 8 auf. Die Scanvorrichtung 8, hier eine Kamera, tastet optisch eine Bedienzone 10 auf Objekte ab. Die Bedienzone 10 definiert ein Raumvolumen in fester räumlicher Ausrichtung zum Modul 4, innerhalb dessen eine Verwendung des Moduls 4 möglich ist.The module 4th has a scanning device 8th on. The scanning device 8th , here a camera, optically scans an operating zone 10 on objects. The operating zone 10 defines a spatial volume with a fixed spatial alignment to the module 4th , within which a use of the module 4th is possible.

Das Modul 4 weist des Weiteren eine Projektionsvorrichtung 12 auf, die mithilfe einer Optik 14 Informationen auf einen Bereich 16 innerhalb der Bedienzone 10 projizieren kann, wie durch einen Lichtstrahl 18 dargestellt ist.The module 4th furthermore has a projection device 12th on that using an optic 14th Information on an area 16 within the operating zone 10 can project like a ray of light 18th is shown.

Das Modul 4 weist des Weiteren eine Recheneinheit 20 sowie einen damit verbundenen Speicher 22 auf. In dem Speicher 22 ist ein Computerprogrammprodukt gespeichert, das, wenn es von der Recheneinheit 20 ausgeführt wird, das hier beschriebene Verfahren ausführt.The module 4th also has a computing unit 20th as well as an associated memory 22nd on. In the memory 22nd A computer program product is stored which, when it is processed by the processing unit 20th is running, following the procedure described here.

In 2 ist des Weiteren dargestellt, dass ein Benutzer eine linke Hand 24 in die Bedienzone 10 hält. Die linke Hand 24 stellt den Bereich 16 bereit, der als Projektionsfläche für die Projektionsvorrichtung 12 verwendet werden kann.In 2 it is also shown that a user has a left hand 24 into the operating zone 10 holds. The left hand 24 represents the area 16 ready as a projection surface for the projection device 12th can be used.

Die Scanvorrichtung 8 misst eine relative Position P der linken Hand 24 zur Scanvorrichtung 8. Mithilfe der Scanvorrichtung 8 können Ausrichtung, Größe und Lage der Hand 24 relativ zur Scanvorrichtung 8 innerhalb der Bedienzone 10 erkannt werden.The scanning device 8th measures a relative position P the left hand 24 to the scanning device 8th . Using the scanning device 8th can hand orientation, size and location 24 relative to the scanning device 8th within the operating zone 10 be recognized.

Die Scanvorrichtung 8 kann darüber hinaus einen Fingerabdruck 26 der linken Hand 24 erkennen und damit die linke Hand 24 eindeutig einem bestimmten Benutzer zuordnen. Hierzu kann eine entsprechende biometrische Information in dem Speicher 22 abgelegt sein und damit eine Individualisierung erreicht werden, z.B. durch Bereitstellen von Favoriten.The scanning device 8th can also have a fingerprint 26th the left hand 24 recognize and thus the left hand 24 uniquely assign to a specific user. For this purpose, corresponding biometric information can be stored in the memory 22nd be stored and thus individualization can be achieved, for example by providing favorites.

3 zeigt eine Darstellung einer Bedienung eines Menüs 28. 3 shows an illustration of an operation of a menu 28 .

Das Menü 28 wird mit der Projektionsvorrichtung 12 auf die linke Hand 24 projiziert. Das Menü 28 weist eine Menüauswahl 30 auf, von denen der Benutzer mit einer rechten Hand 32 durch Tippen mit einem Finger 34 als Bedienobjekt auf eine Bedieninformation 34.The menu 28 comes with the projection device 12th on the left hand 24 projected. The menu 28 has a menu selection 30th on, one of which is the user with a right hand 32 by tapping with one finger 34 as an operating object to operating information 34 .

4 zeigt eine Darstellung einer geringfügigen Bewegung der linken Hand 24 aus 3. 4th shows an illustration of a slight movement of the left hand 24 out 3 .

Durch Vibrationen bewegt sich die linke Hand 24 um eine Positionsveränderungsdistanz dA. Die Positionsveränderungsdistanz dA wird von der Scanvorrichtung 8 aufgenommen und mit einer Mindestveränderungsdistanz dM verglichen. Da im vorliegenden Fall die Positionsveränderungsdistanz dA kleiner ist als die Mindestveränderungsdistanz dM, wird die Projektion des Menüs 28 nicht verändert, auch wenn sich dadurch eine relative Position des Menüs von einer Position A zu einer Position A' verändert.The left hand moves through vibrations 24 by a position change distance there . The position change distance there is from the scanning device 8th recorded and with a minimum change distance dm compared. Since in the present case the position change distance there is less than the minimum change distance dm , will project the menu 28 not changed, even if this changes a relative position of the menu from one position A. changed to a position A '.

5 zeigt eine Darstellung einer größeren Bewegung der linken Hand 24 aus 3. 5 shows an illustration of a major movement of the left hand 24 out 3 .

Die Scanvorrichtung 8 misst sowohl eine Positionsveränderungsdistanz dA als auch eine Winkelveränderung dW der linken Hand 24 und berechnet daraus eine Mitführtrajektorie T, gemäß der die Projektionsvorrichtung 12 in Position und Neigung nachführen muss, um das Menü 28 immer noch passend auf der linken Hand 24 darzustellen.The scanning device 8th measures both a position change distance there as well as a change in angle dW the left hand 24 and calculates an entrainment trajectory from this T , according to which the projection device 12th must track the position and inclination to the menu 28 still fitting on the left hand 24 to represent.

6 zeigt eine Geste zur Übergabe der Projektion von einer Hand 24 zur anderen Hand 30. 6 shows a gesture to hand over the projection 24 to the other hand 30th .

Wenn beide Hände 24, 32 in der Bedienzone 10 eine bestimmte Geste durchführen, hier das Zusammenführen der Finger auf einen Abstand kleiner als x, wird diese Geste von der Scanvorrichtung 8 erkannt und die Recheneinheit 20 steuert die Projektionsvorrichtung 12 so an, dass zukünftig das Menü 28 auf der rechten Hand 32 dargestellt wird.When both hands 24 , 32 in the operating zone 10 perform a certain gesture, here bringing the fingers together to a distance smaller than x, this gesture is carried out by the scanning device 8th recognized and the computing unit 20th controls the projection device 12th so that in the future the menu 28 on the right hand 32 is shown.

Alternativ sind andere Gesten als die hier dargestellte möglich.Alternatively, other gestures than those shown here are possible.

Obwohl der Gegenstand im Detail durch Ausführungsbeispiele näher illustriert und erläutert wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden. Es ist daher klar, dass eine Vielzahl von Variationsmöglichkeiten existiert. Es ist ebenfalls klar, dass beispielhaft genannte Ausführungsformen nur Beispiele darstellen, die nicht in irgendeiner Weise als Begrenzung etwa des Schutzbereichs, der Anwendungsmöglichkeiten oder der Konfiguration der Erfindung aufzufassen sind. Vielmehr versetzen die vorhergehende Beschreibung und die Figurenbeschreibung den Fachmann in die Lage, die beispielhaften Ausführungsformen konkret umzusetzen, wobei der Fachmann in Kenntnis des offenbarten Erfindungsgedankens vielfältige Änderungen beispielsweise hinsichtlich der Funktion oder der Anordnung einzelner, in einer beispielhaften Ausführungsform genannter Elemente vornehmen kann, ohne den Schutzbereich zu verlassen, der durch die Ansprüche und deren rechtliche Entsprechungen, wie etwa weitergehenden Erläuterung in der Beschreibung, definiert wird.Although the subject matter was illustrated and explained in more detail by means of exemplary embodiments, the invention is not restricted by the disclosed examples and other variations can be derived therefrom by the person skilled in the art. It is therefore clear that there is a multitude of possible variations. It is also clear that embodiments cited by way of example only represent examples that are not to be interpreted in any way as a limitation, for example, of the scope of protection, the possible applications or the configuration of the invention. Rather, the preceding description and the description of the figures enable the person skilled in the art to specifically implement the exemplary embodiments, whereby the person skilled in the art, with knowledge of the disclosed inventive concept, can make various changes, for example with regard to the function or the arrangement of individual elements mentioned in an exemplary embodiment, without the To leave the scope of protection which is defined by the claims and their legal equivalents, such as further explanation in the description.

BezugszeichenlisteList of reference symbols

22
KraftfahrzeugMotor vehicle
44th
Modulmodule
66th
InfotainmentsystemInfotainment system
88th
ScanvorrichtungScanning device
1010
BedienzoneOperating zone
1212
ProjektionsvorrichtungProjection device
1414th
Optikoptics
1616
BereichArea
1818th
LichtstrahlBeam of light
2020th
RecheneinheitArithmetic unit
2222nd
SpeicherStorage
2424
linke Handleft hand
2626th
Fingerabdruckfingerprint
2828
Menümenu
3030th
MenüauswahlMenu selection
3232
rechte Handright hand
3434
Finger finger
dAthere
PositionsveränderungsdistanzPosition change distance
dMdm
MindestveränderungsdistanzMinimum change distance
dWdW
WinkelveränderungChange of angle
A, A'A, A '
relative Positionrelative position
PP
relative Positionrelative position
TT
MitführtrajektorieEntrainment trajectory
xx
Abstanddistance

Claims (13)

Verfahren zur berührungslosen Interaktion mit einem Modul (4), mit den folgenden Schritten: - mittels einer Scanvorrichtung (8) Feststellen einer relativen Position (P) eines Bedienobjektes (24) zu der Scanvorrichtung (8) innerhalb einer Bedienzone (10), - Projizieren wenigstens einer Bedieninformation (28, 30) in einen definierten Bereich (16) auf das Bedienobjekt (24) mittels einer Projektionsvorrichtung (12), - Feststellen einer Position (P) einer Bedienvorrichtung (34) innerhalb der Bedienzone (10) mittels der Scanvorrichtung (8), - Ändern wenigstens eines Bedienparameters mittels des Moduls (4), wenn das Bedienobjekt (24) eine festgelegte räumliche Korrelation zu der Bedieninformation (28, 30) einnimmt, - Feststellen einer Positionsveränderung des Bedienobjektes (24) gegenüber der relativen Position (P) mittels der Scanvorrichtung (8), wobei, - wenn eine Positionsveränderungsdistanz (dA) kleiner oder gleich einer Mindestveränderungsdistanz (dM) ist, die Bedieninformation (28, 30) räumlich nicht bewegt wird, - wenn die Positionsveränderungsdistanz (dA) größer ist als die Mindestveränderungsdistanz (dM), die Bedieninformation (28, 30) räumlich mit der Bewegung des Bedienobjektes (24) mitgeführt wird, dadurch gekennzeichnet, dass das Bedienobjekt eine Hand (24, 32) eines Nutzers ist und/oder die Bedienvorrichtung wenigstens ein Finger (34) eines Nutzers ist, wobei mittels der Scanvorrichtung (8) biometrische Daten (26) des Nutzers anhand der Hand (24) und/oder des wenigstens einen Fingers (34) erfasst werden.Method for contactless interaction with a module (4), with the following steps: - by means of a scanning device (8) determining a relative position (P) of an operating object (24) to the scanning device (8) within an operating zone (10), - projecting at least one piece of operating information (28, 30) into a defined area (16) onto the Operating object (24) by means of a projection device (12), - determining a position (P) of an operating device (34) within the operating zone (10) by means of the scanning device (8), - changing at least one operating parameter by means of the module (4), if the Control object (24) assumes a fixed spatial correlation to the control information (28, 30), - determining a change in position of the control object (24) with respect to the relative position (P) by means of the scanning device (8), where, is less than or equal to a minimum change distance (dM), the operating information (28, 30) is not spatially moved, - if the position change distance (dA) is greater than the Mi ndest change distance (dM), the operating information (28, 30) is spatially carried along with the movement of the operating object (24), characterized in that the operating object is a hand (24, 32) of a user and / or the operating device is at least one finger (34 ) of a user, biometric data (26) of the user being recorded using the hand (24) and / or the at least one finger (34) by means of the scanning device (8). Verfahren nach Anspruch 1, wobei die Bedieninformation (28, 30) stetig mitgeführt wird.Procedure according to Claim 1 , the operating information (28, 30) is constantly carried along. Verfahren nach Anspruch 1 oder 2, wobei die Scanvorrichtung (8) eine Bewegungsrichtung und eine Bewegungsgeschwindigkeit eines Bedienobjektes (24) misst und mithilfe dieser Informationen eine Mitführtrajektorie (T) der Bedieninformation (28, 30) berechnet.Procedure according to Claim 1 or 2 , wherein the scanning device (8) measures a direction of movement and a movement speed of an operator control object (24) and uses this information to calculate an entrainment trajectory (T) of the operator control information (28, 30). Verfahren nach einem der vorangegangenen Ansprüche, wobei die Bedieninformation (28, 30) sowohl in Position als auch in Ausrichtung mit dem Bedienobjekt (24) mitgeführt wird.Method according to one of the preceding claims, wherein the operating information (28, 30) is carried along both in position and in alignment with the operating object (24). Verfahren nach einem der vorangegangenen Ansprüche, wobei die Scanvorrichtung (8) ein zweites Bedienobjekt (24) in der Bedienzone (10) erkennt, wobei, wenn erstes Bedienobjekt (24) und zweites Bedienobjekt (24) sich in einer bestimmten Lage zueinander befinden oder begeben, die Projektionsvorrichtung (12) die Bedieninformation (28, 30) auf dem zweiten Bedienobjekt darstellt.Method according to one of the preceding claims, wherein the scanning device (8) detects a second operating object (24) in the operating zone (10), wherein when the first operating object (24) and second operating object (24) are or are in a certain position relative to one another , the projection device (12) displays the operating information (28, 30) on the second operating object. Verfahren nach einem der vorangegangenen Ansprüche , wobei die biometrischen Daten (26) einen Fingerabdruck (26) und/oder anatomische Daten der Hand (24, 32) und/oder Handlinien und/oder des wenigstens einen Fingers (34) umfassen.Method according to one of the preceding claims, wherein the biometric data (26) comprise a fingerprint (26) and / or anatomical data of the hand (24, 32) and / or hand lines and / or of the at least one finger (34). Verfahren nach Anspruch 6, wobei die biometrischen Daten (26) mit Daten in einem Speicher (22) verglichen werden, wobei bei Übereinstimmung der biometrischen Daten (26) mit einem Datensatz im Speicher (22) ein Nutzerprofil geladen wird, wobei das Nutzerprofil wenigstens eine Bedieninformation (28, 30) betrifft.Procedure according to Claim 6 , the biometric data (26) being compared with data in a memory (22), with a user profile being loaded if the biometric data (26) matches a data record in the memory (22), the user profile at least one piece of operating information (28, 30) concerns. Verfahren nach einem der vorangegangenen Ansprüche, wobei das Modul den veränderten Bedienparameter an eine Steuerungsvorrichtung (6) sendet, wobei die Steuerungsvorrichtung (6) wenigstens eine Einstellung ändert.Method according to one of the preceding claims, wherein the module sends the changed operating parameters to a control device (6), wherein the control device (6) changes at least one setting. Computerprogrammprodukt, mit einem computerlesbaren Speichermedium (22), auf dem Befehle eingebettet sind, die, wenn sie von wenigstens einer Recheneinheit (20) ausgeführt werden, bewirken, dass die wenigstens eine Recheneinheit (20) dazu eingerichtet ist, das Verfahren nach einem der vorangegangenen Ansprüche auszuführen.Computer program product with a computer-readable storage medium (22) on which instructions are embedded which, when executed by at least one processing unit (20), have the effect that the at least one processing unit (20) is set up to implement the method according to one of the preceding To carry out claims. Modul mit einem Speichermedium (22) und wenigstens einer Recheneinheit (20), wobei in dem Speichermedium ein Computerprogrammprodukt nach Anspruch 11 gespeichert ist.Module with a storage medium (22) and at least one processing unit (20), wherein a computer program product is in the storage medium Claim 11 is stored. Modul nach Anspruch 10, mit einer Scanvorrichtung (8), die das Bedienobjekt (24) mit Licht in nicht sichtbarem Wellenlängenbereich scannt und/oder mit einer Projektionsvorrichtung (12) mit einer fokussierbaren Optik (14).Module after Claim 10 with a scanning device (8) that scans the operating object (24) with light in a non-visible wavelength range and / or with a projection device (12) with focusable optics (14). Modul nach Anspruch 10 oder 11, wobei das Modul (4) fest in einem Kraftfahrzeug (2) verbaut ist.Module after Claim 10 or 11 , wherein the module (4) is permanently installed in a motor vehicle (2). Kraftfahrzeug mit einem Modul nach einem der Ansprüche 10 bis 12.Motor vehicle with a module according to one of the Claims 10 to 12th .
DE102019206606.2A 2019-05-08 2019-05-08 Method for contactless interaction with a module, computer program product, module and motor vehicle Active DE102019206606B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019206606.2A DE102019206606B4 (en) 2019-05-08 2019-05-08 Method for contactless interaction with a module, computer program product, module and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206606.2A DE102019206606B4 (en) 2019-05-08 2019-05-08 Method for contactless interaction with a module, computer program product, module and motor vehicle

Publications (2)

Publication Number Publication Date
DE102019206606A1 DE102019206606A1 (en) 2020-11-12
DE102019206606B4 true DE102019206606B4 (en) 2021-01-28

Family

ID=72943392

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206606.2A Active DE102019206606B4 (en) 2019-05-08 2019-05-08 Method for contactless interaction with a module, computer program product, module and motor vehicle

Country Status (1)

Country Link
DE (1) DE102019206606B4 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022109496B3 (en) 2022-04-20 2023-10-05 Audi Aktiengesellschaft Method for providing an augmented reality representation for an object arranged in a motor vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021112094A1 (en) 2021-05-10 2022-11-10 Bayerische Motoren Werke Aktiengesellschaft GESTURE RECOGNITION DEVICE FOR RECOGNIZING A GESTURE PERFORMED BY A PERSON

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130086531A1 (en) * 2011-09-29 2013-04-04 Kabushiki Kaisha Toshiba Command issuing device, method and computer program product
DE102013000081A1 (en) * 2013-01-08 2014-07-10 Audi Ag Operator interface for contactless selection of a device function

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130086531A1 (en) * 2011-09-29 2013-04-04 Kabushiki Kaisha Toshiba Command issuing device, method and computer program product
DE102013000081A1 (en) * 2013-01-08 2014-07-10 Audi Ag Operator interface for contactless selection of a device function

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022109496B3 (en) 2022-04-20 2023-10-05 Audi Aktiengesellschaft Method for providing an augmented reality representation for an object arranged in a motor vehicle

Also Published As

Publication number Publication date
DE102019206606A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
EP1998996B1 (en) Interactive operating device and method for operating the interactive operating device
WO2015010752A1 (en) Method and device for remote-controlling a function of a vehicle
EP2802963A1 (en) Method and device for operating functions in a vehicle using gestures performed in three-dimensional space, and related computer program product
WO2014108153A1 (en) Method for synchronizing display devices in a motor vehicle
DE102019206606B4 (en) Method for contactless interaction with a module, computer program product, module and motor vehicle
WO2014108147A1 (en) Zooming and shifting of image content of a display device
DE102012020607A1 (en) Method for controlling selection element e.g. cursor, on monitor of e.g. navigation device, of motor vehicle i.e. passenger car, involves activating function of electronic device by control device based on relative position of finger
WO2010083821A1 (en) Method for controlling a selected object displayed on a screen
EP3366434A1 (en) Method for checking a function of a vehicle and/or at least one operating device
WO2014067774A1 (en) Method and device for operating an input device
WO2017054894A1 (en) Interactive operating system and method for carrying out an operational action in an interactive operating system
DE202015100273U1 (en) input device
DE19918072A1 (en) Operation method for screen controlled process, e.g. in power plant
DE102014224599A1 (en) Method for operating an input device, input device
DE102009021216A1 (en) Touch-sensitive input device e.g. capacitive input device, for manipulation of cursor in e.g. kiosk display, has evaluation unit evaluating signals, where introduction of control objects into detection area is detected by one input module
EP3025214B1 (en) Method for operating an input device, and input device
EP3114545A1 (en) User interface and method for operating a user interface using gestures performed freely in a space
WO2014108160A2 (en) User interface for the contactless selection of a device function
AT512592B1 (en) Computer system and a control method for it
DE102015201722A1 (en) Method for operating an input device, input device
DE102013211046A1 (en) Method and device for obtaining a control signal from an operating gesture
DE102013220830A1 (en) Input device with touch screen for vehicles
DE102012206960B4 (en) Method and device for detecting at least one predetermined actuating movement for an operating device of a vehicle
WO2014040807A1 (en) Touch entries along a ridge/depression on a touch-sensitive surface
DE102019131944A1 (en) Method for controlling at least one display unit, motor vehicle and computer program product

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R086 Non-binding declaration of licensing interest
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: STELLANTIS AUTO SAS, FR

Free format text: FORMER OWNER: PSA AUTOMOBILES SA, POISSY, FR