WO2015121173A1 - Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus - Google Patents

Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus Download PDF

Info

Publication number
WO2015121173A1
WO2015121173A1 PCT/EP2015/052549 EP2015052549W WO2015121173A1 WO 2015121173 A1 WO2015121173 A1 WO 2015121173A1 EP 2015052549 W EP2015052549 W EP 2015052549W WO 2015121173 A1 WO2015121173 A1 WO 2015121173A1
Authority
WO
WIPO (PCT)
Prior art keywords
user interface
user
hand
predefined
gesture
Prior art date
Application number
PCT/EP2015/052549
Other languages
English (en)
French (fr)
Inventor
Holger Wild
Mark Peter Czelnik
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to CN201580009060.2A priority Critical patent/CN106030462A/zh
Priority to EP15705545.0A priority patent/EP3108332A1/de
Publication of WO2015121173A1 publication Critical patent/WO2015121173A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Definitions

  • the present invention relates to a user interface as well as a method for changing from a first operating mode of a user interface into an SD gesture mode, by means of which an operation of the user interface can be carried out by a plurality of freely executed in space gestures.
  • the present invention relates to avoiding erroneous operations by a comfortable yet secure initialization of a 3D gesture mode.
  • the gesture is detected and converted into control commands.
  • the start of the 3D gesture operation and the
  • DE 10 2012 000 263 A1 discloses a method and a device for operating functions in a vehicle using in three-dimensional space
  • Detection device detects a hand or a finger of the user for a first predetermined period of time in a valid detection area, a gesture control is activated.
  • a gesture control is activated for the learning process of the user. It is proposed to permit blind operation by the user by visual and / or acoustic feedback during a gesture operation.
  • DE 10 2006 037 156 A1 describes an interactive operating device, by means of which the gesture operation of a graphical content displayed on a display device is made possible. Depending on a determined operating intention the on the
  • Display device displayed graphical content for activating one with it shown optimized function. For example, when approaching a button, the button will be enlarged.
  • DE 10 2009 008 041 A1 discloses a method for operating a motor vehicle with a touchscreen, in which an approach sensor system for detecting a gesture for executing or initializing the execution of a function of the motor vehicle is provided. If a gesture of a hand is performed in the vicinity of the touch screen without touching the touch screen, the function of the motor vehicle is performed.
  • Computer program product a signal sequence and a means of transport proposed to solve the problem.
  • the method is used to switch from a first operating mode, in which a 3D gesture operation for starting a plurality of functions of the user interface or a communication technology connected to him computer system is not possible, in a 3D gesture mode, by means of which an operation of the user interface can be done by a variety of gestures executed freely in space.
  • the first operating mode can be completely based on the operation via hardware-configured buttons, turn-push dials,
  • a touch-sensitive surface of a display unit e.g., a touch screen.
  • functions associated with graphic contents are not called by 3D gestures.
  • a hand of a user is detected in a predefined detection area of a sensor in a first step.
  • the sensor can
  • a predefined attitude of the user's hand and / or a predefined movement of the user's hand are detected.
  • the predefined attitude of the user's hand and / or a predefined movement of the hand can be used.
  • the inventive method comprises starting a timer.
  • the timer may be started in response to detecting a predefined posture of the user's hand and / or in response to detecting a predefined movement of the user's hand.
  • the 3D gesture mode is changed only if the predefined posture and / or movement is not ended before the timer expires.
  • the timer expires, it is checked if the predefined posture / movement is still in progress and changed from the first operating mode to the SD-gesture mode only in response to both conditions.
  • the predefined posture may include, for example, a palm open in the direction of a sensor used for 3D gesture recognition and / or in the direction of a display unit of the user interface.
  • the opened palm is substantially parallel to a surface of the display unit or substantially perpendicular in the direction of the sensor.
  • another gesture or other gestures may be predefined to start or end the gesture operation. Further examples of this are a so-called "thumbs up" gesture or a gripping gesture (bale of a fist opened from, for example, in the direction of the sensor used and / or in the direction of a display unit of the user interface
  • Hand gesture or merge several or all fingertips Such gestures have been found to be sensibly secure and therefore found to be suitable for starting the SD gesture mode.
  • an optical and / or audible indication to the user may be made that the 3D gesture mode is now activated.
  • this indication can also be made in response to the change to the SD gesture mode. In this way it is avoided that the user takes the predefined posture unnecessarily long or carries out movement, although the SD gesture operation can already take place. For example, a driver may become one
  • a hand symbol in an edge area of a graphic content of a display unit can be displayed, in particular animated.
  • a sound signal, a click sound or a voice output can be made as an acoustic indication.
  • a user interface comprising a sensor for detection by a user's hand of free gestures executed in space. Furthermore, the user interface has a display unit for displaying a random graphic content.
  • the display unit may be configured, for example, as a matrix screen, which is embedded in the dashboard of a means of transportation as an instrument cluster and / or as a central information display.
  • an evaluation unit which may comprise a programmable processor, for example, is provided for detecting a plurality of gestures in the signals of the sensor.
  • evaluation units are also referred to as “electronic control unit (ECU).”
  • ECU electronic control unit
  • the evaluation unit is set up to detect a predefined position of the user's hand and / or a predefined movement of the user's hand, for which the evaluation unit can analyze the detected movement patterns and compares with references stored (for example, in a local or wireless database), if the match is successful, in other words, a detected 3D gesture is associated with the start of the 3D gesture mode
  • Evaluation unit the user interface of the invention of a first
  • the senor may be an optical sensor, which is arranged for example in the headliner of a means of locomotion.
  • a sensor operating in the infrared range may also be provided to enable or support gesture recognition.
  • an optical and / or acoustic output unit for outputting an indication of the successful start of the 3-D gesture mode can be provided.
  • LEDs or matrix displays have prevailed as optical output units
  • loudspeakers are preferably used for the output of acoustic information (for example speech output, sound signals, sounds).
  • a third aspect of the present invention is a
  • a computer program product e.g., a data memory
  • instructions are stored containing a programmable processor
  • Evaluation unit of a user interface according to the second-mentioned aspect of the present invention enable to perform the steps of a method according to the first-mentioned aspect of the invention.
  • the computer program product can be as CD, DVD, Blu-ray Disc, Flash Memory, Hard Disk, RAM / ROM, Cache etc.
  • a signal sequence representing instructions which enable a programmable processor of a user interface evaluation unit according to the second-mentioned aspect of the present invention to carry out the steps of a method according to the first-mentioned aspect of the invention is proposed.
  • the information technology provision of the instructions is provided for the case under protection, that the storage means required for this purpose are outside the scope of the appended claims.
  • a user terminal which may for example be designed as a portable electronic device.
  • electronic wireless communication devices such as
  • Smartphones tablet PCs or laptops / netbooks, suitable for one
  • Portable user terminals often have all the hardware required to support 3D gesture operation. With regard to the user terminal and the associated features and advantages, reference is made to the above statements.
  • a means of transportation is proposed, which may be designed, for example, as a car, van, truck, aircraft and / or watercraft.
  • a means of transportation is proposed, which may be designed, for example, as a car, van, truck, aircraft and / or watercraft.
  • Display unit can be designed as fixed in a dashboard of the means of transport built central screen and / or as an instrument cluster. In this way, the means of locomotion is also set up to solve the problem of the invention or for use in a method according to the invention.
  • Figure 1 is a schematic overview of components of an embodiment of a user interface according to the invention in an embodiment of an inventively designed car;
  • Figure 2 is a schematic overview of components of an embodiment of a user interface according to the invention in an embodiment of an inventively designed user terminal;
  • FIG. 3 shows a diagram for illustrating a first method step of a
  • FIG. 4 shows a selection of gestures that can be used according to the invention
  • FIG. 5 shows a diagram for illustrating a first method step of a second exemplary embodiment of a method according to the invention
  • FIG. 6 shows a flow chart, illustrating steps of an embodiment of a method according to the invention
  • Figure 1 shows a car 10 as a means of transport, in which a screen 3 of a user interface according to the invention as a display unit in the dashboard of the car 10 is inserted. Below the screen 3, a sensor 5 is arranged, which spans a detection area 9 in front of the screen 3 in space. A speaker 1 1 is provided for outputting hints of the user interface 1. Finally, there is also a data store s for providing predefined references for the
  • the aforementioned components are connected to an evaluation unit in the form of an electronic control unit 7 in terms of information technology.
  • the electronic control unit 7 is also set up to display graphic content 2 on the screen 3.
  • FIG. 2 shows an overview of components of an embodiment of a user interface according to the invention in an embodiment of a user terminal 20 according to the invention in the form of a smartphone.
  • the screen 3 of the smartphone represents the display unit, a microprocessor 7, the evaluation unit, a flash memory 8, the memory means and a speaker 1 1 a signal generator of the user interface 1 according to the invention.
  • an infrared LED strip 5 as a sensor with the microprocessor 7 connected in terms of information technology.
  • the latter is also coupled to an antenna 17 for wireless communication with a wireless infrastructure or other user terminals.
  • a keyboard 6 of the smartphone 20 is partially cut to allow the view of the components behind it.
  • FIG. 3 shows an operating step in which a menu 2 for selecting a radio station as graphical content by a user's hand 4 is to be operated on a screen 3 as a display unit.
  • the user's hand 4 executes a predefined gesture in the detection area of the user interface. This consists in the example in that the open hand points in the direction of the screen 3 and the five fingers of the hand 4 are held out and held moderately spread.
  • the evaluation unit (not shown) is set up, also further gestures of the hand 4 into commands for controlling the menu 2 on the
  • FIG. 4 shows possible hand postures and gestures for interaction with a person
  • inventive user interface 1 In part a, the open palm of the hand 4 points in the direction of the screen 3. The fingers of the hand 4 are stretched out and (slightly) spread. Partial figure b shows a pointing gesture of the hand 4, in which only the index finger is stretched, the remaining fingers are balled into a fist. In subfigure c, a hint gesture or click gesture is illustrated, in which the
  • Forefinger of the hand 4 is initially stretched out and then folded in the direction of the screen 3.
  • FIG. 5 shows an operating step which, following successful 3D gesture operation, may follow subsequent to the sign-on process discussed in FIG.
  • FIG. 6 shows method steps of an exemplary embodiment of a method according to the invention for changing from a first operating mode of a user interface to a 3D gesture mode.
  • a first step 100 graphical content is displayed on a display unit, which is subsequently to be operated via 3D gestures.
  • the user guides his hand into a predefined detection area of a sensor of the user interface.
  • step 200 the user's hand is detected by the sensor, and in step 300, a predefined posture and / or movement of the user's hand is detected.
  • sensory, reliably detectable gestures that are nevertheless easily distinguishable from the usual postures / movements when handling the user are suitable.
  • step 400 a timer is started, the sequence of which establishes another condition for starting the 3D gesture mode. Is it going? Timer off after the predefined posture / movement is completed (Y), the system remains in the first operating mode. Accordingly, the process returns to step 100 in this case. If the timer expires before the user's manual pose / movement is terminated, the system will switch from the first mode of operation to the 3D gesture mode in step 500 and will issue a visual and audible indication in step 600 that the 3D gesture mode has been successfully activated.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anwenderschnittstelle und ein Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus, mittels welchem eine Bedienung der Anwenderschnittstelle durch eine Vielzahl frei im Raum ausgeführter Gesten, nachfolgend 3D-Gesten genannt, erfolgen kann, vorgeschlagen. Das Verfahren umfasst die Schritte: - Erfassen einer Hand (4) eines Anwenders in einem vordefinierten Bereich mittels eines Sensors, - Erkennen einer vordefinierten Haltung der Hand (4) des Anwenders und/oder einer vordefinierte Bewegung der Hand (4) des Anwenders, und - Wechseln von dem ersten Bedienmodus in den 3D-Gesten-Modus.

Description

Beschreibung
Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer
Anwenderschnittstelle in einen 3D-Gesten-Modus
Stand der Technik
Die vorliegende Erfindung betrifft eine Anwenderschnittstelle sowie ein Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen SD- Gesten-Modus, mittels welchem eine Bedienung der Anwenderschnittstelle durch eine Vielzahl frei im Raum ausgeführter Gesten erfolgen kann. Insbesondere betrifft die vorliegende Erfindung eine Vermeidung irrtümlicher Bedienungsschritte durch eine komfortable und dennoch sichere Initialisierung eines 3D-Gesten-Modus.
Die Gestenbedienung im freien Raum erfreut sich immer größerer Beliebtheit. Mittels solcher 3D-Gesten können Anwender mit Mensch-Maschinen-Schnittstellen
kommunizieren, ohne körperlichen Kontakt mit der Eingabeeinrichtung zu haben.
Beispielsweise über optische und/oder infrarotbasierte Systeme wird die Geste erkannt und in Steuerbefehle umgewandelt. Für den Start der 3D-Gesten-Bedienung und die
Realisierung der anschließenden Bedienung sind im Stand der Technik unterschiedliche Verfahren bekannt.
DE 10 2012 000 263 A1 offenbart ein Verfahren und eine Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von in dreidimensionalem Raum
ausgeführten Gesten. Wird durch eine im Dachbereich des Fahrzeugs angeordnete
Erfassungseinrichtung eine Hand oder ein Finger des Nutzers für eine erste vorbestimmte Zeitdauer in einem gültigen Erfassungsbereich detektiert, wird eine Gestensteuerung aktiviert. Für den Lernprozess des Nutzers wird vorgeschlagen, durch optische und/oder akustische Rückmeldungen während einer Gestenbedienung eine Blindbedienung durch den Nutzer zu ermöglichen.
DE 10 2006 037 156 A1 beschreibt eine interaktive Bedienvorrichtung, durch welche die Gestenbedienung eines auf einer Anzeigevorrichtung dargestellten grafischen Inhaltes ermöglicht wird. In Abhängigkeit einer ermittelten Bedienabsicht wird der auf der
Anzeigevorrichtung dargestellte grafische Inhalt für das Aktivieren einer mit ihm assoziierten Funktion optimiert dargestellt. Beispielsweise wird bei der Annäherung an eine Schaltfläche die Schaltfläche vergrößert dargestellt.
DE 10 2009 008 041 A1 offenbart ein Verfahren zur Bedienung eines Kraftfahrzeugs mit einem Touchscreen, bei welchem eine Annäherungssensorik zur Erkennung einer Geste zur Ausführung bzw. Initialisierung der Ausführung einer Funktion des Kraftfahrzeugs vorgesehen ist. Wird in der Umgebung des Touchscreens eine Geste einer Hand ohne Berührung des Touchscreens ausgeführt, wird die Funktion des Kraftfahrzeugs ausgeführt.
Die im Stand der Technik bekannten Verfahren schöpfen die technischen Möglichkeiten zur Vereinfachung der Initialisierung einer 3D- Gestenbedienung nicht bestmöglich aus. Es ist daher eine Aufgabe der vorliegenden Erfindung, den vorgenannten Bedarf zu stillen.
Offenbarung der Erfindung
Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie durch eine Anwenderschnittstelle mit den
Merkmalen gemäß Anspruch 6 gelöst. Zudem werden ein Anwenderendgerät, ein
Computerprogrammprodukt, eine Signalfolge und ein Fortbewegungsmittel zur Lösung der Aufgabe vorgeschlagen. Das Verfahren dient dem Wechseln von einem ersten Bedienmodus, in welchem eine 3D-Gesten-Bedienung zum Starten einer Vielzahl von Funktionen der Anwenderschnittstelle bzw. einer mit ihm kommunikationstechnisch verbundenen EDV-Anlage nicht möglich ist, in einen 3D-Gesten-Modus, mittels welchem eine Bedienung der Anwenderschnittstelle durch eine Vielzahl frei im Raum ausgeführter Gesten erfolgen kann. Der erste Bedienmodus kann beispielsweise vollständig auf die Bedienung per in Hardware ausgestalteter Knöpfe, Dreh-Drück-Steller,
Slider/Schieberegler o.Ä. und alternativ oder zusätzlich unter Verwendung einer berührungsempfindlichen Oberfläche einer Anzeigeeinheit (z.B. ein Touchscreen) ausgelegt sein. Mit anderen Worten werden in dem ersten Bedienmodus keine mit grafischen Inhalten assoziierten Funktionen durch 3D-Gesten aufgerufen. Zum Starten des 3D-Gesten-Modus wird in einem ersten Schritt eine Hand eines Anwenders in einem vordefinierten Erfassungsbereich eines Sensors detektiert. Der Sensor kann
beispielsweise als optischer Sensor und/oder als Infrarot-Sensor (z.B. Infrarot-LED-Leiste) ausgestaltet sein. Grundsätzlich können sämtliche im Stand der Technik zur Erkennung von 3D-Gesten bekannten und bewährten Sensoren zum Einsatz kommen. In einem zweiten Schritt werden eine vordefinierte Haltung der Hand des Anwenders und/oder eine vordefinierte Bewegung der Hand des Anwenders erkannt. Die vordefinierte Haltung der Hand des Anwenders und/oder eine vordefinierte Bewegung der Hand können
grundsätzlich beliebig bzw. in geeigneter Weise gewählt werden. Wichtig ist lediglich, dass die vordefinierte Haltung bzw. die vordefinierte Bewegung der Hand zum Starten des 3D-Gesten-Modus vordefiniert ist. Gegenüber dem Stand der Technik wird hierbei nicht lediglich auf die Präsenz der Hand in einem vordefinierten Bereich abgestellt, so dass eine unbeabsichtigte Veranlassung eines Wechsels von dem ersten Bedienmodus in den 3D-Gesten-Modus bestmöglich vermieden wird.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
Bevorzugt umfasst das erfindungsgemäße Verfahren das Starten eines Timers. Der Timer kann beispielsweise im Ansprechen auf das Erkennen einer vordefinierten Haltung der Hand des Anwenders und/oder im Ansprechen auf das Erkennen einer vordefinierten Bewegung der Hand des Anwenders gestartet werden. In dieser Weiterbildung wird erst dann in den 3D-Gesten-Modus gewechselt, wenn die vordefinierte Haltung und/oder Bewegung vor dem Ablaufen des Timers nicht beendet wird. Mit anderen Worten wird bei Ablauf des Timers geprüft, ob die vordefinierte Haltung/Bewegung noch andauert und erst im Ansprechen auf beide Bedingungen von dem ersten Bedienmodus in den SD-Gesten- Modus gewechselt.
Die vordefinierte Haltung kann beispielsweise eine in Richtung eines verwendeten Sensors zur 3D-Gesten-Erkennung und/oder in Richtung einer Anzeigeeinheit der Anwenderschnittstelle geöffnete Handfläche umfassen. Hierbei befindet sich die geöffnete Handfläche im Wesentlichen parallel zu einer Oberfläche der Anzeigeeinheit bzw. im Wesentlichen senkrecht in Richtung des Sensors. Zusätzlich kann als Bedingung für die vordefinierte Haltung verlangt werden, dass die Finger der Hand in vordefinierter Weise gespreizt und/oder ausgestreckt sind. Alternativ oder zusätzlich kann eine weitere Geste oder können weitere Gesten vordefiniert sein, um die Gestenbedienung zu starten oder zu beenden. Weitere Beispiele hierfür sind eine sogenannte„Daumen hoch" Geste oder eine Greifgeste (Ballen einer Faust aus einer z.B. in Richtung des verwendeten Sensors und/oder in Richtung einer Anzeigeeinheit der Anwenderschnittstelle geöffneten
Handhaltung oder Zusammenführen mehrerer oder aller Fingerspitzen). Solche Gesten haben sich als sensorisch sicher erkennbar und daher als geeignet zum Start des SD- Gesten-Modus herausgestellt. Optional kann im Ansprechen auf das Erkennen der vordefinierten Haltung der Hand bzw. der vordefinierten Bewegung der Hand ein optischer und/oder akustischer Hinweis an den Anwender ergehen, dass der 3D-Gesten-Modus nun aktiviert ist. Alternativ oder zusätzlich kann dieser Hinweis auch im Ansprechen auf den erfolgten Wechsel in den SD-Gesten- Modus erfolgen. Auf diese Weise wird vermieden, dass der Anwender unnötig lange die vordefinierte Haltung einnimmt bzw. Bewegung ausführt, obwohl die SD-Gesten- Bedienung bereits erfolgen kann. Beispielsweise kann sich ein Fahrer eines
erfindungsgemäß ausgestatteten Fahrzeugs rascher wieder seiner Fahraufgabe zuwenden, was die Verkehrssicherheit erhöht. Als optischer Hinweis kann beispielsweise ein Handsymbol in einem Randbereich eines grafischen Inhaltes einer Anzeigeeinheit dargestellt, insbesondere animiert werden. Alternativ oder zusätzlich kann als akustischer Hinweis ein Klangzeichen, ein Klickgeräusch oder eine Sprachausgabe erfolgen. Die vorgenannten Hinweise stellen eine dezente Möglichkeit dar, den Anwender über den erfolgreichen Start des 3D-Gesten-Modus zu informieren.
Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welche einen Sensor zur Erfassung durch eine Hand eines Anwenders frei im Raum ausgeführter Gesten umfasst. Weiter weist die Anwenderschnittstelle eine Anzeigeeinheit zur Darstellung eines wahlfreien grafischen Inhaltes. Hierzu kann die Anzeigeeinheit beispielsweise als Matrix-Bildschirm ausgestaltet sein, welcher in das Armaturenbrett eines Fortbewegungsmittels als Kombiinstrument und/oder als zentrales Informationsdisplay eingelassen ist. Zusätzlich ist eine Auswerteeinheit, welche beispielsweise einen programmierbaren Prozessor umfassen kann, zum Erkennen einer Vielzahl von Gesten in den Signalen des Sensors vorgesehen. Im automobilen Umfeld werden solche Auswerteeinheiten auch als„elektronisches Steuergerät (ECU)" bezeichnet. Die Auswerteeinheit ist eingerichtet, eine vordefinierte Haltung der Hand des Anwenders und/oder eine vordefinierte Bewegung der Hand des Anwenders zu erkennen. Hierzu kann die Auswerteeinheit die erfassten Bewegungsmuster analysieren und mit (beispielsweise in einer lokalen oder drahtlos angebundenen Datenbank) gespeicherten Referenzen vergleichen. Ist der Abgleich erfolgreich, mit anderen Worten also eine erkannte 3D-Geste dem Start des 3D-Gesten-Modus zugeordnet, versetzt die
Auswerteeinheit die erfindungsgemäße Anwenderschnittstelle von einem ersten
Bedienmodus, in welchem zwar eine einzelne, zum Start des 3D-Gesten-Modus vorgesehene Geste erkannt wird, nicht aber die Verwendung einer Vielzahl von 3D- Gesten mit unterschiedlichen Funktionsaufrufen verknüpft ist, in einen 3D-Gesten-Modus, in welchem dies möglich ist. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erfindungsgemäßen Verfahren ausgeführten derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
Bevorzugt kann der Sensor ein optischer Sensor sein, der beispielsweise im Dachhimmel eines Fortbewegungsmittels angeordnet ist. Alternativ oder zusätzlich kann auch ein im Infrarotbereich operierender Sensor vorgesehen sein, die Gestenerkennung zu ermöglichen bzw. zu unterstützen.
Bevorzugt kann eine optische und/oder akustische Ausgabeeinheit zur Ausgabe eines Hinweises über den erfolgreichen Start des 3 D-Gesten-Modus vorgesehen sein. Während sich als optische Ausgabeeinheiten LEDs oder Matrix-Anzeigen durchgesetzt haben, finden für die Ausgabe akustischer Hinweise (z.B. Sprachausgaben, Klangzeichen, Geräusche) bevorzugt Lautsprecher Anwendung.
Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein
Computerprogrammprodukt (z.B. ein Datenspeicher) vorgeschlagen, auf welchem Instruktionen gespeichert sind, die einen programmierbaren Prozessor einer
Auswerteeinheit einer Anwenderschnittstelle gemäß dem zweitgenannten Aspekt der vorliegenden Erfindung in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Das Computerprogrammprodukt kann als CD, DVD, Blu-ray-Disc, Flash-Speicher, Festplatte, RAM/ROM, Cache etc.
ausgestaltet sein.
Gemäß einem vierten Aspekt der vorliegenden Erfindung wird eine Signalfolge repräsentierend Instruktionen vorgeschlagen, welche einen programmierbaren Prozessor einer Auswerteeinheit einer Anwenderschnittstelle gemäß dem zweitgenannten Aspekt der vorliegenden Erfindung in die Lage versetzen, die Schritte eines Verfahrens gemäß dem erstgenannten Erfindungsaspekt durchzuführen. Auf diese Weise wird auch die informationstechnische Bereitstellung der Instruktionen für den Fall unter Schutz gestellt, dass sich die hierzu erforderlichen Speichermittel außerhalb des Geltungsbereiches der beigefügten Ansprüche befinden.
Gemäß einem fünften Aspekt der vorliegenden Erfindung wird ein Anwenderendgerät vorgeschlagen, welches beispielsweise als tragbares elektronisches Gerät ausgestaltet sein kann. Insbesondere sind elektronische Drahtloskommunikationsgeräte, wie
Smartphones, Tablet-PCs oder Laptops/Netbooks, dafür geeignet, durch eine
erfindungsgemäße Anwenderschnittstelle erweitert und anwenderfreundlich bedienbar gemacht zu werden. Tragbare Anwenderendgeräte weisen häufig die gesamte erforderliche Hardware auf, um eine 3D-Gesten-Bedienung zu unterstützen. Auch bezüglich des Anwenderendgerätes und der mit ihm verknüpften Merkmale und Vorteile wird auf die obigen Ausführungen verwiesen.
Gemäß einem sechsten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel vorgeschlagen, welches beispielsweise als Pkw, Transporter, Lkw, Luft- und/oder Wasserfahrzeug ausgestaltet sein kann. Erfindungsgemäß umfasst das
Fortbewegungsmittel eine Anwenderschnittstelle, wie sie in Verbindung mit dem zweitgenannten Erfindungsaspekt oben im Detail beschrieben worden ist. Die
Anzeigeeinheit kann als fest in ein Armaturenbrett des Fortbewegungsmittels eingebauter zentraler Bildschirm und/oder als Kombiinstrument ausgestaltet sein. Auf diese Weise wird das Fortbewegungsmittel ebenfalls zur Lösung der erfindungsgemäßen Aufgabe bzw. zur Verwendung in einem erfindungsgemäßen Verfahren eingerichtet.
Kurze Beschreibung der Zeichnung(en)
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
Figur 1 eine schematische Übersicht über Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle in einem Ausführungsbeispiel eines erfindungsgemäß ausgestalteten Pkw;
Figur 2 eine schematische Übersicht über Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle in einem Ausführungsbeispiel eines erfindungsgemäß ausgestalteten Anwenderendgerät;
Figur 3 eine Darstellung zur Veranschaulichung eines ersten Verfahrensschrittes eines
Ausführungsbeispiels eines erfindungsgemäßen Verfahrens;
Figur 4 eine Auswahl erfindungsgemäß verwendbarer Gesten;
Figur 5 eine Darstellung zur Veranschaulichung eines ersten Verfahrensschrittes eines zweiten Ausführungsbeispiels eines erfindungsgemäßen Verfahrens; und Figur 6 ein Flussdiagramm, veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens
Ausführungsformen der Erfindung
Figur 1 zeigt einen Pkw 10 als Fortbewegungsmittel, in welchem ein Bildschirm 3 einer erfindungsgemäßen Anwenderschnittstelle als Anzeigeeinheit in das Armaturenbrett des Pkw 10 eingelassen ist. Unterhalb des Bildschirms 3 ist ein Sensor 5 angeordnet, welcher einen Erfassungsbereich 9 vor dem Bildschirm 3 im Raum aufspannt. Ein Lautsprecher 1 1 ist zur Ausgabe von Hinweisen der Anwenderschnittstelle 1 vorgesehen. Schließlich ist auch ein Datenspeicher s zum Bereitstellen vordefinierter Referenzen für die
Gestenerkennung im Pkw 10 enthalten. Die vorgenannten Komponenten sind an eine Auswerteeinheit in Form eines elektronischen Steuergerätes 7 informationstechnisch angebunden. Das elektronische Steuergerät 7 ist zudem für die Darstellung grafischen Inhaltes 2 auf dem Bildschirm 3 eingerichtet.
Figur 2 zeigt eine Übersicht über Komponenten eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle in einem Ausführungsbeispiel eines erfindungsgemäßen Anwenderendgerätes 20 in Form eines Smartphones. Der Bildschirm 3 des Smartphones stellt die Anzeigeeinheit, ein Mikroprozessor 7 die Auswerteeinheit, ein Flash-Speicher 8, das Speichermittel und ein Lautsprecher 1 1 einen Signalgeber der erfindungsgemäßen Anwenderschnittstelle 1 dar. Zusätzlich ist eine Infrarot-LED-Leiste 5 als Sensor mit dem Mikroprozessor 7 informationstechnisch verbunden. Letzterer ist auch mit einer Antenne 17 gekoppelt, um drahtlos mit einer Drahtlosinfrastruktur bzw. anderen Anwenderendgeräten zu kommunizieren. Eine Tastatur 6 des Smartphones 20 ist teilweise freigeschnitten, um den Blick auf die hinter ihr liegenden Komponenten zu ermöglichen.
Figur 3 zeigt einen Bedienschritt, in welchem auf einem Bildschirm 3 als Anzeigeeinheit ein Menü 2 zur Auswahl eines Radiosenders als grafischer Inhalt durch die Hand 4 eines Anwenders bedient werden soll. Zum Starten der 3D-Gesten-Bedienung führt die Hand 4 des Anwenders eine vordefinierte Geste im Erfassungsbereich der Anwenderschnittstelle aus. Diese besteht im Beispiel darin, dass die offene Hand in Richtung des Bildschirms 3 weist und die fünf Finger der Hand 4 ausgestreckt und gemäßigt gespreizt gehalten werden. Im Ansprechen darauf wird die (nicht dargestellte) Auswerteeinheit eingerichtet, auch weitere Gesten der Hand 4 in Befehle zur Steuerung des Menüs 2 auf dem
Bildschirm 3 umzusetzen. Lediglich optional kann vorgesehen sein, dass die gezeigte Haltung der Hand 4 für eine fest vordefinierte Zeit eingenommen bzw. beibehalten werden muss.
Figur 4 zeigt mögliche Handhaltungen und Gesten für die Interaktion mit einer
erfindungsgemäßen Anwenderschnittstelle 1 . In Teilfigur a weist die geöffnete Handfläche der Hand 4 in Richtung des Bildschirms 3. Die Finger der Hand 4 sind ausgestreckt und (leicht) gespreizt. In Teilfigur b ist eine Zeige-Geste der Hand 4 dargestellt, bei welcher lediglich der Zeigefinger gestreckt, die übrigen Finger zu einer Faust geballt sind. In Teilfigur c wird eine Tippgeste bzw. Klick-Geste veranschaulicht, in welcher der
Zeigefinger der Hand 4 zunächst ausgestreckt ist und anschließend in Richtung des Bildschirms 3 abgeklappt wird.
Figur 5 zeigt einen Bedienschritt, welcher sich nach erfolgreicher 3D-Gesten-Bedienung im Nachgang des in Figur 3 diskutierten Anmeldevorgangs anschließen kann. Zum Beenden der 3D-Gesten-Bedienung und damit zur Sicherung der erfindungsgemäßen Anwenderschnittstelle gegen eine unbeabsichtigte Gestenbedienung wird die geöffnete, mit gestreckten sowie (gemäßigt) gespreizten Fingern in Richtung des Bildschirms 3 weisende Hand 4 entlang dem Pfeil P aus dem Erfassungsbereich des Sensors (beides nicht dargestellt) herausgeführt. Mit anderen Worten wird erfindungsgemäß auch vorgesehen, eine vordefinierte Haltung der Hand 4 des Anwenders und/oder Bewegung der Hand 4 des Anwenders zum Beenden des 3D-Gesten-Modus vorzusehen. Auf diese Weise kann der Anwender selbstständig entscheiden, ob die Möglichkeit zur SD-Gesten- Bedienung weiter bestehen soll (in diesem Fall ist die Hand 4 ohne die vordefinierte Haltung/Bewegung aus dem Erfassungsbereich der Anwenderschnittstelle
herauszuführen), oder ob er den 3D-Gesten-Modus wie vorbeschrieben beenden möchte.
Figur 6 zeigt Verfahrensschritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zum Wechsel von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus. In einem ersten Schritt 100 wird auf einer Anzeigeeinheit ein grafischer Inhalt dargestellt, welchen es nachfolgend über 3D-Gesten zu bedienen gilt. Hierzu führt der Anwender seine Hand in einen vordefinierten Erfassungsbereich eines Sensors der Anwenderschnittstelle. In Schritt 200 wird die Hand des Anwenders durch den Sensor erfasst und in Schritt 300 eine vordefinierte Haltung und/oder Bewegung der Hand des Anwenders erkannt. Insbesondere eignen sich hierzu einerseits sensorisch sicher erfassbare und dennoch von üblichen Haltungen/Bewegungen beim Hantieren des Anwenders gut unterscheidbare Gesten. In Schritt 400 wird ein Timer gestartet, dessen Ablauf eine weitere Bedingung zum Starten des 3D-Gesten-Modus aufstellt. Läuft der Timer ab, nachdem die vordefinierte Haltung/Bewegung beendet ist (Y), verbleibt das System im ersten Bedienmodus. Entsprechend kehrt das Verfahren in diesem Fall zu Schritt 100 zurück. Läuft der Timer ab, bevor die vordefinierte Haltung/Bewegung der Hand des Anwenders beendet wird, wechselt das System in Schritt 500 von dem ersten Bedienmodus in den 3D-Gesten-Modus und gibt in Schritt 600 einen optischen und akustischen Hinweis darüber aus, dass der 3D-Gesten-Modus erfolgreich aktiviert worden ist.
Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten
Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann
Modifikationen und Kombinationen von Merkmalen der dargestellten
Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird.
Bezugszeichenliste
Anwenderschnittstelle
Menü
Bildschirm
Hand des Anwenders
Sensor
elektronisches Steuergerät
Datenspeicher
Erfassungsbereich
Pkw
Lautsprecher
-600 Verfahrensschritte
Pfeil

Claims

Patentansprüche
1. Verfahren zum Wechseln von einem ersten Bedienmodus einer
Anwenderschnittstelle (1 ) in einen 3D-Gesten-Modus, mittels welchem eine Bedienung der Anwenderschnittstelle (1 ) durch eine Vielzahl frei im Raum ausgeführter Gesten, nachfolgend 3D-Gesten genannt, erfolgen kann, umfassend die Schritte:
Erfassen (200) einer Hand (4) eines Anwenders in einem vordefinierten Bereich (9) mittels eines Sensors (5),
Erkennen (300) einer vordefinierten Haltung der Hand (4) des Anwenders und/oder einer vordefinierte Bewegung der Hand (4) des Anwenders, und Wechseln (500) von dem ersten Bedienmodus in den 3D-Gesten-Modus.
2. Verfahren nach Anspruch 1 , weiter umfassend den Schritt
Starten (400) eines Timers, und unter der Bedingung, dass die erkannte vordefinierte Haltung der Hand (4) des Anwenders und/oder vordefinierte Bewegung der Hand (4) des Anwenders vor einem Ablaufen des Timers nicht endet,
Wechseln (500) von dem ersten Bedienmodus in den 3D-Gesten-Modus.
3. Verfahren nach Anspruch 2, wobei der Timer im Ansprechen auf das Erkennen (300) einer vordefinierten Haltung der Hand (4) des Anwenders und/oder das Erkennen (300) einer vordefinierten Bewegung der Hand (4) des Anwenders gestartet wird.
4. Verfahren nach einem der vordefinierten Ansprüche, wobei
die vordefinierte Haltung
eine in Richtung eines Sensors (5) zur Gestenerkennung und/oder in Richtung einer Anzeigeeinheit (3) geöffnete Handfläche, insbesondere mit gespreizten Fingern,
und/oder eine„Daumen-hoch"-Geste umfasst, und/oder wobei
die vordefinierte Bewegung eine Greifgeste umfasst.
5. Verfahren nach einem der vordefinierten Ansprüche, weiter umfassend
Ausgeben (600) eines optischen und/oder akustischen Hinweises darüber, dass der 3D-Gesten-Modus nun aktiv ist.
6. Anwenderschnittstelle umfassend
einen Sensor (5) zur Erfassung (200) durch eine Hand (4) eines Anwenders frei im Raum ausgeführter Gesten, nachfolgend 3D-Gesten genannt, eine Anzeigeeinheit (3) zur Darstellung eines graphischen Inhaltes (2), und eine Auswerteeinheit (7) zum Erkennen einer Vielzahl von Gesten in Signalen des Sensors (5),
wobei die Auswerteeinheit (7) eingerichtet ist, eine vordefinierte Haltung der Hand (4) des Anwenders und/oder eine vordefinierte Bewegung der Hand (4) des Anwenders zu erkennen (300), und
die Anwenderschnittstelle (1 ) im Ansprechen darauf von einem ersten Bedienmodus in einen 3D-Gesten-Modus zu versetzen.
7. Anwenderschnittstelle nach Anspruch 6, wobei der Sensor (5) ein optischer
Sensor und/oder ein im Infrarotbereich operierender Sensor ist.
8. Anwenderschnittstelle nach Anspruch 6 oder 7 weiter umfassend eine,
insbesondere optische und/oder akustische, Ausgabeeinheit zur Ausgabe eines Hinweises darüber, dass der 3D-Gesten-Modus aktiviert bzw. deaktiviert worden ist.
9. Anwenderendgerät, insbesondere elektronisches Drahtloskommunikationsgerät, umfassend eine Anwenderschnittstelle (1 ) nach einem der Ansprüche 6 bis 8.
10. Computerprogrammprodukt umfassend Instruktionen, welche, wenn Sie auf einem programmierbaren Prozessor (8) einer Anwenderschnittstelle (1 ) nach einem der Ansprüche 6 bis 8 ausgeführt werden, die Anwenderschnittstelle (1 ) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 durchzuführen.
1 1. Signalfolge repräsentierend Instruktionen, welche, wenn Sie auf einem
programmierbaren Prozessor (8) einer Anwenderschnittstelle (1 ) nach einem der Ansprüche 6 bis 8 ausgeführt werden, die Anwenderschnittstelle (1 ) veranlassen, die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 5 durchzuführen.
12. Fortbewegungsmittel umfassend eine Anwenderschnittstelle (1 ) nach einem der Ansprüche 6 bis 8, wobei die Anzeigeeinheit (3) als fest in ein Armaturenbrett des Fortbewegungsmittels (10) eingebauter zentraler Bildschirm und/oder als Kombiinstrument des Fortbewegungsmittels (10) ausgestaltet ist.
PCT/EP2015/052549 2014-02-17 2015-02-06 Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus WO2015121173A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201580009060.2A CN106030462A (zh) 2014-02-17 2015-02-06 用户接口和用于从用户接口的第一操作模式变换成3d手势模式的方法
EP15705545.0A EP3108332A1 (de) 2014-02-17 2015-02-06 Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102014202833.7A DE102014202833A1 (de) 2014-02-17 2014-02-17 Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
DE102014202833.7 2014-02-17

Publications (1)

Publication Number Publication Date
WO2015121173A1 true WO2015121173A1 (de) 2015-08-20

Family

ID=52544458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/052549 WO2015121173A1 (de) 2014-02-17 2015-02-06 Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus

Country Status (4)

Country Link
EP (1) EP3108332A1 (de)
CN (1) CN106030462A (de)
DE (1) DE102014202833A1 (de)
WO (1) WO2015121173A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018054522A1 (de) * 2016-09-21 2018-03-29 Daimler Ag Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul
DE102017201312A1 (de) 2017-01-27 2018-08-02 Audi Ag Verfahren zum Steuern eines Temperierungselements eines Behälterhalters

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349568A1 (de) * 2002-10-25 2004-05-13 Mitsubishi Fuso Truck And Bus Corp. Handzeichen-Schaltvorrichtung
US20060136846A1 (en) * 2004-12-20 2006-06-22 Sung-Ho Im User interface apparatus using hand gesture recognition and method thereof
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
DE102009008041A1 (de) 2009-02-09 2010-08-12 Volkswagen Ag Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
US20100295781A1 (en) * 2009-05-22 2010-11-25 Rachid Alameh Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
DE202012005255U1 (de) * 2012-05-29 2012-06-26 Youse Gmbh Bedienvorrichtung mit einer Gestenüberwachungseinheit
DE102012000263A1 (de) 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903968B2 (ja) * 2003-07-30 2007-04-11 日産自動車株式会社 非接触式情報入力装置
US7834847B2 (en) * 2005-12-01 2010-11-16 Navisense Method and system for activating a touchless control
WO2011066343A2 (en) * 2009-11-24 2011-06-03 Next Holdings Limited Methods and apparatus for gesture recognition mode control
CN102221891A (zh) * 2011-07-13 2011-10-19 广州视源电子科技有限公司 实现视像手势识别的方法和系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10349568A1 (de) * 2002-10-25 2004-05-13 Mitsubishi Fuso Truck And Bus Corp. Handzeichen-Schaltvorrichtung
US20060136846A1 (en) * 2004-12-20 2006-06-22 Sung-Ho Im User interface apparatus using hand gesture recognition and method thereof
DE102006037156A1 (de) 2006-03-22 2007-09-27 Volkswagen Ag Interaktive Bedienvorrichtung und Verfahren zum Betreiben der interaktiven Bedienvorrichtung
DE102009008041A1 (de) 2009-02-09 2010-08-12 Volkswagen Ag Verfahren zum Betrieb eines Kraftfahrzeuges mit einem Touchscreen
US20100295781A1 (en) * 2009-05-22 2010-11-25 Rachid Alameh Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
DE102012000263A1 (de) 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE202012005255U1 (de) * 2012-05-29 2012-06-26 Youse Gmbh Bedienvorrichtung mit einer Gestenüberwachungseinheit

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3108332A1 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018054522A1 (de) * 2016-09-21 2018-03-29 Daimler Ag Verfahren zur steuerung eines kraftfahrzeugmoduls und kraftfahrzeugmodul
DE102017201312A1 (de) 2017-01-27 2018-08-02 Audi Ag Verfahren zum Steuern eines Temperierungselements eines Behälterhalters

Also Published As

Publication number Publication date
DE102014202833A1 (de) 2015-08-20
CN106030462A (zh) 2016-10-12
EP3108332A1 (de) 2016-12-28

Similar Documents

Publication Publication Date Title
EP2200858B1 (de) Fahrzeugsystem mit hilfefunktionalität
EP3108331B1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
EP3067244B1 (de) Kraftfahrzeug mit situationsadaptivem automatischem fahrmodus
WO2015010752A1 (de) Verfahren und vorrichtung zur fernsteuerung einer funktion eines fahrzeugs
EP3118048B1 (de) Funktionsauswahl über gestik-steuerung mit haptischer rückmeldung
EP3358454B1 (de) Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung
DE102014200993A1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
EP3508968A1 (de) Verfahren zum betreiben einer mensch-maschinen-schnittstelle sowie mensch-maschinen-schnittstelle
DE102013020795A1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
DE102014019005A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung eines Kraftfahrzeugs in unterschiedlichen Bedienmodi sowie Bedienvorrichtung und Kraftfahrzeug
WO2015121173A1 (de) Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus
WO2017140569A1 (de) Kraftfahrzeug-bedienvorrichtung und verfahren zum betreiben einer bedienvorrichtung, um eine wechselwirkung zwischen einer virtuellen darstellungsebene und einer hand zu bewirken
DE102014200609A1 (de) Berührungssensitive Bedienvorrichtung mit Mulde
DE102013019570A1 (de) Bedieneinrichtung mit berührungsloser Schrifteingabefunktion für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
EP2030828B9 (de) Multimodales Bediensystem und Verfahren zum Bedienen von Komponenten und Funktionen in einem Kraftfahrzeug
EP3108333B1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle
DE102010009622A1 (de) Verfahren zum Betreiben einer Benutzerschnittstelle und Vorrichtung dazu, insbesondere in einem Fahrzeug
DE102009033061A1 (de) Verfahren und Vorrichtung zum Steuern einer Benutzerschnittstelle
EP3015306B1 (de) Vorrichtung und Verfahren zur Bedienung einer Uhrenarmatur
DE102011116312A1 (de) Verfahren und Eingabevorrichtung zum Steuern eines elektronischen Geräts
WO2021028274A1 (de) Bediensystem und verfahren zum betreiben des bediensystems
DE102017210958A1 (de) Verfahren zur taktilen Interaktion eines Benutzers mit einem elektronischen Gerät sowie elektronisches Gerät dazu
DE102014111749A1 (de) Verfahren und Vorrichtung zum Steuern eines technischen Gerätes
EP3966665A1 (de) Verfahren zum betreiben eines bediensystems und bediensystem
DE102013016490A1 (de) Kraftfahrzeug mit berührungslos aktivierbarem Handschrifterkenner

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15705545

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015705545

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015705545

Country of ref document: EP