WO2015043652A1 - Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit - Google Patents

Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit Download PDF

Info

Publication number
WO2015043652A1
WO2015043652A1 PCT/EP2013/070214 EP2013070214W WO2015043652A1 WO 2015043652 A1 WO2015043652 A1 WO 2015043652A1 EP 2013070214 W EP2013070214 W EP 2013070214W WO 2015043652 A1 WO2015043652 A1 WO 2015043652A1
Authority
WO
WIPO (PCT)
Prior art keywords
operating unit
user
predefined
button
sound
Prior art date
Application number
PCT/EP2013/070214
Other languages
English (en)
French (fr)
Inventor
Holger Wild
Mark Peter Czelnik
Gordon Seitz
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to PCT/EP2013/070214 priority Critical patent/WO2015043652A1/de
Priority to KR1020167010261A priority patent/KR101805328B1/ko
Priority to CN201380080494.2A priority patent/CN105683903A/zh
Priority to US15/025,526 priority patent/US10248382B2/en
Priority to EP13770487.0A priority patent/EP3049909A1/de
Publication of WO2015043652A1 publication Critical patent/WO2015043652A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • B60K35/26
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • B60K2360/113
    • B60K2360/115
    • B60K2360/141
    • B60K2360/1438
    • B60K2360/1442
    • B60K2360/146
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • the present invention relates to a user interface and a method for assisting a user in the operation of a touch-sensitive
  • the present invention relates to the assistance of a driver of a means of locomotion in the operation of a permanently arranged in the means of transport control unit during the perception of his driving task.
  • HMIs human-machine interfaces
  • rotary / push button, pushbutton and other mechanical elements are also known as touch-sensitive surfaces, which include, for example, capacitive sensors.
  • systems are known in which a user gesture executed in front of a screen is recognized without requiring contact with the operating unit.
  • Such an operating step is referred to as “hovering.”
  • the gesture recognition via optical sensors (cameras) and alternatively or additionally via capacitive sensors is detected and assigned to a predetermined button.
  • the operating system “Windows 8" (registered trademark) and referred to “Air View” (registered trademark) of the Samsung Galaxy S4 (registered trademark).
  • WO 2009/062677 A2 shows a multimodal user interface of an infotainment system for inputting and presenting information in which gestures are used in conjunction with voice commands for calling predefined functions.
  • Speech recognition system used to detect voice commands.
  • the inventive method is used to assist a user in the operation of a touch-sensitive control unit, which may be configured as built in a means of transport HMI.
  • a presence of an input means in a predefined first area with respect to the operating unit is detected.
  • the input means may be, for example, a stylus, a user's finger, another body part of the user, etc.
  • the predefined first area may be in contact with the operation unit ("touch operation").
  • control unit can be used to detect the various inputs capacitive sensors, camera-based
  • Sensors or similar include.
  • an audio output is generated by means of which the presence is acknowledged to the user.
  • the audio output comprises a first sound character, which is context-specifically assigned to a first button displayed on the operating unit.
  • the first button may represent, for example, a predefined range of functions which the first sound character symbolizes in a suitable manner.
  • the first sound signal can also be understood as an "acoustic icon" (also called “Earcon”).
  • the function associated with the button determines the shape of the tone so that when listening to the tone, the user associates a particular function of a plurality of functions as nearest. In this way, reaching the first predefined area may cause an audible indication of the function associated with the first button.
  • the button is pressed (for example, by a touch input, a gesture, etc.), one of the buttons is assigned
  • Performed function which according to the invention already recognized by the user due to the audio output. Accordingly, leaving the predefined first area can be accompanied by the same or an alternative sound in the context of an audio output.
  • the present invention supports the user in the operation of the operating unit according to the invention, in particular during the perception of a driving task, during which the driver has a limited
  • the method according to the invention further comprises detecting a presence of an input means in a predefined second area with respect to the operating unit.
  • the process is acknowledged to the user by a predefined second audio output.
  • This includes a second tone that is assigned context-specific to a second button displayed on the control unit.
  • the second button stands for a different function than the first button, with the second sound character in conjunction with the second button, the above applies accordingly.
  • the audio outputs may comprise a sample or a plurality of mutually related samples, which may be varied, in particular with repeated output.
  • a typical example is a clicking sound, which can be changed in frequency depending on the operating step. For example, when reaching a Höver range, a clicking sound of a first, higher frequency can be reproduced, while when changing from a first Höver range to a second Höver range, a clicking sound of a second, lower frequency is reproduced.
  • the clicking sounds are an example of a poorly contextual association between the button and the sound. More specifically, for example, a weather-related button can be acknowledged by a thunder sound as a sound signal
  • a navigation function can be announced by a sonar noise.
  • the aforementioned assignments represent particularly intuitively recognizable relationships for the orientation of the user.
  • Figure 1 is a schematic overview of components of an embodiment of a user interface according to the invention.
  • a high-frequency soft chime can cause a corresponding association with the user 2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit (1) vorgeschlagen. Erfindungsgemäß werden dabei die folgenden Schritte ausgeführt: Erkennen (200) einer Präsenz eines Eingabemittels (2), insbesondere eines Fingers des Anwenders, in einem vordefinierten ersten Bereich (11) bezüglich der Bedieneinheit (1), und im Ansprechen darauf; Quittieren (300) der erkannten Präsenz durch eine vordefinierte erste Audioausgabe (3), die ein erstes Klangzeichen umfasst, das einer auf der Bedieneinheit (1) dargestellten ersten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.

Description

Beschreibung
Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei Bedienung einer Bedieneinheit
Stand der Technik
Die vorliegende Erfindung betrifft eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen
Bedieneinheit. Insbesondere betrifft die vorliegende Erfindung die Unterstützung eines Fahrers eines Fortbewegungsmittels bei der Bedienung einer fest im Fortbewegungsmittel angeordneten Bedieneinheit während der Wahrnehmung seiner Fahraufgabe.
Im Stand der Technik ist es bekannt, Fahrzeuge durch Mensch-Maschine-Schnittstellen (human-machine-interfaces, HMI) auszustatten, auf deren Bildschirmen wahlfreie Inhalte und Interaktionsflächen dargestellt werden können. Zur Bedienung sind Dreh-/Drücksteller, Tastschalter und andere mechanische Elemente ebenso bekannt, wie berührungssensitive Oberflächen, welche beispielsweise kapazitive Sensoren umfassen. Zusätzlich sind Systeme bekannt, bei welchen eine vor einem Bildschirm ausgeführte Anwendergeste erkannt wird, ohne dass ein Kontakt zur Bedieneinheit erforderlich ist. Ein solcher Bedienschritt wird als „Hovern" bezeichnet. Hierbei wird die Gestenerkennung über optische Sensoren (Kameras) und alternativ oder zusätzlich über kapazitive Sensorik erfasst und einer vorbestimmten Schaltfläche zugeordnet. In diesem Zusammenhang wird auf das Betriebssystem„Windows 8" (eingetragene Marke) sowie auf„Air View" (eingetragene Marke) des Samsung Galaxy S4 (eingetragene Marke) verwiesen.
WO 2009/062677 A2 zeigt eine multimodale Benutzerschnittstelle eines Infotainmentsystems zur Eingabe und Präsentation von Informationen, bei welchen Gesten in Verbindung mit Sprachkommandos zum Aufrufen vordefinierter Funktionen verwendet werden. Hierbei werden kapazitive Sensoren zur Touch-/Gesten-Erkennung und ein
Spracherkennungssystem zur Erkennung von Sprachkommandos verwendet.
Es ist eine Aufgabe der vorliegenden Erfindung, einen Anwender bei der Bedienung einer Anwenderschnittstelle, insbesondere während der Wahrnehmung einer Fahraufgabe, zu unterstützen. Offenbarung der Erfindung
Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie ein Anwenderschnittstelle mit den Merkmalen gemäß Anspruch 8 gelöst. Entsprechend dient das erfindungsgemäße Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit, welche als in einem Fortbewegungsmittel verbaute HMI ausgestaltet sein kann. Dabei wird zunächst eine Präsenz eines Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit erkannt. Das Eingabemittel kann beispielsweise ein Eingabestift („Stylus"), ein Finger eines Anwenders, ein anderer Körperteil des Anwenders o.a., sein. Entsprechend der vorgenannten Touch-/Gestenerkennung kann der vordefinierte erste Bereich in Kontakt mit der Bedieneinheit stehen („Touch-Bedienung") und sich in einen vordefinierten
Abstandsbereich vor der Bedieneinheit („Hover-Bereich") erstrecken. Die Bedieneinheit kann zur Erkennung der unterschiedlichen Eingaben kapazitive Sensorik, kamerabasierte
Sensorik o.a. umfassen. Im Ansprechen auf ein Erkennen der Präsenz des Eingabemittels wird eine Audioausgabe generiert, mittels welcher die Präsenz dem Anwender quittiert wird. Die Audioausgabe umfasst ein erstes Klangzeichen, das einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontext-spezifisch zugeordnet ist. Die erste Schaltfläche kann beispielsweise einen vordefinierten Funktionsumfang repräsentieren, welchen das erste Klangzeichen in geeigneter Weise versinnbildlicht. Dabei kann das erste Klangzeichen auch als„akustisches Icon" (auch„Earcon" genannt) verstanden werden. Mit anderen Worten bestimmt die der Schaltfläche zugeordnete Funktion die Gestalt des Klangzeichens derart, dass der Anwender beim Hören des Klangzeichens eine bestimmte Funktion einer Vielzahl von Funktionen als nächstliegend assoziiert. Auf diese Weise kann das Erreichen des ersten vordefinierten Bereiches einen akustischen Hinweis auf die mit der ersten Schaltfläche assoziierte Funktion veranlassen. Beim Betätigen der Schaltfläche (z.B. durch eine Touch-Eingabe, eine Höver- Geste o.ä.) wird eine der Schaltfläche zugeordnete
Funktion ausgeführt, welche erfindungsgemäß durch den Anwender bereits aufgrund der Audio-Ausgabe erkannt wird. Entsprechend kann auch ein Verlassen des vordefinierten ersten Bereiches durch dasselbe oder ein alternatives Klangzeichen im Rahmen einer Audioausgabe begleitet werden. Auf diese Weise unterstützt die vorliegende Erfindung den Anwender bei der Bedienung der erfindungsgemäßen Bedieneinheit, insbesondere während der Wahrnehmung einer Fahraufgabe, während welcher der Fahrer eine begrenzte
Aufmerksamkeit für die Bedienung der Bedieneinheit aufwenden kann.
Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. Bevorzugt umfasst das erfindungsgemäße Verfahren weiter ein Erkennen einer Präsenz eines Eingabemittels in einem vordefinierten zweiten Bereich bezüglich der Bedieneinheit. Für den zweiten Bereich gilt dabei das in Verbindung mit dem ersten Bereich Gesagte entsprechend, wobei der zweite Bereich nicht notwendigerweise mit dem ersten Bereich zusammenfallen muss. Im Ansprechen auf die erkannte Präsenz des Eingabemittels im vordefinierten zweiten Bereich wird der Vorgang dem Anwender durch eine vordefinierte zweite Audioausgabe quittiert. Diese umfasst ein zweites Klangzeichen, dass einer auf der Bedieneinheit dargestellten zweiten Schaltfläche kontextspezifisch zugeordnet ist. Die zweite Schaltfläche steht dabei für eine andere Funktion als die erste Schaltfläche, wobei für das zweite Klangzeichen in Verbindung mit der zweiten Schaltfläche das oben Gesagte entsprechend gilt. Indem das zweite Klangzeichen und das erste Klangzeichen sich deutlich voneinander unterschieden, kann der Anwender beim Vernehmen des Klangzeichens auf eine mit der zweiten Schaltfläche assoziierte Funktion schließen und ein Ausführen der mit der ersten Schaltfläche assoziierten Funktion im Wesentlichen ausschließen. Dies verbessert die Unterstützung des Anwenders bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner Fahraufgabe.
Der vordefinierte erste Bereich und der vordefinierte zweite Bereich können durch eine im Wesentlichen parallel zur Oberfläche der Bedieneinheit liegende Grenzfläche, welche in senkrechter Richtung zur Oberfläche der Bedieneinheit beabstandet ist, begrenzt sein. Dabei kann eine erste parallele Grenzfläche durch die Oberfläche der Bedieneinheit selbst definiert sein oder ein Höver-Bereich durch eine zwischen der Oberfläche der Bedieneinheit und der ersten Grenzfläche definiert sein. Senkrechte Grenzflächen des ersten bzw. des zweiten Bereiches können beispielsweise mit den Grenzen einer jeweiligen dargestellten
Schaltfläche zusammenfallen. Mit anderen Worten kann die dargestellte Schaltfläche durch die Umrandung einer senkrechten Projektion des ersten bzw. zweiten Bereiches auf die Oberfläche der Bedieneinheit begrenzt sein. Dabei kann der erste bzw. der zweite Bereich in einem Abstand -1 mm bis +3mm von der Oberfläche der Bedieneinheit entfernt sein. Ein negativer Abstandsbereich steht dabei für eine Touch-Bedienung, während ein positiver Abstandsbereich für einen Höver-Bereich steht. Dieser erstreckt sich typischerweise bis zu einem Abstand von 10 mm bis hin zu 15 cm von der Oberfläche der Bedieneinheit.
Das erfindungsgemäße Verfahren kann weiter einen Übertritt des Eingabemittels von dem ersten Bereich in einen vordefinierten dritten Bereich bezüglich der Bedieneinheit erkennen. Für den dritten Bereich gilt dabei das in Verbindung mit dem ersten und dem zweite Bereich Gesagte entsprechend. Anschließend wird der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, die ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten Schaltfläche kontext-spezifisch zugeordnet ist. Mit anderen Worten steht die dritte Schaltfläche für eine dritte Funktion, die für den Anwender durch das dritte Klangzeichen versinnbildlicht wird. Auf diese Weise kann der Anwender bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner
Fahraufgabe akustisch unterstützt werden, so dass sein Augenmerk im Wesentlichen auf dem Verkehrsgeschehen verbleiben kann.
Um die Anwenderakzeptanz des erfindungsgemäßen Verfahrens bzw. der
erfindungsgemäßen Anwenderschnittstelle zu erhöhen und den Anwender bzw. weitere Personen in der Umgebung nicht unnötig zu stören, ist es vorteilhaft, keine Sprachsignale in die Audioausgabe bzw. das Klangzeichen zu integrieren. Erfahrungsgemäß akzeptieren Anwender Geräusche bei wiederholter Wiedergabe deutlich besser, als dies für
Sprachsignalanteile der Fall ist. Entsprechend können die Audioausgaben ein Sample oder mehrere, miteinander verwandte, Samples umfassen, welche sich beispielsweise insbesondere bei wiederholter Ausgabe variieren lassen. Ein typisches Beispiel ist ein Klick- Geräusch, welches in Abhängigkeit des erfolgten Bedienschrittes in seiner Frequenz verändert werden kann. Beispielsweise kann beim Erreichen eines Höver-Bereiches ein Klick-Geräusch einer ersten, höheren Frequenz wiedergegeben werden, während bei einem Wechseln von einem ersten Höver-Bereich zu einem zweiten Höver-Bereich ein Klick- Geräusch einer zweiten, niedrigeren Frequenz wiedergegeben wird. Die Klick-Geräusche sind dabei ein Beispiel für eine schwach kontext-bezogene Zuordnung zwischen der Schaltfläche und dem Klangzeichen. Individueller kann beispielsweise eine wetterbezogene Schaltfläche quittiert werden, indem als Klangzeichen ein Donnergeräusch, ein
Regengeräusch oder Windgeräusch verwendet werden. Auf diese Weise kann auch eine aktuelle Wetterlage wiedergegeben werden, sofern diese mit einem der Geräusche treffend versinnbildlicht werden kann. Ein weiteres Beispiel ist die Ankündigung einer Telefonfunktion durch Wiedergabe einer DTMF-Tonfolge oder eines Freizeichens als Klangzeichen.
Entsprechend kann eine Navigationsfunktion durch ein Echolot-Geräusch angekündigt werden. Die vorstehend genannten Zuordnungen stellen dabei besonders intuitiv erkennbare Zusammenhänge für die Orientierung des Anwenders dar.
Weiter bevorzugt umfasst das erfindungsgemäße Verfahren das Quittieren der erkannten Präsenz durch ein vordefiniertes alternatives optisches Darstellen einer auf der
Bedieneinheit dargestellten Schaltfläche. Dabei kann ein erhöhter Störschallpegel teilweise kompensiert werden, indem die alternative optische Darstellung die Aufmerksamkeit des Anwenders auf die Bedieneinheit lenkt und nur schwach gegenüber dem Störschallpegel wahrgenommene Audioausgabe somit besser erkannt werden.
Bevorzugt können die Zuordnungen zwischen der jeweilige Audioausgabe und einer jeweiligen Schaltfläche durch einen Anwender definiert werden. Dies kann beispielsweise dergestalt erfolgen, dass der Anwender in einem Konfigurationsmenü einer ganzen Liste von Schaltflächen jeweilige Klangzeichen zuordnen kann. Zusätzlich kann es möglich und vorteilhaft sein, dass ein Anwender ein zusätzliches Klangzeichen (z.B. selbst gestaltet oder erworben) einem Klangzeichenpool hinzufügen kann und dieses mit einer der Schaltflächen assoziieren kann. Dies erhöht die Wiedererkennung des Funktionsumfangs beim Vernehmen des Klangzeichens durch den Anwender.
Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welch insbesondere fest in einem Kraftfahrzeug verbaut sein kann. Solche Anwenderschnittstellen sind auch als Mensch-Maschine-Schnittstellen (HMI) bekannt. Das Kraftfahrzeug kann beispielsweise ein Straßenfahrzeug (PKW, LKW) sein, welches elektrisch, über einen Verbrennungsmotor oder Hybrid angetrieben wird. Die
Anwenderschnittstelle umfasst eine berührungsempfindliche Bedieneinheit, eine
Erkennungseinrichtung zum Erkennen einer Anwendereingabe und eine
Verarbeitungseinrichtung. Die berührungsempfindliche Bedieneinheit kann beispielsweise eine Anzeige umfassen, welche gemeinsam mit einem berührungsempfindlichen Element einen Touch-Screen ausbildet. Die Erkennungseinrichtung kann das berührungsempfindliche Element sowie ein Kamerasystem zum Erkennen von Hover-Gesten umfassen. Die
Verarbeitungseinrichtung kann einen Prozessor umfassen, welcher innerhalb der HMI angeordnet und beispielsweise zur Verarbeitung von Navigationsbefehlen eingerichtet ist. Die Anwenderschnittstelle ist überdies eingerichtet, ein Verfahren auszuführen, wie es in Verbindung mit dem erstgenannten Erfindungsaspekt beschrieben worden ist. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen dem in Verbindung mit dem erstgenannten Erfindungsaspekt beschriebenen, derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.
Die Bedieneinheit kann bevorzugt zentral in das Armaturenbrett eines Kraftfahrzeugs integriert oder als Kombiinstrument hinter der Lenkeinrichtung des Fahrzeugs angeordnet sein. Alternativ oder zusätzlich kann die Erkennungseinrichtung ein Kamerasystem und/oder einen kapazitiven Sensor umfassen, um Hover-Gesten und Touch-Gesten erkennen und zuordnen zu können. Weiter kann die Anwenderschnittstelle ein Speichermittel umfassen, in welchem Referenzsignale repräsentierend vordefinierte Gesten abgespeichert sind. Die Referenzen können durch die Verarbeitungseinrichtung ausgelesen und mit durch die Erkennungseinrichtung erkannte Eingaben verglichen werden. Dies erhöht die Vielfalt der verwendbaren Bedienschritte, so dass im Mittel weniger aufeinanderfolgende Bedienschritte auszuführen sind. Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fahrzeug vorgeschlagen, welches eine Anwenderschnittstelle entsprechend dem zweitgenannten Erfindungsaspekt umfasst. Die Anwenderschnittstelle kann als kompakte Einheit oder als verteiltes System innerhalb des Fahrzeugs angeordnet sein. Auf diese Weise kann vorhandene Hardware verwendet werden, wodurch die vorliegende Erfindung im Wesentlichen in Form von
Software realisiert werden kann. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erstgenannten und zweitgenannten Erfindungsaspekt beschriebenen derart ersichtlich, dass zur Vermeidung von Wiederholungen auch in diesem Zusammenhang auf die obigen Ausführungen verwiesen wird.
Kurze Beschreibung der Zeichnungen
Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:
Figur 1 eine schematische Übersicht über Bestandteile eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;
Figur 2 eine Darstellung eines möglichen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;
Figur 3 eine Darstellung eines alternativen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle; und
Figur 4 ein Flussdiagramm, veranschaulichend die Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
Ausführungsformen der Erfindung
Figur 1 zeigt ein Fortbewegungsmittel 8, in welchem ein Bildschirm einer HMI als
Bedieneinheit 1 in das Armaturenbrett eingelassen ist. Eine Kamera 6 ist zusätzlich zu (nicht dargestellter) Annäherungssensorik über eine Lichtschranke und kapazitive Technologien als Erkennungseinrichtung im Bereich der Windschutzscheibe vorgesehen. Die Kamera 6 ist mit einem elektronischen Steuergerät 7 als Verarbeitungseinrichtung datentechnisch verbunden. Weiter ist das elektronische Steuergerät 7 mit einem Lautsprecher 9 zur Erzeugung einer Audioausgabe sowie mit der Bedieneinheit 1 verbunden, auf deren Bildschirm eine erste Schaltfläche 10 und eine zweite Schaltfläche 20 dargestellt sind. An den Schaltflächen 10, 20 sind jeweilige, quaderförmige Bereiche 1 1 , 21 , gestrichelt dargestellt, in denen eine Präsenz eines Eingabemittels als Touch-Eingabe oder als Hovern (in Abhängigkeit eines jeweiligen Abstandes a zur Oberfläche der Bedieneinheit 1 ) erkannt wird. Die Bereiche 1 1 ,
21 sind durch eine erste, parallel zur Oberfläche der Bedieneinheit 1 orientierte Fläche 12 bzw. 22, eine zweite, parallel zur Oberfläche der Bedieneinheit 1 orientierte und von der Oberfläche entfernte zweite Fläche 13 bzw. 23 und durch vier senkrecht zur Oberfläche der Bedieneinheit 1 orientierte Flächen 14 bzw. 24, 15 bzw. 25, 16 bzw. 26 und 17 bzw. 27 derart definiert, dass die Schaltflächen 10, 20 senkrechte Projektionen der Bereiche 1 1 . 21 auf der Bedieneinheit 1 darstellen bzw. von diesen begrenzt sind.
Figur 2 zeigt eine mögliche Bedienoberfläche, welche auf der Bedieneinheit 1 dargestellt werden kann. Auf einer ersten Schaltfläche 10 wird ein Kartenausschnitt dargestellt, welcher mit einem Teil einer durch ein Navigationssystem errechneten Route korrespondiert. Auf der rechten Bildschirmseite wird in einem oberen Bereich eine zweite Schaltfläche 20 dargestellt, über welche ein aktuell wiedergegebener Titel, dessen Interpret und das Album, auf welchem der Titel enthalten ist, wiedergegeben werden. Unterhalb der zweiten Schaltfläche 20 ist eine dritte Schaltfläche 30 dargestellt, in welchem das Wetter in Braunschweig in Form eines Icons in Verbindung mit einer Grad-Celsius-Angabe und einem aktuellen Niederschlag wiedergegeben wird. Die Hand eines Anwenders 2 befindet sich vor der ersten Schaltfläche 10. Über eine erste vordefinierte Audioausgabe 3, welche ein Echolot-Signal als Earcon umfasst, wird die Präsenz der Hand quittiert, und dem Anwender im Zuge dessen eine Orientierung gegeben, dass er eine mit einer Navigationsfunktion assoziierte Schaltfläche 10 bedient.
Figur 3 zeigt die in Verbindung mit Figur 2 dargestellte Ansicht, bei welcher jedoch eine alternative Geste mittels der Hand des Anwenders 2 ausgeführt wird. Dabei wechselt die Hand entlang eines Pfeils P aus einem ersten Bereich 1 1 vor der ersten Schaltfläche 10 in einen dritten Bereich vor der dritten Schaltfläche 30. Der erkannte Übertritt wird durch eine vordefinierte zweite Audio-Ausgabe 4, welche ein dezentes, hochfrequentes Klirren umfasst, quittiert. Somit korrespondiert die zweite Audio-Ausgabe 4 mit dem Inhalt der dritten
Schaltfläche, indem eine Klangdatei abgespielt wird, welche den auch in Textform
angekündigten Schneefall versinnbildlicht. Beispielsweise kann auch ein hochfrequentes leises Glockenspiel eine entsprechende Assoziation beim Anwender 2 hervorrufen.
Zumindest aber ist der Anwender darüber informiert, dass die Schaltfläche 30 einer wetterbezogenen Funktion zugeordnet ist, ohne dass er den Blick auf die Bedieneinheit richten muss. Figur 4 zeigt ein Flussdiagramm, veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. Das Verfahren beginnt in Schritt 100 mit dem
Zuordnen eines ersten Klangzeichens zu einer auf der Bedieneinheit darstellbaren ersten Schaltfläche durch einen Anwender. Dies kann in einem Konfigurationsmenü einer erfindungsgemäßen Anwenderschnittstelle erfolgen. Dabei können einzelne oder sämtliche Schaltflächen des Betriebssystems der Anwenderschnittstelle durch aus einem
vordefinierten (jedoch erweiterbaren) Pool von Klangzeichen ausgewählten Klangzeichen ergänzt werden. Nach erfolgter Zuordnung wird in Schritt 200 die Präsenz eines
Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit (z.B. als Touch- oder Hover-Geste) erkannt. Im Ansprechen darauf wird in Schritt 300 dem Anwender die Präsenz durch eine vordefinierte erste Audioausgabe quittiert, wobei die Audioausgabe ein erstes Klangzeichen umfasst, welches einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontextspezifisch zugeordnet ist. Dabei entspricht eine mit der ersten
Schaltfläche assoziierte Funktion einem Vorgang, der durch den Anwender mit dem ersten Klangzeichen möglichst einfach assoziiert wird. Weiter wird in Schritt 400 die Präsenz des Eingabemittels in einem vordefinierten zweiten (anderen) Bereich bezüglich der
Bedieneinheit (z.B. auf oder über einer zweiten Schaltfläche) erkannt und im Ansprechen darauf in Schritt 500 dem Anwender die erkannte Präsenz durch eine vordefinierte zweite (andere) Audioausgabe quittiert. Die zweite Audioausgabe umfasst dabei ein zweites Klangzeichen, welches ein akustisches Sinnbild für eine mit der zweiten Schaltfläche assoziierte Funktion darstellt. Anschließend tritt in Schritt 600 das Eingabemittel von einem ersten Bereich in einen vordefinierten dritten (wiederum anderen) Bereich bezüglich der Bedieneinheit ein. Im Ansprechen darauf wird dem Anwender in Schritt 700 der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, wobei die dritte Audioausgabe ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten
Schaltfläche kontextspezifisch zugeordnet ist. Mit anderen Worten steht die dritte
Schaltfläche für eine dritte (wiederum andere) Funktion, welche durch das dritte
Klangzeichen für den Anwender akustisch versinnbildlicht wird.
Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und
Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird. Bezugszeichenliste
1 Bedieneinheit
2 Eingabemittei eines Anwenders 3, 4, 5 Audio-Ausgaben
6 Kamera
7 elektronisches Steuergerät
8 Fahrzeug
9 Lautsprecher
10 Schaltfläche
1 1 erster Bereich
12, 13, 14, 15, 16, 17 Bereichsgrenzen
20 Schaltfläche
21 zweiter Bereich
22, 23, 24, 25, 26, 27 Bereichsgrenzen
100, 200, 300, 400, 500, 600 Verfahrensschritte
P Geste
a Abstand

Claims

Patentansprüche
1. Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit (1 ) umfassend die Schritte:
- Erkennen (200) einer Präsenz eines Eingabemittels (2), insbesondere eines Fingers des Anwenders, in einem vordefinierten ersten Bereich (1 1 ) bezüglich der Bedieneinheit (1 ), und im Ansprechen darauf
- Quittieren (300) der erkannten Präsenz durch eine vordefinierte erste Audioausgabe (3), die ein erstes Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten ersten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.
2. Verfahren nach Anspruch 1 , weiter umfassend
- Erkennen (400) einer Präsenz eines Eingabemittels (2), insbesondere eines Fingers des Anwenders, in einem vordefinierten zweiten Bereich (1 1 ) bezüglich der Bedieneinheit (1 ), und im Ansprechen darauf
- Quittieren (500) der erkannten Präsenz durch eine vordefinierte zweite Audioausgabe (3), die ein zweites Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten zweiten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.
3. Verfahren nach Anspruch 1 oder 2, wobei der vordefinierte erste Bereich (1 1 ) und/oder der vordefinierte zweite Bereich (21 ) parallel zu einer Oberfläche der Bedieneinheit (1 ) im Wesentlichen entsprechend einer auf der Bedieneinheit (1 ) dargestellten Schaltfläche (10, 20, 30) begrenzt ist und/oder innerhalb eines Abstandes (a) von -1 mm bis +100 mm, insbesondere -1 mm bis 30 mm, von der Oberfläche der Bedieneinheit (1 ) liegt.
4. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt
- Erkennen (600) eines Übertritts (P1 ) des Eingabemittels (2) von dem ersten Bereich (1 1 ) in einen vordefinierten dritten Bereich bezüglich der Bedieneinheit (1 ), und
- Quittieren (700) des Übertritts durch eine vordefinierte dritte Audioausgabe (4), die ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten dritten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.
5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Audioausgabe (3, 4) eine der folgenden Signalklassen umfasst:
- Klick-Geräusch einer ersten Frequenz,
- Klick-Geräusch einer zweiten, niedrigeren Frequenz als die erste Frequenz,
- Donnergeräusch,
- Regengeräusch,
- Windgeräusch,
- DTMF Tonfolge,
- Freizeichen,
- Echolot-Geräusch.
6. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt
- Quittieren (200) der erkannten Präsenz durch ein vordefiniertes alternatives optisches Darstellen einer auf der Bedieneinheit dargestellten Schaltfläche (10, 20, 30).
7. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt
- Zuordnen (100) eines ersten Klangzeichens zu einer auf der Bedieneinheit (1 ) darstellbaren ersten Schaltfläche (10, 20, 30) durch einen Anwender.
8. Anwenderschnittstelle, insbesondere fest in einem Kraftfahrzeug verbaute Mensch- Maschine-Schnittstelle, umfassend:
- eine berührungsempfindliche Bedieneinheit (1 ),
- eine Erkennungseinrichtung (6) zum Erkennen einer Anwendereingabe, und
- eine Verarbeitungseinrichtung (7),
wobei die Anwenderschnittstelle eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche durchzuführen.
9. Anwenderschnittstelle nach Anspruch 8, wobei
- die Bedieneinheit (1 ) zentral in das Armaturenbrett eines Kraftfahrzeugs (8) integriert ist, und/oder
- die Erkennungseinrichtung (6) ein Kamerasystem und/oder einen kapazitiven Sensor umfasst.
10. Fahrzeug umfassend eine Anwenderschnittstelle nach einem der Ansprüche 8 oder 9.
PCT/EP2013/070214 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit WO2015043652A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
PCT/EP2013/070214 WO2015043652A1 (de) 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit
KR1020167010261A KR101805328B1 (ko) 2013-09-27 2013-09-27 사용자 인터페이스 및 조작 유닛의 조작 시 사용자를 지원하는 방법
CN201380080494.2A CN105683903A (zh) 2013-09-27 2013-09-27 用户界面和用于在操作单元的操作中辅助用户的方法
US15/025,526 US10248382B2 (en) 2013-09-27 2013-09-27 User interface and method for assisting a user with the operation of an operating unit
EP13770487.0A EP3049909A1 (de) 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2013/070214 WO2015043652A1 (de) 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit

Publications (1)

Publication Number Publication Date
WO2015043652A1 true WO2015043652A1 (de) 2015-04-02

Family

ID=49261561

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2013/070214 WO2015043652A1 (de) 2013-09-27 2013-09-27 Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit

Country Status (5)

Country Link
US (1) US10248382B2 (de)
EP (1) EP3049909A1 (de)
KR (1) KR101805328B1 (de)
CN (1) CN105683903A (de)
WO (1) WO2015043652A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114397996A (zh) * 2021-12-29 2022-04-26 杭州灵伴科技有限公司 交互提示方法、头戴式显示设备和计算机可读介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9563329B1 (en) 2015-09-15 2017-02-07 Thunder Power Hong Kong Ltd. Interchangeable display of information panels on a dashboard
GB2572614B (en) * 2018-04-05 2021-12-08 Steris Solutions Ltd Handset for controlling a support device or a movable surface

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060022955A1 (en) * 2004-07-30 2006-02-02 Apple Computer, Inc. Visual expander
US20080129520A1 (en) * 2006-12-01 2008-06-05 Apple Computer, Inc. Electronic device with enhanced audio feedback
DE102007039450A1 (de) * 2007-08-21 2009-02-26 Siemens Ag Berührungsempfindlicher Bildschirm und Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms
WO2009062677A2 (de) 2007-11-12 2009-05-22 Volkswagen Aktiengesellschaft Multimodale benutzerschnittstelle eines fahrerassistenzsystems zur eingabe und präsentation von informationen
US20090167701A1 (en) * 2007-12-28 2009-07-02 Nokia Corporation Audio and tactile feedback based on visual environment
US20090225043A1 (en) * 2008-03-05 2009-09-10 Plantronics, Inc. Touch Feedback With Hover
WO2010131163A1 (en) * 2009-05-13 2010-11-18 Koninklijke Philips Electronics N.V. Audio feedback and dependency on light functionality and setting

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7257536B1 (en) * 1999-11-23 2007-08-14 Radiant Systems, Inc. Audio request interaction system
US20100250071A1 (en) * 2008-03-28 2010-09-30 Denso International America, Inc. Dual function touch switch with haptic feedback
DE102009032069A1 (de) * 2009-07-07 2011-01-13 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen einer Benutzerschnittstelle in einem Fahrzeug
DE102009036369A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Verfahren zum Betreiben einer Bedienvorrichtung und Bedienvorrichtung in einem Fahrzeug
TWI423112B (zh) * 2009-12-09 2014-01-11 Ind Tech Res Inst 可攜式虛擬輸入操作裝置與其操作方法
US10705794B2 (en) * 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8863256B1 (en) * 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
US9285944B1 (en) * 2011-04-22 2016-03-15 Angel A. Penilla Methods and systems for defining custom vehicle user interface configurations and cloud services for managing applications for the user interface and learned setting functions
WO2013029257A1 (en) * 2011-08-31 2013-03-07 Ooros Automotive Co., Ltd. Vehicle's interactive system
KR101852821B1 (ko) * 2011-09-08 2018-04-27 엘지전자 주식회사 휴대 단말기 및 그 제어 방법
JP6311602B2 (ja) * 2012-06-15 2018-04-18 株式会社ニコン 電子機器
KR101943320B1 (ko) * 2012-09-21 2019-04-17 엘지전자 주식회사 이동단말기 및 그 제어방법
KR101990037B1 (ko) * 2012-11-13 2019-06-18 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US9300779B2 (en) * 2013-03-15 2016-03-29 Blackberry Limited Stateful integration of a vehicle information system user interface with mobile device operations
US8818716B1 (en) * 2013-03-15 2014-08-26 Honda Motor Co., Ltd. System and method for gesture-based point of interest search

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060022955A1 (en) * 2004-07-30 2006-02-02 Apple Computer, Inc. Visual expander
US20080129520A1 (en) * 2006-12-01 2008-06-05 Apple Computer, Inc. Electronic device with enhanced audio feedback
DE102007039450A1 (de) * 2007-08-21 2009-02-26 Siemens Ag Berührungsempfindlicher Bildschirm und Verfahren zum Betreiben eines berührungsempfindlichen Bildschirms
WO2009062677A2 (de) 2007-11-12 2009-05-22 Volkswagen Aktiengesellschaft Multimodale benutzerschnittstelle eines fahrerassistenzsystems zur eingabe und präsentation von informationen
US20090167701A1 (en) * 2007-12-28 2009-07-02 Nokia Corporation Audio and tactile feedback based on visual environment
US20090225043A1 (en) * 2008-03-05 2009-09-10 Plantronics, Inc. Touch Feedback With Hover
WO2010131163A1 (en) * 2009-05-13 2010-11-18 Koninklijke Philips Electronics N.V. Audio feedback and dependency on light functionality and setting

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114397996A (zh) * 2021-12-29 2022-04-26 杭州灵伴科技有限公司 交互提示方法、头戴式显示设备和计算机可读介质

Also Published As

Publication number Publication date
EP3049909A1 (de) 2016-08-03
CN105683903A (zh) 2016-06-15
KR101805328B1 (ko) 2017-12-07
US10248382B2 (en) 2019-04-02
KR20160057474A (ko) 2016-05-23
US20160239261A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
EP2223046B1 (de) Multimodale benutzerschnittstelle eines fahrerassistenzsystems zur eingabe und präsentation von informationen
EP2451672B1 (de) Verfahren und vorrichtung zum bereitstellen einer benutzerschnittstelle in einem fahrzeug
EP1853465B1 (de) Verfahren und vorrichtung zur sprachsteuerung eines gerätes oder eines systems in einem kraftfahrzeug
DE102014200993A1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
WO2019007811A1 (de) Anwenderschnittstelle für ein fortbewegungsmittel und fortbewegungsmittel enthaltend eine anwenderschnittstelle
EP2883738B1 (de) Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
DE102013014887B4 (de) Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus
DE102017201799A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Anwenderunterscheidung
EP3049909A1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei bedienung einer bedieneinheit
EP3049911B1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit
DE102009018590B4 (de) Kraftfahrzeug mit einer Bedienvorrichtung und dazugehöriges Verfahren
DE102015221304A1 (de) Verfahren und Vorrichtung zur Verbesserung der Erkennungsgenauigkeit bei der handschriftlichen Eingabe von alphanumerischen Zeichen und Gesten
EP2766210B1 (de) Verfahren zum bereitstellen einer bedienvorrichtung in einem fahrzeug und bedienvorrichtung
WO2014117932A1 (de) Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung
DE102013016196A1 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
DE102008033441B4 (de) Verfahren zum Betrieb eines Bediensystems für ein Fahrzeug und Bediensystem für ein Fahrzeug
DE102014202833A1 (de) Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
DE102019129396A1 (de) Grafische Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zum Betrieb einer grafischen Anwenderschnittstelle für ein Fortbewegungsmittel
EP3049910B1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer bedieneinheit
DE102011015693A1 (de) Verfahren und Vorrichtung zum Bereitstellen einer Nutzerschnittstelle, insbesondere in einem Fahrzeug
DE102014018423B4 (de) Kraftfahrzeug mit durch peripheres Sehen interpretierbarer Zustandsanzeige sowie entsprechendes Verfahren
DE102016218270A1 (de) Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
DE102017200769A1 (de) Verfahren zum Betreiben einer Eingabevorrichtung eines Kraftfahrzeugs und Eingabevorrichtung für ein Kraftfahrzeug
DE102012021220A1 (de) Bedienanordnung für ein Kraftfahrzeug
DE102012024867A1 (de) Verfahren zum Betreiben einer Bedieneinrichtung eines Kraftfahrzeugs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13770487

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2013770487

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013770487

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20167010261

Country of ref document: KR

Kind code of ref document: A