DE102016203742A1 - Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle - Google Patents

Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle Download PDF

Info

Publication number
DE102016203742A1
DE102016203742A1 DE102016203742.0A DE102016203742A DE102016203742A1 DE 102016203742 A1 DE102016203742 A1 DE 102016203742A1 DE 102016203742 A DE102016203742 A DE 102016203742A DE 102016203742 A1 DE102016203742 A1 DE 102016203742A1
Authority
DE
Germany
Prior art keywords
user
user interface
assistance
evaluating
predefined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016203742.0A
Other languages
English (en)
Inventor
Stephan Müller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102016203742.0A priority Critical patent/DE102016203742A1/de
Publication of DE102016203742A1 publication Critical patent/DE102016203742A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/654Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K37/00Dashboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/161Explanation of functions, e.g. instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/199Information management for avoiding maloperation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es werden eine Anwenderschnittstelle, ein Fortbewegungsmittel sowie ein Verfahren zur Unterstützung eines Anwenders (1) bei der Bedienung einer Anwenderschnittstelle (9) vorgeschlagen. Das Verfahren umfasst die Schritte: – sensorisches Erfassen eines Blickes des Anwenders (1) über der Zeit, – Erkennen eines vordefinierten Musters im Blick des Anwenders (1) und im Ansprechen darauf – Ausgeben einer Hilfestellung an den Anwender (1).

Description

  • Die vorliegende Erfindung betrifft eine Anwenderschnittstelle, ein Fortbewegungsmittel sowie ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle. Insbesondere betrifft die vorliegende Erfindung eine automatische Erkennung einer Hilfebedürftigkeit des Anwenders.
  • In heutigen grafischen Anwenderschnittstellen wird der Anwender bei Verständnisproblemen weitestgehend alleine gelassen. Das bedeutet, dass in einem Fall, in welchem der Anwender einen gesuchten Funktionsumfang nicht findet oder das System nicht so reagiert, wie der Anwender es erwartet, keine automatische Hilfestellung veranlasst wird. Zwar kann der Anwender der Reihe nach alles ausprobieren, was ihm aufgrund der bisherigen Erfahrung mit dem System einfällt (z. B. Elemente doppelklicken, Taste gedrückt halten, etc.), aber das System hilft dabei nicht weiter. Es kann lediglich gemäß seiner Entwicklung auf die Eingabe des Anwenders reagieren.
  • Im Stand der Technik sind aus unterschiedlichen Betriebssystemen (z. B. Microsoft Windows) Hilfemenüs (z. B. aufrufbar über die Taste „F1“ beziehungsweise die Schaltfläche „?“) bekannt. Bis der Anwender die häufig unübersichtlichen Hilfstexte konsultiert, versucht er jedoch üblicherweise zunächst selbstständig die gesuchte Funktion aufzurufen. Da die Hilfstexte den Erfahrungsschatz des aktuellen Anwenders nicht berücksichtigen, kann das Studium der Hilfstexte sehr aufwendig und daher unkomfortabel ausfallen.
  • Häufig kommt es also vor, dass der Anwender alleine zurückbleibt mit seinem Problem und eventuell aufgibt oder die Betriebsanleitung zu Rate zieht. Die Toleranzschwelle nimmt aufgrund der Vielzahl von Systemen im Alltag jedoch eher ab: Wenn etwas nicht auf Anhieb, oder wenigstens auf den zweiten Versuch funktioniert, lassen Anwender die Suche nach den erforderlichen Bedienschritten sein. Insbesondere in Verbindung mit der Bedienung einer Anwenderschnittstelle eines Fortbewegungsmittels kann eine nervenaufreibende und aufmerksamkeitszehrende Suche nach den erfolgversprechenden Schaltflächen die Verkehrssicherheit beeinträchtigen.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, die vorstehend genannten Nachteile des Standes der Technik zu lindern oder gänzlich auszuräumen.
  • Die vorstehend identifizierte Aufgabe wird erfindungsgemäß durch ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle gelöst. Die Anwenderschnittstelle kann beispielsweise eine grafische Ausgabe (Bildschirm, Touchscreen o.ä.), einen Sensor zur Erfassung von Eingaben und eine Ausgabeeinheit umfassen. Zunächst wird ein Blick des Anwenders über der Zeit sensorisch erfasst. Dies könnte auch als „Blickbahnverfolgung“ bezeichnet werden. Beispielsweise kann eine Innenraumkamera, welche die Augenstellung/-ausrichtung des Anwenders abtastet, dazu verwendet werden, aktuell vom Anwender fokussierte Gegenstände zu identifizieren. Die Gegenstände können auch Anzeigeinhalte auf einer grafischen Oberfläche der Anwenderschnittstelle umfassen. Auf diese Weise kann eine Zuordnung zwischen aktuell von der Anwenderschnittstelle ausgegebenen Anzeigeelementen und dem Fokus des Anwenders erfolgen. In einem zweiten Schritt wird ein vordefiniertes Muster im Blick des Anwenders erkannt. Das Muster kann beispielsweise eine vordefinierte Trajektorie des Fokus‘ des Blickes des Anwenders charakterisieren. Das vordefinierte Muster kann in einem Datenspeicher abgelegt sein. Das vordefinierte Muster kann als Raumpunkte, mathematische Funktion, insbesondere berücksichtigend zeitlich aufeinander folgende Charakteristika (z.B. Eckpunkte, Richtungswechsel und Geschwindigkeit) der Blickbahn des Anwenders abgespeichert sein. Im Ansprechen auf ein vordefiniertes erkanntes Muster wird eine Hilfestellung an den Anwender ausgegeben. Mit anderen Worten wird für das vordefinierte Muster (z. B. in Abhängigkeit einer aktuell angezeigten grafischen Anwenderoberfläche) ermittelt, dass der Anwender vermutlich hilfebedürftig ist. Die ausgegebene Hilfestellung kann beispielsweise akustisch, grafisch und/oder haptisch erfolgen. Auf diese Weise wird bereits vor einem etwaigen aktiven Anfordern einer Hilfestellung durch den Anwender interveniert, um das Frustrationspotenzial in Verbindung mit der erfindungsgemäßen Anwenderschnittstelle zu verringern.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. Der Blick des Anwenders kann zumindest teilweise, insbesondere ausschließlich auf eine grafische Benutzeroberfläche (z. B. ein Bildschirm, eine Anzeige eines Head-up-Displays, eine Projektion o.ä.) gerichtet sein. Dies schließt nicht aus, dass das vordefinierte Muster teilweise auch ein zwischenzeitliches Fokussieren umliegender Hardwareelement berücksichtigen kann beziehungsweise durch das Fokussieren umliegender Hardwareelemente vordefiniert sein kann.
  • Je nachdem, welche Gestalt die aktuelle Anzeige der Anwenderschnittstelle hat, kann das vordefinierte Muster beziehungsweise können die vordefinierten Referenzmuster unterschiedlich ausgestaltet sein. Mit anderen Worten wird in Abhängigkeit einer aktuellen Gestalt (auch „Bildschirminhalt“) der Anwenderschnittstelle ermittelt, ob der Anwender aktuell einer Hilfestellung bedarf, oder nicht.
  • Ein Beispiel für ein vordefiniertes Muster, welches eine hohe Wahrscheinlichkeit für die Hilfebedürftigkeit des Anwenders verheißt, besteht aus einer vordefinierten Anzahl einander entgegengesetzt orientierter Blickbahnabschnitte. Mit anderen Worten wird erkannt, dass der Anwender zunächst an einem ersten Ort nach einer geeigneten Information/Schaltfläche sucht, anschließend an einem zweiten Ort nach einer geeigneten Information/Schaltfläche sucht und anschließend zumindest ein weiteres Mal am ersten Ort nach einer geeigneten Information/Schaltfläche sucht. Beliebige Anzahlen von Wiederholungen einzelner der vorstehend genannten Blickbahnabschnitte können vordefiniert werden, wobei mit steigender Anzahl die Wahrscheinlichkeit für eine Hilfebedürftigkeit des Anwenders steigt und eine Fehlerkennung vermieden wird. Allgemein gesprochen können bestimmte Verweildauern und/oder Blickbahnen und/oder Blickbahnlängen (insbesondere ohne anschließende bestätigende Eingabe durch den Anwender) zur Erkennung der vermutlichen Hilfebedürftigkeit des Anwenders verwendet werden.
  • Um die anhand des oben beschriebenen Verfahrens vermutlich ermittelte Hilfebedürftigkeit des Anwenders zu verifizieren, können Sprachinhalte (gesprochene Texte) und/oder Stimmenparameter (z.B. Timbre und/oder Intonation) und/oder Lautstärke und/oder Lautstärkeverlauf und/oder Frequenzganz und/oder Frequenzverlauf und/oder vordefinierte Laute (z. B. „arrrgh“, „Herrje!“ etc.) und/oder eine Mimik (z. B. Zornesfalten, Augenrollen o.ä.) und/oder eine Kopfhaltung/Kopfbewegung (z. B. „Kopf in den Nacken fallen lassen“, „Kopfschütteln“ etc.) des Anwenders sensorisch erfasst und anhand abgespeicherter Referenzen ausgewertet werden, um den Hilfebedarf des Anwenders zu ermitteln/zu verifizieren/zu falsifizieren. Auch eine haptische Interaktion des Anwenders mit in Hardware ausgestalteten Schaltelementen beziehungsweise in Software ausgestalteten Schaltflächen können sensorisch erfasst, analysiert und in Abhängigkeit des Auswerteergebnisses zur Ermittlung der Hilfebedürftigkeit des Anwenders verwendet werden. Durch die kombinierte Auswertung mehrerer sensorisch erfassbarer Äußerungen des Anwenders kann eine Fehlerkennung einer Hilfebedürftigkeit vermieden werden.
  • Die Hilfestellung kann beispielsweise eine Textmeldung und/oder eine optische Hervorhebung eines Bildschirmelementes und/oder eine Sprachausgabe und/oder eine haptische Rückmeldung an den Anwender umfassen. Sofern durch das erfindungsgemäße Verfahren nicht lediglich die Hilfebedürftigkeit, sondern ein mit hoher Wahrscheinlichkeit bestehender Anwenderwunsch ermittelt werden kann, kann als Hilfestellung auch unvermittelt die vermutete Anwenderinteraktion ausgelöst werden. Mit anderen Worten kann der vom Anwender intendierte Funktionsaufruf auch ohne eine zusätzliche entsprechende deterministische Anwendereingabe erfolgen.
  • Um den Anwender in einer ohnehin unpassenden Situation nicht mit der Ausgabe der Hilfestellung und einem Erfordernis zum Interpretieren derselben zu konfrontieren, kann in einem weiteren Schritt ermittelt werden, dass ein späterer Zeitpunkt eine bessere Eignung zur Ausgabe der Hilfestellung aufweist. Dies kann beispielsweise aufgrund einer aktuellen Verkehrssituation des Fortbewegungsmittels, in welchem das erfindungsgemäße Verfahren ausgeführt wird, und/oder durch eine entsprechende Eingabe des Anwenders erkannt werden. Im Ansprechen darauf wird die Ausgabe der Hilfestellung bis zu einem späteren Zeitpunkt und/oder zu einem vordefinierten Ereignis verzögert. Beispielsweise kann aufgrund der Verkehrssituation und/oder aufgrund einer Vielzahl pro Zeiteinheit getätigter Anwendereingaben und/oder aufgrund eines Lärmpegels und/oder aufgrund einer stattfindenden Konversation in der Fahrgastzelle die Ausgabe der Hilfestellung unterdrückt werden und erst nach einem Abklingen der aktuellen Beanspruchung des Fahrers die Hilfestellung ausgegeben werden. Alternativ oder zusätzlich kann der Anwender zu einem späteren Zeitpunkt den Aufruf der Hilfestellung (z. B. aus einem Posteingangskorb für Systemmeldungen) eigenhändig veranlassen.
  • Bevorzugt kann der Anwender eine Option wählen, nach welcher die Hilfestellung für eine spätere Kenntnisnahme an ein anderes Anwenderendgerät gesendet wird. Beispielsweise kann ein Link auf eine Videoanleitung und/oder das komplette Video von der Anwenderschnittstelle zu einem Smartphone und/oder einem Tablet versendet werden, sodass der Anwender zu einem späteren Zeitpunkt in Ruhe die Hilfestellung studieren kann. Dies verbessert abermals die Verkehrssicherheit eines erfindungsgemäß ausgestalteten Fortbewegungsmittels.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welche einen Sensor umfasst, der eingerichtet ist, einen Blick eines Anwenders über der Zeit zu erfassen. Der Sensor kann beispielsweise ein optischer Sensor sein. Eine Auswerteeinheit (z. B. ein elektronisches Steuergerät, ein programmierbarer Prozessor o.ä.) ist eingerichtet, ein vordefiniertes Muster im Blick des Anwenders zu erfassen und in elektrische beziehungsweise elektronische Signale zu wandeln. Eine Ausgabeeinheit (z. B. ein Bildschirm, ein Projektor o.ä.) ist eingerichtet, im Ansprechen auf eine Erkennung des vordefinierten Musters eine Hilfestellung an den Anwender auszugeben. Die Ausgabeeinheit kann bei der Verwendung in einem Fortbewegungsmittel beispielsweise in ein Armaturenbrett des Fortbewegungsmittels eingelassen sein. Insbesondere kann die Ausgabeeinheit als zentrales Informationsdisplay (CID), Kombiinstrument und/oder Head-up-Display ausgestaltet sein.
  • Im Ergebnis verwirklicht die erfindungsgemäße Anwenderschnittstelle die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile derart ersichtlich entsprechend denjenigen des erfindungsgemäßen Verfahrens, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen werden kann.
  • Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fortbewegungsmittel (z. B. ein PKW, Transporter, LKW, Motorrad, Luft- und/oder Wasserfahrzeug) vorgeschlagen, welches eine Anwenderschnittstelle gemäß dem zweitgenannten Erfindungsaspekt umfasst. Auch diesbezüglich ergeben sich die Merkmale, Merkmalskombinationen und Vorteile in entsprechender Weise.
  • Weitere Einzelheiten, Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und den Figuren. Es zeigen:
  • 1 eine schematische Darstellung eines Ausführungsbeispiels eines erfindungsgemäßen Fortbewegungsmittels mit einem Ausführungsbeispiel einer erfindungsgemäßen Anwenderschnittstelle;
  • 2 eine schematische Darstellung von Blickbahnen eines Anwenders auf einer grafischen Bedienoberfläche; und
  • 3 ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.
  • 1 zeigt einen PKW 10 als Fortbewegungsmittel, in welchem eine Innenraumkamera 2 als Sensor und ein Touchscreen 3 als Eingabe-/Ausgabeeinheit vorgesehen und informationstechnisch mit einem elektronischen Steuergerät 4 als Auswerteeinheit verbunden sind. Die Innenraumkamera 2 ist auf den Anwender 1 ausgerichtet, der in ihrem Erfassungsbereich sitzt. Auf diese Weise kann die Innenraumkamera 2 die Blickrichtung, eine Mimik, Lippenbekenntnisse und eine Kopfhaltung des Anwenders 1 in Datenform wandeln und dem elektronischen Steuergerät 4 melden. Letzteres ist zudem informationstechnisch mit einem Innenraummikrophon 11 als zusätzlicher Sensor und einem Datenspeicher 5 verbunden. Im Datenspeicher 5 sind Referenzen für vordefinierte Blickbahnmuster des Anwenders und Instruktionen zur Ausführung eines erfindungsgemäßen Verfahrens hinterlegt. Zu guter Letzt ist ein Lautsprecher 12 zur Ausgabe einer Hilfestellung an den Anwender vorgesehen. In der dargestellten Situation flucht der Anwender (wie durch eine Sprechblase angedeutet) bei der Interaktion mit der dargestellten Anwenderschnittstelle 9. Der Fluch wird anhand seiner Semantik, Stimmlage und Lautstärke zusätzlich zur Blickrichtung des Anwenders 1 dahingehend ausgewertet, dass der Anwender 1 hilfebedürftig bezüglich der Bedienung der Anwenderschnittstelle 9 ist.
  • 2 zeigt eine schematische Ansicht eines Bildschirminhaltes auf einem Touchscreen 3, auf dessen linker Hälfte eine Kartendarstellung 6 und auf dessen rechter Hälfte ein Fenster 7 mit (nicht dargestellten) Schaltflächen für die Bedienung des Navigationssystems dargestellt sind. Beispielsweise können zwei voneinander getrennt auswertbare Blickbahnmuster des Anwenders wie folgt charakterisiert werden: Zur Anpassung der Kartendarstellung 6 sucht der Anwender zunächst den Rand oberhalb der Kartendarstellung 6 (Pfeil P1), anschließend den Rand links der Kartendarstellung 6 (Pfeil P2), anschließend den Rand unterhalb der Kartendarstellung 6 (Pfeil P3) und abschließend den Rand rechts der Kartendarstellung 6 (Pfeil P4) mit seinen Augen nach geeignet anmutenden Schaltflächen ab. Ein derartiges teilweises oder vollständiges Umkreisen der Kartendarstellung 6 kann als abhängig vom aktuellen Anzeigeinhalt des Touchscreens 3 vordefiniertes Muster in einem Datenspeicher (Bezugszeichen 5 in 1) hinterlegt sein und mit einer Hilfestellung für eine erfolgreiche Anpassung der Kartendarstellung 6 assoziiert sein. Ein zweites vordefiniertes Blickbahnmuster besteht aus einander entgegengesetzt orientierten Blickbahnabschnitten, welche von der Kartendarstellung 6 zum Fenster 7 (Pfeile P5, P7) beziehungsweise in umgekehrter Richtung (Pfeile P6, P8) verlaufen.
  • Beide anhand der Pfeile P1 bis P8 vorstehend beschriebenen Blickbahnmuster kennzeichnen erfindungsgemäße Beispiele für Indikatoren für die Hilfsbedürftigkeit des Anwenders, im Ansprechen worauf automatisch eine Textmeldung 8 unterhalb des Fensters 7 ausgegeben wird, innerhalb dessen dem Anwender erläutert wird, wie er die Kartendarstellung 6 anpassen kann.
  • 3 zeigt ein Flussdiagramm veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle eines Fortbewegungsmittels. In Schritt 100 wird ein Blick des Anwenders sensorisch über der Zeit erfasst. In Schritt 200 wird ein vordefiniertes Muster im Blick des Anwenders erkannt, welches als eine Hilfsbedürftigkeit des Anwenders charakterisierend vorbestimmt ist. In Schritt 300 wird jedoch ermittelt, dass der aktuelle Zeitpunkt für eine Ausgabe einer Hilfestellung ungünstig ist. Vielmehr wird ermittelt, dass ein späterer Zeitpunkt zur Ausgabe der Hilfestellung besser geeignet ist. Dies erfolgt beispielsweise durch ein Betätigen einer Schaltfläche mit der Aufschrift „später lesen“ durch den Anwender, welche parallel zu einer Schaltfläche mit der Aufschrift „jetzt lesen“ auf einem Touchscreen (Bezugszeichen 3 in 1) dargestellt wird. In Schritt 400 wird die Ausgabe der Hilfestellung verzögert, bis der Anwender auf ein (nicht dargestelltes) Briefumschlag-Symbol auf dem Touchscreen tippt, durch welches die Anzeige vergangener Systemmeldungen aufgerufen wird. Im Ansprechen darauf wird in Schritt 500 die Hilfestellung an den Anwender ausgegeben, indem ein erläuterndes Textfeld die Möglichkeiten zur Modifikation der Kartendarstellung angezeigt wird.
    Bedienhandlung Hilfsanimation
    Tippen einer Schaltfläche, die nur geschoben werden kann Die Schaltfläche (inkl. mitschiebender Fläche) zittert kurz in die Schieberichtung und zurück
    Tippen einer Schaltfläche, die geschoben und getippt werden kann, aber sofortiger (innerhalb von 3 Sekunden, keine Aktion auf der Folgeseite) anschließender Rücksprung Nach dem Rücksprung zittert die Schaltfläche (inkl. mitschiebender Fläche) kurz in die Schieberichtung und zurück
    Tippen in einen leeren Bereich, aber mit eindeutiger Nähe zu einer Schaltfläche (eine ist eindeutig die nächste zum Fingermittelpunkt) Die nächstgelegene Schaltfläche wird ausgelöst, als wäre sie direkt getroffen worden
    Kurzes Tippen mit leichtem Verrutschen Es ist eine klare Wegschwelle nötig, um zwischen Tippen mit Verrutschen und Tippen mit Ziehen zu unterscheiden. Im Zweifelsfall kann eine situationsabhängige Entscheidung getroffen werden, so dass bei Unsicherheit immer die ungefährlichere Handlung ausgeführt wird. Ein erfolgloses Schieben muss immer eine sichtbare Seitwärtsbewegung haben.
    Langes, handlungsloses verbleiben in einem Screen, der nicht SeeNow ist. Evtl. erkennt die Blickerfassung unterstützend ein intensives Scannen (Ratlosigkeit) Alle drückbaren Schaltflächen blitzen gleichzeitig kurz auf, danach zittern der Reihe nach alle schiebbaren Schaltflächen, je einmal. Wiederholung nach 10 Sekunden. Dann nochmal nach 30 Sekunden, dann Ruhe. (Das Ganze kann theoretisch einmal beim Einstieg in jeden Screen passieren.)
    Mehrfaches (> 2) Tippen auf dieselbe Fläche innerhalb kurzer Zeit Hilfe anbieten (Rettungsring aufhellen oder hüpfen lassen, PostIt-Einblendung mit Hilfetext, IBA-Link, Film) Offenbar zeigt die Aktivierung der Funktion nicht die gewünschte Wirkung – sie wird mehrfach ein- und ausgeschaltet, um eine Reaktion zu provozieren. Daher muss die Wirkweise der Funktion erklärt werden, insbesondere, wo ihre Auswirkung wahrzunehmen ist.
    „Noch mehr“-Anzeige: Darstellen, dass es nach rechts oder nach unten weitergeht – Hereinragen eines Eintrags (Win8) – Pfeil zeigt in die Richtung – Pfeil hüpft ab und zu, bewegt sich anderweitig
    Ziehen einer Liste/Skala gegen ihren Endanschlag (Ende der Liste) Dehnung, Kaugummi, beim Loslassen zurückschnalzen
    Schieben einer Liste/Skala gegen ihren Endanschlag (Blockade), Cursor per ZBE gegen Endanschlag Stauchung, beim Loslassen zurückschnalzen
    Tippen auf ein unverfügbares Element Element knüllt sich ein bisschen zusammen und entfaltet sich dann wieder. Wenn Platz da ist, erklärt das Element, warum es nicht geht und was man machen kann, damit es geht. Spätestens auf den zweiten Tipp (z.B. auch als Overlay, PostIt, Sprechblase, Denkblase usw.) Alternativen: Element schüttelt den Kopf, Element explodiert und erscheint dann wieder
    Zweimal in kurzer Zeit in ein Pad (SeeNow) hinein und wieder raus gehen Die Pad-Reihe zittert einmal nach links und nach rechts, so dass seitlich angeordnete, weitere Pads sichtbar werden.
    Im FES-integrierten GWS die Rauf- oder Runter-Schalt-Taste dreimal in P, R oder N drücken innerhalb von 10 Sekunden ODER Rauf- oder Runter-Schalt-Taste gedrückt halten und gleichzeitig den Hebel bedienen Animation (Stand) bzw. Sequenzbilder (Fahrt) zeigen, welche Tasten der GWS hat, welche was tut, und wie man in D schaltet. Link auf die Animation/Bildanzeige, wie man manuell schaltet
    zweimal innerhalb von 10 Sekunden in Sport und wieder zurück schalten, ODER immer wieder in Sport-Richtung schalten Animation (Stand) bzw. Sequenzbilder (Fahrt) zeigen, welche Tasten der GWS hat und wie man manuell schaltet.
    Tippen und schieben eines Objektes, mehrfach hin und her, ohne das Menü zu verlassen, evtl. anschließende Bedienpause (Ratlosigkeit), bspw. Tippen und Schieben der Kartenkachel mit einem Finger zweimal hin und her (Seite bewegt sich, nicht die Karte; offenbar wollte der Nutzer die Karte bewegen). Im Stand: Starten der Animation eines virtuellen Fingers, der zuerst "vorführt", wie man mit einem Finger die Seite verschiebt, dann, wie man mit zwei Fingern die Karte anfasst und sie verschiebt, dann, wie man zum CCP zurückkommt (z.B. Zwei-Finger-Doppeltipp), und dann evtl. noch, wie man zoomt. Animation bricht bei Eingreifen des Nutzers sofort weich ab und legt sich in den Posteingang (außer Dismiss-Schaltfläche wird benutzt). Siehe auch Zusatz unten. Bei der Fahrt: Einblenden statischer erklärender Icons für Ein-Finger- und Zwei-Finger-Bedienmöglichkeiten. Hinterlegen der Animation im Posteingang/Notifications für nächste Ampel, Fahrtende etc. Icons blenden wieder aus, sobald der Nutzer die Zwei-Finger-Bedienung benutzt (kompliziertere!).
  • Bezugszeichenliste
  • 1
    Anwender
    2
    Innenraumkamera
    3
    Touchscreen
    4
    elektronisches Steuergerät
    5
    Datenspeicher
    6
    Kartendarstellung
    7
    Fenster
    8
    Textmeldung
    9
    Anwenderschnittstelle
    10
    PKW
    11
    Mikrofon
    12
    Lautsprecher
    100 bis 500
    Verfahrensschritte
    P1 bis P8
    Pfeile

Claims (10)

  1. Verfahren zur Unterstützung eines Anwenders (1) bei der Bedienung einer Anwenderschnittstelle (9) umfassend die Schritte: – sensorisches Erfassen (100) eines Blickes des Anwenders (1) über der Zeit, – Erkennen (200) eines vordefinierten Musters (P1, P2, P3, P4; P5, P6, P7, P8) im Blick des Anwenders (1) und im Ansprechen darauf – Ausgeben (500) einer Hilfestellung (8) an den Anwender (1).
  2. Verfahren nach Anspruch 1, wobei der Blick des Anwenders (1) zumindest teilweise, insbesondere ausschließlich, auf eine graphische Benutzeroberfläche gerichtet ist.
  3. Verfahren nach Anspruch 2, wobei das vordefinierte Musters (P1, P2, P3, P4; P5, P6, P7, P8) in Abhängigkeit einer aktuellen Gestalt der Benutzeroberfläche definiert ist.
  4. Verfahren nach einem der vorstehenden Ansprüche, wobei das vordefinierte Musters (P1, P2, P3, P4; P5, P6, P7, P8) durch eine vordefinierte Anzahl in einander entgegengesetzte Richtungen verlaufender Blickbahnabschnitte gekennzeichnet ist.
  5. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend: – Auswerten eines Sprachinhaltes des Anwenders (1) und/oder – Auswerten eines Stimmenparameters des Anwenders (1) und/oder – Auswerten eines Lautes des Anwenders (1) – Auswerten einer Mimik des Anwenders (1) und/oder – Auswerten einer Kopfhaltung des Anwenders (1) und/oder – Auswerten wiederholter, entgegengesetzte Funktionen aufrufender Anwenderinteraktionen und in Abhängigkeit des Auswerteergebnisses – Ausgeben der Hilfestellung (8) an den Anwender (1).
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die Hilfestellung (8) – eine Textmeldung und/oder – eine optische Hervorhebung eines Bildschirmelements und/oder – eine Sprachausgabe und/oder – eine haptische Rückmeldung umfasst.
  7. Verfahren nach einem der vorstehenden Ansprüche weiter umfassend – Ermitteln (300) einer besseren Eignung eines späteren Zeitpunktes zur Ausgabe der Hilfestellung und – Verzögern (400) der Ausgabe der Hilfestellung bis zum späteren Zeitpunkt und/oder bis zu einem vordefinierten Ereignis.
  8. Anwenderschnittstelle umfassend – einen Sensor (2), welcher eingerichtet ist, einen Blick eines Anwenders (1) über der Zeit zu erfassen, – eine Auswerteeinheit (4), welche eingerichtet ist, ein vordefiniertes Muster (P1, P2, P3, P4; P5, P6, P7, P8) im Blick des Anwenders (1) zu erkennen und – eine Ausgabeeinheit (3), welcher eingerichtet ist, im Ansprechen auf das vordefinierte Muster (P1, P2, P3, P4; P5, P6, P7, P8) eine Hilfestellung (8) an den Anwender (1) auszugeben.
  9. Anwenderschnittstelle nach Anspruch 8, welche eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche 1 bis 7 auszuführen.
  10. Fortbewegungsmittel umfassend eine Anwenderschnittstelle (9) nach einem der vorstehenden Ansprüche 8 oder 9.
DE102016203742.0A 2016-03-08 2016-03-08 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle Pending DE102016203742A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016203742.0A DE102016203742A1 (de) 2016-03-08 2016-03-08 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016203742.0A DE102016203742A1 (de) 2016-03-08 2016-03-08 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle

Publications (1)

Publication Number Publication Date
DE102016203742A1 true DE102016203742A1 (de) 2017-09-14

Family

ID=59700449

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016203742.0A Pending DE102016203742A1 (de) 2016-03-08 2016-03-08 Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle

Country Status (1)

Country Link
DE (1) DE102016203742A1 (de)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007008835A1 (de) * 2007-02-23 2008-08-28 Volkswagen Ag Vorrichtung und Verfahren zur interaktiven Informationsausgabe und/oder Hilfestellung für den Benutzer eines Kraftfahrzeugs
US8024660B1 (en) * 2007-01-31 2011-09-20 Intuit Inc. Method and apparatus for variable help content and abandonment intervention based on user behavior
US20140026156A1 (en) * 2012-07-18 2014-01-23 David Deephanphongs Determining User Interest Through Detected Physical Indicia
US20140280296A1 (en) * 2013-03-14 2014-09-18 Google Inc. Providing help information based on emotion detection
US20150130703A1 (en) * 2013-10-31 2015-05-14 Sync-Think, Inc. System and Method for Dynamic Content Delivery Based on Gaze Analytics
US20150286487A1 (en) * 2014-04-04 2015-10-08 CafeX Communications Inc. System for monitoring and analyzing application data to proactively offer assistance
US20160109941A1 (en) * 2014-10-15 2016-04-21 Wipro Limited System and method for recommending content to a user based on user's interest
US20160180352A1 (en) * 2014-12-17 2016-06-23 Qing Chen System Detecting and Mitigating Frustration of Software User

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8024660B1 (en) * 2007-01-31 2011-09-20 Intuit Inc. Method and apparatus for variable help content and abandonment intervention based on user behavior
DE102007008835A1 (de) * 2007-02-23 2008-08-28 Volkswagen Ag Vorrichtung und Verfahren zur interaktiven Informationsausgabe und/oder Hilfestellung für den Benutzer eines Kraftfahrzeugs
US20140026156A1 (en) * 2012-07-18 2014-01-23 David Deephanphongs Determining User Interest Through Detected Physical Indicia
US20140280296A1 (en) * 2013-03-14 2014-09-18 Google Inc. Providing help information based on emotion detection
US20150130703A1 (en) * 2013-10-31 2015-05-14 Sync-Think, Inc. System and Method for Dynamic Content Delivery Based on Gaze Analytics
US20150286487A1 (en) * 2014-04-04 2015-10-08 CafeX Communications Inc. System for monitoring and analyzing application data to proactively offer assistance
US20160109941A1 (en) * 2014-10-15 2016-04-21 Wipro Limited System and method for recommending content to a user based on user's interest
US20160180352A1 (en) * 2014-12-17 2016-06-23 Qing Chen System Detecting and Mitigating Frustration of Software User

Similar Documents

Publication Publication Date Title
DE102013010932B4 (de) Verfahren zum Betreiben einer Bedienschnittstelle, Bedienschnittstelle sowie Kraftfahrzeug mit einer Bedienschnittstelle
EP1853465B1 (de) Verfahren und vorrichtung zur sprachsteuerung eines gerätes oder eines systems in einem kraftfahrzeug
EP2223046B1 (de) Multimodale benutzerschnittstelle eines fahrerassistenzsystems zur eingabe und präsentation von informationen
EP3358454B1 (de) Anwenderschnittstelle, fortbewegungsmittel und verfahren zur anwenderunterscheidung
EP3108331B1 (de) Anwenderschnittstelle und verfahren zum berührungslosen bedienen eines in hardware ausgestalteten bedienelementes in einem 3d-gestenmodus
DE102021121821A1 (de) Systeme und verfahren für digitale virtuelle blickfeld-lenkradsteuerung
EP3807119B1 (de) Verfahren zum betreiben einer anzeige- und bedienvorrichtung, anzeige- und bedienvorrichtung, und kraftfahrzeug
WO2015110227A1 (de) Anwenderschnittstelle und verfahren zur anpassung einer ansicht auf einer anzeigeeinheit
DE102017215161A1 (de) Verfahren und Vorrichtung zur Anwahl von einem Umgebungsobjekt im Umfeld eines Fahrzeugs
DE102014008204A1 (de) Kraftfahrzeug mit Medienwiedergabe
DE102015201728A1 (de) Verfahren zum Auswählen eines Bedienelements eines Kraftfahrzeugs und Bediensystem für ein Kraftfahrzeug
DE102013000744A1 (de) Verfahren und System zum Steuern wenigstens einer Funktionseinheit sowie Kraftwagen und mobiles Endgerät mit einem solchen System
DE102016203742A1 (de) Anwenderschnittstelle, Fortbewegungsmittel und Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer Anwenderschnittstelle
DE102013225736A1 (de) Nutzerspezifische Hilfe
WO2014114425A1 (de) Verfahren und anzeigesystem zum blickrichtungsabhängigen skalieren einer darstellung
DE102013016196B4 (de) Kraftfahrzeugbedienung mittels kombinierter Eingabemodalitäten
WO2014117932A1 (de) Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung
DE102014202833A1 (de) Anwenderschnittstelle und Verfahren zum Wechseln von einem ersten Bedienmodus einer Anwenderschnittstelle in einen 3D-Gesten-Modus
WO2015121175A1 (de) Anwenderschnittstelle und verfahren zur unterstützung eines anwenders bei der bedienung einer anwenderschnittstelle
DE102013003047A1 (de) Verfahren und System zum blickrichtungsabhängigen Steuern einer Funktionseinheit
DE102012219852A1 (de) Verfahren und Vorrichtung zum Beeinflussen einer Text-zu-Sprache-Ausgabe
DE102013013225B4 (de) Kraftfahrzeug mit umschaltbarer Bedieneinrichtung
DE102015212850A1 (de) Anwenderschnittstelle und Verfahren zum Unterstützen eines Anwenders bei der Interaktion mit einer Anwenderschnittstelle
DE102018132589A1 (de) Steuerung einer Multimodalen Benutzerschnittstelle
WO2019053200A1 (de) Verfahren zur ausgabe von informationen zu einem objekt eines fortbewegungsmittels, system und automobil

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed