DE102017213235A1 - Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens - Google Patents

Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens Download PDF

Info

Publication number
DE102017213235A1
DE102017213235A1 DE102017213235.3A DE102017213235A DE102017213235A1 DE 102017213235 A1 DE102017213235 A1 DE 102017213235A1 DE 102017213235 A DE102017213235 A DE 102017213235A DE 102017213235 A1 DE102017213235 A1 DE 102017213235A1
Authority
DE
Germany
Prior art keywords
user
predetermined
triggering event
feedback
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017213235.3A
Other languages
English (en)
Inventor
Elmar Nöth
Maximilian Held
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102017213235.3A priority Critical patent/DE102017213235A1/de
Priority to PCT/EP2018/068297 priority patent/WO2019025120A1/de
Publication of DE102017213235A1 publication Critical patent/DE102017213235A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • G06Q30/015Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
    • G06Q30/016After-sales
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • G06Q30/0203Market surveys; Market polls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln eines Benutzerfeedbacks (22) bei einer Benutzung eines Geräts (10) durch einen Benutzer (32). Die Erfindung sieht vor, dass durch eine Steuervorrichtung (12) während der Benutzung zumindest ein Auslöseereignis (23) detektiert wird und jeweils bei detektiertem Auslöseereignis (23) ein Sprachdialog (31) mit dem Benutzer (32) durchgeführt wird, wobei in dem Sprachdialog (31) gesprochene Benutzerangaben (33) zu dem Auslöseereignis (23) ermittelt werden, und die Benutzerangaben (33) und optional das Auslöseereignis (23) charakterisierende Situationsdaten (34) an eine Auswerteeinrichtung (21) ausgesendet werden.

Description

  • Die Erfindung betrifft ein Verfahren zum Ermitteln einer Benutzerrückmeldung oder eines Benutzerfeedbacks eines Benutzers mittels eines Geräts, das der Benutzer benutzt. Bei dem Gerät kann es sich beispielsweise um ein Kraftfahrzeug handeln. Durch das Benutzerfeedback soll ermittelt werden, warum der Benutzer gerade mit einer aktuellen Situation zufrieden oder unzufrieden ist oder warum er eine bestimmte Funktion des Geräts nutzt oder nicht nutzt. Zu der Erfindung gehört auch eine Steuervorrichtung, um das erfindungsgemäße Verfahren durchzuführen.
  • Um heutzutage ein Benutzerfeedback beispielsweise zu einem Kraftfahrzeug oder zu etwas Gesehenem oder einer Werbung zu erhalten, müssen vordefinierte Befragungen durchgeführt werden oder der Benutzer muss selbstständig sein Benutzerfeedback formulieren und bereitstellen.
  • Aus der DE 10 2014 111 773 A1 ist ein Verfahren bekannt, um eine Benutzerzufriedenheit zusätzlich noch mit indirekten Mitteln zu erfassen, indem der Benutzer während der Eingabe seines Benutzerfeedbacks gefilmt wird, um seine aktuelle Stimmung zu erkennen. Das Erkennen einer Befindlichkeit eines Benutzers ist auch in der DE 10 2015 105 581 A1 beschrieben.
  • Dennoch erfordert auch mit diesen Mitteln des Stands der Technik das Eingeben des Benutzerfeedbacks eine Aktion des Benutzers, zu der er sich zunächst überwinden muss, damit überhaupt Benutzerangaben macht, die als Benutzerfeedback verwertet werden können. Oftmals weiß der Benutzer auch nicht, wie er die Benutzerangaben ausdrücken soll, damit sie als Benutzerfeedback verwertet werden können.
  • In der DE 10 2009 025 530 A1 ist ein Sprachdialogsystem beschrieben, das in einem Kraftfahrzeug das Eingeben eines Navigationsziels per Sprache ermöglicht. Eine Steuervorrichtung stellt zu dem möglichen Navigationsziel Fragen, die der Benutzer gezielt beantworten kann.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Benutzerfeedback eines Benutzers einzuholen.
  • Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.
  • Durch die Erfindung ist ein Verfahren zum Ermitteln einer Benutzermeinung oder eines Benutzerfeedbacks bereitgestellt. Das Verfahren kann durchgeführt werden, während der Benutzer ein Gerät benutzt. Um den Benutzer zur Abgabe seines Benutzerfeedbacks anzuregen, ist erfindungsgemäß vorgesehen, dass durch eine Steuervorrichtung während der vom Benutzer vorgenommenen Benutzung des Geräts zumindest eine Auslösebedingung oder ein Auslöseereignis detektiert wird. Bei detektiertem Auslöseereignis wird ein Sprachdialog mit dem Benutzer gestartet oder durchgeführt. Der Sprachdialog ist ein automatisierter Sprachdialog, d.h. er wird zwischen der Steuervorrichtung einerseits und dem Benutzer andererseits durchgeführt. Die Steuervorrichtung kann hierbei Sprachansagen ausgeben, auf die der Benutzer mit einer gesprochenen Antwort reagieren kann. In dem Sprachdialog werden vom Benutzer ausgesprochene Benutzerangaben zu dem Auslöseereignis ermittelt. Es werden dann die Benutzerangaben an eine Auswerteeinrichtung ausgesendet. Die Auswerteeinrichtung kann zum Beispiel ein Server im Internet sein. Mittels der Auswerteeinrichtung kann aus unterschiedlichen Geräten oder Steuervorrichtungen jeweils zu zumindest einem vorbestimmten Auslöseereignis das jeweilige Benutzerfeedback gesammelt werden.
  • Durch die Erfindung ergibt sich der Vorteil, dass die Ablenkung des Benutzers besonders gering ist. Der Sprachdialog lenkt den Benutzer bei der weiteren Benutzung des Geräts nur geringfügig ab, sodass der Benutzer die Benutzung nicht wegen der Befragung unterbrechen muss.
  • Bevorzugt werden die die Benutzerangaben zusammen mit das Auslöseereignis charakterisierenden Situationsdaten an die Auswerteeinrichtung ausgesendet. Hierdurch ergibt sich der Vorteil, dass mittels der Situationsdaten der Grund oder die Situation, die zu dem Auslöseereignis gespürt haben, beschrieben oder charakterisiert werden und zusätzlich per Sprachdialog Benutzerangaben über das Auslöseereignis automatisiert gesammelt und an eine Auswerteeinrichtung weitergeleitet werden.
  • Eine Weiterbildung betrifft die Frage, welche Situationsdaten noch zusätzlich zu den Benutzerangaben an die Analyseeinrichtung ausgesendet werden können. Eine Weiterbildung hierzu sieht vor, dass die Situationsdaten einen Gerätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext (Benutzungshistorie und/oder aktuell aktivierte Bedienfunktionen) und/oder Gesundheitsdaten des Benutzers und/oder eine Geoposition des Geräts beschreiben. Im Zusammenhang mit einem Kraftfahrzeug kann der Gerätezustand z.B. die aktuelle Gangwahl, die Drehzahl und/oder eine Sitzeinstellung sein. Dies sind aber nur Beispiele. Ein Umgebungszustand kann beispielsweise das Wetter und/oder eine Umgebungstemperatur angeben. Der Benutzungskontext kann im Zusammenhang mit einem Kraftfahrzeug beispielsweise einen vorgenommenen Gangwechsel oder eine Fahrwerkseinstellung beschreiben. Der Benutzungskontext kann beispielsweise auch die Benutzungsumgebung, in welcher das Gerät benutzt wird, darstellen. So kann beispielsweise im Zusammenhang mit einem Kraftfahrzeug ermittelt werden, ob sich das Kraftfahrzeug aktuell auf einer Stadtfahrt oder einer Autobahnfahrt befindet. Durch die Geoposition kann der Benutzungsort ermittelt werden. Hierdurch kann beispielsweise ermittelt werden, ob sich das Gerät aktuell in einem Funkloch befand, also eine Mobilfunkverbindung gestört gewesen sein kann, oder in der Nähe einer vorbestimmten Sehenswürdigkeit, wie z.B. einem Gebäude .
  • Der Sprachdialog kann durch unterschiedliche Auslöseereignisse begonnen oder gestartet oder ausgelöst werden.
  • Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst. In dem hierdurch ausgelösten Sprachdialog kann dann ein Grund für die Geräteeinstellung erfragt werden. Handelt es sich bei dem Gerät beispielsweise um ein Kraftfahrzeug, so kann der Benutzer dann, wenn er zum Beispiel eine Fahrwerkseinstellung ändert oder vornimmt, befragt werden, warum er diese Fahrwerkseinstellung vorgenommen hat. Die Geräteeinstellung kann z.B. zusätzlich oder alternativ eine Klimatisierungs-, Motor-, Licht-, Media- und/oder Komforteinstellung betreffen. So kann also gezielt auf eine vorbestimmte Geräteeinstellung gewartet werden (zum Beispiel die Geräteeinstellung am Fahrwerk oder an einem Sitz) und somit gezielt zu dieser bedienten oder eingestellten Gerätekomponente ein Benutzerfeedback ermittelt werden. Hierdurch kann gezielt für zumindest eine vorbestimmte Gerätekomponente des Geräts und/oder für zumindest eine vorbestimmte Benutzungsumgebung, in welcher die Geräteeinstellung vorgenommen wird, ein Benutzerfeedback ausgelöst oder ermittelt werden. In Bezug auf die Benutzungsumgebung, in welcher das Gerät benutzt wird, kann beispielsweise bei der Änderung der Fahrwerkseinstellung ermittelt werden, dass der Benutzer als Benutzereingabe einen unruhigen oder unebenen Straßenverlauf als Grund angibt. Dann kann als Benutzerfeedback der Zustand der Straße gemeldet werden. Die Situationsdaten, die ebenfalls mit den Benutzerangaben zusammen ausgesendet werden können, können dann beispielsweise die Geoposition des Straßenabschnitts angeben und/oder einen Gesundheitszustand des Benutzers, um beispielsweise die Empfindlichkeit des Benutzers gegenüber Straßenunebenheiten abschätzen zu können.
  • Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine Anforderung des Benutzerfeedbacks durch eine vorbestimmte Benutzerhandlung umfasst. Der Benutzer fordert also selbst die Eingabemöglichkeit für sein Benutzerfeedback an. Dies kann eine manuelle Bedienhandlung beispielsweise in einem Bedienmenü und/oder an einem Bedienelement sein. Die Benutzerhandlung kann auch beispielsweise einen Sprachbefehl umfassen, den der Benutzer ausspricht, um sein Benutzerfeedback anschließend eingeben zu können. Somit kann ohne aufwendige Detektion der Benutzungssituation ebenfalls die Erfassung eines Benutzerfeedbacks ausgelöst werden.
  • Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Gerätezustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand der Benutzungsumgebung, in welcher das Gerät benutzt wird, vorsieht. Beispielsweise kann als Gerätezustand ein Fehlerzustand des Geräts erkannt werden. Wird dies als Auslöseereignis erkannt, so kann mittels des Sprachdialogs beispielsweise erfragt werden, ob der Benutzer den Fehler überhaupt bemerkt hat und/oder was er über den Fehler denkt. Indem eine Geoposition des Geräts als Auslöseereignis verwendet wird, kann ein Benutzerfeedback dazu ermittelt werden, wie die Meinung des Benutzers zur Benutzung des Geräts an einen bestimmten Ort oder in einer bestimmten Benutzungsumgebung ist und/oder zu einem in einer Umgebung von der Geoposition aus sichtbaren und/oder hörbaren Ereignis und/oder Objekt (z.B. eine Werbung und/oder ein Gebäude) ist. Eine andere Bezeichnung für die ortsabhängige Auslösung ist auch Geofencing. Indem ein Umgebungszustand der Benutzungsumgebung als Auslöseereignis erkannt wird, kann die Benutzung des Geräts in einer vorbestimmten Umgebungssituation, beispielsweise bei Regen und/oder bei Hitze und/oder in einer lauten Umgebung, erkannt werden. Entsprechend kann der Umgebungszustand beispielsweise mittels zumindest eines Sensors und/oder mittels zum Beispiel Wetterdaten aus dem Internet ermittelt werden.
  • Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten umfasst. Die Nutzungshistorie kann beispielsweise angeben, wie oft der Benutzer einen vorbestimmten Bedienschritt des Geräts ausgeführt hat. Hat der Benutzer beispielsweise N-mal eine Gerätekomponente mit einem vorbestimmten Bedienschritt bedient, so kann dies als Auslöseereignis dazu verwendet werden, um in dem Sprachdialog zu erfragen, warum der Benutzer ständig diesen Bedienschritt ausführt oder ob der Benutzer mit der Bedienkomponente oder der Bedienfunktion zufrieden oder unzufrieden ist. Durch Vorgeben der Anzahl N kann bei N-maliger Wiederholung eine entsprechend ausreichende Erfahrung des Benutzers für das Benutzerfeedback sichergestellt werden. Durch Abwarten oder Erkennen einer vorbestimmten Abfolge von Bedienschritten kann beispielsweise erkannt werden, dass der Benutzer wiederholt dieselbe Einstellung an einer Gerätekomponente vornimmt. In dem hierdurch ausgelösten Sprachdialog kann dann erfragt werden, welchen Zustand der Benutzer eigentlich an der Gerätekomponente wünscht.
  • Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vorbestimmte Stimmung des Nutzers umfasst. Die Stimmungserkennung ist an sich aus dem Stand der Technik bekannt, wie bereits eingangs beschrieben wurde. Die erkannte Stimmung kann somit der Steuervorrichtung signalisiert werden, beispielsweise durch eine Stimmungserkennungseinrichtung. Wird eine vorbestimmte Stimmung, zum Beispiel ein Gefühl wie Ärger, Glück, Trauer, erkannt, so kann überprüft werden, ob ein vorbestimmtes Rückfragekriterium erfüllt ist. Dieses kann beispielsweise vorgeben, dass nur bei einer vorbestimmten Stimmung eine Rückfrage erfolgt, um den Benutzer bei Vorliegen bestimmter Stimmungen nicht zu stören. Das Rückfragekriterium legt also all diejenigen Stimmungen und/oder all diejenigen Stimmungsgrade fest, bei welchen eine Rückfrage durch die Steuervorrichtung mittels des Sprachdialogs erfolgt. Bei erfülltem Rückfragekriterium wird mittels des Sprachdialogs beim Benutzer erfragt, ob er das Benutzerfeedback geben möchte. Bejaht der Benutzer den Wunsch eines Benutzerfeedbacks, so werden also bei einer Bestätigung des Benutzers die Benutzerangaben zu seiner Stimmung ermittelt. Der Benutzer wird also beispielsweise gefragt, warum er verärgert ist. In jedem anderen Fall aber, wenn also das Rückfragekriterium verletzt oder nicht erfüllt ist oder der Benutzer kein Benutzerfeedback abgeben möchte und die Rückfrage also verneint, so werden ohne die Benutzerangaben nur die Situationsdaten an die Auswerteeinrichtung gesendet. Somit kann bereits eine Stimmungsangabe, welche die erkannte Stimmung angibt, als indirekte Benutzerangabe ausgewertet werden. Hierdurch ergibt sich der Vorteil, dass allein eine Emotion des Benutzers ausreicht, um eine Ermittlung des Benutzerfeedbacks auszulösen.
  • Welche Auslöseereignisse geeignet sind, um das Erfassen eines Benutzerfeedbacks sinnvoll auszulösen, kann in einem frühen Stadium, nämlich bei der Entwicklung des Geräts, schwierig sein. Um hier mehr Flexibilität beim Anpassen eines Auslösungsereignisses bereitzustellen, sieht eine Weiterbildung vor, dass im Betrieb des Geräts, d.h. also dynamisch, Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird. Es kann also zur Laufzeit, während sich das Gerät bereits beim Benutzer befindet, ein neues Auslöseereignis definiert oder festgelegt werden. Somit kann also auch im Nachhinein, nach Auslieferung des Geräts an den Benutzer, die Menge der Auslöseereignisse zum Erfragen oder Ermitteln von Benutzerfeedback angepasst werden.
  • Durch den Sprachdialog kann der Benutzer unter Umständen in kognitiv anstrengenden Situationen, die vom Benutzer die gesamte Aufmerksamkeit erfordern, dennoch von der Benutzung des Geräts abgelenkt werden. Um dies zu vermeiden, wird der Sprachdialog bevorzugt nur dann gestartet oder durchgeführt, wenn die kognitive Belastung des Benutzers, also sein aktueller Aufwand zum Konzentrieren bei der Bedienung des Geräts, gering genug ist. Eine Weiterbildung sieht hierzu vor, dass der Sprachdialog nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium eben festlegt, in welchem Fall eine Ablenkung des Benutzers durch den Sprachdialog zulässig ist. Das Belastungskriterium legt also einen Schwellenwert für die kognitive Belastung fest, der unterschritten sein muss, damit der Sprachdialog gestartet wird. Das Belastungskriterium kann auch eine Liste von zulässigen Benutzungssituationen angeben. Handelt es sich bei dem Gerät um ein Kraftfahrzeug, so kann beispielsweise das Belastungskriterium besagen, dass während einer Kurvenfahrt der Sprachdialog blockiert sein muss. Dagegen kann während einer Fahrt mit einem Autopiloten der Sprachdialog freigegeben sein. Allgemein wird also durch das Belastungskriterium festgelegt, welche Fahrerbelastung durch die aktuelle Fahraufgabe zulässig ist, damit der Sprachdialog gestartet wird und welche Fahrerbelastung oder welcher Grad an Fahrerbelastung den Sprachdialog verhindert oder blockiert. Bei verletztem Belastungskriterium kann der Sprachdialog auch zeitlich verschoben in Bezug auf das Auslöseereignis gestartet werden.
  • Mehrere Weiterbildungen beschäftigen sich mit der Frage, wie von dem Benutzer die benötigten Benutzerangaben erfragt werden können. Eine Weiterbildung sieht vor, dass zum Festlegen eines Verlaufs des Sprachdialogs vorbestimmte, zu beantwortende Frageziele oder Fragepunkte zu dem Auslöseereignis vorgegeben werden. Zu jedem Auslöseereignis stellen sich Fragen, die beispielsweise der Hersteller des Geräts beantwortet haben möchte. Somit kann also zu jedem detektierbaren oder vorbestimmten Auslöseereignis jeweils eine Liste mit zumindest einem Fragepunkt vorgegeben werden. Während des Sprachdialogs wird dann zumindest eine Aussage des Benutzers mittels einer vorbestimmten Zuordnungsvorschrift daraufhin überprüft, ob sie eine Antwort auf einen Fragepunkt darstellt. Wird als Auslöseereignis beispielsweise erkannt, dass ein Benutzer einen Fahrzeugsitz verstellt, so kann als ein Fragepunkt vorgegeben werden, ob der Fahrzeugsitz unbequem ist. Wird dann im Sprachdialog gefragt: „Warum haben Sie den Fahrzeugsitz verstellt?“ und antwortet der Benutzer darauf hin: „Meine Schulter zwickt,“ so kann eine Zuordnungsvorschrift vorgesehen sein, die Angaben zu Körperteilen, also beispielsweise „Schulter“, dem Fragepunkt die Antwort „Fahrzeugsitz unbequem“ zuordnet. Somit kann diese mittels der Zuordnungsvorschrift interpretierte Antwort des Benutzers als Teil der Benutzerangaben verwendet werden. Antwortet der Benutzer dagegen: „Bitte jetzt nicht stören, ich möchte gleich telefonieren,“ so ergibt sich keine gültige Zuordnung mittels der Zuordnungsvorschrift zu einer möglichen Antwort für den Fragepunkt. Damit wird diese Antwort des Benutzers nicht als Teil der Benutzerangaben verwendet, sondern für das Benutzerfeedback ignoriert. Des Weiteren kann die Steuervorrichtung noch unbeantwortete Fragepunkte während des Sprachdialogs ermitteln und durch Anpassen des Sprachdialogs gezielt die unbeantworteten Fragepunkte erfragen. Beispielsweise kann im Sprachdialog gezielt gefragt werden: „Finden Sie den Fahrzeugsitz unbequem?“, falls dieser Fragepunkt noch offen oder unbeantwortet ist.
  • Eine andere Möglichkeit, um einen Sprachdialog für ein Benutzerfeedback zu gestalten, besteht in der Weiterbildung, Fragebogendaten zu empfangen, welche zumindest einen Fragepunkt angeben, zu welchem Benutzerangaben benötigt werden. Als Auslöseereignis kann dann ein vorbestimmter Nutzungskontext (auf welchen sich die Fragebogendaten beispielsweise beziehen) und/oder ein vorbestimmter Belastungsgrad an die aktuelle kognitive Belastung des Benutzers ermittelt wird. Ein Grad oder Wert einer kognitiven Belastung kann allgemein z.B. mittels einer Zuordnungsfunktion ermittelt werden, welche einer erkannten Benutzungssituation den Grad oder Wert der kognitiven Belastung zuordnet. Die Zuordnungsfunktion kann mit Testpersonen anhand von einfachen Versuchen gebildet werden. Die Fragebogendaten werden also nur dann per Sprachdialog geklärt, wenn die kognitive Belastung des Benutzers unter einem vorbestimmten Schwellenwert liegt, der Benutzer also entspannt und/oder sein Ablenkungsgrad gering genug ist, um eine unerwünschte Ablenkung zu vermeiden. Dann wird der Sprachdialog gestartet und in Abhängigkeit von den Fragebogendaten gesteuert. Im Sprachdialog können also Fragen in ein Gespräch mit den Benutzer einfließen, wobei die Fragen die zumindest einen zu klärenden Fragepunkt aus den Fragebogendaten betreffen.
  • Nicht immer ist aber klar, was der Benutzer eigentlich gefragt werden soll. Eine Weiterbildung sieht deshalb vor, dass zu dem Auslöseereignis alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird. Hierdurch bleibt also das Benutzerfeedback ergebnisoffen. Es werden durch offene Fragen nach dem gewünschten Zustand und/oder einem technischen Sachverhalt vom Benutzer Aussagen erfragt oder ermittelt, die als Benutzerfeedback genutzt werden können.
  • Um das erfindungsgemäße Verfahren durchzuführen, ist durch die Erfindung auch die besagte Steuervorrichtung bereitgestellt, um das Benutzerfeedback bei einer Benutzung eines Geräts zu ermitteln. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikrocontroller und/oder zumindest einen Mikroprozessor aufweisen. Die Prozessoreinrichtung kann einen Programmcode umfassen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein. Die Steuervorrichtung kann ganz oder teilweise in einer Geräteelektronik des Geräts selbst bereitgestellt sein. Die Steuervorrichtung kann auch ganz oder teilweise durch einen Server des Internets realisiert sein. Die Steuervorrichtung kann auch ganz oder teilweise in einem mobilen Endgerät bereitgestellt sein, dass mit dem eigentlichen zu bedienenden Gerät gekoppelt sein kann.
  • Bei dem Gerät selbst kann es sich in der besagten Weise um ein Kraftfahrzeug handeln. Das Benutzerfeedback kann aber auch über ein Gerät ermittelt werden, das beispielsweise ein mobiles Endgerät, also ein Smartphone oder ein Tablett-PC oder eine Smartwatch, darstellt.
  • Im Zusammenhang mit einem als Kraftfahrzeug ausgebildeten Gerät sieht die Erfindung auch ein Kraftfahrzeug vor, in welchem eine Ausführungsform der erfindungsgemäßen Steuervorrichtung bereitgestellt ist. Das erfindungsgemäße Kraftfahrzeug kann als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als ein Motorrad oder als eine Landmaschine ausgestaltet sein. Grundsätzlich können alle im Kraftfahrzeug befindlichen Personen ein Feedback geben, nicht nur der Fahrer.
  • Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
    • 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs;
    • 2 ein Flussdiagramm zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens, wie es durch eine Steuervorrichtung für das Kraftfahrzeug von 1 durchgeführt werden kann;
    • 3 eine schematische Darstellung einer Struktur eines Sprachdialogs, wie er im Zusammenhang mit dem Verfahren von 2 durch die Steuervorrichtung ausgeführt werden kann; und
    • 4 eine schematische Darstellung der Steuervorrichtung.
  • Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
  • In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
  • 1 zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen oder ein Motorrad oder eine Landmaschine, handeln kann. Das Kraftfahrzeug 10 repräsentiert ein Gerät im Sinne der Erfindung. Die im Folgenden beschriebenen Verfahrensschritte können aber auch auf ein anderes Gerät, z.B. ein mobiles Endgerät, angewendet werden.
  • In dem Kraftfahrzeug 10 kann eine Prozessoreinrichtung 11 bereitgestellt sein, bei der es sich beispielsweise um ein Infotainmentsystem (Information-Unterhaltungssystem) handeln kann. Die Prozessoreinrichtung 11 kann auch ein eigenes Steuergerät sein oder in einem auch für andere Funktionen vorgesehenen Steuergerät integriert sein. Durch die Prozessoreinrichtung 11 kann beispielhaft eine Steuervorrichtung 12 realisiert sein. Alternativ dazu kann als eine Steuervorrichtung oder als ein Teil der Steuervorrichtung ein mobiles Endgerät 13 mit der Prozessoreinrichtung 11 gekoppelt sein. Zusätzlich oder alternativ dazu kann über eine Funkverbindung 14 eine Servervorrichtung oder ein Server 15 des Internets 16 mit der Prozessoreinrichtung 11 gekoppelt sein, um einen Teil der Steuervorrichtung zu bilden oder die Funktion der Steuervorrichtung ganz bereitzustellen.
  • Im Folgenden wird beispielhaft davon ausgegangen, dass die Steuervorrichtung 12 ausschließlich mittels der Prozessoreinrichtung 11 bereitgestellt ist. Die im folgenden beschriebenen Funktionen können aber auch durch das mobile Endgerät 13 und/oder den Server 15 ganz oder teilweise ausgeführt werden.
  • Durch die Steuervorrichtung 12 kann aus einer Mikrofonanordnung 17 eine Benutzereingabe 18 eines (nicht dargestellten) Benutzers des Kraftfahrzeugs 10 als Sprachsignal empfangen werden. Des Weiteren kann die Steuervorrichtung 12 eine Ausgabeeinrichtung 19 steuern oder betreiben, um eine Sprachansage 20 als Sprachschall an den Benutzer ausgeben zu können. Es können kann auch ein Mikrofon und/oder ein Lautsprecher aus einem mobilen Endgerät, z.B. einem Smartphone, verwendet werden.
  • In dem Kraftfahrzeug 10 kann von dem Benutzer hierdurch in einem Sprachdialog ein Benutzerfeedback 22 ermittelt werden, das dann an eine Auswerteeinrichtung 21, beispielsweise einen Server des Internets 16, ausgesendet werden kann. Durch die Auswerteeinrichtung 21 kann aus dem Kraftfahrzeug 10 und aus weiteren Geräten jeweils das Benutzerfeedback 22 gesammelt werden und somit z.B. der Gerätetyp des Kraftfahrzeugs 10 oder allgemein eines Geräts verbessert oder weiterentwickelt werden. Das Benutzerfeedback 22 kann eine Benutzerangabe 33 zu einem Auslöseereignis sowie Situationsdaten 34 betreffend die aktuelle Benutzungssituation umfassen. Die Situationsdaten 34 können z.B. auf der Grundlage von Daten DTA gebildet sein, die Umgebungsdaten und/oder Fahrzeugdaten und/oder Wetterdaten und/oder Verkehrsdaten umfassen können. Die Daten DTA können ganz oder teilweise auch durch eine externe Datenquelle, wie z.B. einen Internet-Datendienst, bereitgestellt sein.
  • 2 veranschaulicht, wie das Benutzerfeedback 22 im Kraftfahrzeug 10 durch die Steuervorrichtung 12 ermittelt werden kann.
  • Während der Benutzer das Kraftfahrzeug 10 benutzt, kann die Steuervorrichtung 12 detektierten, ob ein vorbestimmtes Auslöseereignis 23 im oder am Kraftfahrzeug vorkommt oder stattgefunden hat. Es kann sich bei dem Auslöseereignis 23 um eine Nutzerinteraktion 24 handeln, die beispielsweise in Form eines Sprachbefehls 25 des Benutzers und/oder in Form einer Hardwarebedienung 26 des Benutzers, d.h. einer vorbestimmten Bedienhandlung, erkannt werden kann. Zusätzlich oder alternativ dazu kann mittels zumindest eines fahrzeugeigenen und/oder zumindest eines fahrzeugfremden Sensors 27 (z.B. des mobilen Endgeräts 13) eine aktuelle Benutzungssituation 28 und/oder ein aktueller Benutzungskontext 29 ermittelt werden. Falls ein vorbestimmter Benutzungskontext 29 und/oder eine vorbestimmte Benutzungssituation 28 erkannt wird, kann dies ebenfalls als Auslöseereignis 23 gewertet werden.
  • Wird in einem Schritt S10 das Auslöseereignis 23 erkannt, so kann in einem Schritt S11 ein Sprachdialog 31 durchgeführt werden. Hierzu kann von dem Benutzer (in 2 durch ein Feld 32 repräsentiert) die Benutzereingabe 18 empfangen werden und an den Benutzer die Sprachausgabe 20 ausgegeben werden. Mittels des Sprachdialogs 31 werden dann in einem Schritt S12 Benutzerangaben 33 ermittelt, die in einem Schritt S13 zusätzlich z.B. auf Grundlage des zumindest einen Sensors 27 und/oder Zustandsdaten des Kraftfahrzeugs 10 um die Situationsdaten 34 ergänzt werden können. Die Situationsdaten 34 können einen aktuellen Gerätezustand des Kraftfahrzeugs 10 und/oder einen Umgebungszustand der Bedienumgebung und/oder einen Benutzungskontext, in welchem das Kraftfahrzeug 10 aktuell benutzt wird, und/oder den Gesundheitszustand des Benutzers selbst und/oder eine Geoposition des Kraftfahrzeugs 10 beschreiben.
  • In einem Schritt S14 kann dann das Benutzerfeedback 22 als Kombination aus den Benutzerangaben 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 übermittelt werden.
  • 3 veranschaulicht beispielhaft eine mögliche Struktur des Sprachdialogs 31. Es kann eine Identität des Benutzers 32 und es können Profildaten 35 des Benutzers 32 in einem Schritt D10 ermittelt werden, indem sie beispielsweise aus einer Datenbank ausgelesen werden. Es können Fragebogendaten 36 in einem Schritt D11 empfangen werden, welche Frageziele oder zu klärende Fragepunkte angeben, die durch den Sprachdialog 31 mit dem Benutzer geklärt oder von dem Benutzer beantwortet werden sollen. Es kann auch vorgesehen sein, zu dem erkannten Auslöseereignis 23 zugeordnete Fragepunkte aus einer Datenbank auszulesen. In einem Schritt D12 kann dann das Gespräch mit dem Benutzer begonnen oder initiiert werden, indem beispielsweise eine Eingangsfrage 37 gestellt wird. Die Eingangsfrage 37 kann beispielsweise lauten: „Kann ich Dir eine Frage stellen?“ oder „Welches Feedback würdest Du gerne geben?“ Bei einer Ablehnung 38 durch den Benutzer kann in einem Schritt D13 der Sprachdialog abgebrochen werden. Bei einer Bestätigung 39 durch den Benutzer kann in einem Schritt D14 ein offener Fragepunkt oder ein zu klärender Fragepunkt durch eine Frage 40 der Steuervorrichtung 12 dem Benutzer vorgetragen oder präsentiert werden. Ein Beispiel für eine Frage 40 ist: „Ich habe gemerkt, dass Du X gemacht hast. Warum?“, wobei X eine Bedienhandlung oder eine Nutzungshandlung des Benutzers sein kann, die als Auslöseereignis 23 erkannt wurde. Es kann auch als Frage 40 die Meinung des Benutzers erfragt werden, beispielsweise durch die Frage 40: „Wie findest du Y?“, wobei Y eine Gerätekomponente, z.B. eine Gerätefunktion, oder ein Objekt in der Umgebung sein kann.
  • Falls der Benutzer eine Ablehnung 38 ausspricht, also zu verstehen gibt, dass er keinen Dialog führen möchte, kann wieder zum Schritt D13, d.h. zum Abbruch des Sprachdialogs 31, übergegangen werden.
  • Andernfalls wird der Sprachdialog 31 in einem Schritt D15 als Konversation weitergeführt mit einem Sprachabtausch 41, der eine Abfolge aus Frage, Antwort, Nachfrage, Antwort und optional weiteren solchen Konversationsschritten umfassen kann. Hierbei kann in einem Schritt D16 überprüft werden, ob der Sprachdialog oder die Konversation aktuell noch zur Klärung eines offenen Fragepunkts dient. Ist dies der Fall (in 3 sind positive Prüfergebnisse durch ein „+“-Zeichen symbolisiert), kann mit dem Schritt D15 weiter fortgefahren werden. Falls dies nicht der Fall ist (in 3 sind negative Prüfergebnisse durch ein „-“-Zeichen symbolisiert), kann in einem Schritt D17 die Konversation durch einen entsprechenden Themenwechsel zurück zu einem zu klärenden Fragepunkt führt werden. Falls dies nicht möglich ist, kann in einem Schritt D18 der Sprachdialog 31 abgebrochen oder pausiert werden und bei erneutem Detektieren des Auslöseereignisses 23 wieder fortgesetzt werden. Kann die Konversation zurück zum Thema gelenkt werden, so kann in einem Schritt D19 überprüft werden, ob alle Fragepunkte geklärt sind, also die Benutzerangaben, die benötigt werden, vollständig sind. Ist dies nicht der Fall, so kann mit dem Schritt D15 weiter fortgefahren werden. Sind die Benutzerangaben dagegen vollständig, d.h. alle Fragepunkte geklärt oder bei einer ergebnisoffenen Befragung oder Konversation eine vorbestimmte Anzahl an Benutzerantworten gesammelt, so kann in einem Schritt D20 in der bereits beschriebenen Weise die Übertragung des Benutzerfeedbacks 22 mit der Benutzerangabe 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 erfolgen. Ein Feedback soll sowohl mit als auch ohne Situationsdaten 34 möglich sein.
  • In 4 ist veranschaulicht, wie der Sprachdialog 31 mit einer Signalverarbeitung 42 realisiert werden kann. Wie bereits ausgeführt, kann die Signalverarbeitung 41 durch die Steuervorrichtung 12 und/oder das mobile Endgerät 13 und/oder durch den Server 15 ganz oder anteilig durchgeführt werden.
  • Ausgehend von der Mikrofonanordnung 17 kann die erfasste Benutzereingabe 18 mittels einer Spracherkennung 43 beispielsweise von einem störenden Rauschsignal befreit werden und in einen Text umgewandelt werden. Es kann hier eine an sich aus dem Stand der Technik bekannte Spracherkennung 43 genutzt werden.
  • Ausgehend von dem erkannten Text 44 kann eine Inhaltserkennung 45 vorgenommen werden, die aus dem Stand der Technik als Natural Language Processing (natürlichsprachliche Sprachverarbeitung) bekannt ist. Es kann von dem Text auf den abstrakten Inhalt geschlossen werden. Beispielsweise kann der Text 44 mit vorbestimmten Vergleichstexten verglichen werden, zu welchen jeweils angegeben ist, was sie bedeuten. Z.B. können bedeutungslose Füllwörter (wie z.B. „und“ oder „hmm“) erkannt und als unbedeutend markiert und/oder gelöscht werden. Beispielsweise kann analysiert werden, ob der Text etwas mit dem aktuellen Thema, beispielsweise mit einem bestimmten Fragepunkt, zu tun hat. Es kann hierzu einem Stichwort (das Beispiel „Schulter“ wurde bereits genannt) ein Thema zugeordnet werden (z.B. „Bequemlichkeit“).
  • Der ermittelte Inhalt 46 kann mittels einer Zuordnungsvorschrift 47 dahingehend analysiert werden, ob er eine Antwort zu einem zu klärenden oder offenen Fragepunkt darstellt. Ist dies der Fall, so kann also der Inhalt 46 dem Benutzerangaben 33 zugeordnet werden oder in diesen gespeichert werden. Für diese Inhaltsanalyse 48 kann die Zuordnungsvorschrift 47 beispielsweise bestimmten Stichworten jeweils eine Bedeutung für das Benutzerfeedback 22 zuordnen. Beispielsweise kann die Angabe eines Körperteils (zum Beispiel „Schulter“ und „zwickt“) dahingehend interpretiert werden, dass sich der Benutzer unbequem fühlt.
  • In einer Feedback-Verwaltung 49 kann in Prüfschritten 50 zur jeweiligen Benutzereingabe 18 überprüft werden, ob alle offenen oder zu klärenden Fragepunkte durch eine korrespondierende Benutzerangabe 18 beantwortet oder geklärt oder alle Frageziele erreicht wurden. Ist dies nicht der Fall, kann mittels einer Spracherzeugung 50 (Text-to-Speech - Text zu Sprache) eine neue Sprachansage 20 erzeugt werden, mittels welcher der Benutzer nach einem weiteren Fragepunkt, der noch zu klären ist, gefragt wird. Mittels der Lautsprechereinrichtung 19 kann dann das Signal an den Benutzer als Sprachschall ausgegeben werden. Der Benutzer 32 kann dann auf diese neue Frage antworten.
  • Insgesamt stellt die Steuervorrichtung 11 mit ihrem Sprachdialog 31 die Funktion eines digitalen Assistenten 51 für ein Benutzerfeedback 22 bereit.
  • Somit ergibt sich das Benutzerfeedback aus einem Gespräch zwischen Benutzer und digitalen Assistenten 51. Zudem wird eine Verbindung mit dem Kraftfahrzeug 10 und dessen Umfeld mittels der Situationsdaten 34 geschaffen oder beschrieben. Mittels der Schlüsselworterkennung, wie sie z.B. die Zuordnungsvorschrift 47 bietet, und/oder der Kombination mit Kontext und/oder Nutzerprofil kann die Bedeutung des Gesprochenen ermitteln werden.
  • Anschließend wird die Bedeutung im Hinblick auf das eigentliche Frageziel oder den zu klärenden Fragepunkt bewertet. Falls dies abweichend ist, stellt der Assistent 51 erneut zumindest eine Rückfrage, um die Gesprächsabweichung zu korrigieren. Dies wird wiederholt, bis das Frageziel hinreicht erreicht wurde und/oder der Benutzer / der Assistent den Sprachdialog vorzeitig beendet, weil z.B. eine kognitive Belastung des Benutzers ein vorbestimmtes Belastungskriterium verletzt.
  • Der Sprachdialog kann natürlichsprachlich erfolgen, d.h. kein vorher festzulegendes Frage-Antwort-Spiel, sondern ein natürliches Gespräch mit frei wählbaren Worten und Sätzen, welche vom Assistenzen 51 verstanden werden bzw. welche der Assistent 51 ausgeben kann. Er passt sich bevorzugt der Sprache des Benutzers an.
  • Die Steuervorrichtung basiert auf einer Verwendung eines Mikrofons zur Spracheingabe und eines Lautsprechers zur Sprachausgabe und einer Prozessoreinrichtung zum Verarbeiten von Sprachsignalen und optional Informationen aus einem Online-Dienst (Backend).
  • In der Auswerteeinrichtung 21 kann die Verknüpfung von Informationen aus dem digitalen Assistenten 51 z.B. mit Fahrzeugdaten oder anderen Daten stattfinden, die als Situationsdaten 34 mit bereitgestellt werden.
  • Die Situationsdaten 34 beschreiben z.B. :
    • - Luftparameter (Temperatur, Feuchte, Schadstoff, Sauerstoff, Partikel, Pollen, Gifte, Feuchte, Luftdruck) und/oder
    • - Wetterparameter (Stand der Sonne, Sonnenintensität, Regen, Regenintensität, Wind) und/oder
    • - Fahrbahn (Art der Straße, Reibung, Schlaglöcher, Fahrbahnart und Fahrbahnbeschaffenheit) und/oder
    • - Fahrzeug (Genutzte Bedienelemente, Geschwindigkeit, Position, Gang, Gas, Bremse, Tank, Beladung, Motor und Getriebezustand) und/oder
    • - Insassen (Anzahl, Position, Größe, eindeutige Identifikation, Zustand der Insassen) und/oder
    • - Umgebung (Bilder, Radar, Ultraschall, Lidar, Infrarotabbildung von der Umgebung) und/oder
    • - Media (Musik, Radiosender, Lautstärke, Telefonat, surfen, andere Informationen),
    • - Verkehr (andere Fahrzeuge, Personen, Schilder, Verkehrszeichen, Fahrbahnmarkierung),
    wobei auch deren vorangegangene und nachfolgende Parameter / Werte berücksichtigt werden können.
  • Durch die Hilfe eines Assistenten 51 kann ein Feedbackgespräch stattfinden, in welchem der Benutzer sein Anliegen per Sprache darlegt. Der Assistent kann dem Benutzer weitere Fragen stellen, um die Qualität des Feedbacks zu verbessern.
  • Die Aktivierung des Assistenten kann per Hardware-Interaktion oder über Sprachbefehl erfolgen. Weiter ist eine Situationsabhängige oder Kontextbasierte Aktivierung möglich.
  • Aktuelle Assistenten können dagegen nicht von sich aus eine Konversation starten, sondern nur auf Benutzeraktion hin. Aktuelle Assistenten können auch nur auf vorgegebene Fragen reagieren und vorgegebene Antworten abliefern.
  • Der Assistent 51 dagegen:
    • - verarbeitet das direkte Benutzerfeedback ungeschönt und ungefiltert,
    • - erstellt das Feedback zeitnah zur Situation (auch während des Fahrens),
    • - lenkt den Fahrer nicht ab (minimale kognitive Belastung), da eine natürlichsprachliche Interaktion wie beim Telefonieren möglich ist.
  • Die einfache natürliche Interaktion mit dem Assistenten 51 ermutigt den Benutzer direktes und ehrliches Feedback zu geben. Weiter kann der Assistent 51 das Benutzerfeedback 22 mit weiteren Metadaten wie Position, Fahrzeugzustand (z.B. Busnachtrichten eines Kommunikationsbusses, z.B. CAN-Busses, und/oder LIN, Ethernet, WLAN, BLE, NFC, und/oder elektrische, elektromagnetische, akustische und/oder optische Signale), und/oder Umgebungsdaten wie Wetter und/oder Verkehrssituation verknüpfen.
  • Diese Feedbackdaten des Benutzerfeedbacks 22 können je nach Feedbackart und Kontext auch unterschiedlich sein und vom Assistent 51 selbstständig ausgewählt, erfasst und verknüpft werden.
  • Vorteil dieses Assistenten 51 ist die natürlich-sprachliche Umsetzung, wobei die Fragen nicht vordefiniert sind, sondern situationsbezogen generiert werden. Hierdurch kann direkt auf die Antworten des Benutzers eingegangen werden und das Gespräch in die gewünschte Richtung (Ergebnis) gesteuert werden.
  • Im Gegensatz zur heutigen Implementierung von Sprachassistenten, welche nur auf Schlüsselwörter reagieren, ist der Assistent 51 in der Lage, das Gespräch im Kompletten zu verstehen und/oder den Kontext bei der Interpretation der Benutzereingaben 18 mit einzubeziehen (z.B. Fahrsituation, Umfeld, Gesundheit).
  • Weiter ist der Assistent 51 in darauf angewiesen, die gewünschte Information nicht direkt zu erfragen, sondern er kann über Umwege (psychologisch geschickt, im Gesprächsverlauf) die Antworten erlangen.
  • Die Aktivierung des Assistenten 51 kann per Hardwareinteraktion (z.B. Knopf, Touchscreen) oder über Sprachbefehl erfolgen (hierzu lauscht ein Mikrophon auf Sprachbefehle).
  • Wenn die Interaktion vom Benutzer aus initiiert wird, können der Fahrzeugzustand, die erkannte Umgebung und/oder andere Metadaten aus Schwarmdaten, Karteninformation, Fahrsituation erhoben und mit den Benutzerangaben 33 als Situationsdaten 34 (optional vom Assistenten 51 interpretiert) verknüpft und an die Auswerteeinrichtung 21 gesendet werden.
  • Die situationsabhängige oder kontextbasierte Aktivierung ist von Fahrsituationen, Fehlerzuständen im Fahrzeug als auch geobasiert möglich. Eine dynamische Konfiguration während der Laufzeit ist möglich. Die Informationen werden analog dem benutzerinitiierten Feedback erhoben, gespeichert und versendet.
  • Der Assistent 51 kann sich als Steuervorrichtung 12, 13, 15 in der Fahrzeugelektronik, in einem Server als auch im externen mobilem Gerät (Handy, Laptop, Wearable, Smart Device) befinden.
  • Im Folgenden erläutern Szenarios die Funktionsweise des durch die Steuervorrichtung 12, 13, 15 realisierten Assistenten 51:
    • Szenario 1: Fahrer ändert Fahrwerkseinstellung (z.B. von „dynamisch“ zu „comfort“), z.B. mittels Sprachbedienung. Nach dem Ausführen fragt der Assistent 51, warum der Fahrer die Fahrwerkseinstellung geändert hat. Begründung des Insassen: „Die Straße ist zu holprig, ich möchte komfortabel Reisen“. Das System sendet diese Information mit dem schlechten Zustand der Straße sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21.
    • Szenario 2: Die Auswerteeinrichtung 21 schickt ein Fragebogen an die Flotte von Fahrzeugen. Das Fahrzeug bearbeitet die Information. Der Assistent 51 entscheidet anhand von Benutzungskontext und/oder kognitiver Belastung des Insassen, wann der geeignete Zeitpunkt ist, den Insassen die Fragen zu stellen. Der Assistent lässt die angeforderten Fragen in die Konversation geschickt einfließen und entlockt den Insassen damit das gewünschte Feedback. Die gewonnenen Daten werden an die Auswerteeinrichtung 21 übermittelt.
    • Szenario 3: Ein Insasse ärgert sich über eine Funktionalität des Fahrzeugs. Der Assistent wägt ab, ob eine Frage in der aktuellen Situation möglich ist. Falls nicht, erfasst er die Umfelddaten / Situationsdaten 34 und übermittelt diese an die Auswerteeinrichtung 21. Falls eine Frage nach seiner Einschätzung möglich ist, spricht er den Insassen an, ob eine Frage zu der Situation möglich ist. Falls nicht, siehe oben. Falls ja, startet der Assistent eine Konversation mit dem Ziel, den Grund seines Unmutes (z.B. über eine Fahrzeugfunktion oder Umfeldereignis) herauszufinden. Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21.
    • Szenario 4: Ein Insasse triggert mit einem Schlüsselwort, mit einer erkannten Intention (z.B. „Ich möchte Feedback ... geben“) die Feedbackfunktion des Systems. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Feedback zu gewinnen (vorher festgelegbare Informationen des Herstellers für ein gezieltes Feedback sind möglich, d.h. ein Hersteller kann vorher festlegen, welche Informationen er „zwingend“ für die Fehleranalyse benötigt). Das System sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21.
    • Szenario 5: Das Fahrzeug befindet sich in einem bestimmten Zielgebiet (Geofencing). Zu dieser Lokalität oder Sache an der Lokalität (z.B. Werbeplakat, empfohlene Sehenswürdigkeit) möchte der Hersteller / Werbeindustrie ein Benutzerfeedback von Insassen haben. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Benutzerfeedback zu gewinnen (auch vorher festgelegte Informationen des Herstellers für ein gezieltes Feedback sind möglich). Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an das Backend.
  • Insgesamt zeigen die Beispiele, wie durch die Erfindung eine assistierte Feedback-Interaktion in einem Kraftfahrzeug bereitgestellt werden kann.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102014111773 A1 [0003]
    • DE 102015105581 A1 [0003]
    • DE 102009025530 A1 [0005]

Claims (11)

  1. Verfahren zum Ermitteln eines Benutzerfeedbacks (22) bei einer durch einen Benutzer (32) vorgenommenen Benutzung eines Geräts (10), dadurch gekennzeichnet, dass durch eine Steuervorrichtung (12) während der Benutzung zumindest ein Auslöseereignis (23) detektiert wird und jeweils bei detektiertem Auslöseereignis (23) ein Sprachdialog (31) mit dem Benutzer (32) durchgeführt wird, wobei in dem Sprachdialog (31) gesprochene Benutzerangaben (33) zu dem Auslöseereignis (23) ermittelt werden, und die im Sprachdialog (31) ermittelten Benutzerangaben (33) an eine vorbestimmte Auswerteeinrichtung (21) ausgesendet werden.
  2. Verfahren nach Anspruch 1, wobei die Benutzerangaben (33) zusammen mit das Auslöseereignis (23) charakterisierenden Situationsdaten (34) an die Auswerteeinrichtung (21) ausgesendet werden.
  3. Verfahren nach Anspruch 2, wobei die Situationsdaten (34) einen Gerätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext und/oder Gesundheitsdaten und/oder eine Geoposition des Geräts (10) beschreiben.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei - das zumindest eine Auslöseereignis (23) eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst und in dem Sprachdialog (31) ein Grund für die Geräteeinstellung erfragt wird und/oder - das zumindest eine Auslöseereignis (23) eine Anforderung des Benutzerfeedbacks (22) durch eine vorbestimmte Benutzerhandlung, insbesondere eine sprachgesteuerte und/oder manuelle Bedienhandlung, umfasst und/oder - das zumindest eine Auslöseereignis (23) eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Gerätezustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand einer Benutzungsumgebung, in welcher das Gerät benutzt wird, vorsieht, und/oder - das zumindest eine Auslöseereignis (23) eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten und/oder - das zumindest eine Auslöseereignis (23) eine an die Steuervorrichtung (12) signalisierte, vorbestimmte Stimmung des Benutzers (32) umfasst und ein vorbestimmtes Rückfragekriterium überprüft wird und bei erfülltem Rückfragekriterium mittels des Sprachdialogs beim Benutzer erfragt wird, ob er das Benutzerfeedback (22) geben möchte, und bei einer Bestätigung des Benutzers (32) die Benutzerangaben zu seiner Stimmung ermittelt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Betrieb des Geräts (10) Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Sprachdialog (31) nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium festlegt, in welchem Fall eine Ablenkung des Benutzers (32) durch den Sprachdialog (31) zulässig ist.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Festlegen eines Verlaufs des Sprachdialogs (31) zu dem Auslöseereignis vorbestimmte, zu zumindest einem zu beantwortenden Fragepunkt vorgegeben werden und während des Sprachdialogs zumindest eine Aussage des Benutzers mittels einer vorbestimmten Zuordnungsvorschrift daraufhin überprüft wird, ob sie eine Antwort auf den zumindest einen Fragepunkt darstellt, und diese Antwort als ein Teil der Benutzerangaben (33) verwendet wird und noch zumindest ein unbeantworteter Fragepunkt durch Anpassen des Sprachdialogs erfragt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Fragebogendaten empfangen werden, welche zumindest einen Fragepunkt angeben, zu welchem eine Benutzerangabe benötigt wird, und als Auslöseereignis (23) ein vorbestimmter Nutzungskontext und/oder ein vorbestimmter Belastungsgrad an kognitiver Belastung des Benutzers ermittelt wird und dann der Sprachdialog in Abhängigkeit von den Fragebogendaten gesteuert wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei zu dem Auslöseereignis (23) alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird.
  10. Steuervorrichtung (12) zum Ermitteln eines Benutzerfeedbacks (22) bei einer Benutzung eines Geräts (10), dadurch gekennzeichnet, dass die Steuervorrichtung (12) eine Prozessoreinrichtung aufweist, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  11. Kraftfahrzeug (19) mit einer Steuervorrichtung (12) nach Anspruch 10.
DE102017213235.3A 2017-08-01 2017-08-01 Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens Withdrawn DE102017213235A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102017213235.3A DE102017213235A1 (de) 2017-08-01 2017-08-01 Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens
PCT/EP2018/068297 WO2019025120A1 (de) 2017-08-01 2018-07-05 Verfahren zum ermitteln eines benutzerfeedbacks bei einer benutzung eines geräts durch einen benutzer sowie steuervorrichtung zum durchführen des verfahrens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017213235.3A DE102017213235A1 (de) 2017-08-01 2017-08-01 Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens

Publications (1)

Publication Number Publication Date
DE102017213235A1 true DE102017213235A1 (de) 2019-02-07

Family

ID=62948082

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017213235.3A Withdrawn DE102017213235A1 (de) 2017-08-01 2017-08-01 Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens

Country Status (2)

Country Link
DE (1) DE102017213235A1 (de)
WO (1) WO2019025120A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020109366A1 (de) 2020-04-03 2021-10-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur individuellen Anpassung eines Fahrzeugs, System zur individuellen Anpassung eines Fahrzeugs, Komponente für ein Fahrzeug, Mensch-Maschine-Interface und Auswertungseinrichtung
DE102021106226A1 (de) 2021-03-15 2022-09-15 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Kraftfahrzeug mit subjektiv angepasster Dynamik eines Fahrbeeinflussungssystems, System aufweisend eine Mehrzahl von Kraftfahrzeugen, Verfahren zum Betrieb eines Kraftfahrzeugs und Verfahren zum Betrieb eines Systems
DE102022114783A1 (de) 2022-06-13 2023-12-14 Audi Aktiengesellschaft Verfahren zum Bereitstellen einer Benutzerinformation über einen Benutzer eines Kraftfahrzeugs
DE102022123578A1 (de) 2022-09-15 2024-03-21 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zur Abstimmung von Kraftfahrzeugen

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018216621B3 (de) * 2018-09-27 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bereitstellen eines interaktiven Feedbacks für Fahrzeuginsassen, eine Steuereinheit, eine Sprachausgabeeinrichtung und ein Fahrzeug
CN112193255A (zh) * 2020-09-24 2021-01-08 北京百度网讯科技有限公司 车机系统的人机交互方法、装置、设备以及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009025530A1 (de) 2009-06-19 2010-12-23 Volkswagen Ag Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug
US20130204813A1 (en) * 2012-01-20 2013-08-08 Fluential, Llc Self-learning, context aware virtual assistants, systems and methods
DE102014111773A1 (de) 2013-12-19 2015-06-25 Oliver Lauter System zur Ermittlung der Kundenzufriedenheit
DE102015105581A1 (de) 2014-11-03 2016-05-04 Audi Ag System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen
WO2017083001A1 (en) * 2015-11-09 2017-05-18 Apple Inc. Unconventional virtual assistant interactions

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006006551B4 (de) * 2006-02-13 2008-09-11 Siemens Ag Verfahren und System zum Bereitstellen von Sprachdialoganwendungen sowie mobiles Endgerät
DE102013014887B4 (de) * 2013-09-06 2023-09-07 Audi Ag Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus
US20160063561A1 (en) * 2014-08-29 2016-03-03 Ford Global Technologies, Llc Method and Apparatus for Biometric Advertisement Feedback Collection and Utilization
DE102014017385B4 (de) * 2014-11-24 2016-06-23 Audi Ag Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009025530A1 (de) 2009-06-19 2010-12-23 Volkswagen Ag Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug
US20130204813A1 (en) * 2012-01-20 2013-08-08 Fluential, Llc Self-learning, context aware virtual assistants, systems and methods
DE102014111773A1 (de) 2013-12-19 2015-06-25 Oliver Lauter System zur Ermittlung der Kundenzufriedenheit
DE102015105581A1 (de) 2014-11-03 2016-05-04 Audi Ag System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen
WO2017083001A1 (en) * 2015-11-09 2017-05-18 Apple Inc. Unconventional virtual assistant interactions

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020109366A1 (de) 2020-04-03 2021-10-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur individuellen Anpassung eines Fahrzeugs, System zur individuellen Anpassung eines Fahrzeugs, Komponente für ein Fahrzeug, Mensch-Maschine-Interface und Auswertungseinrichtung
DE102021106226A1 (de) 2021-03-15 2022-09-15 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Kraftfahrzeug mit subjektiv angepasster Dynamik eines Fahrbeeinflussungssystems, System aufweisend eine Mehrzahl von Kraftfahrzeugen, Verfahren zum Betrieb eines Kraftfahrzeugs und Verfahren zum Betrieb eines Systems
DE102021106226B4 (de) 2021-03-15 2023-02-23 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Kraftfahrzeug mit subjektiv angepasster Dynamik eines Fahrbeeinflussungssystems, System aufweisend eine Mehrzahl von Kraftfahrzeugen, Verfahren zum Betrieb eines Kraftfahrzeugs und Verfahren zum Betrieb eines Systems
DE102022114783A1 (de) 2022-06-13 2023-12-14 Audi Aktiengesellschaft Verfahren zum Bereitstellen einer Benutzerinformation über einen Benutzer eines Kraftfahrzeugs
DE102022123578A1 (de) 2022-09-15 2024-03-21 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren und Vorrichtung zur Abstimmung von Kraftfahrzeugen

Also Published As

Publication number Publication date
WO2019025120A1 (de) 2019-02-07

Similar Documents

Publication Publication Date Title
DE102017213235A1 (de) Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens
EP1986889B1 (de) Vorrichtung und verfahren zur interaktiven informationsausgabe und/oder hilfestellung für den benutzer eines kraftfahrzeugs
DE102009017177B4 (de) Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges
DE102017105459A1 (de) Interaktive anzeige auf grundlage der interpretation von fahrerhandlungen
DE102018130755A1 (de) Externe informationsdarstellung
DE102013216975A1 (de) Verfahren und Vorrichtung zur subjektiven Befehlssteuerung von Fahrzeugsystemen
DE102019101785A1 (de) Mehrsprachige Sprachassistentenunterstützung
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
DE102016200815A1 (de) Verfahren und Vorrichtung zur Sprachsteuerung eines Kraftfahrzeugs
DE102018202146A1 (de) Verfahren zum Auswählen eines Fahrprofils eines Kraftwagens, Fahrassistenzsystem und Kraftwagen
DE112015003379T5 (de) Systeme und Verfahren für eine adaptive Schnittstelle, um Anwendererfahrungen in einem Fahrzeug zu verbessern
DE102016206372A1 (de) Verfahren, einen Fahrzeugbenutzer Fahrzeugmerkmale kennenlernen zu lassen
EP2727773A1 (de) Verfahren zum Aktivieren einer Sprachinteraktion mit einem Insassen eines Fahrzeugs und Sprachinteraktionssystem für ein Fahrzeug
DE102016222499A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs in Abhängigkeit von einem Fahrerzustand
DE102016212681A1 (de) Steuervorrichtung und Verfahren zum sprachbasierten Betreiben eines Kraftfahrzeugs
DE102018219290A1 (de) Verfahren zum Anlernen einer personalisierten Scheinwerfereinrichtung eines Kraftfahrzeugs
DE102018216364A1 (de) Verfahren und Vorrichtung zum Unterstützen eines Spurwechselvorgangs für ein Fahrzeug
DE102017211885A1 (de) Verfahren zum Anfordern eines Handelsguts bei einer Kommunikationseinrichtung einer kraftfahrzeugexternen Datenservereinrichtung, Bestelleinrichtung, und Kraftfahrzeug mit einer Bestelleinrichtung
DE102009030263A1 (de) Bedienverfahren für ein menübasiertes Bedien- und Informationssystem eines Fahrzeugs
DE102013001885A1 (de) Systeminitiierte Hilfefunktion pro Fahrt und/oder pro Nutzer für die Bedienung von einer, einem Fahrzeug zugeordneten Vorrichtung
WO2020064281A1 (de) Bereitstellen eines interaktiven feedbacks zu einer sprachansage für fahrzeuginsassen
DE102018200088B3 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
DE102019116498A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Anpassung einer Fahrerassistenzfunktion
DE102017200976B4 (de) Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung
DE102018130754A1 (de) Nahtloser berater-eingriff

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee