WO2019025120A1 - Verfahren zum ermitteln eines benutzerfeedbacks bei einer benutzung eines geräts durch einen benutzer sowie steuervorrichtung zum durchführen des verfahrens - Google Patents
Verfahren zum ermitteln eines benutzerfeedbacks bei einer benutzung eines geräts durch einen benutzer sowie steuervorrichtung zum durchführen des verfahrens Download PDFInfo
- Publication number
- WO2019025120A1 WO2019025120A1 PCT/EP2018/068297 EP2018068297W WO2019025120A1 WO 2019025120 A1 WO2019025120 A1 WO 2019025120A1 EP 2018068297 W EP2018068297 W EP 2018068297W WO 2019025120 A1 WO2019025120 A1 WO 2019025120A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- predetermined
- triggering event
- data
- dialogue
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000011156 evaluation Methods 0.000 claims abstract description 21
- 230000036651 mood Effects 0.000 claims description 15
- 230000001149 cognitive effect Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims description 8
- 230000036541 health Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 claims description 2
- 230000000977 initiatory effect Effects 0.000 abstract 4
- 238000011161 development Methods 0.000 description 14
- 230000018109 developmental process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 230000003993 interaction Effects 0.000 description 7
- 239000000725 suspension Substances 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- -1 pollen Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000003053 toxin Substances 0.000 description 1
- 231100000765 toxin Toxicity 0.000 description 1
- 108700012359 toxins Proteins 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/01—Customer relationship services
- G06Q30/015—Providing customer assistance, e.g. assisting a customer within a business location or via helpdesk
- G06Q30/016—After-sales
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0872—Driver physiology
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/21—Voice
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0203—Market surveys; Market polls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0278—Product appraisal
Definitions
- the invention relates to a method for determining a user feedback or a user feedback of a user by means of a device that the user uses.
- the device may be, for example, a motor vehicle.
- the purpose of the user feedback is to determine why the user is currently satisfied or dissatisfied with a current situation, or why he or she is using or not using a particular function of the device.
- the invention also includes a control device in order to carry out the method according to the invention.
- DE 10 2009 025 530 A1 describes a speech dialogue system which makes it possible to enter a navigation destination by voice in a motor vehicle.
- a control device asks questions about the possible navigation target, which the user can specifically answer.
- the invention has for its object to obtain a user feedback of a user.
- the invention provides a method for determining a user's opinion or user feedback.
- the method may be performed while the user is using a device.
- at least one triggering condition or one triggering event is detected by a control device during the user's use of the device.
- a voice dialogue with the user is started or carried out.
- the voice dialogue is an automated voice dialogue, ie it is performed between the control device on the one hand and the user on the other hand.
- the control device can in this case output voice prompts to which the user can respond with a spoken answer.
- user-specified user information about the triggering event is determined by the user.
- the user information is then sent to an evaluation device.
- the evaluation device may be, for example, a server on the Internet. By means of the evaluation device can be made of different Devices or control devices are each collected at least one predetermined triggering event, the respective user feedback.
- the invention provides the advantage that the deflection of the user is particularly low.
- the speech dialogue distracts the user only slightly when the device is used further, so that the user does not have to interrupt the use due to the questioning.
- the situation data characterizing the user information together with the triggering event is sent to the evaluation device.
- the situation data the reason or the situation, which have felt the triggering event, be described or characterized and additionally automatically collected by voice dialogue user information about the triggering event and forwarded to an evaluation.
- a development relates to the question as to which situation data can be transmitted to the analysis device in addition to the user information.
- a development for this purpose provides that the situation data describe a device state and / or an environmental state and / or a user context (usage history and / or currently activated operating functions) and / or health data of the user and / or a geoposition of the device.
- the device state can be eg the current gear selection, the rotational speed and / or a seat adjustment.
- An environmental condition may indicate, for example, the weather and / or an ambient temperature.
- the context of use in connection with a motor vehicle can describe, for example, a gear change or a suspension setting.
- the context of use may also represent the usage environment in which the device is used. For example, it can be determined in connection with a motor vehicle whether the motor vehicle is currently on a city trip or on a motorway.
- the geo-location can be used to determine the place of use. In this way, for example, it can be determined whether the Device was currently in a radio hole, so a mobile phone connection may have been disturbed, or in the vicinity of a predetermined landmark, such as a building.
- the speech dialogue can be started or started or triggered by different triggering events.
- the at least one triggering event comprises a device setting made by the user on the device.
- a reason for the device setting can then be requested. For example, if the device is a motor vehicle, then when the user changes or makes a suspension setting, for example, the user may be asked why he made that suspension adjustment.
- the device setting may, for example, additionally or alternatively relate to an air conditioning, engine, light, media and / or comfort setting.
- a predetermined device setting for example, the device setting on the chassis or on a seat
- targeted user feedback can be triggered or determined for at least one predetermined device component of the device and / or for at least one predetermined usage environment in which the device setting is made.
- the environment of use in which the apparatus is used for example, when changing the suspension setting, it can be determined that the user inputs a rough or rough road as the user input. Then the status of the road can be reported as user feedback.
- the situation data which can also be transmitted together with the user information, can then indicate, for example, the geoposition of the road section and / or a state of health of the user in order, for example, to be able to estimate the sensitivity of the user to unevenness in the road.
- the at least one trigger event comprises a request of user feedback by a predetermined user action.
- the user therefore himself requests the input option for his user feedback.
- This can be a manual operating action, for example in an operating menu and / or on a control element.
- the user action may also include, for example, a voice command that the user pronounces to subsequently enter his user feedback.
- the acquisition of a user feedback can also be triggered without complicated detection of the usage situation.
- the at least one triggering event comprises a situation-dependent activation, which provides for a predetermined device state of the device and / or a predetermined geoposition of the device and / or a predetermined environmental state of the user environment in which the device is used.
- a situation-dependent activation which provides for a predetermined device state of the device and / or a predetermined geoposition of the device and / or a predetermined environmental state of the user environment in which the device is used.
- an error state of the device can be detected as the device state. If this is detected as a triggering event, it can be queried by means of the speech dialog, for example, whether the user has ever noticed the error and / or what he thinks about the error.
- user feedback may be determined as to how the user's opinion of using the device is in a particular location or in a particular environment of use and / or at a location visible in an environment from the geoposition / or audible event and / or object (eg, an advertisement and / or a building).
- Geofencing Another name for the location-dependent triggering is Geofencing.
- the ambient state can be determined, for example, by means of at least one sensor and / or by means of, for example, weather data from the Internet.
- the at least one triggering event comprises a context-dependent activation, which comprises a predetermined usage history and / or a predetermined sequence of operating steps.
- the usage history may indicate, for example, how many times the user has performed a predetermined operation of the device. For example, if the user has operated a device component N times with a predetermined operation, this can be used as a trigger event to ask in the speech dialogue why the user is constantly performing that operation or if the user is satisfied with the operation component or the operation function dissatisfied.
- N a corresponding enough user experience for the user feedback can be ensured by repeating N times.
- N a corresponding enough user experience for the user feedback can be ensured by repeating N times.
- it can be recognized, for example, that the user repeatedly makes the same setting on a device component. In the speech dialog thus triggered, it can then be queried which state the user actually wants on the device component.
- the at least one triggering event comprises a predetermined mood of the user.
- Mood recognition is known per se from the prior art, as already described at the outset.
- the detected mood can thus be signaled to the control device, for example by a mood recognition device.
- a predetermined mood for example, a feeling such as anger, happiness, sadness, recognized
- it can be checked whether a predetermined query criterion is met. This can, for example, pretend that a query is made only at a predetermined mood in order not to disturb the user in the presence of certain moods.
- the inquiry criterion thus determines all those moods and / or all those mood levels at which a query is made by the control device by means of the speech dialogue.
- the user is asked by means of the speech dialogue whether he wishes to give the user feedback. If the user agrees to the request of a user feedback, then the user information becomes available when the user confirms it determined his mood. For example, the user is asked why he is angry. In any other case, however, if therefore the query criterion is violated or not met or the user does not want to submit user feedback and the consultation question is negative, then without the user information only the situation data sent to the evaluation. Thus, already an indication of mood, which indicates the detected mood, can be evaluated as an indirect user information. This results in the advantage that only an emotion of the user is sufficient to trigger a determination of the user feedback.
- triggering events are suitable for meaningfully triggering the detection of user feedback can be difficult at an early stage, namely during the development of the device.
- a further development provides that during operation of the device, i. So dynamic, configuration data is received and at least one new trigger event is determined by the configuration data.
- a new triggering event can be defined or defined.
- the amount of triggering events for requesting or determining user feedback can be adjusted.
- the speech dialogue is preferably started or carried out only when the cognitive load of the user, ie his current effort for concentrating in the operation of the device, is low enough.
- the voice dialogue is started only and / or only when a usage situation is detected, which meets a predetermined load criterion, the load criterion just determines, in which case a distraction of the user through the voice dialogue is allowed.
- the stress criterion establishes a threshold for the cognitive load that must be undercut, thus the voice dialogue is started.
- the load criterion may also specify a list of allowable usage situations.
- the load criterion may indicate that the speech dialogue must be blocked during cornering.
- the voice dialogue can be enabled.
- the load criterion determines which driver load is permitted by the current driving task, so that the voice dialogue is started and which driver load or what degree of driver load prevents or blocks the voice dialogue. If the load criterion is violated, the voice dialogue can also be started with a time delay in relation to the triggering event.
- predetermined, questionable questions to be answered or question points for the triggering event are specified for specifying a course of the speech dialogue.
- Each triggering event raises questions that, for example, the manufacturer of the device would like to have answered.
- a list with at least one question point can be specified for each detectable or predetermined triggering event.
- at least one statement of the user is then checked by means of a predetermined assignment rule as to whether it represents an answer to a question point. For example, if it is recognized as a trigger event that a user is moving a vehicle seat, a question may be given as to whether the vehicle seat is uncomfortable.
- control device can still determine unanswered question points during the speech dialogue and, by adjusting the speech dialogue, inquire specifically the unanswered question points. For example, in the speech dialogue you can specifically ask: "Find the vehicle seat uncomfortable?", If this question is still open or unanswered.
- a triggering event can then be a predetermined usage context (to which the questionnaire data relate, for example) and / or a predetermined degree of exposure to the current cognitive load of the user.
- a degree or value of cognitive stress may be generally used e.g. be determined by means of an assignment function, which assigns the degree or value of the cognitive load to a recognized use situation.
- the assignment function can be formed with test persons based on simple experiments.
- the questionnaire data are therefore only clarified by voice dialogue, if the cognitive load of the user is below a predetermined threshold, the user thus relaxed and / or his degree of distraction is low enough to avoid unwanted distraction.
- the speech dialogue is started and controlled in dependence on the questionnaire data. In the speech dialogue, therefore, questions can be included in a conversation with the user, whereby the questions concern the at least one question point to be clarified from the questionnaire data.
- the invention also provides the said control device in order to determine the user feedback when using a device.
- the control device has a processor device which is set up to carry out an embodiment of the method according to the invention.
- the processor device can have at least one microcontroller and / or at least one microprocessor.
- the processor device may comprise a program code which is set up to execute the embodiment of the method according to the invention when executed by the processor device.
- the program code may be stored in a data memory of the processor device.
- the control device may be wholly or partly provided in a device electronics of the device itself.
- the control device can also be wholly or partly realized by a server of the Internet.
- the control device may also be provided in whole or in part in a mobile terminal that may be coupled to the actual device to be operated.
- the device itself may be a motor vehicle in the said manner.
- the user feedback can also be determined via a device which, for example, represents a mobile terminal, that is to say a smartphone or a tablet PC or a smartwatch.
- the invention also provides for a motor vehicle in which an embodiment of the control device according to the invention is provided.
- the motor vehicle according to the invention can be designed as a motor vehicle, in particular as a passenger car or truck, or as a motorcycle or as an agricultural machine. In principle, all persons in the motor vehicle can give feedback, not just the driver. Inn embodiments of the invention are described below. This shows:
- Fig. 1 is a schematic representation of an embodiment of the motor vehicle according to the invention.
- FIG. 2 is a flowchart illustrating an embodiment of the method according to the invention, as may be performed by a control device for the motor vehicle of FIG. 1;
- FIG. 2 is a flowchart illustrating an embodiment of the method according to the invention, as may be performed by a control device for the motor vehicle of FIG. 1;
- FIG. 3 shows a schematic representation of a structure of a speech dialogue, as it can be carried out in connection with the method of FIG. 2 by the control device;
- Fig. 4 is a schematic representation of the control device.
- the described components of the embodiments each represent individual features of the invention, which are to be considered independently of one another, which also develop the invention independently of each other and thus also individually or in a different combination than the one shown as part of the invention. Furthermore, the described embodiments can also be supplemented by further features of the invention already described.
- Fig. 1 shows a motor vehicle 10, which may be a motor vehicle, in particular a passenger car or truck or a motorcycle or an agricultural machine.
- the motor vehicle 10 represents a device according to the invention. The ones described below However, method steps can also be applied to another device, eg a mobile terminal.
- a processor device 1 1 may be provided, which may be, for example, an infotainment system (information entertainment system).
- the processor device 1 1 can also be a separate control device or be integrated in a control device also provided for other functions.
- a control device 12 can be realized.
- a mobile terminal 13 may be coupled to the processor device 11.
- a server device or a server 15 of the Internet 16 may be coupled to the processor device 11 to form part of the control device or to completely provide the function of the control device.
- control device 12 is provided exclusively by means of the processor device 11.
- functions described below can also be carried out in whole or in part by the mobile terminal 13 and / or the server 15.
- a user input 18 of a user (not shown) of the motor vehicle 10 can be received as a voice signal from a microphone arrangement 17.
- the control device 12 can control or operate an output device 19 in order to be able to output a voice announcement 20 as speech sound to the user. It can also be a microphone and / or a speaker from a mobile terminal, e.g. a smartphone.
- the user can thereby determine a user feedback 22 in a speech dialogue, which can then be sent to an evaluation device 21, for example a server of the Internet 16.
- an evaluation device 21 can from the motor vehicle 10 and from other devices in each case the user feedback 22 are collected and thus eg the device type of the motor vehicle 10 or generally a device improved or further developed.
- the user feedback 22 may include a user indication 33 for a trigger event as well as situation data 34 concerning the current usage situation.
- the situation data 34 may be formed, for example, on the basis of data DTA, which may include environmental data and / or vehicle data and / or weather data and / or traffic data. All or part of the data DTA can also be provided by an external data source, such as an Internet data service.
- FIG. 2 illustrates how the user feedback 22 in the motor vehicle 10 can be determined by the control device 12.
- the controller 12 may detect whether a predetermined trip event 23 is occurring or has occurred in or on the motor vehicle.
- the triggering event 23 may be a user interaction 24, for example in the form of a user's voice command 25 and / or in the form of a user's hardware device 26, e.g. a predetermined operation, can be detected.
- a current usage situation 28 and / or a current usage context 29 can be determined by means of at least one vehicle-own and / or at least one vehicle-external sensor 27 (for example of the mobile terminal 13). If a predetermined context of use 29 and / or a predetermined usage situation 28 is detected, this can also be evaluated as a triggering event 23.
- a voice dialogue 31 can be carried out in a step S1 1.
- the user input represented by a field 32 in FIG. 2
- the speech dialogue 31 user information 33 is then determined in a step S12, which additionally includes, for example, in step S13 Based on the at least one sensor 27 and / or condition data of the motor vehicle 10 can be supplemented by the situation data 34.
- the situation data 34 may describe a current device state of the motor vehicle 10 and / or an ambient state of the operating environment and / or a context of use in which the motor vehicle 10 is currently being used and / or the health status of the user himself and / or a geoposition of the motor vehicle 10.
- the user feedback 22 can then be transmitted to the evaluation device 21 as a combination of the user information 33 and optionally the situation data 34.
- FIG. 3 exemplifies a possible structure of the speech dialogue 31. It can be an identity of the user 32 and profile data 35 of the user 32 can be determined in a step D10, for example, by being read from a database.
- Questionnaire data 36 may be received in a step D1 1, which indicate question targets or question points to be clarified, which should be clarified by the speech dialogue 31 with the user or answered by the user. It may also be provided to read out question points associated with the recognized triggering event 23 from a database.
- the conversation with the user can then be started or initiated by, for example, an input question 37 being asked.
- the initial question 37 may be "Can I ask you a question?” Or "What kind of feedback would you like to give?” If rejected by the user, the voice dialogue can be aborted in a step D13.
- an open question point or a question point to be clarified can be presented or presented to the user by a question 40 of the control device 12 in a step D14.
- An example of a question 40 is: "I noticed that you did X. Why? ", Where X may be a user's action or usage that has been identified as a triggering event 23.
- the user's opinion may be requested, for example, by question 40," What do you think of Y? ", where Y is a device tekomponente, eg a device function, or an object in the environment can be.
- step D13 i. to abort the speech dialogue 31, to be passed.
- the speech dialogue 31 is continued as a conversation in a step D15 with a speech exchange 41, which may comprise a sequence of question, answer, demand, answer and optionally further such conversational steps.
- a speech exchange 41 which may comprise a sequence of question, answer, demand, answer and optionally further such conversational steps.
- it can be checked in a step D16 whether the speech dialogue or the conversation currently still serves to clarify an open question point. If this is the case (in Fig. 3, positive test results are symbolized by a "+” sign), then proceeding to step D15, if not (in Fig. 3, negative test results are indicated by a "-". Symbolizes), the conversation can be led back in a step D17 by a corresponding topic change to a question to be clarified.
- a step D18 the voice dialogue 31 can be aborted or paused and can be continued again when the triggering event 23 is detected again. If the conversation can be redirected back to the topic, then it can be checked in a step D19 whether all question points have been clarified, ie the user information that is required is complete. If this is not the case, then step D15 can be continued. On the other hand, if the user details are complete, i. If all question points have been clarified or if a predetermined number of user answers have been collected in an open-ended questionnaire or conversation, the user feedback 33 and optionally the situation data 34 can be transmitted to the evaluation device 21 in a step D20 in the manner already described. Feedback should be possible both with and without situation data.
- FIG. 4 illustrates how the speech dialogue 31 can be implemented with a signal processor 42.
- the signal Processing 41 by the control device 12 and / or the mobile terminal 13 and / or by the server 15 wholly or proportionately performed.
- the detected user input 18 can be freed, for example, from a disturbing noise signal by means of a speech recognition 43 and be converted into a text. It is possible here to use a voice recognition 43 known per se from the prior art.
- a content recognition 45 can be made, which is known from the prior art as Natural Language Processing (natural language processing). It can be closed from the text to the abstract content. For example, the text 44 can be compared with predetermined comparison texts, to which each one indicates what they mean. For example, meaningless filler words (such as "and” or "hmm”) can be recognized and marked as insignificant and / or deleted. For example, it can be analyzed whether the text has something to do with the current topic, for example with a specific question point. For this purpose, a topic may be assigned to a keyword (the example "shoulder" has already been mentioned) (e.g., "convenience").
- the determined content 46 can be analyzed by means of an assignment rule 47 as to whether it represents a response to a question point to be clarified or open. If this is the case, then the content 46 can be assigned to the user data 33 or stored in it.
- the assignment rule 47 can, for example, assign a meaning to the user feedback 22 for certain keywords. For example, specifying a body part (eg, "shoulder” and "tweaking") may be interpreted as making the user uncomfortable.
- a new speech announcement 20 can be generated by means of a speech generation 50 (text-to-speech), by means of which the user is asked for another question to be clarified.
- a speech generation 50 text-to-speech
- the signal can then be output to the user as speech sound.
- the user 32 can then respond to this new question.
- control device 1 1 with its voice dialog 31, the function of a digital assistant 51 for a user feedback 22 ready.
- the user feedback results from a conversation between user and digital assistant 51.
- a connection with the motor vehicle 10 and its surroundings is created or described by means of the situation data 34.
- Provision Code 47 provides, and / or the combination with context and / or user profile can determine the meaning of the spoken word.
- the assistant 51 again at least a query to correct the discrepancy. This is repeated until the question mark is reached and / or the user / assistant terminates the speech dialogue prematurely because e.g. a cognitive load on the user violates a predetermined stress criterion.
- the speech dialogue can be natural language, ie no previously determined question-answer game, but a natural conversation with freely selectable words and sentences, which are understood by the assistants 51 and which the assistant 51 can spend. He prefers to adapt to the language of the user. Control is based on using a microphone for voice input and a speaker for voice output and processor means for processing voice signals and optionally information from an online service (backend).
- backend an online service
- the linking of information from the digital assistant 51 e.g. take place with vehicle data or other data provided as situation data 34.
- the situation data 34 describes e.g. :
- Air parameters temperature, humidity, pollutant, oxygen, particles, pollen, toxins, humidity, air pressure
- a feedback discussion can take place in which the user explains his request by voice.
- the assistant may ask the user further questions to improve the quality of the feedback.
- Activation of the assistant can be done by hardware interaction or voice command. Furthermore, a situation-dependent or context-based activation is possible.
- the simple natural interaction with wizard 51 encourages the user to give direct and honest feedback.
- the assistant 51 can provide the user feedback 22 with further metadata such as position, vehicle status (eg bus reporting of a communication bus, eg CAN bus, and / or LIN, Ethernet, WLAN, BLE, NFC, and / or electrical, electromagnetic, acoustic and / or optical signals), and / or link environmental data such as weather and / or traffic situation.
- vehicle status eg bus reporting of a communication bus, eg CAN bus, and / or LIN, Ethernet, WLAN, BLE, NFC, and / or electrical, electromagnetic, acoustic and / or optical signals
- / or link environmental data such as weather and / or traffic situation.
- these feedback data of the user feedback 22 can also be different and independently selected, recorded and linked by the assistant 51.
- this assistant 51 is the natural-language implementation, whereby the questions are not predefined but are generated according to the situation. This allows the user's answers to be answered directly be controlled and the conversation in the desired direction (result).
- the assistant 51 is able to understand the conversation in its entirety and / or context in the interpretation of the user inputs 18 (e.g., driving situation, environment, health).
- the assistant 51 is instructed in not to ask the desired information directly, but he can over detours (psychologically clever, in the conversation process) obtain the answers.
- Activation of wizard 51 may be via hardware interaction (e.g., button, touch screen) or voice command (a microphone listens for voice commands).
- hardware interaction e.g., button, touch screen
- voice command a microphone listens for voice commands.
- the vehicle state, the detected environment and / or other metadata may be gathered from swarm data, map information, driving situation and linked with the user data 33 as situation data 34 (optionally interpreted by the assistant 51) and sent to the evaluation device 21 be sent.
- the situation-dependent or context-based activation is possible from driving situations, fault conditions in the vehicle as well as geobased. Dynamic configuration during runtime is possible. The information is collected, stored and sent in the same way as user-initiated feedback.
- the assistant 51 can be located as a control device 12, 13, 15 in the vehicle electronics, in a server as well as in the external mobile device (mobile phone, laptop, wearable, smart device). In the following, scenarios explain the operation of the assistant 51 realized by the control device 12, 13, 15:
- Driver changes suspension setting (e.g., from “dynamic” to “comfort"), e.g. via voice control.
- the wizard 51 asks why the driver has changed the suspension setting.
- Reason for the inmate "The road is too bumpy, I want to travel comfortably.”
- the system sends this information with the poor condition of the road and environment data from GPS, chassis and optional health data of the occupants to the evaluation 21.
- the evaluation device 21 sends a questionnaire to the fleet of vehicles.
- the vehicle processes the information.
- the assistant 51 decides on the basis of the context of use and / or cognitive load of the occupant when the appropriate time is to ask the inmates the questions.
- the assistant lets the requested questions flow into the conversation and draws the inmates with the desired feedback.
- the data obtained are transmitted to the evaluation device 21.
- the wizard weighs whether a question is possible in the current situation. If not, it acquires the environment data / situation data 34 and transmits it to the evaluation device 21. If a question is possible on his assessment, he will ask the inmate if it is possible to ask a question about the situation. If not, see above. If so, the assistant starts a conversation with the goal of finding out the reason for his displeasure (eg via a vehicle function or environment event). The assistant 51 sends this information as well as environment data from GPS, chassis and optional health data of the occupants to the evaluation device 21. Scenario 4:
- An inmate triggers the feedback function of the system with a keyword, with a recognized intention (eg "I would like to give feedback ")
- the assistant starts a conversation with the aim of obtaining as detailed and complete feedback as possible (previously determined information from the system)
- the manufacturer is able to provide targeted feedback, ie a manufacturer can specify in advance which information he "absolutely needs" for the error analysis).
- the system sends this information as well as environment data from GPS, chassis and optional health data of the occupants to the evaluation device 21.
- the vehicle is located in a specific target area (geofencing).
- the manufacturer / advertising industry would like to have user feedback from inmates.
- the wizard will start a conversation with the aim to gain the most detailed and complete user feedback possible (also pre-defined information from the manufacturer for a specific feedback is possible).
- the assistant 51 sends this information as well as environment data from GPS, chassis and optional health data of the occupants to the backend.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Finance (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zum Ermitteln eines Benutzerfeedbacks (22) bei einer Benutzung eines Geräts (10) durch einen Benutzer (32). Die Erfindung sieht vor, dass durch eine Steuervorrichtung (12) während der Benutzung zumindest ein Auslöseereignis (23) detektiert wird und jeweils bei detektiertem Auslöseereignis (23) ein Sprachdialog (31) mit dem Benutzer (32) durchgeführt wird, wobei in dem Sprachdialog (31) gesprochene Benutzerangaben (33) zu dem Auslöseereignis (23) ermittelt werden, und die Benutzerangaben (33) und optional das Auslöseereignis (23) charakterisierende Situationsdaten (34) an eine Auswerteeinrichtung (21) ausgesendet werden.
Description
Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des
Verfahrens
BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zum Ermitteln einer Benutzerrückmeldung oder eines Benutzerfeedbacks eines Benutzers mittels eines Geräts, das der Benutzer benutzt. Bei dem Gerät kann es sich beispielsweise um ein Kraftfahrzeug handeln. Durch das Benutzerfeedback soll ermittelt werden, warum der Benutzer gerade mit einer aktuellen Situation zufrieden oder unzufrieden ist oder warum er eine bestimmte Funktion des Geräts nutzt oder nicht nutzt. Zu der Erfindung gehört auch eine Steuervorrichtung, um das erfindungsgemäße Verfahren durchzuführen.
Um heutzutage ein Benutzerfeedback beispielsweise zu einem Kraftfahrzeug oder zu etwas Gesehenem oder einer Werbung zu erhalten, müssen vordefinierte Befragungen durchgeführt werden oder der Benutzer muss selbstständig sein Benutzerfeedback formulieren und bereitstellen.
Aus der DE 10 2014 1 1 1 773 A1 ist ein Verfahren bekannt, um eine Benutzerzufriedenheit zusätzlich noch mit indirekten Mitteln zu erfassen, indem der Benutzer während der Eingabe seines Benutzerfeedbacks gefilmt wird, um seine aktuelle Stimmung zu erkennen. Das Erkennen einer Befindlichkeit eines Benutzers ist auch in der DE 10 2015 105 581 A1 beschrieben.
Dennoch erfordert auch mit diesen Mitteln des Stands der Technik das Eingeben des Benutzerfeedbacks eine Aktion des Benutzers, zu der er sich zunächst überwinden muss, damit überhaupt Benutzerangaben macht, die
als Benutzerfeedback verwertet werden können. Oftmals weiß der Benutzer auch nicht, wie er die Benutzerangaben ausdrücken soll, damit sie als Benutzerfeedback verwertet werden können.
In der DE 10 2009 025 530 A1 ist ein Sprachdialogsystem beschrieben, das in einem Kraftfahrzeug das Eingeben eines Navigationsziels per Sprache ermöglicht. Eine Steuervorrichtung stellt zu dem möglichen Navigationsziel Fragen, die der Benutzer gezielt beantworten kann.
Der Erfindung liegt die Aufgabe zugrunde, ein Benutzerfeedback eines Benutzers einzuholen.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.
Durch die Erfindung ist ein Verfahren zum Ermitteln einer Benutzermeinung oder eines Benutzerfeedbacks bereitgestellt. Das Verfahren kann durchgeführt werden, während der Benutzer ein Gerät benutzt. Um den Benutzer zur Abgabe seines Benutzerfeedbacks anzuregen, ist erfindungsgemäß vorgesehen, dass durch eine Steuervorrichtung während der vom Benutzer vorgenommenen Benutzung des Geräts zumindest eine Auslösebedingung oder ein Auslöseereignis detektiert wird. Bei detektiertem Auslöseereignis wird ein Sprachdialog mit dem Benutzer gestartet oder durchgeführt. Der Sprachdialog ist ein automatisierter Sprachdialog, d.h. er wird zwischen der Steuervorrichtung einerseits und dem Benutzer andererseits durchgeführt. Die Steuervorrichtung kann hierbei Sprachansagen ausgeben, auf die der Benutzer mit einer gesprochenen Antwort reagieren kann. In dem Sprachdialog werden vom Benutzer ausgesprochene Benutzerangaben zu dem Auslöseereignis ermittelt. Es werden dann die Benutzerangaben an eine Auswerteeinrichtung ausgesendet. Die Auswerteeinrichtung kann zum Beispiel ein Server im Internet sein. Mittels der Auswerteeinrichtung kann aus unterschiedlichen
Geräten oder Steuervorrichtungen jeweils zu zumindest einem vorbestimmten Auslöseereignis das jeweilige Benutzerfeedback gesammelt werden.
Durch die Erfindung ergibt sich der Vorteil, dass die Ablenkung des Benutzers besonders gering ist. Der Sprachdialog lenkt den Benutzer bei der weiteren Benutzung des Geräts nur geringfügig ab, sodass der Benutzer die Benutzung nicht wegen der Befragung unterbrechen muss.
Bevorzugt werden die die Benutzerangaben zusammen mit das Auslöseereignis charakterisierenden Situationsdaten an die Auswerteeinrichtung ausgesendet. Hierdurch ergibt sich der Vorteil, dass mittels der Situationsdaten der Grund oder die Situation, die zu dem Auslöseereignis gespürt haben, beschrieben oder charakterisiert werden und zusätzlich per Sprachdialog Benutzerangaben über das Auslöseereignis automatisiert gesammelt und an eine Auswerteeinrichtung weitergeleitet werden.
Eine Weiterbildung betrifft die Frage, welche Situationsdaten noch zusätzlich zu den Benutzerangaben an die Analyseeinrichtung ausgesendet werden können. Eine Weiterbildung hierzu sieht vor, dass die Situationsdaten einen Gerätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext (Benutzungshistorie und/oder aktuell aktivierte Bedienfunktionen) und/oder Gesundheitsdaten des Benutzers und/oder eine Geoposition des Geräts beschreiben. Im Zusammenhang mit einem Kraftfahrzeug kann der Gerätezustand z.B. die aktuelle Gangwahl, die Drehzahl und/oder eine Sitzeinstellung sein. Dies sind aber nur Beispiele. Ein Umgebungszustand kann beispielsweise das Wetter und/oder eine Umgebungstemperatur angeben. Der Benutzungskontext kann im Zusammenhang mit einem Kraftfahrzeug beispielsweise einen vorgenommenen Gangwechsel oder eine Fahr- werkseinstellung beschreiben. Der Benutzungskontext kann beispielsweise auch die Benutzungsumgebung, in welcher das Gerät benutzt wird, darstellen. So kann beispielsweise im Zusammenhang mit einem Kraftfahrzeug ermittelt werden, ob sich das Kraftfahrzeug aktuell auf einer Stadtfahrt oder einer Autobahnfahrt befindet. Durch die Geoposition kann der Benutzungsort ermittelt werden. Hierdurch kann beispielsweise ermittelt werden, ob sich das
Gerät aktuell in einem Funkloch befand, also eine Mobilfunkverbindung gestört gewesen sein kann, oder in der Nähe einer vorbestimmten Sehenswürdigkeit, wie z.B. einem Gebäude .
Der Sprachdialog kann durch unterschiedliche Auslöseereignisse begonnen oder gestartet oder ausgelöst werden.
Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst. In dem hierdurch ausgelösten Sprachdialog kann dann ein Grund für die Geräteeinstellung erfragt werden. Handelt es sich bei dem Gerät beispielsweise um ein Kraftfahrzeug, so kann der Benutzer dann, wenn er zum Beispiel eine Fahrwerkseinstellung ändert oder vornimmt, befragt werden, warum er diese Fahrwerkseinstellung vorgenommen hat. Die Geräteeinstellung kann z.B. zusätzlich oder alternativ eine Klimatisierungs-, Motor-, Licht-, Media- und/oder Komforteinstellung betreffen. So kann also gezielt auf eine vorbestimmte Geräteeinstellung gewartet werden (zum Beispiel die Geräteeinstellung am Fahrwerk oder an einem Sitz) und somit gezielt zu dieser bedienten oder eingestellten Gerätekomponente ein Benutzerfeedback ermittelt werden. Hierdurch kann gezielt für zumindest eine vorbestimmte Gerätekomponente des Geräts und/oder für zumindest eine vorbestimmte Benutzungsumgebung, in welcher die Geräteeinstellung vorgenommen wird, ein Benutzerfeedback ausgelöst oder ermittelt werden. In Bezug auf die Benutzungsumgebung, in welcher das Gerät benutzt wird, kann beispielsweise bei der Änderung der Fahrwerkseinstellung ermittelt werden, dass der Benutzer als Benutzereingabe einen unruhigen oder unebenen Straßenverlauf als Grund angibt. Dann kann als Benutzerfeedback der Zustand der Straße gemeldet werden. Die Situationsdaten, die ebenfalls mit den Benutzerangaben zusammen ausgesendet werden können, können dann beispielsweise die Geoposition des Straßenabschnitts angeben und/oder einen Gesundheitszustand des Benutzers, um beispielsweise die Empfindlichkeit des Benutzers gegenüber Straßenunebenheiten abschätzen zu können.
Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine Anforderung des Benutzerfeedbacks durch eine vorbestimmte Benutzerhandlung umfasst. Der Benutzer fordert also selbst die Eingabemöglichkeit für sein Benutzerfeedback an. Dies kann eine manuelle Bedienhandlung beispielsweise in einem Bedienmenü und/oder an einem Bedienelement sein. Die Benutzerhandlung kann auch beispielsweise einen Sprachbefehl umfassen, den der Benutzer ausspricht, um sein Benutzerfeedback anschließend eingeben zu können. Somit kann ohne aufwendige Detektion der Benutzungssituation ebenfalls die Erfassung eines Benutzerfeedbacks ausgelöst werden.
Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Geräte- zustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand der Benutzungsumgebung, in welcher das Gerät benutzt wird, vorsieht. Beispielsweise kann als Gerätezustand ein Fehlerzustand des Geräts erkannt werden. Wird dies als Auslöseereignis erkannt, so kann mittels des Sprachdialogs beispielsweise erfragt werden, ob der Benutzer den Fehler überhaupt bemerkt hat und/oder was er über den Fehler denkt. Indem eine Geoposition des Geräts als Auslöseereignis verwendet wird, kann ein Benutzerfeedback dazu ermittelt werden, wie die Meinung des Benutzers zur Benutzung des Geräts an einen bestimmten Ort oder in einer bestimmten Benutzungsumgebung ist und/oder zu einem in einer Umgebung von der Geoposition aus sichtbaren und/oder hörbaren Ereignis und/oder Objekt (z.B. eine Werbung und/oder ein Gebäude) ist. Eine andere Bezeichnung für die ortsabhängige Auslösung ist auch Geofencing. Indem ein Umgebungszustand der Benutzungsumgebung als Auslöseereignis erkannt wird, kann die Benutzung des Geräts in einer vorbestimmten Umgebungssituation, beispielsweise bei Regen und/oder bei Hitze und/oder in einer lauten Umgebung, erkannt werden. Entsprechend kann der Umgebungszustand beispielsweise mittels zumindest eines Sensors und/oder mittels zum Beispiel Wetterdaten aus dem Internet ermittelt werden.
Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten umfasst. Die Nutzungshistorie kann beispielsweise angeben, wie oft der Benutzer einen vorbestimmten Bedienschritt des Geräts ausgeführt hat. Hat der Benutzer beispielsweise N-mal eine Gerätekomponente mit einem vorbestimmten Bedienschritt bedient, so kann dies als Auslöseereignis dazu verwendet werden, um in dem Sprachdialog zu erfragen, warum der Benutzer ständig diesen Bedienschritt ausführt oder ob der Benutzer mit der Bedienkomponente oder der Bedienfunktion zufrieden oder unzufrieden ist. Durch Vorgeben der Anzahl N kann bei N-maliger Wiederholung eine entsprechend ausreichende Erfahrung des Benutzers für das Benutzerfeedback sichergestellt werden. Durch Abwarten oder Erkennen einer vorbestimmten Abfolge von Bedienschritten kann beispielsweise erkannt werden, dass der Benutzer wiederholt dieselbe Einstellung an einer Gerätekomponente vornimmt. In dem hierdurch ausgelösten Sprachdialog kann dann erfragt werden, welchen Zustand der Benutzer eigentlich an der Gerätekomponente wünscht.
Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vorbestimmte Stimmung des Nutzers umfasst. Die Stimmungserkennung ist an sich aus dem Stand der Technik bekannt, wie bereits eingangs beschrieben wurde. Die erkannte Stimmung kann somit der Steuervorrichtung signalisiert werden, beispielsweise durch eine Stimmungserkennungseinrichtung. Wird eine vorbestimmte Stimmung, zum Beispiel ein Gefühl wie Ärger, Glück, Trauer, erkannt, so kann überprüft werden, ob ein vorbestimmtes Rückfragekriterium erfüllt ist. Dieses kann beispielsweise vorgeben, dass nur bei einer vorbestimmten Stimmung eine Rückfrage erfolgt, um den Benutzer bei Vorliegen bestimmter Stimmungen nicht zu stören. Das Rückfragekriterium legt also all diejenigen Stimmungen und/oder all diejenigen Stimmungsgrade fest, bei welchen eine Rückfrage durch die Steuervorrichtung mittels des Sprachdialogs erfolgt. Bei erfülltem Rückfragekriterium wird mittels des Sprachdialogs beim Benutzer erfragt, ob er das Benutzerfeedback geben möchte. Bejaht der Benutzer den Wunsch eines Benutzerfeedbacks, so werden also bei einer Bestätigung des Benutzers die Benutzerangaben zu
seiner Stimmung ermittelt. Der Benutzer wird also beispielsweise gefragt, warum er verärgert ist. In jedem anderen Fall aber, wenn also das Rückfragekriterium verletzt oder nicht erfüllt ist oder der Benutzer kein Benutzerfeedback abgeben möchte und die Rückfrage also verneint, so werden ohne die Benutzerangaben nur die Situationsdaten an die Auswerteeinrichtung gesendet. Somit kann bereits eine Stimmungsangabe, welche die erkannte Stimmung angibt, als indirekte Benutzerangabe ausgewertet werden. Hierdurch ergibt sich der Vorteil, dass allein eine Emotion des Benutzers ausreicht, um eine Ermittlung des Benutzerfeedbacks auszulösen.
Welche Auslöseereignisse geeignet sind, um das Erfassen eines Benutzerfeedbacks sinnvoll auszulösen, kann in einem frühen Stadium, nämlich bei der Entwicklung des Geräts, schwierig sein. Um hier mehr Flexibilität beim Anpassen eines Auslösungsereignisses bereitzustellen, sieht eine Weiterbildung vor, dass im Betrieb des Geräts, d.h. also dynamisch, Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird. Es kann also zur Laufzeit, während sich das Gerät bereits beim Benutzer befindet, ein neues Auslöseereignis definiert oder festgelegt werden. Somit kann also auch im Nachhinein, nach Auslieferung des Geräts an den Benutzer, die Menge der Auslöseereignisse zum Erfragen oder Ermitteln von Benutzerfeedback angepasst werden.
Durch den Sprachdialog kann der Benutzer unter Umständen in kognitiv anstrengenden Situationen, die vom Benutzer die gesamte Aufmerksamkeit erfordern, dennoch von der Benutzung des Geräts abgelenkt werden. Um dies zu vermeiden, wird der Sprachdialog bevorzugt nur dann gestartet oder durchgeführt, wenn die kognitive Belastung des Benutzers, also sein aktueller Aufwand zum Konzentrieren bei der Bedienung des Geräts, gering genug ist. Eine Weiterbildung sieht hierzu vor, dass der Sprachdialog nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium eben festlegt, in welchem Fall eine Ablenkung des Benutzers durch den Sprachdialog zulässig ist. Das Belastungskriterium legt also einen Schwellenwert für die kognitive Belastung fest, der unterschritten sein muss, damit
der Sprachdialog gestartet wird. Das Belastungskriterium kann auch eine Liste von zulässigen Benutzungssituationen angeben. Handelt es sich bei dem Gerät um ein Kraftfahrzeug, so kann beispielsweise das Belastungskriterium besagen, dass während einer Kurvenfahrt der Sprachdialog blockiert sein muss. Dagegen kann während einer Fahrt mit einem Autopiloten der Sprachdialog freigegeben sein. Allgemein wird also durch das Belastungskriterium festgelegt, welche Fahrerbelastung durch die aktuelle Fahraufgabe zulässig ist, damit der Sprachdialog gestartet wird und welche Fahrerbelastung oder welcher Grad an Fahrerbelastung den Sprachdialog verhindert oder blockiert. Bei verletztem Belastungskriterium kann der Sprachdialog auch zeitlich verschoben in Bezug auf das Auslöseereignis gestartet werden.
Mehrere Weiterbildungen beschäftigen sich mit der Frage, wie von dem Benutzer die benötigten Benutzerangaben erfragt werden können. Eine Weiterbildung sieht vor, dass zum Festlegen eines Verlaufs des Sprachdialogs vorbestimmte, zu beantwortende Frageziele oder Fragepunkte zu dem Auslöseereignis vorgegeben werden. Zu jedem Auslöseereignis stellen sich Fragen, die beispielsweise der Hersteller des Geräts beantwortet haben möchte. Somit kann also zu jedem detektierbaren oder vorbestimmten Auslöseereignis jeweils eine Liste mit zumindest einem Fragepunkt vorgegeben werden. Während des Sprachdialogs wird dann zumindest eine Aussage des Benutzers mittels einer vorbestimmten ZuOrdnungsvorschrift daraufhin überprüft, ob sie eine Antwort auf einen Fragepunkt darstellt. Wird als Auslöseereignis beispielsweise erkannt, dass ein Benutzer einen Fahrzeugsitz verstellt, so kann als ein Fragepunkt vorgegeben werden, ob der Fahrzeugsitz unbequem ist. Wird dann im Sprachdialog gefragt:„Warum haben Sie den Fahrzeugsitz verstellt?" und antwortet der Benutzer darauf hin:„Meine Schulter zwickt," so kann eine ZuOrdnungsvorschrift vorgesehen sein, die Angaben zu Körperteilen, also beispielsweise„Schulter", dem Fragepunkt die Antwort „Fahrzeugsitz unbequem" zuordnet. Somit kann diese mittels der Zuord- nungsvorschrift interpretierte Antwort des Benutzers als Teil der Benutzerangaben verwendet werden. Antwortet der Benutzer dagegen:„Bitte jetzt nicht stören, ich möchte gleich telefonieren," so ergibt sich keine gültige Zuordnung mittels der ZuOrdnungsvorschrift zu einer möglichen Antwort für den
Fragepunkt. Damit wird diese Antwort des Benutzers nicht als Teil der Benutzerangaben verwendet, sondern für das Benutzerfeedback ignoriert. Des Weiteren kann die Steuervorrichtung noch unbeantwortete Fragepunkte während des Sprachdialogs ermitteln und durch Anpassen des Sprachdialogs gezielt die unbeantworteten Fragepunkte erfragen. Beispielsweise kann im Sprachdialog gezielt gefragt werden:„Finden Sie den Fahrzeugsitz unbequem?", falls dieser Fragepunkt noch offen oder unbeantwortet ist.
Eine andere Möglichkeit, um einen Sprachdialog für ein Benutzerfeedback zu gestalten, besteht in der Weiterbildung, Fragebogendaten zu empfangen, welche zumindest einen Fragepunkt angeben, zu welchem Benutzerangaben benötigt werden. Als Auslöseereignis kann dann ein vorbestimmter Nutzungskontext (auf welchen sich die Fragebogendaten beispielsweise beziehen) und/oder ein vorbestimmter Belastungsgrad an die aktuelle kognitive Belastung des Benutzers ermittelt wird. Ein Grad oder Wert einer kognitiven Belastung kann allgemein z.B. mittels einer Zuordnungsfunktion ermittelt werden, welche einer erkannten Benutzungssituation den Grad oder Wert der kognitiven Belastung zuordnet. Die Zuordnungsfunktion kann mit Testpersonen anhand von einfachen Versuchen gebildet werden. Die Fragebogendaten werden also nur dann per Sprachdialog geklärt, wenn die kognitive Belastung des Benutzers unter einem vorbestimmten Schwellenwert liegt, der Benutzer also entspannt und/oder sein Ablenkungsgrad gering genug ist, um eine unerwünschte Ablenkung zu vermeiden. Dann wird der Sprachdialog gestartet und in Abhängigkeit von den Fragebogendaten gesteuert. Im Sprachdialog können also Fragen in ein Gespräch mit den Benutzer einfließen, wobei die Fragen die zumindest einen zu klärenden Fragepunkt aus den Fragebogendaten betreffen.
Nicht immer ist aber klar, was der Benutzer eigentlich gefragt werden soll. Eine Weiterbildung sieht deshalb vor, dass zu dem Auslöseereignis alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird. Hierdurch bleibt also das Benutzerfeedback ergebnisoffen. Es werden durch
offene Fragen nach dem gewünschten Zustand und/oder einem technischen Sachverhalt vom Benutzer Aussagen erfragt oder ermittelt, die als Benutzerfeedback genutzt werden können.
Um das erfindungsgemäße Verfahren durchzuführen, ist durch die Erfindung auch die besagte Steuervorrichtung bereitgestellt, um das Benutzerfeedback bei einer Benutzung eines Geräts zu ermitteln. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen MikroController und/oder zumindest einen Mikroprozessor aufweisen. Die Prozessoreinrichtung kann einen Programmcode umfassen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein. Die Steuervorrichtung kann ganz oder teilweise in einer Geräteelektronik des Geräts selbst bereitgestellt sein. Die Steuervorrichtung kann auch ganz oder teilweise durch einen Server des Internets realisiert sein. Die Steuervorrichtung kann auch ganz oder teilweise in einem mobilen Endgerät bereitgestellt sein, dass mit dem eigentlichen zu bedienenden Gerät gekoppelt sein kann.
Bei dem Gerät selbst kann es sich in der besagten Weise um ein Kraftfahrzeug handeln. Das Benutzerfeedback kann aber auch über ein Gerät ermittelt werden, das beispielsweise ein mobiles Endgerät, also ein Smartphone oder ein Tablett-PC oder eine Smartwatch, darstellt.
Im Zusammenhang mit einem als Kraftfahrzeug ausgebildeten Gerät sieht die Erfindung auch ein Kraftfahrzeug vor, in welchem eine Ausführungsform der erfindungsgemäßen Steuervorrichtung bereitgestellt ist. Das erfindungsgemäße Kraftfahrzeug kann als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als ein Motorrad oder als eine Landmaschine ausgestaltet sein. Grundsätzlich können alle im Kraftfahrzeug befindlichen Personen ein Feedback geben, nicht nur der Fahrer.
Inn Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
Fig. 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs;
Fig. 2 ein Flussdiagramm zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens, wie es durch eine Steuervorrichtung für das Kraftfahrzeug von Fig. 1 durchgeführt werden kann;
Fig. 3 eine schematische Darstellung einer Struktur eines Sprachdialogs, wie er im Zusammenhang mit dem Verfahren von Fig. 2 durch die Steuervorrichtung ausgeführt werden kann; und
Fig. 4 eine schematische Darstellung der Steuervorrichtung.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.
Fig. 1 zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen oder ein Motorrad oder eine Landmaschine, handeln kann. Das Kraftfahrzeug 10 repräsentiert ein Gerät im Sinne der Erfindung. Die im Folgenden beschriebenen
Verfahrensschritte können aber auch auf ein anderes Gerät, z.B. ein mobiles Endgerät, angewendet werden.
In dem Kraftfahrzeug 10 kann eine Prozessoreinrichtung 1 1 bereitgestellt sein, bei der es sich beispielsweise um ein Infotainmentsystem (Information- Unterhaltungssystem) handeln kann. Die Prozessoreinrichtung 1 1 kann auch ein eigenes Steuergerät sein oder in einem auch für andere Funktionen vorgesehenen Steuergerät integriert sein. Durch die Prozessoreinrichtung 1 1 kann beispielhaft eine Steuervorrichtung 12 realisiert sein. Alternativ dazu kann als eine Steuervorrichtung oder als ein Teil der Steuervorrichtung ein mobiles Endgerät 13 mit der Prozessoreinrichtung 1 1 gekoppelt sein. Zusätzlich oder alternativ dazu kann über eine Funkverbindung 14 eine Servervorrichtung oder ein Server 15 des Internets 16 mit der Prozessoreinrichtung 1 1 gekoppelt sein, um einen Teil der Steuervorrichtung zu bilden oder die Funktion der Steuervorrichtung ganz bereitzustellen.
Im Folgenden wird beispielhaft davon ausgegangen, dass die Steuervorrichtung 12 ausschließlich mittels der Prozessoreinrichtung 1 1 bereitgestellt ist. Die im folgenden beschriebenen Funktionen können aber auch durch das mobile Endgerät 13 und/oder den Server 15 ganz oder teilweise ausgeführt werden.
Durch die Steuervorrichtung 12 kann aus einer Mikrofonanordnung 17 eine Benutzereingabe 18 eines (nicht dargestellten) Benutzers des Kraftfahrzeugs 10 als Sprachsignal empfangen werden. Des Weiteren kann die Steuervorrichtung 12 eine Ausgabeeinrichtung 19 steuern oder betreiben, um eine Sprachansage 20 als Sprachschall an den Benutzer ausgeben zu können. Es können kann auch ein Mikrofon und/oder ein Lautsprecher aus einem mobilen Endgerät, z.B. einem Smartphone, verwendet werden.
In dem Kraftfahrzeug 10 kann von dem Benutzer hierdurch in einem Sprachdialog ein Benutzerfeedback 22 ermittelt werden, das dann an eine Auswerteeinrichtung 21 , beispielsweise einen Server des Internets 16, ausgesendet werden kann. Durch die Auswerteeinrichtung 21 kann aus dem Kraftfahrzeug
10 und aus weiteren Geräten jeweils das Benutzerfeedback 22 gesammelt werden und somit z.B. der Gerätetyp des Kraftfahrzeugs 10 oder allgemein eines Geräts verbessert oder weiterentwickelt werden. Das Benutzerfeedback 22 kann eine Benutzerangabe 33 zu einem Auslöseereignis sowie Situationsdaten 34 betreffend die aktuelle Benutzungssituation umfassen. Die Situationsdaten 34 können z.B. auf der Grundlage von Daten DTA gebildet sein, die Umgebungsdaten und/oder Fahrzeugdaten und/oder Wetterdaten und/oder Verkehrsdaten umfassen können. Die Daten DTA können ganz oder teilweise auch durch eine externe Datenquelle, wie z.B. einen Internet- Datendienst, bereitgestellt sein.
Fig. 2 veranschaulicht, wie das Benutzerfeedback 22 im Kraftfahrzeug 10 durch die Steuervorrichtung 12 ermittelt werden kann.
Während der Benutzer das Kraftfahrzeug 10 benutzt, kann die Steuervorrichtung 12 detektierten, ob ein vorbestimmtes Auslöseereignis 23 im oder am Kraftfahrzeug vorkommt oder stattgefunden hat. Es kann sich bei dem Auslöseereignis 23 um eine Nutzerinteraktion 24 handeln, die beispielsweise in Form eines Sprachbefehls 25 des Benutzers und/oder in Form einer Hardwarebedienung 26 des Benutzers, d.h. einer vorbestimmten Bedienhandlung, erkannt werden kann. Zusätzlich oder alternativ dazu kann mittels zumindest eines fahrzeugeigenen und/oder zumindest eines fahrzeugfremden Sensors 27 (z.B. des mobilen Endgeräts 13) eine aktuelle Benutzungssituation 28 und/oder ein aktueller Benutzungskontext 29 ermittelt werden. Falls ein vorbestimmter Benutzungskontext 29 und/oder eine vorbestimmte Benutzungssituation 28 erkannt wird, kann dies ebenfalls als Auslöseereignis 23 gewertet werden.
Wird in einem Schritt S10 das Auslöseereignis 23 erkannt, so kann in einem Schritt S1 1 ein Sprachdialog 31 durchgeführt werden. Hierzu kann von dem Benutzer (in Fig. 2 durch ein Feld 32 repräsentiert) die Benutzereingabe 18 empfangen werden und an den Benutzer die Sprachausgabe 20 ausgegeben werden. Mittels des Sprachdialogs 31 werden dann in einem Schritt S12 Benutzerangaben 33 ermittelt, die in einem Schritt S13 zusätzlich z.B. auf
Grundlage des zumindest einen Sensors 27 und/oder Zustandsdaten des Kraftfahrzeugs 10 um die Situationsdaten 34 ergänzt werden können. Die Situationsdaten 34 können einen aktuellen Gerätezustand des Kraftfahrzeugs 10 und/oder einen Umgebungszustand der Bedienumgebung und/oder einen Benutzungskontext, in welchem das Kraftfahrzeug 10 aktuell benutzt wird, und/oder den Gesundheitszustand des Benutzers selbst und/oder eine Geoposition des Kraftfahrzeugs 10 beschreiben.
In einem Schritt S14 kann dann das Benutzerfeedback 22 als Kombination aus den Benutzerangaben 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 übermittelt werden.
Fig. 3 veranschaulicht beispielhaft eine mögliche Struktur des Sprachdialogs 31 . Es kann eine Identität des Benutzers 32 und es können Profildaten 35 des Benutzers 32 in einem Schritt D10 ermittelt werden, indem sie beispielsweise aus einer Datenbank ausgelesen werden. Es können Fragebogendaten 36 in einem Schritt D1 1 empfangen werden, welche Frageziele oder zu klärende Fragepunkte angeben, die durch den Sprachdialog 31 mit dem Benutzer geklärt oder von dem Benutzer beantwortet werden sollen. Es kann auch vorgesehen sein, zu dem erkannten Auslöseereignis 23 zugeordnete Fragepunkte aus einer Datenbank auszulesen. In einem Schritt D12 kann dann das Gespräch mit dem Benutzer begonnen oder initiiert werden, indem beispielsweise eine Eingangsfrage 37 gestellt wird. Die Eingangsfrage 37 kann beispielsweise lauten:„Kann ich Dir eine Frage stellen?" oder„Welches Feedback würdest Du gerne geben?" Bei einer Ablehnung 38 durch den Benutzer kann in einem Schritt D13 der Sprachdialog abgebrochen werden. Bei einer Bestätigung 39 durch den Benutzer kann in einem Schritt D14 ein offener Fragepunkt oder ein zu klärender Fragepunkt durch eine Frage 40 der Steuervorrichtung 12 dem Benutzer vorgetragen oder präsentiert werden. Ein Beispiel für eine Frage 40 ist:„Ich habe gemerkt, dass Du X gemacht hast. Warum?", wobei X eine Bedienhandlung oder eine Nutzungshandlung des Benutzers sein kann, die als Auslöseereignis 23 erkannt wurde. Es kann auch als Frage 40 die Meinung des Benutzers erfragt werden, beispielsweise durch die Frage 40:„Wie findest du Y?", wobei Y eine Gerä-
tekomponente, z.B. eine Gerätefunktion, oder ein Objekt in der Umgebung sein kann.
Falls der Benutzer eine Ablehnung 38 ausspricht, also zu verstehen gibt, dass er keinen Dialog führen möchte, kann wieder zum Schritt D13, d.h. zum Abbruch des Sprachdialogs 31 , übergegangen werden.
Andernfalls wird der Sprachdialog 31 in einem Schritt D15 als Konversation weitergeführt mit einem Sprachabtausch 41 , der eine Abfolge aus Frage, Antwort, Nachfrage, Antwort und optional weiteren solchen Konversationsschritten umfassen kann. Hierbei kann in einem Schritt D16 überprüft werden, ob der Sprachdialog oder die Konversation aktuell noch zur Klärung eines offenen Fragepunkts dient. Ist dies der Fall (in Fig. 3 sind positive Prüfergebnisse durch ein „+"-Zeichen symbolisiert), kann mit dem Schritt D15 weiter fortgefahren werden. Falls dies nicht der Fall ist (in Fig. 3 sind negative Prüfergebnisse durch ein„-"-Zeichen symbolisiert), kann in einem Schritt D17 die Konversation durch einen entsprechenden Themenwechsel zurück zu einem zu klärenden Fragepunkt führt werden. Falls dies nicht möglich ist, kann in einem Schritt D18 der Sprachdialog 31 abgebrochen oder pausiert werden und bei erneutem Detektieren des Auslöseereignisses 23 wieder fortgesetzt werden. Kann die Konversation zurück zum Thema gelenkt werden, so kann in einem Schritt D19 überprüft werden, ob alle Fragepunkte geklärt sind, also die Benutzerangaben, die benötigt werden, vollständig sind. Ist dies nicht der Fall, so kann mit dem Schritt D15 weiter fortgefahren werden. Sind die Benutzerangaben dagegen vollständig, d.h. alle Fragepunkte geklärt oder bei einer ergebnisoffenen Befragung oder Konversation eine vorbestimmte Anzahl an Benutzerantworten gesammelt, so kann in einem Schritt D20 in der bereits beschriebenen Weise die Übertragung des Benutzerfeedbacks 22 mit der Benutzerangabe 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 erfolgen. Ein Feedback soll sowohl mit als auch ohne Situationsdaten 34 möglich sein.
In Fig. 4 ist veranschaulicht, wie der Sprachdialog 31 mit einer Signalverarbeitung 42 realisiert werden kann. Wie bereits ausgeführt, kann die Signal-
Verarbeitung 41 durch die Steuervorrichtung 12 und/oder das mobile Endgerät 13 und/oder durch den Server 15 ganz oder anteilig durchgeführt werden.
Ausgehend von der Mikrofonanordnung 17 kann die erfasste Benutzereingabe 18 mittels einer Spracherkennung 43 beispielsweise von einem störenden Rauschsignal befreit werden und in einen Text umgewandelt werden. Es kann hier eine an sich aus dem Stand der Technik bekannte Spracherkennung 43 genutzt werden.
Ausgehend von dem erkannten Text 44 kann eine Inhaltserkennung 45 vorgenommen werden, die aus dem Stand der Technik als Natural Language Processing (natürlichsprachliche Sprachverarbeitung) bekannt ist. Es kann von dem Text auf den abstrakten Inhalt geschlossen werden. Beispielsweise kann der Text 44 mit vorbestimmten Vergleichstexten verglichen werden, zu welchen jeweils angegeben ist, was sie bedeuten. Z.B. können bedeutungslose Füllwörter (wie z.B. „und" oder„hmm") erkannt und als unbedeutend markiert und/oder gelöscht werden. Beispielsweise kann analysiert werden, ob der Text etwas mit dem aktuellen Thema, beispielsweise mit einem bestimmten Fragepunkt, zu tun hat. Es kann hierzu einem Stichwort (das Beispiel„Schulter" wurde bereits genannt) ein Thema zugeordnet werden (z.B. „Bequemlichkeit").
Der ermittelte Inhalt 46 kann mittels einer ZuOrdnungsvorschrift 47 dahingehend analysiert werden, ob er eine Antwort zu einem zu klärenden oder offenen Fragepunkt darstellt. Ist dies der Fall, so kann also der Inhalt 46 dem Benutzerangaben 33 zugeordnet werden oder in diesen gespeichert werden. Für diese Inhaltsanalyse 48 kann die ZuOrdnungsvorschrift 47 beispielsweise bestimmten Stichworten jeweils eine Bedeutung für das Benutzerfeedback 22 zuordnen. Beispielsweise kann die Angabe eines Körperteils (zum Beispiel„Schulter" und„zwickt") dahingehend interpretiert werden, dass sich der Benutzer unbequem fühlt.
In einer Feedback-Verwaltung 49 kann in Prüfschritten 50 zur jeweiligen Benutzereingabe 18 überprüft werden, ob alle offenen oder zu klärenden
Fragepunkte durch eine korrespondierende Benutzerangabe 18 beantwortet oder geklärt oder alle Frageziele erreicht wurden. Ist dies nicht der Fall, kann mittels einer Spracherzeugung 50 (Text-to-Speech - Text zu Sprache) eine neue Sprachansage 20 erzeugt werden, mittels welcher der Benutzer nach einem weiteren Fragepunkt, der noch zu klären ist, gefragt wird. Mittels der Lautsprechereinrichtung 19 kann dann das Signal an den Benutzer als Sprachschall ausgegeben werden. Der Benutzer 32 kann dann auf diese neue Frage antworten.
Insgesamt stellt die Steuervorrichtung 1 1 mit ihrem Sprachdialog 31 die Funktion eines digitalen Assistenten 51 für ein Benutzerfeedback 22 bereit.
Somit ergibt sich das Benutzerfeedback aus einem Gespräch zwischen Benutzer und digitalen Assistenten 51 . Zudem wird eine Verbindung mit dem Kraftfahrzeug 10 und dessen Umfeld mittels der Situationsdaten 34 geschaffen oder beschrieben. Mittels der Schlüsselworterkennung, wie sie z.B. die ZuOrdnungsvorschrift 47 bietet, und/oder der Kombination mit Kontext und/oder Nutzerprofil kann die Bedeutung des Gesprochenen ermitteln werden.
Anschließend wird die Bedeutung im Hinblick auf das eigentliche Frageziel oder den zu klärenden Fragepunkt bewertet. Falls dies abweichend ist, stellt der Assistent 51 erneut zumindest eine Rückfrage, um die Gesprächsabweichung zu korrigieren. Dies wird wiederholt, bis das Frageziel hinreicht erreicht wurde und/oder der Benutzer / der Assistent den Sprachdialog vorzeitig beendet, weil z.B. eine kognitive Belastung des Benutzers ein vorbestimmtes Belastungskriterium verletzt.
Der Sprachdialog kann natürlichsprachlich erfolgen, d.h. kein vorher festzulegendes Frage-Antwort-Spiel, sondern ein natürliches Gespräch mit frei wählbaren Worten und Sätzen, welche vom Assistenzen 51 verstanden werden bzw. welche der Assistent 51 ausgeben kann. Er passt sich bevorzugt der Sprache des Benutzers an.
Die Steuervornchtung basiert auf einer Verwendung eines Mikrofons zur Spracheingabe und eines Lautsprechers zur Sprachausgabe und einer Prozessoreinrichtung zum Verarbeiten von Sprachsignalen und optional Informationen aus einem Online-Dienst (Backend).
In der Auswerteeinrichtung 21 kann die Verknüpfung von Informationen aus dem digitalen Assistenten 51 z.B. mit Fahrzeugdaten oder anderen Daten stattfinden, die als Situationsdaten 34 mit bereitgestellt werden.
Die Situationsdaten 34 beschreiben z.B. :
- Luftparameter (Temperatur, Feuchte, Schadstoff, Sauerstoff, Partikel, Pollen, Gifte, Feuchte, Luftdruck) und/oder
- Wetterparameter (Stand der Sonne, Sonnenintensität, Regen, Regenintensität, Wind) und/oder
- Fahrbahn (Art der Straße, Reibung, Schlaglöcher, Fahrbahnart und Fahr- bahnbeschaffenheit) und/oder
- Fahrzeug (Genutzte Bedienelemente, Geschwindigkeit, Position, Gang, Gas, Bremse, Tank, Beladung, Motor und Getriebezustand) und/oder
- Insassen (Anzahl, Position, Größe, eindeutige Identifikation, Zustand der Insassen) und/oder
- Umgebung (Bilder, Radar, Ultraschall, Lidar, Infrarotabbildung von der Umgebung) und/oder
- Media (Musik, Radiosender, Lautstärke, Telefonat, surfen, andere Informationen),
- Verkehr (andere Fahrzeuge, Personen, Schilder, Verkehrszeichen, Fahrbahnmarkierung), wobei auch deren vorangegangene und nachfolgende Parameter / Werte berücksichtigt werden können.
Durch die Hilfe eines Assistenten 51 kann ein Feedbackgespräch stattfinden, in welchem der Benutzer sein Anliegen per Sprache darlegt. Der Assistent
kann dem Benutzer weitere Fragen stellen, um die Qualität des Feedbacks zu verbessern.
Die Aktivierung des Assistenten kann per Hardware-Interaktion oder über Sprach befehl erfolgen. Weiter ist eine Situationsabhängige oder Kontextbasierte Aktivierung möglich.
Aktuelle Assistenten können dagegen nicht von sich aus eine Konversation starten, sondern nur auf Benutzeraktion hin. Aktuelle Assistenten können auch nur auf vorgegebene Fragen reagieren und vorgegebene Antworten abliefern.
Der Assistent 51 dagegen:
- verarbeitet das direkte Benutzerfeedback ungeschönt und ungefiltert,
- erstellt das Feedback zeitnah zur Situation (auch während des Fahrens),
- lenkt den Fahrer nicht ab (minimale kognitive Belastung), da eine natürlichsprachliche Interaktion wie beim Telefonieren möglich ist.
Die einfache natürliche Interaktion mit dem Assistenten 51 ermutigt den Benutzer direktes und ehrliches Feedback zu geben. Weiter kann der Assistent 51 das Benutzerfeedback 22 mit weiteren Metadaten wie Position, Fahrzeugzustand (z.B. Busnachtrichten eines Kommunikationsbusses, z.B. CAN- Busses, und/oder LIN, Ethernet, WLAN, BLE, NFC, und/oder elektrische, elektromagnetische, akustische und/oder optische Signale), und/oder Umgebungsdaten wie Wetter und/oder Verkehrssituation verknüpfen.
Diese Feedbackdaten des Benutzerfeedbacks 22 können je nach Feedbackart und Kontext auch unterschiedlich sein und vom Assistent 51 selbstständig ausgewählt, erfasst und verknüpft werden.
Vorteil dieses Assistenten 51 ist die natürlich-sprachliche Umsetzung, wobei die Fragen nicht vordefiniert sind, sondern situationsbezogen generiert werden. Hierdurch kann direkt auf die Antworten des Benutzers eingegangen
werden und das Gespräch in die gewünschte Richtung (Ergebnis) gesteuert werden.
Im Gegensatz zur heutigen Implementierung von Sprachassistenten, welche nur auf Schlüsselwörter reagieren, ist der Assistent 51 in der Lage, das Gespräch im Kompletten zu verstehen und/oder den Kontext bei der Interpretation der Benutzereingaben 18 mit einzubeziehen (z.B. Fahrsituation, Umfeld, Gesundheit).
Weiter ist der Assistent 51 in darauf angewiesen, die gewünschte Information nicht direkt zu erfragen, sondern er kann über Umwege (psychologisch geschickt, im Gesprächsverlauf) die Antworten erlangen.
Die Aktivierung des Assistenten 51 kann per Hardwareinteraktion (z.B. Knopf, Touchscreen) oder über Sprachbefehl erfolgen (hierzu lauscht ein Mikrophon auf Sprachbefehle).
Wenn die Interaktion vom Benutzer aus initiiert wird, können der Fahrzeugzustand, die erkannte Umgebung und/oder andere Metadaten aus Schwarmdaten, Karten Information, Fahrsituation erhoben und mit den Benutzerangaben 33 als Situationsdaten 34 (optional vom Assistenten 51 interpretiert) verknüpft und an die Auswerteeinrichtung 21 gesendet werden.
Die situationsabhängige oder kontextbasierte Aktivierung ist von Fahrsituationen, Fehlerzuständen im Fahrzeug als auch geobasiert möglich. Eine dynamische Konfiguration während der Laufzeit ist möglich. Die Informationen werden analog dem benutzerinitiierten Feedback erhoben, gespeichert und versendet.
Der Assistent 51 kann sich als Steuervorrichtung 12, 13, 15 in der Fahrzeugelektronik, in einem Server als auch im externen mobilem Gerät (Handy, Laptop, Wearable, Smart Device) befinden.
Inn Folgenden erläutern Szenarios die Funktionsweise des durch die Steuervorrichtung 12, 13, 15 realisierten Assistenten 51 :
Szenario 1 :
Fahrer ändert Fahrwerkseinstellung (z.B. von„dynamisch" zu„comfort"), z.B. mittels Sprachbedienung. Nach dem Ausführen fragt der Assistent 51 , warum der Fahrer die Fahrwerkseinstellung geändert hat. Begründung des Insassen:„Die Straße ist zu holprig, ich möchte komfortabel Reisen". Das System sendet diese Information mit dem schlechten Zustand der Straße sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 .
Szenario 2:
Die Auswerteeinrichtung 21 schickt ein Fragebogen an die Flotte von Fahrzeugen. Das Fahrzeug bearbeitet die Information. Der Assistent 51 entscheidet anhand von Benutzungskontext und/oder kognitiver Belastung des Insassen, wann der geeignete Zeitpunkt ist, den Insassen die Fragen zu stellen. Der Assistent lässt die angeforderten Fragen in die Konversation geschickt einfließen und entlockt den Insassen damit das gewünschte Feedback. Die gewonnenen Daten werden an die Auswerteeinrichtung 21 übermittelt.
Szenario 3:
Ein Insasse ärgert sich über eine Funktionalität des Fahrzeugs. Der Assistent wägt ab, ob eine Frage in der aktuellen Situation möglich ist. Falls nicht, erfasst er die Umfelddaten / Situationsdaten 34 und übermittelt diese an die Auswerteeinrichtung 21 . Falls eine Frage nach seiner Einschätzung möglich ist, spricht er den Insassen an, ob eine Frage zu der Situation möglich ist. Falls nicht, siehe oben. Falls ja, startet der Assistent eine Konversation mit dem Ziel, den Grund seines Unmutes (z.B. über eine Fahrzeugfunktion oder Umfeldereignis) herauszufinden. Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 .
Szenario 4:
Ein Insasse triggert mit einem Schlüsselwort, mit einer erkannten Intention (z.B.„Ich möchte Feedback ... geben") die Feedbackfunktion des Systems. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Feedback zu gewinnen (vorher festgelegbare Informationen des Herstellers für ein gezieltes Feedback sind möglich, d.h. ein Hersteller kann vorher festlegen, welche Informationen er„zwingend" für die Fehleranalyse benötigt). Das System sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 .
Szenario 5:
Das Fahrzeug befindet sich in einem bestimmten Zielgebiet (Geofencing). Zu dieser Lokalität oder Sache an der Lokalität (z.B. Werbeplakat, empfohlene Sehenswürdigkeit) möchte der Hersteller / Werbeindustrie ein Benutzerfeedback von Insassen haben. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Benutzerfeedback zu gewinnen (auch vorher festgelegte Informationen des Herstellers für ein gezieltes Feedback sind möglich). Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an das Backend.
Insgesamt zeigen die Beispiele, wie durch die Erfindung eine assistierte Feedback-Interaktion in einem Kraftfahrzeug bereitgestellt werden kann.
Claims
1 . Verfahren zum Ermitteln eines Benutzerfeedbacks (22) bei einer durch einen Benutzer (32) vorgenommenen Benutzung eines Geräts (10), dadurch gekennzeichnet, dass
durch eine Steuervorrichtung (12) während der Benutzung zumindest ein Auslöseereignis (23) detektiert wird und jeweils bei detektiertem Auslöseereignis (23) ein Sprachdialog (31 ) mit dem Benutzer (32) durchgeführt wird, wobei in dem Sprachdialog (31 ) gesprochene Benutzerangaben (33) zu dem Auslöseereignis (23) ermittelt werden, und die im Sprachdialog (31 ) ermittelten Benutzerangaben (33) an eine vorbestimmte Auswerteeinrichtung (21 ) ausgesendet werden.
2. Verfahren nach Anspruch 1 , wobei die Benutzerangaben (33) zusammen mit das Auslöseereignis (23) charakterisierenden Situationsdaten (34) an die Auswerteeinrichtung (21 ) ausgesendet werden.
3. Verfahren nach Anspruch 2, wobei die Situationsdaten (34) einen Ge- rätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext und/oder Gesundheitsdaten und/oder eine Geoposi- tion des Geräts (10) beschreiben.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei
- das zumindest eine Auslöseereignis (23) eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst und in dem Sprachdialog (31 ) ein Grund für die Geräteeinstellung erfragt wird und/oder
- das zumindest eine Auslöseereignis (23) eine Anforderung des Benutzerfeedbacks (22) durch eine vorbestimmte Benutzerhandlung, insbesondere eine sprachgesteuerte und/oder manuelle Bedienhandlung, umfasst und/oder
- das zumindest eine Auslöseereignis (23) eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Gerätezustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand einer Benutzungsumgebung,
in welcher das Gerät benutzt wird, vorsieht, und/oder
- das zumindest eine Auslöseereignis (23) eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten und/oder
- das zumindest eine Auslöseereignis (23) eine an die Steuervorrichtung (12) signalisierte, vorbestimmte Stimmung des Benutzers (32) umfasst und ein vorbestimmtes Rückfragekriterium überprüft wird und bei erfülltem Rückfragekriterium mittels des Sprachdialogs beim Benutzer erfragt wird, ob er das Benutzerfeedback (22) geben möchte, und bei einer Bestätigung des Benutzers (32) die Benutzerangaben zu seiner Stimmung ermittelt werden.
5. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Betrieb des Geräts (10) Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird.
6. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Sprachdialog (31 ) nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium festlegt, in welchem Fall eine Ablenkung des Benutzers (32) durch den Sprachdialog (31 ) zulässig ist.
7. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Festlegen eines Verlaufs des Sprachdialogs (31 ) zu dem Auslöseereignis vorbestimmte, zu zumindest einem zu beantwortenden Fragepunkt vorgegeben werden und während des Sprachdialogs zumindest eine Aussage des Benutzers mittels einer vorbestimmten Zuord- nungsvorschrift daraufhin überprüft wird, ob sie eine Antwort auf den zumindest einen Fragepunkt darstellt, und diese Antwort als ein Teil der Benutzerangaben (33) verwendet wird und noch zumindest ein unbeantworteter Fragepunkt durch Anpassen des Sprachdialogs erfragt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Fragebogendaten empfangen werden, welche zumindest einen Fragepunkt angeben, zu welchem eine Benutzerangabe benötigt wird, und als Auslöseereignis (23) ein vorbestimmter Nutzungskontext und/oder ein vorbestimmter Belastungsgrad an kognitiver Belastung des Benutzers ermittelt wird und dann der Sprachdialog in Abhängigkeit von den Fragebogendaten gesteuert wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, wobei zu dem Auslöseereignis (23) alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird.
10.Steuervorrichtung (12) zum Ermitteln eines Benutzerfeedbacks (22) bei einer Benutzung eines Geräts (10),
dadurch gekennzeichnet, dass
die Steuervorrichtung (12) eine Prozessoreinrichtung aufweist, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
1 1 . Kraftfahrzeug (19) mit einer Steuervorrichtung (12) nach Anspruch 10.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017213235.3A DE102017213235A1 (de) | 2017-08-01 | 2017-08-01 | Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des Verfahrens |
DE102017213235.3 | 2017-08-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019025120A1 true WO2019025120A1 (de) | 2019-02-07 |
Family
ID=62948082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2018/068297 WO2019025120A1 (de) | 2017-08-01 | 2018-07-05 | Verfahren zum ermitteln eines benutzerfeedbacks bei einer benutzung eines geräts durch einen benutzer sowie steuervorrichtung zum durchführen des verfahrens |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102017213235A1 (de) |
WO (1) | WO2019025120A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112193255A (zh) * | 2020-09-24 | 2021-01-08 | 北京百度网讯科技有限公司 | 车机系统的人机交互方法、装置、设备以及存储介质 |
US20220005469A1 (en) * | 2018-09-27 | 2022-01-06 | Bayerische Motoren Werke Aktiengesellschaft | Providing Interactive Feedback, on a Spoken Announcement, for Vehicle Occupants |
CN115631550A (zh) * | 2021-07-16 | 2023-01-20 | 北京航迹科技有限公司 | 一种用户反馈的方法和系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020109366A1 (de) | 2020-04-03 | 2021-10-07 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur individuellen Anpassung eines Fahrzeugs, System zur individuellen Anpassung eines Fahrzeugs, Komponente für ein Fahrzeug, Mensch-Maschine-Interface und Auswertungseinrichtung |
DE102021106226B4 (de) | 2021-03-15 | 2023-02-23 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Kraftfahrzeug mit subjektiv angepasster Dynamik eines Fahrbeeinflussungssystems, System aufweisend eine Mehrzahl von Kraftfahrzeugen, Verfahren zum Betrieb eines Kraftfahrzeugs und Verfahren zum Betrieb eines Systems |
DE102022114783A1 (de) | 2022-06-13 | 2023-12-14 | Audi Aktiengesellschaft | Verfahren zum Bereitstellen einer Benutzerinformation über einen Benutzer eines Kraftfahrzeugs |
DE102022123578A1 (de) | 2022-09-15 | 2024-03-21 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren und Vorrichtung zur Abstimmung von Kraftfahrzeugen |
DE102022130792A1 (de) | 2022-11-22 | 2024-05-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben eines digitalen Assistenten eines Fahrzeugs, computerlesbares Medium, System, und Fahrzeug |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006006551A1 (de) * | 2006-02-13 | 2007-08-16 | Siemens Ag | Verfahren und System zum Bereitstellen von Sprachdialoganwendungen |
DE102009025530A1 (de) | 2009-06-19 | 2010-12-23 | Volkswagen Ag | Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug |
DE102013014887A1 (de) * | 2013-09-06 | 2015-03-12 | Audi Ag | Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus |
DE102014111773A1 (de) | 2013-12-19 | 2015-06-25 | Oliver Lauter | System zur Ermittlung der Kundenzufriedenheit |
DE102015113664A1 (de) * | 2014-08-29 | 2016-03-03 | Ford Global Technologies, Llc | Verfahren und vorrichtung für biometrische werbeanzeigenrückmeldungserfassung und -verwendung |
DE102015105581A1 (de) | 2014-11-03 | 2016-05-04 | Audi Ag | System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen |
DE102014017385A1 (de) * | 2014-11-24 | 2016-05-25 | Audi Ag | Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130204813A1 (en) * | 2012-01-20 | 2013-08-08 | Fluential, Llc | Self-learning, context aware virtual assistants, systems and methods |
US10956666B2 (en) * | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
-
2017
- 2017-08-01 DE DE102017213235.3A patent/DE102017213235A1/de not_active Withdrawn
-
2018
- 2018-07-05 WO PCT/EP2018/068297 patent/WO2019025120A1/de active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006006551A1 (de) * | 2006-02-13 | 2007-08-16 | Siemens Ag | Verfahren und System zum Bereitstellen von Sprachdialoganwendungen |
DE102009025530A1 (de) | 2009-06-19 | 2010-12-23 | Volkswagen Ag | Verfahren zur Bedienung eines Fahrzeugs mittels eines automatisierten Sprachdialogs sowie entsprechend ausgestaltetes Sprachdialogsystem und Fahrzeug |
DE102013014887A1 (de) * | 2013-09-06 | 2015-03-12 | Audi Ag | Kraftfahrzeug-Bedienvorrichtung mit ablenkungsarmem Eingabemodus |
DE102014111773A1 (de) | 2013-12-19 | 2015-06-25 | Oliver Lauter | System zur Ermittlung der Kundenzufriedenheit |
DE102015113664A1 (de) * | 2014-08-29 | 2016-03-03 | Ford Global Technologies, Llc | Verfahren und vorrichtung für biometrische werbeanzeigenrückmeldungserfassung und -verwendung |
DE102015105581A1 (de) | 2014-11-03 | 2016-05-04 | Audi Ag | System und Verfahren zur Überwachung des Gesundheitszustandes und/oder des Befindens eines Fahrzeuginsassen |
DE102014017385A1 (de) * | 2014-11-24 | 2016-05-25 | Audi Ag | Kraftfahrzeug-Gerätebedienung mit Bedienkorrektur |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220005469A1 (en) * | 2018-09-27 | 2022-01-06 | Bayerische Motoren Werke Aktiengesellschaft | Providing Interactive Feedback, on a Spoken Announcement, for Vehicle Occupants |
CN112193255A (zh) * | 2020-09-24 | 2021-01-08 | 北京百度网讯科技有限公司 | 车机系统的人机交互方法、装置、设备以及存储介质 |
CN115631550A (zh) * | 2021-07-16 | 2023-01-20 | 北京航迹科技有限公司 | 一种用户反馈的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
DE102017213235A1 (de) | 2019-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019025120A1 (de) | Verfahren zum ermitteln eines benutzerfeedbacks bei einer benutzung eines geräts durch einen benutzer sowie steuervorrichtung zum durchführen des verfahrens | |
DE102013216975B4 (de) | Verfahren und Vorrichtung zur subjektiven Befehlssteuerung von Fahrzeugsystemen | |
DE102009017177B4 (de) | Spracherkennungsanordnung und Verfahren zur akustischen Bedienung einer Funktion eines Kraftfahrzeuges | |
EP1986889B1 (de) | Vorrichtung und verfahren zur interaktiven informationsausgabe und/oder hilfestellung für den benutzer eines kraftfahrzeugs | |
DE102017105459A1 (de) | Interaktive anzeige auf grundlage der interpretation von fahrerhandlungen | |
DE102017105885A1 (de) | Verfahren und Einrichtung für vorausschauende Fahrerassistenz | |
DE102019101785A1 (de) | Mehrsprachige Sprachassistentenunterstützung | |
DE102012208198A1 (de) | Verfahren und Vorrichtungen für die adaptive Fahrzeugantwort auf Luftqualitätszustände | |
DE102013222507A1 (de) | Adaptionsverfahren und -systeme für Sprachsysteme | |
DE102013223036A1 (de) | Adaptionsverfahren und -systeme für Sprachsysteme | |
DE102016200815A1 (de) | Verfahren und Vorrichtung zur Sprachsteuerung eines Kraftfahrzeugs | |
DE102013222757A1 (de) | Adaptionsverfahren und -systeme für Sprachsysteme | |
DE102016206372A1 (de) | Verfahren, einen Fahrzeugbenutzer Fahrzeugmerkmale kennenlernen zu lassen | |
DE112015003379T5 (de) | Systeme und Verfahren für eine adaptive Schnittstelle, um Anwendererfahrungen in einem Fahrzeug zu verbessern | |
WO2020064281A1 (de) | Bereitstellen eines interaktiven feedbacks zu einer sprachansage für fahrzeuginsassen | |
DE102014224120A1 (de) | Ausgeben von Audiobeiträgen für ein Fahrzeug | |
DE102016212681A1 (de) | Steuervorrichtung und Verfahren zum sprachbasierten Betreiben eines Kraftfahrzeugs | |
WO2022096165A1 (de) | Verfahren, vorrichtung, computerprogramm und computerlesbares speichermedium zur steuerung einer bereitstellung einer vorschlagsinformation an einen fahrzeuginsassen eines fahrzeuges | |
DE102018200088B3 (de) | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung | |
DE102020109366A1 (de) | Verfahren zur individuellen Anpassung eines Fahrzeugs, System zur individuellen Anpassung eines Fahrzeugs, Komponente für ein Fahrzeug, Mensch-Maschine-Interface und Auswertungseinrichtung | |
DE102018130754A1 (de) | Nahtloser berater-eingriff | |
DE102017200976B4 (de) | Verfahren zum Betreiben eines Kraftfahrzeugs mit einer Bedienvorrichtung | |
WO2014117932A1 (de) | Systeminitiierte hilfefunktion pro fahrt und/oder pro nutzer für die bedienung von einer, einem fahrzeug zugeordneten vorrichtung | |
EP3895162A1 (de) | Verfahren zum betreiben eines interaktiven informationssystems für ein fahrzeug, sowie ein fahrzeug | |
DE102019116498A1 (de) | Vorrichtung, Fortbewegungsmittel und Verfahren zur Anpassung einer Fahrerassistenzfunktion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18742422 Country of ref document: EP Kind code of ref document: A1 |
|
DPE1 | Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101) | ||
122 | Ep: pct application non-entry in european phase |
Ref document number: 18742422 Country of ref document: EP Kind code of ref document: A1 |