DE102023004448A1 - Method for determining a user's linguistic interaction with a language assistance system - Google Patents
Method for determining a user's linguistic interaction with a language assistance system Download PDFInfo
- Publication number
- DE102023004448A1 DE102023004448A1 DE102023004448.2A DE102023004448A DE102023004448A1 DE 102023004448 A1 DE102023004448 A1 DE 102023004448A1 DE 102023004448 A DE102023004448 A DE 102023004448A DE 102023004448 A1 DE102023004448 A1 DE 102023004448A1
- Authority
- DE
- Germany
- Prior art keywords
- user
- assistance system
- interaction
- voice
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000013459 approach Methods 0.000 claims abstract description 18
- 238000004458 analytical method Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 235000019580 granularity Nutrition 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000036642 wellbeing Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 235000016936 Dendrocalamus strictus Nutrition 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000035488 systolic blood pressure Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
Die Erfindung betrifft ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers (2) mit einem Sprachassistenzsystem (3) in einem Fahrzeug (1), wobei der Nutzer (2) des Fahrzeuges (1) identifiziert wird. Erfindungsgemäß ist vorgesehen, dass- eine Sprachinteraktion des Nutzers (2) mit dem Sprachassistenzsystem (3), mit Insassen (4) des Fahrzeuges (1) und mit Personen (5) außerhalb des Fahrzeuges (1) über eine Telekommunikation analysiert und quantisiert wird,- die Insassen (4) und Personen (5) jeweils einer Gruppe (G1, G2) zugeordnet werden,- die Sprachinteraktionen für die jeweilige Gruppe (G1, G2) über die Zeit aufgezeichnet und ausgewertet werden, wobei Sprachinformationen der jeweiligen Gruppe (G1, G2) unter Verwendung ermittelter Merkmalswerte (M1 bis Mn) ausgewertet werden,- automatisch erkannt wird, wenn sich ein Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) einem Interaktionsmuster einer der Gruppen (G1, G2) annähert oder wenn sich ein Interaktionsmuster des Nutzers (2) mit einer der Gruppen (G1, G2) dem Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) annähert und- wenn eine solche Annäherung erkannt wird, der Nutzer (2) auf seine Verhaltensänderung hingewiesen wird.The invention relates to a method for determining a user's (2) linguistic interaction with a voice assistance system (3) in a vehicle (1), wherein the user (2) of the vehicle (1) is identified. According to the invention, a voice interaction of the user (2) with the voice assistance system (3), with occupants (4) of the vehicle (1) and with people (5) outside the vehicle (1) is analyzed and quantized via telecommunications, - the inmates (4) and people (5) are each assigned to a group (G1, G2), - the voice interactions for the respective group (G1, G2) are recorded and evaluated over time, with voice information of the respective group (G1, G2) are evaluated using determined feature values (M1 to Mn), - is automatically recognized when an interaction pattern of the user (2) with the voice assistance system (3) approaches an interaction pattern of one of the groups (G1, G2) or when an interaction pattern approaches of the user (2) with one of the groups (G1, G2) approaches the interaction pattern of the user (2) with the voice assistance system (3) and - if such an approach is recognized, the user (2) is informed of his change in behavior.
Description
Die Erfindung betrifft ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem in einem Fahrzeug, wobei der Nutzer des Fahrzeuges identifiziert wird.The invention relates to a method for determining a user's linguistic interaction with a voice assistance system in a vehicle, whereby the user of the vehicle is identified.
Aus der
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem anzugeben.The invention is based on the object of specifying a method for determining a user's linguistic interaction with a language assistance system.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die in Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.
Ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem in einem Fahrzeug, wobei der Nutzer des Fahrzeuges identifiziert wird, sieht erfindungsgemäß vor, dass
- - eine Sprachinteraktion des Nutzers mit dem Sprachassistenzsystem, mit Insassen des Fahrzeuges und mit Personen außerhalb des Fahrzeuges über eine Telekommunikation analysiert und quantisiert wird,
- - die Insassen und Personen jeweils einer Gruppe zugeordnet werden,
- - die Sprachinteraktionen für die jeweilige Gruppe über die Zeit aufgezeichnet und ausgewertet werden, wobei Sprachinformationen der jeweiligen Gruppe unter Verwendung ermittelter Merkmalswerte ausgewertet werden,
- - automatisch erkannt wird, wenn sich ein Interaktionsmuster des Nutzers mit dem Sprachassistenzsystem einem Interaktionsmuster einer der Gruppen annähert oder wenn sich ein Interaktionsmuster des Nutzers mit einer der Gruppen dem Interaktionsmuster des Nutzers mit dem Sprachassistenzsystem annähert und
- - wenn eine solche Annäherung erkannt wird, der Nutzer auf seine Verhaltensänderung hingewiesen wird.
- - a voice interaction of the user with the voice assistance system, with occupants of the vehicle and with people outside the vehicle is analyzed and quantized via telecommunications,
- - the inmates and people are each assigned to a group,
- - the speech interactions for the respective group are recorded and evaluated over time, with speech information of the respective group being evaluated using determined characteristic values,
- - is automatically recognized when an interaction pattern of the user with the voice assistance system approaches an interaction pattern of one of the groups or when an interaction pattern of the user with one of the groups approaches the interaction pattern of the user with the voice assistance system and
- - if such an approach is detected, the user is informed of his change in behavior.
Durch Anwendung des Verfahrens ist es möglich, eine emotionale Bindung zwischen dem Nutzer des Fahrzeuges und dem Fahrzeug, insbesondere dem Sprachassistenzsystem, herzustellen oder zu verhindern.By using the method, it is possible to create or prevent an emotional bond between the user of the vehicle and the vehicle, in particular the voice assistance system.
Mittels des Verfahrens kann ein Erlebnis und ein Wohlbefinden des Nutzers des Fahrzeuges in diesem anhand von digitalen Mitteln gesteigert werden. Das Verfahren dient einer Steigerung einer sogenannten digital luxury.Using the method, the experience and well-being of the user of the vehicle can be increased using digital means. The process serves to increase so-called digital luxury.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.
Dabei zeigen:
-
1 schematisch ein Fahrzeug mit einer Vorrichtung zur Durchführung eines Verfahrens zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem, -
2 schematisch ein erstes Diagramm mit einer zweidimensionalen Darstellung einer Analyse von Sprachinteraktionen, -
3 schematisch ein zweites Diagramm mit einer zweidimensionalen Darstellung einer weiteren Aufteilung von Gesprächspartnern, -
4 schematisch ein drittes Diagramm mit überlappenden Gruppen in Bezug auf Sprachinteraktionen und -
5 schematisch ein viertes Diagramm mit einer Annäherung der Gruppen in Bezug auf Sprachinteraktionen.
-
1 schematically a vehicle with a device for carrying out a method for determining a user's linguistic interaction with a language assistance system, -
2 schematically a first diagram with a two-dimensional representation of an analysis of language interactions, -
3 schematically a second diagram with a two-dimensional representation of a further division of interlocutors, -
4 schematically a third diagram with overlapping groups related to language interactions and -
5 schematically a fourth diagram with an approximation of the groups in terms of language interactions.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.
Die Vorrichtung umfasst das Sprachassistenzsystem 3, eine Telekommunikationsvorrichtung 6, mittels welcher der Nutzer 2 mit der Person 5 als Gesprächspartner außerhalb des Fahrzeuges 1 kommuniziert, zumindest ein Mikrofon 7 und eine mit dem Mikrofon 7 verbundene Steuereinheit 8.The device comprises the
Innerhalb des Fahrzeuges 1 wird eine Kommunikation des Nutzers 2, also eines Fahrers des Fahrzeuges 1, mit dem Sprachassistenzsystem 3 und dem weiteren Insassen 4 sowie eine mittels der Telekommunikationsvorrichtung 6 durchgeführte Kommunikation des Nutzers 2 mit der Person 5 erfasst und mittels der Steuereinheit 8 ausgewertet und analysiert.Within the
Im Allgemeinen ist bekannt, dass digitale Sprachassistenzsysteme 3, welche insbesondere auf Sprachmodellen maschinellen Lernens basieren, ermöglichen eine Generation von Sprache und Dialogen mit einem Nutzer 2, wobei die Sprache und die Dialoge oftmals nur schwer als computergeneriert zu erkennen sind. Dadurch kann ein Problem entstehen, dass der Nutzer 2 ein Sprachassistenzsystem 3 vermenschlicht und dem Sprachassistenzsystem 3 beispielsweise Emotionen oder ein Bewusstsein zuspricht. Insbesondere kann das Problem entstehen, dass der Nutzer 2 eine Interaktion mit dem Sprachassistenzsystem 3 einer Interaktion mit einem realen Menschen, zum Beispiel mit dem weiteren Insassen 4 in dem Fahrzeug 1, vorzieht oder gar eine Interaktion mit diesem einstellt.In general, it is known that digital
Im Folgenden wird ein mittels der Vorrichtung durchgeführtes Verfahren beschrieben, mittels dessen eine zunehmende vermenschlichte Wahrnehmung des Sprachassistenzsystem 3 durch den Nutzer 2 automatisch erkannt wird und eine angepasste Interaktionsteuerung des Nutzers 2 mit dem Sprachassistenzsystem 3 des Fahrzeuges 1 ermöglicht.A method carried out using the device is described below, by means of which an increasingly humanized perception of the
Zunächst sieht das Verfahren vor, dass der Nutzer 2 in dem Fahrzeug 1, beispielsweise anhand einer Gesichtserkennung, einer persönlichen Identifikationsnummer, eines personalisierten Fahrzeugschlüssels etc. erkannt und identifiziert wird.First, the method provides that the user 2 is recognized and identified in the
Sprachinteraktionen des Nutzers 2 mit dem Sprachassistenzsystem 3, mit dem weiteren Insassen 4 des Fahrzeuges 1 und mit der Person 5, mit welcher der Nutzer 2 über die Telekommunikationsvorrichtung 6 kommuniziert, werden analysiert und quantisiert.Voice interactions of the user 2 with the
Insbesondere werden dabei ein Inhalt, eine Art und Weise einer mittels des Mikrofons 7 in dem Fahrzeug 1 aufgenommenen geführten Unterhaltung, eine Häufigkeit der Sprachinteraktionen, Metainformationen, wie beispielsweise Tageszeit, Wetter etc., als Sprachinteraktionen des Nutzers 2 mit dem Sprachassistenzsystem 3, dem weiteren Insassen 4 und/oder der Person 5 mittels der Steuereinheit 8 analysiert und quantisiert.In particular, a content, a manner of a guided conversation recorded by means of the
Beispielsweise wird mittels statistischer Verfahren eine Kommunikation analysiert, wobei eine Wortwahl anhand verwendeter Wörter, Wortkombinationen, Redewendungen etc. ermittelt wird und ein Inhalt basierend auf angesprochenen Themenfeldern, einer Varianz zwischen Themenfeldern ermittelt wird. Insbesondere werden Themenfelder zu persönlichen Informationen, zu politischen und/oder religiösen und/oder philosophischen Themen erkannt. Auch können beziehungsweise kann ein arbeitsrechtliches Themenfeld, kartellrechtliche und andere rechtliche Themenfelder erkannt werden.For example, communication is analyzed using statistical methods, whereby a choice of words is determined based on words used, word combinations, phrases, etc. and content is determined based on the topic areas addressed and a variance between topic areas. In particular, subject areas relating to personal information, political and/or religious and/or philosophical topics are identified. A labor law subject area, antitrust law and other legal subject areas can also be identified.
Ein Gesprächsmuster der Sprachinteraktion kann mittels statistischer Verfahren in Bezug auf Redeanteile, Frage-Antwort-Schemata erkannt werden. Darüber hinaus ist es möglich, eine gleichmäßige Verteilung von Redeanteilen beteiligter Gesprächspartner zu erkennen.A conversational pattern of language interaction can be recognized using statistical methods in terms of speech proportions and question-answer schemes. In addition, it is possible to recognize an even distribution of the amount of speech by the conversation partners involved.
Mittels vortrainierter neuronaler Modelle zur maschinellen Sprachverarbeitung können die Sprachinteraktionen analysiert werden.Language interactions can be analyzed using pre-trained neural models for machine language processing.
Methoden, wie zum Beispiel Topic Modelling erlauben verschiedene Granularitäten einer Inhaltsanalyse geführter Dialoge. Beispielsweise kann ermittelt werden, über welche Themenbereiche (zum Beispiel Essen versus Relativitätstheorie gesprochen wird.Methods such as topic modeling allow various granularities of content analysis of guided dialogues. For example, it can be determined which topic areas (e.g. food versus relativity theory) are being discussed.
Mittels Methoden, wie beispielsweise Sentiment Analysis, können Dialoge mit einer darin transportierten Haltung und/oder Stimmung (Verbote versus bestärkende Botschaft) annotiert werden. So kann ermittelt werden, ob der Nutzer 2 eine positive oder eine negative Einstellung zu einem Thema aufweist und in welchem Tonfall der Nutzer 2 spricht.Using methods such as sentiment analysis, dialogues can be annotated with an attitude and/or mood conveyed in them (bans versus reinforcing messages). In this way, it can be determined whether the user 2 has a positive or negative attitude towards a topic and in which tone of voice the user 2 speaks.
Mittels Methoden, wie beispielsweise Style Klassifikation können Dialoge im Hinblick auf einen Stil einer Formulierung, beispielsweise bezogen auf Gedichte, bezogen auf argumentative Texte, bezogen auf Literatur, bezogen auf Dialoge etc., analysiert werden. Hierbei wird ermittelt, wie sich der sprechende Nutzer 2 ausdrückt, insbesondere ob dieser knappe Befehle oder komplexe Erklärungen gibt.Using methods such as style classification, dialogues can be analyzed with regard to a style of formulation, for example in relation to poems, in relation to argumentative texts, in relation to literature, in relation to dialogues, etc. This determines how the speaking user 2 expresses himself, in particular whether he gives brief commands or complex explanations.
Weiterhin können Methoden zur Klassifikation von Sprachmelodien des Nutzers 2 beim Ausführen einer Sprachinteraktion verwendet werden.Furthermore, methods for classifying speech melodies of the user 2 can be used when carrying out a speech interaction.
In einer Ausführung des Verfahrens können Gruppen für die Insassen 4 im Fahrzeug 1 und die Personen 5 als Gesprächspartner individuell erfasst werden. So kann beispielsweise eine Sprachinteraktion des Nutzers 2 mit seiner Mutter, von einer Sprachinteraktion des Nutzers 2 mit einem Finanzdienstleister abweichen. Ein jeweiliger Gesprächspartner wird einer Gruppe, zum Beispiel Familie oder einer Gruppe Finanzdienstleister, zugeordnet, so dass die Analysen der Sprachinteraktionen aggregiert werden können.In one embodiment of the method, groups for the
Insbesondere werden die Sprachinteraktionen für die jeweilige Gruppe über die Zeit, das heißt über eine bestimmte Zeitdauer, aufgezeichnet, ausgewertet und analysiert.In particular, the language interactions for the respective group are recorded, evaluated and analyzed over time, i.e. over a certain period of time.
Sprachinformationen einer jeweiligen, in den folgenden Figuren dargestellten Gruppe G1 bis G3, auch als Cluster bezeichnet, werden ausgewertet, wobei hierzu ermittelte Merkmalswerte M1 bis Mn zu weiteren oben beschriebenen Merkmalen, zum Beispiel dem Stil der Formulierung, Sprachmelodie etc., verwenden werden.Speech information from a respective group G1 to G3 shown in the following figures, also referred to as a cluster, is evaluated, with characteristic values M1 to Mn determined for this purpose being used for further features described above, for example the style of the formulation, speech melody, etc.
Gemäß dem in
In Bezug auf die Auswertung werden jeweilige Schwerpunkte beziehungsweise Mittelwerte von Gruppenelementen in einem von den Merkmalswerten M1 bis Mn aufgespannten Merkmalsraum ermittelt, um gleichsam prototypische Interaktionen für die jeweilige Gruppe G1 bis G3 zu erhalten.With regard to the evaluation, respective focal points or mean values of group elements are determined in a feature space spanned by the feature values M1 to Mn in order to obtain, as it were, prototypical interactions for the respective group G1 to G3.
Ein solcher Wert wird in einer initialen Phase bestimmt und in regelmäßigen zeitlichen Abständen neu ermittelt, so dass Änderungen und vor allem Annäherungen von prototypischen Interaktionsverhalten des Nutzers 2 zu weiteren Insassen 4 und/oder Personen 5 erkannt werden können.Such a value is determined in an initial phase and re-determined at regular time intervals, so that changes and, above all, approximations of prototypical interaction behavior of the user 2 to
Des Weiteren können einzelne Sprachinteraktionen des Nutzers 2, beispielsweise ein Gespräch mit seiner Schwiegermutter, analysiert werden und eine Ähnlichkeit oder Distanz zu einzelnen prototypischen Sprachinteraktionsverhalten ermittelt werden. Somit kann beispielsweise bestimmt werden, ob diese Sprachinteraktion mehr einem Gespräch mit einem Freund oder einer Maschine ähnelt.Furthermore, individual language interactions of the user 2, for example a conversation with his mother-in-law, can be analyzed and a similarity or distance to individual prototypical language interaction behavior can be determined. This makes it possible, for example, to determine whether this voice interaction is more like a conversation with a friend or a machine.
Hierzu wird ein in
Ferner kann eine automatische Bewertung von Gruppenunterschieden erfolgen, beispielsweise mittels eines Silhouette Score. Die Bewertung der Gruppenunterschiede wird mit Gruppenunterschieden weiterer nicht näher gezeigter Fahrzeuge einer gemeinsamen Fahrzeugflotte, beispielsweise eines Fahrzeugherstellers, verglichen werden, insbesondere wenn ein Wert der Bewertung über die Fahrzeuge 1 der Fahrzeugflotte in einem datentechnisch mit den jeweiligen Fahrzeugen 1 der Fahrzeugflotte verbundenen zentralen Rechnereinheit aggregiert sind.Furthermore, group differences can be automatically evaluated, for example using a silhouette score. The evaluation of the group differences will be compared with group differences of other vehicles, not shown in detail, of a common vehicle fleet, for example a vehicle manufacturer, in particular if a value of the evaluation is aggregated across the
Zudem können Gruppenunterschiede oder Clusterunterschiede beziehungsweise das Distanzmaß D neben einem Repräsentieren der Gruppen G1 bis G3 durch prototypische Sprachinteraktionen auch mittels aus der Literatur bekannter Metriken, zum Beispiel single linkage, average linkage, complete linkage über jeweilige einzelne Gruppenbeispiele ermittelt werden.In addition, group differences or cluster differences or the distance measure D can be determined, in addition to representing groups G1 to G3 through prototypical language interactions, using metrics known from the literature, for example single linkage, average linkage, complete linkage, using individual group examples.
Zusätzlich oder alternativ kann ein überwachter-Lernen-Ansatz des maschinellen Lernens verwendet werden, um ein Modell basierend auf Beispieldaten der jeweiligen Merkmalswerte M1 bis Mn vorheriger Sprachinteraktionen zur Klassifikation der bekannten Gruppe oder eines Zielwertes einer Gruppenzugehörigkeit zu trainieren. Ein solches nutzerindividuelles Modell kann nach dem Trainieren, insbesondere nach einer ersten Phase, in einer zweiten Phase zur Interferenz beziehungsweise Vorhersage verwendet werden, wobei mittels des neuen Modells eine neue Sprachinteraktion eine Klassen- beziehungsweise Gruppenzugehörigkeit vorhergesagt wird.Additionally or alternatively, a supervised learning machine learning approach may be used to train a model based on sample data of the respective feature values M1 to Mn of previous speech interactions to classify the known group or a target group membership value. After training, in particular after a first phase, such a user-specific model can be used in a second phase for interference or prediction, with the new model being used to predict a new language interaction and class or group membership.
Daraufhin erfolgt ein automatisches Erkennen einer Annäherung eines Interaktionsmusters zwischen dem Nutzer 2 und dem Sprachassistenzsystem 3 mit einem Interaktionsmuster zwischen dem Nutzer 2 und dem weiteren Insassen 4 und/oder der Person 5. Insbesondere wird eine solche Annäherung automatisch erkannt, wenn der Nutzer 2 so mit einem realen Insassen 4 und/oder einer realen Person 5 spricht, wie mit dem Sprachassistenzsystem 3. Hierbei besteht eine Gefahr, dass der Nutzer 2 den Sprachassistenzsystem 3 vermenschlicht.An approach of an interaction pattern between the user 2 and the
Darüber hinaus erfolgt ein automatisches Erkennen, wenn sich das Interaktionsmuster zwischen dem Nutzer 2 und dem weiteren Insassen 4 und/oder der Person 5 dem Interaktionsmuster zwischen dem Nutzer 2 und dem Sprachassistenzsystem 3 annähert, das heißt, wenn der Nutzer 2 so mit einem Menschen spricht, wie mit dem Sprachassistenzsystem 3. Hierbei besteht eine Gefahr, dass der Nutzer 2 mit Menschen spricht, wie mit einem emotionslosen Sprachassistenzsystem 3. Eine solche Annäherung ist mittels Pfeilen P in
In einer Ausführung des Verfahrens kann eine Eingabe von einer Sprachanalyse auf eine Emotionsanalyse, insbesondere unter Berücksichtigung von Stimmlage und Gestik erweitert werden. Beispielsweise kann eine Emotionserkennung des Nutzers 2 anhand von Gesichts-, Sprach- und/oder Physiosignalen mittels einer entsprechenden, insbesondere fahrzeugseitigen, Sensorik erfolgen. Hierzu analysiert, beispielsweise die Steuereinheit 8, Bilddaten von einer Innenraumkamera oder mehreren Innenraumkameras und/oder erfasste Daten von fahrzeugseitig verbauten Vitalsensoren in Echtzeit. Ein Ansatz, zum Beispiel basierend auf neuronalen Netzwerken, des maschinellen Sehens ermöglicht es, Gesichtsausdrücke und Körperbewegungen des Nutzers 2 und/oder der weiteren Insassen 4 des Fahrzeuges 1 zu klassifizieren und automatisch Emotionen zu erkennen und zu klassifizieren. Neben einer Analyse auf Basis visueller Daten können auch Sensoren im Sitz auf ruckartige, beispielsweise schreckhafte, Bewegungen hindeuten. Eine Analyse von Audiodaten kann auf ein Erkennen von Schreck- und/oder Stressmomenten des Nutzers 2 hinweisen. Des Weiteren können Vitalsensoren, zum Beispiel zur Detektion von Auffälligkeiten im EKG, in einer Herzratenvariabilität, in Bezug auf einen systolischen Blutdruck, eine Sauerstoffsättigung im Blut, eine Pupillengröße etc., genutzt werden, um das Wohlbefinden des Nutzers 2 und/oder des weiteren Insassen 4 des Fahrzeuges 1 zu quantisieren.In one embodiment of the method, an input can be expanded from a speech analysis to an emotion analysis, in particular taking voice tone and gestures into account. For example, emotion recognition of the user 2 can be carried out based on facial, speech and/or physical signals using a corresponding sensor system, in particular on the vehicle. For this purpose, for example, the
In Abhängigkeit der jeweils oben genannten Annäherung kann der Nutzer 2 des Fahrzeuges 1 auf seine Verhaltensänderung hingewiesen werden, insbesondere auf Wunsch, über mögliche Risiken einer solchen Sprachinteraktion hingewiesen werden, festlegen, inwiefern er zukünftig auf eine solche Annäherung aufmerksam gemacht werden möchte, festlegen, inwiefern er zukünftig in Abhängigkeit von geteilten gegebenenfalls persönlichen Inhalten aufmerksam gemacht werden möchte.Depending on the above-mentioned approach, the user 2 of the
Alternativ oder zusätzlich kann dem Nutzer 2 eine Verhaltensänderung zumindest vorgeschlagen werden.Alternatively or additionally, a change in behavior can at least be suggested to the user 2.
Hierzu kann beispielsweise während eines Gespräches, also während einer Sprachinteraktion diese analysiert und einem prototypischen Interaktionsverhalten zugeordnet und dem Nutzer 2 mitgeteilt werden, zum Beispiel wenn dieser mit seinem Vorgesetzten spricht, wie mit einem Kind oder mit einem Freund oder mit dem Sprachassistenzsystem 3. Der Nutzer 2 kann in einem solchen Fall gewarnt werden, so dass der Nutzer 2 noch während der Sprachinteraktion, also während des geführten Gespräches sein Verhalten angemessen anpassen kann.For this purpose, for example, during a conversation, i.e. during a voice interaction, this can be analyzed and assigned to a prototypical interaction behavior and communicated to the user 2, for example when the user speaks to his superior, such as with a child or with a friend, or with the
Alternativ oder zusätzlich kann eine Ausgabe des Sprachassistenzsystem 3 in dem Fahrzeug 1 angepasst werden.Alternatively or additionally, an output of the
So kann beispielsweise der Sprachassistent 3 derart parametrisiert werden, dass eine formalere Sprache oder eine maschinenhafte Sprache verwendet wird, wenn der Nutzer 2 eine zu menschliche Sprachinteraktion mit dem Sprachassistenzsystem 3 führt und somit die Gefahr besteht, dass der Nutzer 2 denkt, mit einem echten Menschen zu kommunizieren.For example, the
Alternativ oder zusätzlich kann der Sprachassistent 3 parametrisiert werden, dass eine natürlichere Sprache oder eine weniger maschinenhafte Sprache verwendet wird, wenn der Nutzer 2 eine zunehmend menschliche Sprachinteraktion mit dem Sprachassistenzsystem 3 führt und der Nutzer 2 eine emotionalere Bindung mit seinem Sprachassistenzsystem 3 im Fahrzeug 1 aufbauen soll, bei der er denkt mit einem echten Menschen zu kommunizieren.Alternatively or additionally, the
Auch kann der Sprachassistent 3 derart gesteuert werden, dass Inhalte und allgemeine Interaktionsmuster mehr Inhalten und allgemeinen Interaktionsmustern des Nutzers 2 mit Freunden ähnelt, indem Inhalte der Sprachinteraktion des Nutzers 2 mit einem Freund von dem Sprachassistent 3 über das Mikrofon 7 und die Steuereinheit 8 erfasst werden. Zum Beispiel unterhält sich der Nutzer 2 regelmäßig mit einem Freund über Fußball und Bier, so dass der Sprachassistent 3 diese Gesprächsinhalte ebenfalls nutzen kann und in einer Ausführung ein vorheriges Gespräch über diese Themen des Nutzer 2 fortsetzen kann und/oder Interaktionsmuster zwischen Nutzer 2 und Freund sowie Nutzer 2 und Sprachassistent 3 angenähert werden indem die Parametrisierung des Sprachassistenzsystem 3 dergestalt optimiert wird, dass Unterschiede zwischen dem Interaktionsmuster Nutzer 2 und Freund sowie Nutzer 2 und Sprachassistent 3 minimiert werden.The
BezugszeichenlisteReference symbol list
- 11
- Fahrzeugvehicle
- 22
- NutzerUser
- 33
- SprachassistenzsystemVoice assistance system
- 44
- Insasseinmate
- 55
- Personperson
- 66
- TelekommunikationsvorrichtungTelecommunication device
- 77
- Mikrofonmicrophone
- 88th
- Steuereinheit Control unit
- DD
- DistanzmaßDistance measure
- G1 bis G3G1 to G3
- Gruppegroup
- M1 bis MnM1 to Mn
- MerkmalswertFeature value
- PP
- PfeilArrow
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 20200279553 A1 [0002]US 20200279553 A1 [0002]
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023004448.2A DE102023004448A1 (en) | 2023-11-04 | 2023-11-04 | Method for determining a user's linguistic interaction with a language assistance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023004448.2A DE102023004448A1 (en) | 2023-11-04 | 2023-11-04 | Method for determining a user's linguistic interaction with a language assistance system |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023004448A1 true DE102023004448A1 (en) | 2024-01-11 |
Family
ID=89387014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023004448.2A Pending DE102023004448A1 (en) | 2023-11-04 | 2023-11-04 | Method for determining a user's linguistic interaction with a language assistance system |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023004448A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200279553A1 (en) | 2019-02-28 | 2020-09-03 | Microsoft Technology Licensing, Llc | Linguistic style matching agent |
-
2023
- 2023-11-04 DE DE102023004448.2A patent/DE102023004448A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200279553A1 (en) | 2019-02-28 | 2020-09-03 | Microsoft Technology Licensing, Llc | Linguistic style matching agent |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60124225T2 (en) | Method and device for detecting emotions | |
DE60215272T2 (en) | Method and apparatus for inputting linguistic data under unfavorable conditions | |
DE60313706T2 (en) | Speech recognition and response system, speech recognition and response program and associated recording medium | |
DE102005058227A1 (en) | Emotion-based software robot for automobiles | |
EP0987682B1 (en) | Method for adapting linguistic language models | |
DE4010028C2 (en) | Speech recognition method | |
DE102018219290B4 (en) | Method for teaching a personalized headlight device of a motor vehicle | |
DE102023004448A1 (en) | Method for determining a user's linguistic interaction with a language assistance system | |
DE102021003597A1 (en) | Method for influencing the behavior of at least one occupant in a vehicle | |
DE102018127105A1 (en) | Method and device for influencing a state of mind of a user of a vehicle | |
DE102020001536A1 (en) | Motor vehicle | |
DE102020131652A1 (en) | Agent device, agent system and computer readable storage medium | |
DE4012337A1 (en) | METHOD FOR RECOGNIZING LANGUAGE | |
DE102019206536A1 (en) | Method for configuring a personal assistance device, storage medium, device for electronic data processing, motor vehicle | |
DE102020201742A1 (en) | Selection of training data related to the sensor environment | |
DE112021006996T5 (en) | Adjustment device, adjustment system and adjustment method | |
DE102020100273A1 (en) | TAKEOVER REQUEST | |
DE102004011426B3 (en) | Device for detecting emotion in voice signal for man-machine interface has first function block using fixed processing script that is emotion recognition standard, second function block for supplying output from input using adapted script | |
DE102018210003A1 (en) | Method and device for teaching a machine learning model | |
DE102022001264A1 (en) | Method for outputting communication content adapted to occupants of a vehicle | |
DE102020107619B4 (en) | Method, device and computer program for speech recognition | |
DE102021131040B4 (en) | Method for at least partially automated driving of a motor vehicle and motor vehicle | |
DE102021006160A1 (en) | Procedure for recognizing a suitable interlocutor | |
DE102018221712B4 (en) | Method for operating an interactive information system for a vehicle, and a vehicle | |
DE102021002597A1 (en) | Method for determining a motor and / or cognitive state |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R230 | Request for early publication |