DE102023004448A1 - Method for determining a user's linguistic interaction with a language assistance system - Google Patents

Method for determining a user's linguistic interaction with a language assistance system Download PDF

Info

Publication number
DE102023004448A1
DE102023004448A1 DE102023004448.2A DE102023004448A DE102023004448A1 DE 102023004448 A1 DE102023004448 A1 DE 102023004448A1 DE 102023004448 A DE102023004448 A DE 102023004448A DE 102023004448 A1 DE102023004448 A1 DE 102023004448A1
Authority
DE
Germany
Prior art keywords
user
assistance system
interaction
voice
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023004448.2A
Other languages
German (de)
Inventor
Alexander Hanuschkin
Teresa Botschen
Dimitra Theofanou-Fuelbier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102023004448.2A priority Critical patent/DE102023004448A1/en
Publication of DE102023004448A1 publication Critical patent/DE102023004448A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Abstract

Die Erfindung betrifft ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers (2) mit einem Sprachassistenzsystem (3) in einem Fahrzeug (1), wobei der Nutzer (2) des Fahrzeuges (1) identifiziert wird. Erfindungsgemäß ist vorgesehen, dass- eine Sprachinteraktion des Nutzers (2) mit dem Sprachassistenzsystem (3), mit Insassen (4) des Fahrzeuges (1) und mit Personen (5) außerhalb des Fahrzeuges (1) über eine Telekommunikation analysiert und quantisiert wird,- die Insassen (4) und Personen (5) jeweils einer Gruppe (G1, G2) zugeordnet werden,- die Sprachinteraktionen für die jeweilige Gruppe (G1, G2) über die Zeit aufgezeichnet und ausgewertet werden, wobei Sprachinformationen der jeweiligen Gruppe (G1, G2) unter Verwendung ermittelter Merkmalswerte (M1 bis Mn) ausgewertet werden,- automatisch erkannt wird, wenn sich ein Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) einem Interaktionsmuster einer der Gruppen (G1, G2) annähert oder wenn sich ein Interaktionsmuster des Nutzers (2) mit einer der Gruppen (G1, G2) dem Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) annähert und- wenn eine solche Annäherung erkannt wird, der Nutzer (2) auf seine Verhaltensänderung hingewiesen wird.The invention relates to a method for determining a user's (2) linguistic interaction with a voice assistance system (3) in a vehicle (1), wherein the user (2) of the vehicle (1) is identified. According to the invention, a voice interaction of the user (2) with the voice assistance system (3), with occupants (4) of the vehicle (1) and with people (5) outside the vehicle (1) is analyzed and quantized via telecommunications, - the inmates (4) and people (5) are each assigned to a group (G1, G2), - the voice interactions for the respective group (G1, G2) are recorded and evaluated over time, with voice information of the respective group (G1, G2) are evaluated using determined feature values (M1 to Mn), - is automatically recognized when an interaction pattern of the user (2) with the voice assistance system (3) approaches an interaction pattern of one of the groups (G1, G2) or when an interaction pattern approaches of the user (2) with one of the groups (G1, G2) approaches the interaction pattern of the user (2) with the voice assistance system (3) and - if such an approach is recognized, the user (2) is informed of his change in behavior.

Description

Die Erfindung betrifft ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem in einem Fahrzeug, wobei der Nutzer des Fahrzeuges identifiziert wird.The invention relates to a method for determining a user's linguistic interaction with a voice assistance system in a vehicle, whereby the user of the vehicle is identified.

Aus der US 2020/0279553 A1 ist ein Verfahren zum Betrieb eines Konversationsagenten bekannt. Das Verfahren umfasst ein Empfangen einer Audioeingabe, welche eine Rede eines Benutzers darstellt; ein Erkennen eines Inhaltes der Rede; ein Bestimmen eines Stils der Rede; ein Erzeugen eines Antwortdialoges basierend auf dem Inhalt der Rede; und Modifizieren des Antwortdialoges basierend auf dem Stil der Rede.From the US 2020/0279553 A1 a method for operating a conversation agent is known. The method includes receiving an audio input representing speech from a user; a recognition of a content of the speech; determining a style of speech; generating a response dialog based on the content of the speech; and modifying the response dialogue based on the style of the speech.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem anzugeben.The invention is based on the object of specifying a method for determining a user's linguistic interaction with a language assistance system.

Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren, welches die in Anspruch 1 angegebenen Merkmale aufweist.The object is achieved according to the invention by a method which has the features specified in claim 1.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.Advantageous embodiments of the invention are the subject of the subclaims.

Ein Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem in einem Fahrzeug, wobei der Nutzer des Fahrzeuges identifiziert wird, sieht erfindungsgemäß vor, dass

  • - eine Sprachinteraktion des Nutzers mit dem Sprachassistenzsystem, mit Insassen des Fahrzeuges und mit Personen außerhalb des Fahrzeuges über eine Telekommunikation analysiert und quantisiert wird,
  • - die Insassen und Personen jeweils einer Gruppe zugeordnet werden,
  • - die Sprachinteraktionen für die jeweilige Gruppe über die Zeit aufgezeichnet und ausgewertet werden, wobei Sprachinformationen der jeweiligen Gruppe unter Verwendung ermittelter Merkmalswerte ausgewertet werden,
  • - automatisch erkannt wird, wenn sich ein Interaktionsmuster des Nutzers mit dem Sprachassistenzsystem einem Interaktionsmuster einer der Gruppen annähert oder wenn sich ein Interaktionsmuster des Nutzers mit einer der Gruppen dem Interaktionsmuster des Nutzers mit dem Sprachassistenzsystem annähert und
  • - wenn eine solche Annäherung erkannt wird, der Nutzer auf seine Verhaltensänderung hingewiesen wird.
According to the invention, a method for determining a user's linguistic interaction with a voice assistance system in a vehicle, whereby the user of the vehicle is identified, provides that
  • - a voice interaction of the user with the voice assistance system, with occupants of the vehicle and with people outside the vehicle is analyzed and quantized via telecommunications,
  • - the inmates and people are each assigned to a group,
  • - the speech interactions for the respective group are recorded and evaluated over time, with speech information of the respective group being evaluated using determined characteristic values,
  • - is automatically recognized when an interaction pattern of the user with the voice assistance system approaches an interaction pattern of one of the groups or when an interaction pattern of the user with one of the groups approaches the interaction pattern of the user with the voice assistance system and
  • - if such an approach is detected, the user is informed of his change in behavior.

Durch Anwendung des Verfahrens ist es möglich, eine emotionale Bindung zwischen dem Nutzer des Fahrzeuges und dem Fahrzeug, insbesondere dem Sprachassistenzsystem, herzustellen oder zu verhindern.By using the method, it is possible to create or prevent an emotional bond between the user of the vehicle and the vehicle, in particular the voice assistance system.

Mittels des Verfahrens kann ein Erlebnis und ein Wohlbefinden des Nutzers des Fahrzeuges in diesem anhand von digitalen Mitteln gesteigert werden. Das Verfahren dient einer Steigerung einer sogenannten digital luxury.Using the method, the experience and well-being of the user of the vehicle can be increased using digital means. The process serves to increase so-called digital luxury.

Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.Exemplary embodiments of the invention are explained in more detail below with reference to drawings.

Dabei zeigen:

  • 1 schematisch ein Fahrzeug mit einer Vorrichtung zur Durchführung eines Verfahrens zur Ermittlung eines sprachlichen Umganges eines Nutzers mit einem Sprachassistenzsystem,
  • 2 schematisch ein erstes Diagramm mit einer zweidimensionalen Darstellung einer Analyse von Sprachinteraktionen,
  • 3 schematisch ein zweites Diagramm mit einer zweidimensionalen Darstellung einer weiteren Aufteilung von Gesprächspartnern,
  • 4 schematisch ein drittes Diagramm mit überlappenden Gruppen in Bezug auf Sprachinteraktionen und
  • 5 schematisch ein viertes Diagramm mit einer Annäherung der Gruppen in Bezug auf Sprachinteraktionen.
Show:
  • 1 schematically a vehicle with a device for carrying out a method for determining a user's linguistic interaction with a language assistance system,
  • 2 schematically a first diagram with a two-dimensional representation of an analysis of language interactions,
  • 3 schematically a second diagram with a two-dimensional representation of a further division of interlocutors,
  • 4 schematically a third diagram with overlapping groups related to language interactions and
  • 5 schematically a fourth diagram with an approximation of the groups in terms of language interactions.

Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.Corresponding parts are provided with the same reference numbers in all figures.

1 zeigt ein Fahrzeug 1 mit einer Vorrichtung zur Durchführung eines Verfahrens zur Ermittlung eines sprachlichen Umganges eines Nutzers 2 mit einem Sprachassistenzsystem 3, wobei sich in dem Fahrzeug 1 ein weiterer Insasse 4 befindet. Zudem ist eine sich außerhalb des Fahrzeuges 1 befindende Person 5 als Gesprächspartner des Nutzers 2 dargestellt. 1 shows a vehicle 1 with a device for carrying out a method for determining a linguistic interaction of a user 2 with a voice assistance system 3, with another occupant 4 being located in the vehicle 1. In addition, a person 5 located outside the vehicle 1 is shown as the conversation partner of the user 2.

Die Vorrichtung umfasst das Sprachassistenzsystem 3, eine Telekommunikationsvorrichtung 6, mittels welcher der Nutzer 2 mit der Person 5 als Gesprächspartner außerhalb des Fahrzeuges 1 kommuniziert, zumindest ein Mikrofon 7 und eine mit dem Mikrofon 7 verbundene Steuereinheit 8.The device comprises the voice assistance system 3, a telecommunications device 6, by means of which the user 2 communicates with the person 5 as a conversation partner outside the vehicle 1, at least one microphone 7 and a control unit 8 connected to the microphone 7.

Innerhalb des Fahrzeuges 1 wird eine Kommunikation des Nutzers 2, also eines Fahrers des Fahrzeuges 1, mit dem Sprachassistenzsystem 3 und dem weiteren Insassen 4 sowie eine mittels der Telekommunikationsvorrichtung 6 durchgeführte Kommunikation des Nutzers 2 mit der Person 5 erfasst und mittels der Steuereinheit 8 ausgewertet und analysiert.Within the vehicle 1, communication between the user 2, i.e. a driver of the vehicle 1, with the voice assistance system 3 and the other occupant 4 as well as by means of the telecommunications device 6 is carried out Communication between the user 2 and the person 5 is recorded and evaluated and analyzed by the control unit 8.

Im Allgemeinen ist bekannt, dass digitale Sprachassistenzsysteme 3, welche insbesondere auf Sprachmodellen maschinellen Lernens basieren, ermöglichen eine Generation von Sprache und Dialogen mit einem Nutzer 2, wobei die Sprache und die Dialoge oftmals nur schwer als computergeneriert zu erkennen sind. Dadurch kann ein Problem entstehen, dass der Nutzer 2 ein Sprachassistenzsystem 3 vermenschlicht und dem Sprachassistenzsystem 3 beispielsweise Emotionen oder ein Bewusstsein zuspricht. Insbesondere kann das Problem entstehen, dass der Nutzer 2 eine Interaktion mit dem Sprachassistenzsystem 3 einer Interaktion mit einem realen Menschen, zum Beispiel mit dem weiteren Insassen 4 in dem Fahrzeug 1, vorzieht oder gar eine Interaktion mit diesem einstellt.In general, it is known that digital language assistance systems 3, which are based in particular on machine learning language models, enable a generation of language and dialogues with a user 2, whereby the language and dialogues are often difficult to recognize as computer-generated. This can create a problem that the user 2 humanizes a voice assistance system 3 and attributes emotions or consciousness to the voice assistance system 3, for example. In particular, the problem can arise that the user 2 prefers an interaction with the voice assistance system 3 to an interaction with a real person, for example with the other occupant 4 in the vehicle 1, or even stops interacting with him.

Im Folgenden wird ein mittels der Vorrichtung durchgeführtes Verfahren beschrieben, mittels dessen eine zunehmende vermenschlichte Wahrnehmung des Sprachassistenzsystem 3 durch den Nutzer 2 automatisch erkannt wird und eine angepasste Interaktionsteuerung des Nutzers 2 mit dem Sprachassistenzsystem 3 des Fahrzeuges 1 ermöglicht.A method carried out using the device is described below, by means of which an increasingly humanized perception of the voice assistance system 3 by the user 2 is automatically recognized and enables an adapted interaction control of the user 2 with the voice assistance system 3 of the vehicle 1.

Zunächst sieht das Verfahren vor, dass der Nutzer 2 in dem Fahrzeug 1, beispielsweise anhand einer Gesichtserkennung, einer persönlichen Identifikationsnummer, eines personalisierten Fahrzeugschlüssels etc. erkannt und identifiziert wird.First, the method provides that the user 2 is recognized and identified in the vehicle 1, for example using facial recognition, a personal identification number, a personalized vehicle key, etc.

Sprachinteraktionen des Nutzers 2 mit dem Sprachassistenzsystem 3, mit dem weiteren Insassen 4 des Fahrzeuges 1 und mit der Person 5, mit welcher der Nutzer 2 über die Telekommunikationsvorrichtung 6 kommuniziert, werden analysiert und quantisiert.Voice interactions of the user 2 with the voice assistance system 3, with the other occupant 4 of the vehicle 1 and with the person 5 with whom the user 2 communicates via the telecommunications device 6 are analyzed and quantized.

Insbesondere werden dabei ein Inhalt, eine Art und Weise einer mittels des Mikrofons 7 in dem Fahrzeug 1 aufgenommenen geführten Unterhaltung, eine Häufigkeit der Sprachinteraktionen, Metainformationen, wie beispielsweise Tageszeit, Wetter etc., als Sprachinteraktionen des Nutzers 2 mit dem Sprachassistenzsystem 3, dem weiteren Insassen 4 und/oder der Person 5 mittels der Steuereinheit 8 analysiert und quantisiert.In particular, a content, a manner of a guided conversation recorded by means of the microphone 7 in the vehicle 1, a frequency of voice interactions, meta information, such as time of day, weather, etc., as voice interactions of the user 2 with the voice assistance system 3, etc Inmates 4 and/or the person 5 are analyzed and quantized by means of the control unit 8.

Beispielsweise wird mittels statistischer Verfahren eine Kommunikation analysiert, wobei eine Wortwahl anhand verwendeter Wörter, Wortkombinationen, Redewendungen etc. ermittelt wird und ein Inhalt basierend auf angesprochenen Themenfeldern, einer Varianz zwischen Themenfeldern ermittelt wird. Insbesondere werden Themenfelder zu persönlichen Informationen, zu politischen und/oder religiösen und/oder philosophischen Themen erkannt. Auch können beziehungsweise kann ein arbeitsrechtliches Themenfeld, kartellrechtliche und andere rechtliche Themenfelder erkannt werden.For example, communication is analyzed using statistical methods, whereby a choice of words is determined based on words used, word combinations, phrases, etc. and content is determined based on the topic areas addressed and a variance between topic areas. In particular, subject areas relating to personal information, political and/or religious and/or philosophical topics are identified. A labor law subject area, antitrust law and other legal subject areas can also be identified.

Ein Gesprächsmuster der Sprachinteraktion kann mittels statistischer Verfahren in Bezug auf Redeanteile, Frage-Antwort-Schemata erkannt werden. Darüber hinaus ist es möglich, eine gleichmäßige Verteilung von Redeanteilen beteiligter Gesprächspartner zu erkennen.A conversational pattern of language interaction can be recognized using statistical methods in terms of speech proportions and question-answer schemes. In addition, it is possible to recognize an even distribution of the amount of speech by the conversation partners involved.

Mittels vortrainierter neuronaler Modelle zur maschinellen Sprachverarbeitung können die Sprachinteraktionen analysiert werden.Language interactions can be analyzed using pre-trained neural models for machine language processing.

Methoden, wie zum Beispiel Topic Modelling erlauben verschiedene Granularitäten einer Inhaltsanalyse geführter Dialoge. Beispielsweise kann ermittelt werden, über welche Themenbereiche (zum Beispiel Essen versus Relativitätstheorie gesprochen wird.Methods such as topic modeling allow various granularities of content analysis of guided dialogues. For example, it can be determined which topic areas (e.g. food versus relativity theory) are being discussed.

Mittels Methoden, wie beispielsweise Sentiment Analysis, können Dialoge mit einer darin transportierten Haltung und/oder Stimmung (Verbote versus bestärkende Botschaft) annotiert werden. So kann ermittelt werden, ob der Nutzer 2 eine positive oder eine negative Einstellung zu einem Thema aufweist und in welchem Tonfall der Nutzer 2 spricht.Using methods such as sentiment analysis, dialogues can be annotated with an attitude and/or mood conveyed in them (bans versus reinforcing messages). In this way, it can be determined whether the user 2 has a positive or negative attitude towards a topic and in which tone of voice the user 2 speaks.

Mittels Methoden, wie beispielsweise Style Klassifikation können Dialoge im Hinblick auf einen Stil einer Formulierung, beispielsweise bezogen auf Gedichte, bezogen auf argumentative Texte, bezogen auf Literatur, bezogen auf Dialoge etc., analysiert werden. Hierbei wird ermittelt, wie sich der sprechende Nutzer 2 ausdrückt, insbesondere ob dieser knappe Befehle oder komplexe Erklärungen gibt.Using methods such as style classification, dialogues can be analyzed with regard to a style of formulation, for example in relation to poems, in relation to argumentative texts, in relation to literature, in relation to dialogues, etc. This determines how the speaking user 2 expresses himself, in particular whether he gives brief commands or complex explanations.

Weiterhin können Methoden zur Klassifikation von Sprachmelodien des Nutzers 2 beim Ausführen einer Sprachinteraktion verwendet werden.Furthermore, methods for classifying speech melodies of the user 2 can be used when carrying out a speech interaction.

In einer Ausführung des Verfahrens können Gruppen für die Insassen 4 im Fahrzeug 1 und die Personen 5 als Gesprächspartner individuell erfasst werden. So kann beispielsweise eine Sprachinteraktion des Nutzers 2 mit seiner Mutter, von einer Sprachinteraktion des Nutzers 2 mit einem Finanzdienstleister abweichen. Ein jeweiliger Gesprächspartner wird einer Gruppe, zum Beispiel Familie oder einer Gruppe Finanzdienstleister, zugeordnet, so dass die Analysen der Sprachinteraktionen aggregiert werden können.In one embodiment of the method, groups for the occupants 4 in the vehicle 1 and the people 5 as conversation partners can be recorded individually. For example, a voice interaction between the user 2 and his mother may differ from a voice interaction between the user 2 and a financial service provider. Each conversation partner is assigned to a group, for example a family or a group of financial service providers, so that the analyzes of the voice interactions can be aggregated.

Insbesondere werden die Sprachinteraktionen für die jeweilige Gruppe über die Zeit, das heißt über eine bestimmte Zeitdauer, aufgezeichnet, ausgewertet und analysiert.In particular, the language interactions for the respective group are recorded, evaluated and analyzed over time, i.e. over a certain period of time.

Sprachinformationen einer jeweiligen, in den folgenden Figuren dargestellten Gruppe G1 bis G3, auch als Cluster bezeichnet, werden ausgewertet, wobei hierzu ermittelte Merkmalswerte M1 bis Mn zu weiteren oben beschriebenen Merkmalen, zum Beispiel dem Stil der Formulierung, Sprachmelodie etc., verwenden werden.Speech information from a respective group G1 to G3 shown in the following figures, also referred to as a cluster, is evaluated, with characteristic values M1 to Mn determined for this purpose being used for further features described above, for example the style of the formulation, speech melody, etc.

2 zeigt ein erstes Diagramm D1 mit einer zweidimensionalen Darstellung einer Analyse von Sprachinteraktionen des Nutzers 2 des Fahrzeuges 1. Insbesondere zeigt 2 eine anhand von zwei Merkmalswerten M1, M2 durchgeführte Kommunikationsanalyse für Sprachinteraktionen einer ersten Gruppe G1, insbesondere weiterer Insassen 4 des Fahrzeuges 1, einer zweiten Gruppe G2, insbesondere von Personen 5, mit denen der Nutzer 2 über die Telekommunikationsvorrichtung 6 kommuniziert, und für Sprachinterkationen des Nutzers 2 mit einer dritten Gruppe G3, insbesondere dem Sprachassistenzsystem 3. 2 shows a first diagram D1 with a two-dimensional representation of an analysis of voice interactions of the user 2 of the vehicle 1. In particular shows 2 a communication analysis carried out on the basis of two feature values M1, M2 for voice interactions of a first group G1, in particular other occupants 4 of the vehicle 1, a second group G2, in particular of people 5 with whom the user 2 communicates via the telecommunications device 6, and for voice interactions of the User 2 with a third group G3, in particular the voice assistance system 3.

3 zeigt ein zweites Diagramm D2, wobei die Granularität der Gruppen G1 bis G3 weiter gesteigert ist. Insbesondere ist die zweite Gruppe G2 der Personen, mit welchen der Nutzer 2 des Fahrzeuges 1 über die Telekommunikationsvorrichtung 6 kommuniziert differenziert, wie weiter oben anhand der Mutter und des Finanzdienstleisters erläutert wurde. 3 shows a second diagram D2, with the granularity of the groups G1 to G3 being further increased. In particular, the second group G2 of people with whom the user 2 of the vehicle 1 communicates via the telecommunications device 6 is differentiated, as explained above with reference to the mother and the financial service provider.

Gemäß dem in 2 gezeigten Ausführungsbeispiel ist die zweite Gruppe G2 in eine erste Untergruppe G2.1, insbesondere Geschäftspartner des Nutzers 2, und in eine zweite Untergruppe G2.2, insbesondere Freunde des Nutzers 2, unterteilt.According to the in 2 In the exemplary embodiment shown, the second group G2 is divided into a first subgroup G2.1, in particular business partners of the user 2, and into a second subgroup G2.2, in particular friends of the user 2.

In Bezug auf die Auswertung werden jeweilige Schwerpunkte beziehungsweise Mittelwerte von Gruppenelementen in einem von den Merkmalswerten M1 bis Mn aufgespannten Merkmalsraum ermittelt, um gleichsam prototypische Interaktionen für die jeweilige Gruppe G1 bis G3 zu erhalten.With regard to the evaluation, respective focal points or mean values of group elements are determined in a feature space spanned by the feature values M1 to Mn in order to obtain, as it were, prototypical interactions for the respective group G1 to G3.

Ein solcher Wert wird in einer initialen Phase bestimmt und in regelmäßigen zeitlichen Abständen neu ermittelt, so dass Änderungen und vor allem Annäherungen von prototypischen Interaktionsverhalten des Nutzers 2 zu weiteren Insassen 4 und/oder Personen 5 erkannt werden können.Such a value is determined in an initial phase and re-determined at regular time intervals, so that changes and, above all, approximations of prototypical interaction behavior of the user 2 to other occupants 4 and/or people 5 can be recognized.

Des Weiteren können einzelne Sprachinteraktionen des Nutzers 2, beispielsweise ein Gespräch mit seiner Schwiegermutter, analysiert werden und eine Ähnlichkeit oder Distanz zu einzelnen prototypischen Sprachinteraktionsverhalten ermittelt werden. Somit kann beispielsweise bestimmt werden, ob diese Sprachinteraktion mehr einem Gespräch mit einem Freund oder einer Maschine ähnelt.Furthermore, individual language interactions of the user 2, for example a conversation with his mother-in-law, can be analyzed and a similarity or distance to individual prototypical language interaction behavior can be determined. This makes it possible, for example, to determine whether this voice interaction is more like a conversation with a friend or a machine.

Hierzu wird ein in 2 gezeigtes Distanzmaß D, wie zum Beispiel eine sogenannte Manhattan-Distanz, beispielsweise in Form einer Mannheimer Metrik, einer Taxi- oder Cityblock-Metrik, eine euklidische Distanz oder eine Tschebyschew-Distanz oder dergleichen verwendet.For this purpose an in 2 distance measure D shown, such as a so-called Manhattan distance, for example in the form of a Mannheim metric, a taxi or city block metric, a Euclidean distance or a Chebyshev distance or the like.

Ferner kann eine automatische Bewertung von Gruppenunterschieden erfolgen, beispielsweise mittels eines Silhouette Score. Die Bewertung der Gruppenunterschiede wird mit Gruppenunterschieden weiterer nicht näher gezeigter Fahrzeuge einer gemeinsamen Fahrzeugflotte, beispielsweise eines Fahrzeugherstellers, verglichen werden, insbesondere wenn ein Wert der Bewertung über die Fahrzeuge 1 der Fahrzeugflotte in einem datentechnisch mit den jeweiligen Fahrzeugen 1 der Fahrzeugflotte verbundenen zentralen Rechnereinheit aggregiert sind.Furthermore, group differences can be automatically evaluated, for example using a silhouette score. The evaluation of the group differences will be compared with group differences of other vehicles, not shown in detail, of a common vehicle fleet, for example a vehicle manufacturer, in particular if a value of the evaluation is aggregated across the vehicles 1 of the vehicle fleet in a central computer unit connected in terms of data to the respective vehicles 1 of the vehicle fleet .

Zudem können Gruppenunterschiede oder Clusterunterschiede beziehungsweise das Distanzmaß D neben einem Repräsentieren der Gruppen G1 bis G3 durch prototypische Sprachinteraktionen auch mittels aus der Literatur bekannter Metriken, zum Beispiel single linkage, average linkage, complete linkage über jeweilige einzelne Gruppenbeispiele ermittelt werden.In addition, group differences or cluster differences or the distance measure D can be determined, in addition to representing groups G1 to G3 through prototypical language interactions, using metrics known from the literature, for example single linkage, average linkage, complete linkage, using individual group examples.

Zusätzlich oder alternativ kann ein überwachter-Lernen-Ansatz des maschinellen Lernens verwendet werden, um ein Modell basierend auf Beispieldaten der jeweiligen Merkmalswerte M1 bis Mn vorheriger Sprachinteraktionen zur Klassifikation der bekannten Gruppe oder eines Zielwertes einer Gruppenzugehörigkeit zu trainieren. Ein solches nutzerindividuelles Modell kann nach dem Trainieren, insbesondere nach einer ersten Phase, in einer zweiten Phase zur Interferenz beziehungsweise Vorhersage verwendet werden, wobei mittels des neuen Modells eine neue Sprachinteraktion eine Klassen- beziehungsweise Gruppenzugehörigkeit vorhergesagt wird.Additionally or alternatively, a supervised learning machine learning approach may be used to train a model based on sample data of the respective feature values M1 to Mn of previous speech interactions to classify the known group or a target group membership value. After training, in particular after a first phase, such a user-specific model can be used in a second phase for interference or prediction, with the new model being used to predict a new language interaction and class or group membership.

Daraufhin erfolgt ein automatisches Erkennen einer Annäherung eines Interaktionsmusters zwischen dem Nutzer 2 und dem Sprachassistenzsystem 3 mit einem Interaktionsmuster zwischen dem Nutzer 2 und dem weiteren Insassen 4 und/oder der Person 5. Insbesondere wird eine solche Annäherung automatisch erkannt, wenn der Nutzer 2 so mit einem realen Insassen 4 und/oder einer realen Person 5 spricht, wie mit dem Sprachassistenzsystem 3. Hierbei besteht eine Gefahr, dass der Nutzer 2 den Sprachassistenzsystem 3 vermenschlicht.An approach of an interaction pattern between the user 2 and the voice assistance system 3 is then automatically recognized with an interaction pattern between the user 2 and the other occupant 4 and/or the person 5. In particular, such an approach is automatically recognized if the user 2 does so a real occupant 4 and/or a real person 5 speaks, such as with the voice assistance system 3. There is a risk here that the user 2 humanizes the voice assistance system 3.

Darüber hinaus erfolgt ein automatisches Erkennen, wenn sich das Interaktionsmuster zwischen dem Nutzer 2 und dem weiteren Insassen 4 und/oder der Person 5 dem Interaktionsmuster zwischen dem Nutzer 2 und dem Sprachassistenzsystem 3 annähert, das heißt, wenn der Nutzer 2 so mit einem Menschen spricht, wie mit dem Sprachassistenzsystem 3. Hierbei besteht eine Gefahr, dass der Nutzer 2 mit Menschen spricht, wie mit einem emotionslosen Sprachassistenzsystem 3. Eine solche Annäherung ist mittels Pfeilen P in 5 gezeigt.In addition, automatic recognition occurs when the interaction pattern between the user 2 and the other occupant 4 and/or the person 5 approaches the interaction pattern between the user 2 and the voice assistance system 3, that is, when the user 2 speaks to a human in this way , as with the voice assistance system 3. There is a risk here that the user 2 will speak to people, as with an emotionless voice assistance system 3. Such an approach is possible using arrows P in 5 shown.

4 zeigt ein gegebenenfalls problematisches Nutzerverhalten, wobei sich die Gruppen G1 bis G3 überlappen. 4 shows potentially problematic user behavior, with groups G1 to G3 overlapping.

5 zeigt das gegebenenfalls problematische Nutzerverhalten anhand der mittels der Pfeile P dargestellten Annäherung zumindest einer der Gruppen G1, G2 an die Sprachinteraktionen des Nutzers 2 mit dem Sprachassistenzsystem 3 über die Zeit. 5 shows the possibly problematic user behavior based on the approximation of at least one of the groups G1, G2 to the voice interactions of the user 2 with the voice assistance system 3 over time, shown by the arrows P.

In einer Ausführung des Verfahrens kann eine Eingabe von einer Sprachanalyse auf eine Emotionsanalyse, insbesondere unter Berücksichtigung von Stimmlage und Gestik erweitert werden. Beispielsweise kann eine Emotionserkennung des Nutzers 2 anhand von Gesichts-, Sprach- und/oder Physiosignalen mittels einer entsprechenden, insbesondere fahrzeugseitigen, Sensorik erfolgen. Hierzu analysiert, beispielsweise die Steuereinheit 8, Bilddaten von einer Innenraumkamera oder mehreren Innenraumkameras und/oder erfasste Daten von fahrzeugseitig verbauten Vitalsensoren in Echtzeit. Ein Ansatz, zum Beispiel basierend auf neuronalen Netzwerken, des maschinellen Sehens ermöglicht es, Gesichtsausdrücke und Körperbewegungen des Nutzers 2 und/oder der weiteren Insassen 4 des Fahrzeuges 1 zu klassifizieren und automatisch Emotionen zu erkennen und zu klassifizieren. Neben einer Analyse auf Basis visueller Daten können auch Sensoren im Sitz auf ruckartige, beispielsweise schreckhafte, Bewegungen hindeuten. Eine Analyse von Audiodaten kann auf ein Erkennen von Schreck- und/oder Stressmomenten des Nutzers 2 hinweisen. Des Weiteren können Vitalsensoren, zum Beispiel zur Detektion von Auffälligkeiten im EKG, in einer Herzratenvariabilität, in Bezug auf einen systolischen Blutdruck, eine Sauerstoffsättigung im Blut, eine Pupillengröße etc., genutzt werden, um das Wohlbefinden des Nutzers 2 und/oder des weiteren Insassen 4 des Fahrzeuges 1 zu quantisieren.In one embodiment of the method, an input can be expanded from a speech analysis to an emotion analysis, in particular taking voice tone and gestures into account. For example, emotion recognition of the user 2 can be carried out based on facial, speech and/or physical signals using a corresponding sensor system, in particular on the vehicle. For this purpose, for example, the control unit 8 analyzes image data from an interior camera or several interior cameras and/or recorded data from vital sensors installed on the vehicle in real time. An approach, for example based on neural networks, of machine vision makes it possible to classify facial expressions and body movements of the user 2 and/or the other occupants 4 of the vehicle 1 and to automatically recognize and classify emotions. In addition to an analysis based on visual data, sensors in the seat can also indicate jerky, for example startling, movements. An analysis of audio data can indicate the recognition of moments of shock and/or stress by the user 2. Furthermore, vital sensors can be used, for example to detect abnormalities in the ECG, in heart rate variability, in relation to systolic blood pressure, oxygen saturation in the blood, pupil size, etc., to monitor the well-being of the user 2 and/or the other occupant 4 of vehicle 1 to quantize.

In Abhängigkeit der jeweils oben genannten Annäherung kann der Nutzer 2 des Fahrzeuges 1 auf seine Verhaltensänderung hingewiesen werden, insbesondere auf Wunsch, über mögliche Risiken einer solchen Sprachinteraktion hingewiesen werden, festlegen, inwiefern er zukünftig auf eine solche Annäherung aufmerksam gemacht werden möchte, festlegen, inwiefern er zukünftig in Abhängigkeit von geteilten gegebenenfalls persönlichen Inhalten aufmerksam gemacht werden möchte.Depending on the above-mentioned approach, the user 2 of the vehicle 1 can be made aware of his change in behavior, in particular, upon request, be made aware of possible risks of such a voice interaction, determine to what extent he would like to be made aware of such an approach in the future, determine to what extent he would like to be made aware in the future depending on shared, possibly personal content.

Alternativ oder zusätzlich kann dem Nutzer 2 eine Verhaltensänderung zumindest vorgeschlagen werden.Alternatively or additionally, a change in behavior can at least be suggested to the user 2.

Hierzu kann beispielsweise während eines Gespräches, also während einer Sprachinteraktion diese analysiert und einem prototypischen Interaktionsverhalten zugeordnet und dem Nutzer 2 mitgeteilt werden, zum Beispiel wenn dieser mit seinem Vorgesetzten spricht, wie mit einem Kind oder mit einem Freund oder mit dem Sprachassistenzsystem 3. Der Nutzer 2 kann in einem solchen Fall gewarnt werden, so dass der Nutzer 2 noch während der Sprachinteraktion, also während des geführten Gespräches sein Verhalten angemessen anpassen kann.For this purpose, for example, during a conversation, i.e. during a voice interaction, this can be analyzed and assigned to a prototypical interaction behavior and communicated to the user 2, for example when the user speaks to his superior, such as with a child or with a friend, or with the voice assistance system 3. The user 2 can be warned in such a case so that the user 2 can adapt his behavior appropriately during the voice interaction, i.e. during the conversation.

Alternativ oder zusätzlich kann eine Ausgabe des Sprachassistenzsystem 3 in dem Fahrzeug 1 angepasst werden.Alternatively or additionally, an output of the voice assistance system 3 in the vehicle 1 can be adjusted.

So kann beispielsweise der Sprachassistent 3 derart parametrisiert werden, dass eine formalere Sprache oder eine maschinenhafte Sprache verwendet wird, wenn der Nutzer 2 eine zu menschliche Sprachinteraktion mit dem Sprachassistenzsystem 3 führt und somit die Gefahr besteht, dass der Nutzer 2 denkt, mit einem echten Menschen zu kommunizieren.For example, the voice assistant 3 can be parameterized in such a way that a more formal language or a machine-like language is used if the user 2 has a voice interaction with the voice assistance system 3 that is too human and there is thus a risk that the user 2 thinks with a real person to communicate.

Alternativ oder zusätzlich kann der Sprachassistent 3 parametrisiert werden, dass eine natürlichere Sprache oder eine weniger maschinenhafte Sprache verwendet wird, wenn der Nutzer 2 eine zunehmend menschliche Sprachinteraktion mit dem Sprachassistenzsystem 3 führt und der Nutzer 2 eine emotionalere Bindung mit seinem Sprachassistenzsystem 3 im Fahrzeug 1 aufbauen soll, bei der er denkt mit einem echten Menschen zu kommunizieren.Alternatively or additionally, the voice assistant 3 can be parameterized so that a more natural language or a less machine-like language is used when the user 2 has an increasingly human voice interaction with the voice assistance system 3 and the user 2 builds a more emotional connection with his voice assistance system 3 in the vehicle 1 where he thinks he is communicating with a real person.

Auch kann der Sprachassistent 3 derart gesteuert werden, dass Inhalte und allgemeine Interaktionsmuster mehr Inhalten und allgemeinen Interaktionsmustern des Nutzers 2 mit Freunden ähnelt, indem Inhalte der Sprachinteraktion des Nutzers 2 mit einem Freund von dem Sprachassistent 3 über das Mikrofon 7 und die Steuereinheit 8 erfasst werden. Zum Beispiel unterhält sich der Nutzer 2 regelmäßig mit einem Freund über Fußball und Bier, so dass der Sprachassistent 3 diese Gesprächsinhalte ebenfalls nutzen kann und in einer Ausführung ein vorheriges Gespräch über diese Themen des Nutzer 2 fortsetzen kann und/oder Interaktionsmuster zwischen Nutzer 2 und Freund sowie Nutzer 2 und Sprachassistent 3 angenähert werden indem die Parametrisierung des Sprachassistenzsystem 3 dergestalt optimiert wird, dass Unterschiede zwischen dem Interaktionsmuster Nutzer 2 und Freund sowie Nutzer 2 und Sprachassistent 3 minimiert werden.The voice assistant 3 can also be controlled in such a way that content and general interaction patterns are more similar to the content and general interaction patterns of the user 2 with friends, in that content of the voice interaction of the user 2 with a friend is captured by the voice assistant 3 via the microphone 7 and the control unit 8 . For example, the user 2 regularly talks to a friend about football and beer, so that the voice assistant 3 can also use this conversation content and in one embodiment can continue a previous conversation about these topics of the user 2 and / or interaction patterns between User 2 and friend as well as user 2 and voice assistant 3 can be approximated by optimizing the parameterization of the voice assistance system 3 in such a way that differences between the interaction pattern user 2 and friend as well as user 2 and voice assistant 3 are minimized.

BezugszeichenlisteReference symbol list

11
Fahrzeugvehicle
22
NutzerUser
33
SprachassistenzsystemVoice assistance system
44
Insasseinmate
55
Personperson
66
TelekommunikationsvorrichtungTelecommunication device
77
Mikrofonmicrophone
88th
Steuereinheit Control unit
DD
DistanzmaßDistance measure
G1 bis G3G1 to G3
Gruppegroup
M1 bis MnM1 to Mn
MerkmalswertFeature value
PP
PfeilArrow

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 20200279553 A1 [0002]US 20200279553 A1 [0002]

Claims (3)

Verfahren zur Ermittlung eines sprachlichen Umganges eines Nutzers (2) mit einem Sprachassistenzsystem (3) in einem Fahrzeug (1), wobei der Nutzer (2) des Fahrzeuges (1) identifiziert wird, dadurch gekennzeichnet, dass - eine Sprachinteraktion des Nutzers (2) mit dem Sprachassistenzsystem (3), mit Insassen (4) des Fahrzeuges (1) und mit Personen (5) außerhalb des Fahrzeuges (1) über eine Telekommunikation analysiert und quantisiert wird, - die Insassen (4) und Personen (5) jeweils einer Gruppe (G1, G2) zugeordnet werden, - die Sprachinteraktionen für die jeweilige Gruppe (G1, G2) über die Zeit aufgezeichnet und ausgewertet werden, wobei Sprachinformationen der jeweiligen Gruppe (G1, G2) unter Verwendung ermittelter Merkmalswerte (M1 bis Mn) ausgewertet werden, - automatisch erkannt wird, wenn sich ein Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) einem Interaktionsmuster einer der Gruppen (G1, G2) annähert oder wenn sich ein Interaktionsmuster des Nutzers (2) mit einer der Gruppen (G1, G2) dem Interaktionsmuster des Nutzers (2) mit dem Sprachassistenzsystem (3) annähert und - wenn eine solche Annäherung erkannt wird, der Nutzer (2) auf seine Verhaltensänderung hingewiesen wird.Method for determining the linguistic interaction of a user (2) with a voice assistance system (3) in a vehicle (1), wherein the user (2) of the vehicle (1) is identified, characterized in that - a voice interaction of the user (2) is analyzed and quantized via telecommunication with the voice assistance system (3), with occupants (4) of the vehicle (1) and with people (5) outside the vehicle (1), - the occupants (4) and people (5) one each Group (G1, G2) are assigned, - the speech interactions for the respective group (G1, G2) are recorded and evaluated over time, with speech information of the respective group (G1, G2) being evaluated using determined characteristic values (M1 to Mn). , - is automatically recognized when an interaction pattern of the user (2) with the voice assistance system (3) approaches an interaction pattern of one of the groups (G1, G2) or when an interaction pattern of the user (2) approaches one of the groups (G1, G2 ) approximates the interaction pattern of the user (2) with the voice assistance system (3) and - if such an approach is recognized, the user (2) is informed of his change in behavior. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass in Abhängigkeit der erkannten Annäherung der Interaktionsmuster eine Sprache des Sprachassistenzsystem (3) geändert wird.Procedure according to Claim 1 , characterized in that a language of the language assistance system (3) is changed depending on the recognized approximation of the interaction patterns. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch den Nutzer (2) festgelegt wird, inwiefern er auf seine Verhaltensänderung aufmerksam gemacht wird.Procedure according to Claim 1 or 2 , characterized in that the user (2) determines to what extent he will be made aware of his change in behavior.
DE102023004448.2A 2023-11-04 2023-11-04 Method for determining a user's linguistic interaction with a language assistance system Pending DE102023004448A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102023004448.2A DE102023004448A1 (en) 2023-11-04 2023-11-04 Method for determining a user's linguistic interaction with a language assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102023004448.2A DE102023004448A1 (en) 2023-11-04 2023-11-04 Method for determining a user's linguistic interaction with a language assistance system

Publications (1)

Publication Number Publication Date
DE102023004448A1 true DE102023004448A1 (en) 2024-01-11

Family

ID=89387014

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023004448.2A Pending DE102023004448A1 (en) 2023-11-04 2023-11-04 Method for determining a user's linguistic interaction with a language assistance system

Country Status (1)

Country Link
DE (1) DE102023004448A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200279553A1 (en) 2019-02-28 2020-09-03 Microsoft Technology Licensing, Llc Linguistic style matching agent

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200279553A1 (en) 2019-02-28 2020-09-03 Microsoft Technology Licensing, Llc Linguistic style matching agent

Similar Documents

Publication Publication Date Title
DE60124225T2 (en) Method and device for detecting emotions
DE60215272T2 (en) Method and apparatus for inputting linguistic data under unfavorable conditions
DE60313706T2 (en) Speech recognition and response system, speech recognition and response program and associated recording medium
DE102005058227A1 (en) Emotion-based software robot for automobiles
EP0987682B1 (en) Method for adapting linguistic language models
DE4010028C2 (en) Speech recognition method
DE102018219290B4 (en) Method for teaching a personalized headlight device of a motor vehicle
DE102023004448A1 (en) Method for determining a user's linguistic interaction with a language assistance system
DE102021003597A1 (en) Method for influencing the behavior of at least one occupant in a vehicle
DE102018127105A1 (en) Method and device for influencing a state of mind of a user of a vehicle
DE102020001536A1 (en) Motor vehicle
DE102020131652A1 (en) Agent device, agent system and computer readable storage medium
DE4012337A1 (en) METHOD FOR RECOGNIZING LANGUAGE
DE102019206536A1 (en) Method for configuring a personal assistance device, storage medium, device for electronic data processing, motor vehicle
DE102020201742A1 (en) Selection of training data related to the sensor environment
DE112021006996T5 (en) Adjustment device, adjustment system and adjustment method
DE102020100273A1 (en) TAKEOVER REQUEST
DE102004011426B3 (en) Device for detecting emotion in voice signal for man-machine interface has first function block using fixed processing script that is emotion recognition standard, second function block for supplying output from input using adapted script
DE102018210003A1 (en) Method and device for teaching a machine learning model
DE102022001264A1 (en) Method for outputting communication content adapted to occupants of a vehicle
DE102020107619B4 (en) Method, device and computer program for speech recognition
DE102021131040B4 (en) Method for at least partially automated driving of a motor vehicle and motor vehicle
DE102021006160A1 (en) Procedure for recognizing a suitable interlocutor
DE102018221712B4 (en) Method for operating an interactive information system for a vehicle, and a vehicle
DE102021002597A1 (en) Method for determining a motor and / or cognitive state

Legal Events

Date Code Title Description
R230 Request for early publication