DE102022000387A1 - Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen - Google Patents

Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen Download PDF

Info

Publication number
DE102022000387A1
DE102022000387A1 DE102022000387.2A DE102022000387A DE102022000387A1 DE 102022000387 A1 DE102022000387 A1 DE 102022000387A1 DE 102022000387 A DE102022000387 A DE 102022000387A DE 102022000387 A1 DE102022000387 A1 DE 102022000387A1
Authority
DE
Germany
Prior art keywords
vehicle
iii
function
graphic
neutral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102022000387.2A
Other languages
English (en)
Inventor
Bianca Mix
Florian Staib
Fabian Schöller
Stephan Arenswald
Tobias Blankenhorn
Edith Kuhn
Philip Rambowski
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercedes Benz Group AG filed Critical Mercedes Benz Group AG
Priority to DE102022000387.2A priority Critical patent/DE102022000387A1/de
Priority to PCT/EP2023/051811 priority patent/WO2023148063A1/de
Priority to EP23702291.8A priority patent/EP4244847A1/de
Publication of DE102022000387A1 publication Critical patent/DE102022000387A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/193Formal grammars, e.g. finite state automata, context free grammars or word networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Verarbeitung von Spracheingaben, über welche in einem Fahrzeug Fahrzeugfunktion (I, II, III) gesteuert werden, mit einer Spracherkennung, und mit wenigstens einer der Fahrzeugfunktionen (I, II, III) zugeordneten Grafik, welche auf einem Bildschirm (7) des Fahrzeugs angezeigt wird. Das erfindungsgemäße Verfahren ist dadurch gekennzeichnet, dass auf dem Bildschirm (7) mehrere Grafiken angezeigt werden, welche verschiedenen mittels der Spracheingabe steuerbaren Fahrzeugfunktionen (I, II, III) zugeordnet sind, wobei diejenige Grafik einer auf einen neutralen Kurzbefehl (8) direkt reagierenden Fahrzeugfunktion (I) gegenüber den Grafiken der anderen Fahrzeugfunktionen (I, II, III) unterscheidbar gekennzeichnet wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Verarbeitung von Spracheingaben, über welche in einem Fahrzeug Fahrzeugfunktionen gesteuert werden, nach der im Oberbegriff von Anspruch 1 näher definierten Art. Außerdem betrifft die Erfindung eine Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen mit wenigstens einem Mikrofon und einem Bildschirm.
  • Ein Bediensystem für ein Fahrzeug ist grundlegend aus der DE 103 60 655 A1 bekannt. Das dort beschriebene Bediensystem umfasst eine Anzeige zur Darstellung von Einträgen in einer Menüstruktur. Die Einträge in der Menüstruktur können über eine Sprachsteuerung aktiviert werden, wobei mindestens ein Eintrag aus der Menüstruktur gleichzeitig ein Schlüsselwort für die Sprachsteuerung ausbildet.
  • Zunehmend lassen sich Fahrzeugfunktionen in einem Fahrzeug über eine Sprachsteuerung bedienen. Im Falle der genannten Offenlegungsschrift ist es nun so, dass die Befehle durch Schlagworte innerhalb des Menüs gebildet werden, sodass auf dem Bildschirm quasi erkannt werden kann, über welchen Befehl welche Fahrzeugfunktion aktiviert werden kann.
  • Daneben ist es aus dem Bereich der Sprachsteuerung grundsätzlich bekannt, verschiedene Fahrzeugfunktionen über die Sprache zu steuern. Dabei muss man im Wesentlichen zwischen zwei unterschiedlichen Befehlsarten unterscheiden. Das eine der im Rahmen dieser Offenbarung als eindeutiger Befehl bezeichnete Befehl, welcher durch die Struktur des Befehls erkennen lässt, welche Funktion angesteuert werden soll. So wird beispielsweise durch die Befehlsworte „Navigiere zu“ eindeutig eine Fahrzeugfunktion im Bereich des Navigationssystems angesprochen, beispielsweise eine Adresseingabe mit anschließender Navigation zu dieser Adresse. Bei einem eingehenden Telefonanruf wäre ein eindeutiger Befehl beispielsweise „Anruf annehmen“ oder „Anruf ablehnen“. Der Befehl selbst lässt sich also eindeutig einer bestimmten Fahrzeugfunktion zuordnen.
  • Daneben gibt es den im Rahmen dieser Offenbarung als neutralen Kurzbefehl bezeichneten Befehl, welcher mehrdeutig ist. Der neutrale Kurzbefehl wird dabei häufig nur durch ein Wort gebildet, z.B. in der deutschen oder auch der englischen Sprache. So kann beispielsweise über den Befehl „starten“ sowohl das Starten eines Navigationssystems, das Starten einer bestimmten Wiedergabeliste im Mediensystem, das Aktivieren der Sitzheizung, das Aktivieren einer Beleuchtung oder gegebenenfalls auch das Annehmen eines Anrufs oder dergleichen gemeint sein. Stehen verschiedene Fahrzeugfunktionen zur Verfügung, kann über einen solchen neutralen Kurzbefehl aufgrund seines mehrdeutigen Charakters also nicht exakt definiert werden, welche Fahrzeugfunktion über den Sprachbefehl tatsächlich gestartet werden soll. Liegen verschiedene Fahrzeugfunktionen vor, welche über den neutralen Kurzbefehl aktiviert werden können, können diese beispielsweise sequentiell nacheinander abgearbeitet werden. Für einen Nutzer ist dies jedoch weder sonderlich komfortabel und kann im Zweifel dazu führen, dass der tatsächlich gewünschte Befehl verzögert abgearbeitet wird und das gegebenenfalls Fahrzeugfunktionen gestartet werden, welche nach Wunsch der das Fahrzeug nutzenden Person eigentlich nicht hätten gestartet werden sollen.
  • Die Aufgabe der hier vorliegenden Erfindung besteht deshalb darin, ein verbessertes Verfahren im Sinne des Oberbegriffs des Anspruchs 1 anzugeben, welches eine effiziente und zielgerichtete Abarbeitung von Sprachbefehlen zur Steuerung von Fahrzeugfunktionen auch bei der Verwendung neutraler Kurzbefehle ermöglicht. Außerdem ist es die Aufgabe der hier vorliegenden Erfindung, eine zur Durchführung dieses Verfahrens geeignete Bedieneinrichtung anzugeben.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren mit den Merkmalen im Anspruch 1, und hier insbesondere im kennzeichnenden Teil des Anspruchs 1, gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich dabei aus den hiervon abhängigen Unteransprüchen. Eine Bedieneinrichtung zur Lösung der Aufgabe ist im Anspruch 10 angegeben.
  • Das erfindungsgemäße Verfahren zur Verarbeitung von Spracheingaben, über welche in einem Fahrzeug Fahrzeugfunktionen gesteuert werden, umfasst dabei eine Spracherkennung und wenigstens eine einer der Fahrzeugfunktionen zugeordnete Grafik, welche auf einem Bildschirm des Fahrzeugs angezeigt wird. Verschiedene Fahrzeugfunktionen, welche zum aktuellen Zeitpunkt für eine Aktivierung per Sprache zur Verfügung stehen, können also auf einem Bildschirm angezeigt werden, beispielsweise in der Art von nebeneinander angeordneten Kacheln oder anderweitigen Einträgen. Erfindungsgemäß ist es nun so, dass auf dem Bildschirm eine der Grafiken unterscheidbar gekennzeichnet wird. Dies ist die Grafik, welche auf einen neutralen Kurzbefehl, wie beispielsweise das Wort „starten“ oder „starte“ direkt vorzugsweise ohne Nennung eines Schlüsselwortes reagiert, wobei die anderen durch die weiteren Grafiken symbolisierten Fahrzeugfunktionen auf einen solchen neutralen Kurzbefehl, welcher im Prinzip auch für diese Fahrzeugfunktionen zum Aktivieren geeignet wäre, eben nicht direkt reagieren. Die unterscheidbare Kennzeichnung derjenigen Grafik, welcher der Fahrzeugfunktion zugeordnet ist, welche auf den neutralen Kurzbefehl direkt reagiert, ermöglicht es also, einer das Fahrzeug nutzenden Person über einen schnellen Blick auf den Bildschirm zu erkennen, welche der Fahrzeugfunktionen aktuell durch den neutralen Kurzbefehl unmittelbar angesteuert werden kann.
  • In einer sehr vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens ist es dabei vorgesehen, dass die auf den neutralen Kurzbefehl reagierende Fahrzeugfunktion gemäß einer Prioritätenliste bestimmt wird. Eine solche Prioritätenliste kann beispielsweise anhand der empirischen Erfahrung der Softwareentwickler für das Fahrzeug erstellt werden. Sie kann beispielsweise eine Priorisierung unterschiedlicher zu diesem Zeitpunkt im Fahrzeug verfügbarer Fahrzeugfunktionen enthalten, bei welcher anhand der Erfahrung oder Erwartung der die Prioritätenliste erstellenden Personen bestimmte Funktionen, wie beispielsweise kurz nach dem Starten des Fahrzeugs bei kalten Umgebungstemperaturen das Aktivieren der Sitzheizung, entsprechend hoch priorisiert sind.
  • Ergänzend oder insbesondere alternativ und auf einer solchen vorgegebenen Prioritätenliste basierend kann die auf den neutralen Kurzbefehl reagierende Fahrzeugfunktion mittels eines mit historischen Daten trainierten Modells anhand ihrer Relevanz für eine das Fahrzeug nutzende Person bestimmt werden. Dabei kann beispielsweise eine das Fahrzeug sehr häufig nutzende Person, welche zu bestimmten Situationen immer wieder bestimmte Fahrzeugfunktionen aufgerufen hat, entsprechend berücksichtigt werden, um in einer ähnlichen Situation die in einer solchen Situation besonders häufig aufgerufene Fahrzeugfunktion mit der höchsten Priorität zu versehen und dementsprechend zu der gegenzeichneten Funktion zu machen, welche auf den neutralen Kurzbefehl unmittelbar reagiert. Solche mit historischen Daten trainierten Modelle können dabei auf Methoden des adaptiven Lernens oder insbesondere auch die Nutzung von künstlicher Intelligenz bzw. neuronalen Netzen basieren.
  • Wie bereits erwähnt lässt sich die auf den neutralen Kurzbefehl reagierende Fahrzeugfunktion dabei insbesondere ergänzend in Abhängigkeit des Fahrzeugkontexts bestimmen, also beispielsweise der Tageszeit, der Jahreszeit, der Umgebungstemperatur, der Umgebungshelligkeit, der Fahrsituation oder auch einer über die Umfeldsensorik des Fahrzeugs erfassten konkreten Umgebungssituation.
  • Eine weitere Möglichkeit, die auf den neutralen Kurzbefehl reagierende Fahrzeugfunktion zu bestimmen, kann es auch sein, dass diese in Abhängigkeit der das Fahrzeug nutzenden Person bestimmt wird. So kann beispielsweise in ein Profil für die entsprechende Person, welche beispielsweise durch einen individuell zugeordneten Fahrzeugschlüssel, ein ihr zugeordnetes mobiles Endgerät, wie beispielsweise ein Smartphone oder dergleichen, erkannt wird, aufgerufen werden. Ist diese Person die das Fahrzeug nutzende, insbesondere die das Fahrzeug steuernde Person, dann kann beispielsweise eine Priorisierung der über den neutralen Kurzbefehl direkt aufrufbaren Fahrzeugfunktionen anhand einer in dem Profil dieser Person hinterlegten Prioritätenliste oder der von ihr individuell eingestellten und gespeicherten Wünsche vorgenommen werden.
  • Darüber hinaus ist es so, dass gemäß einer außerordentlich günstigen Weiterbildung des erfindungsgemäßen Verfahrens für den Fall, dass mittels einer Spracheingabe mit einem eindeutigen Befehl, welcher also die direkte oder mittelbare Nennung der Fahrzeugfunktion umfasst, unabhängig von der Anzeige auf dem Bildschirm die über den eindeutigen Befehl genannte Fahrzeugfunktion aktiviert wird. Ist also beispielsweise auf dem Bildschirm die Fahrzeugfunktion zum Starten der Sitzheizung in der aktuellen Situation diejenige, die auf den neutralen Kurzbefehl reagieren würde, dann kann mit einem eindeutigen Befehl jederzeit wie z.B. „Navigiere nach Hause“ eine andere Fahrzeugfunktion aktiviert werden In diesem Fall wird dementsprechend die Navigation gestartet. Die Nennung des eindeutigen Befehls aktiviert die Funktion unabhängig von der Anzeige auf dem Bildschirm, d.h. auch wenn kein der Navigation zugehörige Grafik auf dem Bildschirm angezeigt wird.
  • Gemäß einer weiteren sehr günstigen Ausgestaltung kann es auch vorgesehen sein, dass eine der Grafiken durch eine Bedienhandlung einer das Fahrzeug nutzenden Person unterscheidbar gekennzeichnet wird, sodass die dieser Grafik zugeordnete Fahrzeugfunktion dann als die auf den neutralen Kurzbefehl reagierende Fahrzeugfunktion festgelegt wird. Ein das Fahrzeug nutzende Person kann also die entsprechend der oben beschriebenen Methoden vorgenommene Voreinstellung der auf den Kurzbefehl reagierenden Fahrzeugfunktion überstimmen, indem beispielsweise über eine Blick- oder Zeigegeste auf die Grafik oder auf ein eindeutig der Fahrzeugfunktion zugeordneten Elements oder auch durch eine Berührung der entsprechenden Grafik auf einem berührungssensitiven Bildschirm eben diese Funktion ausgewählt wird, um auf den neutralen Kurzbefehl zu reagieren. Hierdurch lässt sich der von den Steuergeräten des Fahrzeugs gemachte Vorschlag also überstimmen, um so einfach und effizient Änderungen vornehmen zu können. Solche Änderungen können in der oben beschriebenen Ausgestaltungsvariante, bei welcher die historischen Erfahrungen des Systems berücksichtigt werden, dann wieder genutzt werden, um für ähnliche Situationen zu lernen, dass die durch die Bedienhandlung ausgewählte Fahrzeugfunktion auch in Zukunft in vergleichbaren Situationen automatisch vorgegeben oder in einer Prioritätenliste entsprechend höher priorisiert wird.
  • Eine sehr vorteilhafte Ausgestaltung sieht es dabei vor, dass diejenige Grafik, welche der auf den neutralen Kurzbefehl reagierenden Fahrzeugfunktion zugeordnet ist, auf dem Bildschirm mittels einer grafischen Hervorhebung und/oder einer Zentrierung in horizontaler und/oder vertikaler Richtung auf dem Bildschirm angezeigt wird. Die Grafik wird also entsprechend hervorgehoben. Dies kann durch eine einfache Markierung wie beispielsweise ein Markierungssymbol in Form eines Punktes oder Kreises erfolgen, es kann jedoch auch durch verschiedene andere grafische Möglichkeiten umgesetzt werden. So kann die hervorgehobene Grafik beispielsweise bezüglich ihrer Farbe, ihrer Größe verändert werden, sie kann entsprechend hinterleuchtet werden, sie kann blinken oder sich bewegen, um erkennbar zu machen, dass diese Grafik bzw. die dieser Grafik zugeordnete Fahrzeugfunktion diejenige ist, welche über den neutralen Kurzbefehl unmittelbar ausgewählt werden kann. Alternativ oder insbesondere auch ergänzend zu einer solchen grafischen Hervorhebung lässt sich die Hervorhebung auch dadurch realisieren, dass eine Zentrierung beispielsweise in horizontaler und/oder vertikaler Richtung auf dem Bildschirm erfolgt. Die Grafik wird also beispielsweise als die zentrale Grafik auf dem Bildschirm angezeigt, die anderen Grafiken, welche weitere Fahrzeugfunktionen symbolisieren, wandern in den Bereich des rechten und linken bzw. oberen und unteren Rands.
  • Gemäß einer sehr vorteilhaften Weiterbildung des erfindungsgemäßen Verfahrens kann es nun ferner vorgesehen sein, dass die unterscheidende Kennzeichnung von der einen Grafik zu einer anderen Grafik wechselt, sobald die der anderen Grafik zugeordnete Fahrzeugfunktion diejenige wird, die über den neutralen Kurzbefehl ansprechbar ist. Kommt es also in der Zuordnung zu einem Wechsel, dann kann die Kennzeichnung von der einen Grafik, vorzugsweise in einer animierten Darstellung, zu der anderen Grafik wechseln. Insbesondere kann hier der Auslöser für den Wechsel eine Veränderung der Situation sein. So kann beispielsweise statisch eine entsprechende Anzeige verschiedener Fahrzeugfunktionen erfolgen. Dabei kann beispielsweise das Starten der Sitzheizung als die Fahrzeugfunktion, welche über den neutralen Kurzbefehl angesprochen werden kann, ausgewählt und die passende Grafik entsprechend optisch markiert sein. Kommt es nun zu einem Wechsel der Situation, weil beispielsweise ein Anruf eingeht, dann genießt typischerweise dieser eingehende Anruf eine in der aktuellen Situation höhere Priorisierung, sodass die Grafik für den eingehenden Anruf entsprechend hervorgehoben wird, um über den neutralen Kurzbefehl, beispielsweise „Starten“, den Anruf einfach und effizient annehmen zu können. Vergleichbares kann für andere Situationen gelten, beispielsweise wenn vom Navigationsgerät ein Stau erkannt worden ist und ein geänderter Routenvorschlag erstellt worden ist, welcher der das Fahrzeug nutzenden Person angeboten wird, und in dieser Situation zu derjenigen Fahrzeugfunktion wird, welche über den neutralen Kurzbefehl einfach und effizient gestartet können werden soll.
  • Die erfindungsgemäße Bedieneinrichtung dient nun zur Steuerung von Fahrzeugfunktionen und umfasst wenigstens ein Mikrofon und einen Bildschirm. Sie ist dabei zur Durchführung des Verfahrens in einer der beschriebenen Ausführungsvarianten eingerichtet und stellt somit die vorrichtungsseitige Hardware zur Durchführung des Verfahrens in einer der Ausgestaltungen gemäß der Erfindung zur Verfügung.
  • Weitere vorteilhafte Ausgestaltungen des erfindungsgemäßen Verfahrens sowie der Bedieneinrichtung ergeben sich auch aus dem Ausführungsbeispiel, welches nachfolgend unter Bezugnahme auf die Figuren näher beschrieben ist.
  • Dabei zeigen:
    • 1 ein Systemaufbau gemäß dem Stand der Technik;
    • 2 ein Systemaufbau gemäß der Erfindung;
    • 3 eine schematische Darstellung der visuellen Zuordnung von Fahrzeugfunktionen zu einem neutralen Kurzbefehl gemäß der Erfindung; und
    • 4 drei verschiedene Fälle eines möglichen Szenarios gemäß der Erfindung
  • In der Darstellung der 1 ist eine Bedieneinrichtung 1 zu erkennen, welche zur Steuerung von Fahrzeugfunktionen I, II, III (vgl. 3) geeignet ist. Der grundlegende Aufbau umfasst dabei ein erstes System A zur Steuerung der entsprechenden Fahrzeugfunktionen I, II, III und ein System B, welches als Sprachdialogsystem ausgebildet ist. Das System A fordert nun beim System B einen Sprachdialog an, das System B startet diesen Dialog und erkennt einen Sprachbefehl einer ein hier nicht dargestelltes Fahrzeug nutzenden Person. Auf die Anforderung des Sprachdialogs gemäß des mit 2 bezeichneten Pfeils liefert das System B also gemäß dem Pfeil 3 eine Information zur Aktivität eines Sprachbefehls an das System A zurück. Das System A kann dann die dem entsprechenden Sprachbefehl zugeordnete Fahrzeugfunktion I, II, III starten.
  • Problematisch ist es dabei, dass die die Bedieneirichtung 1 nutzende Person nicht weiß, welche Fahrzeugfunktion sie bei der Verwendung eines neutralen Kurzbefehls wie beispielsweise „starten“ anspricht. Sie muss vielmehr einen eindeutigen Befehl geben, um eine gezielte Funktion anzusprechen oder muss es in Kauf nehmen, dass alle auf den neutralen Kurzbefehl reagierende Fahrzeugfunktionen I, II, III nacheinander abgearbeitet werden. Dies ist in der Praxis wenig komfortabel.
  • In der Darstellung der 2 ist nun eine Weiterbildung der Bedieneinrichtung 1 zu erkennen. Hierbei wird von verschiedenen Fahrzeugfunktionen I, II, III, welche durch das System A angesteuert werden können, eine ausgewählte Funktion entsprechend priorisiert, was hier durch eine Kennzeichnung 4 schematisch angedeutet ist. Zusammen mit der Anforderung des Sprachdialogs gemäß des Pfeils 2, wie auch im Stand der Technik, kann nun außerdem eine Information über die Priorisierung gemäß des mit 5 bezeichneten Pfeils übertragen werden. Ergänzend zur reinen Information über den erfassten Sprachbefehl liefert das System B dann, angedeutet durch den Pfeil 6, eine Synchronisierung der Gesamtpriorität zurück, sodass durch einen neutralen Kurzbefehl 8 (vgl. 3) die über die Kennzeichnung 4 priorisierte Fahrzeugfunktion I, II, III bei übereinstimmender Priorisierung durch die beiden Systeme A, B direkt angesprochen wird. Die das Fahrzeug nutzende Person kann also sehr einfach mit einem neutralen Kurzbefehl 8 mit der Bedieneinrichtung 1 interagieren, sodass eine sehr einfache und komfortable Bedienung möglich wird.
  • Die Bedieneinrichtung 1 umfasst dazu einen in 3 dargestellten Bildschirm 7. Auf seiner Anzeigefläche werden nun verschiedene Fahrzeugfunktionen I, II, III in Form von diesen Fahrzeugfunktionen I, II, III zugeordneten Grafiken visualisiert. Die gemäß einer Prioritätenliste oder anderer eingangs im Detail erläuterter Varianten priorisierte Fahrzeugfunktion, hier die Fahrzeugfunktion I, welche über einen neutralen Kurzbefehl 8 direkt angesteuert werden kann, ist dabei grafisch hervorgehoben. Dies ist in der Darstellung der 3 auf dem Bildschirm 7 durch eine doppelte Umrandung der Fahrzeugfunktion I dargestellt. Die doppelte Umrandung bildet also die Kennzeichnung 4 im oben beschriebenen Sinn. Wird nun, wie es in der Darstellung der 3 rechts durch die Sprechblase dargestellt ist, der neutrale Kurzbefehl 8 ausgesprochen, wie hier das Wort „starten“, dann ist sowohl für das System als auch visualisiert für die die Bedieneinrichtung 1 nutzende Person klar erkennbar, dass durch diesen neutralen Kurzbefehl 8 die unterscheidbar über die Kennzeichnung 4 markierte Fahrzeugfunktion I gestartet wird.
  • Sollte die das Bedieneinrichtung 1 nutzende Person eine andere Fahrzeugfunktion wie beispielsweise die Fahrzeugfunktion II oder III ansprechen wollen, so kann sie dies jederzeit tun, indem sie entweder einen eindeutigen Befehl verwendet wie beispielsweise „Fahrzeugfunktion II starten“ oder indem sie beispielsweise über eine Blick- oder Zeigegeste die Kennzeichnung 4 von ihrer bisherigen Position bei der Fahrzeugfunktion I in eine Position bei einer anderen Fahrzeugfunktion II, III verschiebt, um eben diese Fahrzeugfunktion II, III zu der durch den Kurzbefehl 8 unmittelbar ausführbaren Fahrzeugfunktion zu machen.
  • Damit entsteht eine Bedieneinrichtung 1, welche einfach und effizient eine komfortable Bedienung auch mit neutralen Kurzbefehlen 8 und damit sehr schnell und intuitiv ermöglicht.
  • Anhand der Darstellung in 4 sollen nun drei verschiedene Fälle a), b) und c) dargestellt und erläutert werden. Dabei sind zwei Fahrzeugfunktionen I und II jeweils auf einem Bildschirm dargestellt. Rein beispielhaft soll es ich bei der Fahrzeugfunktion I um das Starten der Sitzheizung handeln, bei der Fahrzeugfunktion II um das Annehmen oder Ablehnen eines eingehenden Anrufs. Im ersten Fall a) ist es nun so, dass das System A gemäß der Darstellung in 2 den Anruf, also die Fahrzeugfunktion II, entsprechend priorisiert und das System B, also die Sprachbedienung, diese Priorisierung bestätigt. Durch den neutralen Kurzbefehl 8, welcher auch als impliziter Befehl bezeichnet werden könnte, wird nun also, wie es durch die Kennzeichnung 4 dargestellt ist, die Fahrzeugfunktion II priorisiert, sodass beispielsweise beim Sprachbefehl „starten“ der eingehende Anruf angenommen wird.
  • Der Fall b) wäre nun genau andersherum gelagert. Das System A priorisiert hier die Fahrzeugfunktion I, also das Einschalten der Sitzheizung, und das System B bestätigt diese Priorität. Dementsprechend ist die Kennzeichnung 4 im Bereich der Fahrzeugfunktion I angeordnet. Über den neutralen Kurzbefehl „starten“ wird in diesem Fall also die Sitzheizung eingeschaltet.
  • Der Fall c) basiert nun auf diesem Fall b). Auch hier priorisiert das System A die Fahrzeugfunktion I, also beispielsweise die Sitzheizung. Allerdings bestätigt hier das System b), also die Sprachbedienung, diese Priorität nicht, sondern priorisiert den eigenen Dialog. In diesem Fall erfolgt keine Kennzeichnung 4 einer der Fahrzeugfunktionen I, II. In der Folge bedeutet dies, dass hier über einen neutralen Kurzbefehl 8 bzw. impliziten Sprachbefehl keine der Fahrzeugfunktionen I, II angesteuert werden kann, sodass hier ein expliziter Sprachbefehl, also ein eindeutiger Befehl, welcher die zu startende Funktion explizit benennt, notwendig ist, um diese zu aktiveren.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10360655 A1 [0002]

Claims (10)

  1. Verfahren zur Verarbeitung von Spracheingaben, über welche in einem Fahrzeug Fahrzeugfunktion (I, II, III) gesteuert werden, mit einer Spracherkennung, und mit wenigstens einer der Fahrzeugfunktionen (I, II, III) zugeordneten Grafik, welche auf einem Bildschirm (7) des Fahrzeugs angezeigt wird, dadurch gekennzeichnet, dass auf dem Bildschirm (7) mehrere Grafiken angezeigt werden, welche verschiedenen mittels der Spracheingabe steuerbaren Fahrzeugfunktionen (I, II, III) zugeordnet sind, wobei diejenige Grafik einer auf einen neutralen Kurzbefehl (8) direkt reagierenden Fahrzeugfunktion (I) gegenüber den Grafiken der anderen Fahrzeugfunktionen (I, II, III) unterscheidbar gekennzeichnet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die auf den neutralen Kurzbefehl (8) reagierende Fahrzeugfunktion (I, II, III) gemäß einer Prioritätenliste bestimmt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die auf den neutralen Kurzbefehl (9) reagierende Fahrzeugfunktion (I, II, III) mittels eines mit historischen Daten trainierten Modells anhand ihrer Relevanz für eine das Fahrzeug nutzende Person bestimmt wird.
  4. Verfahren nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass die auf den neutralen Kurzbefehl (8) reagierende Fahrzeugfunktion (I, II, III) in Abhängigkeit des Fahrzeugkontexts bestimmt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die auf den neutralen Kurzbefehl (8) reagierende Fahrzeugfunktion (I, II, III) in Abhängigkeit der das Fahrzeug nutzenden Person bestimmt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass mittels einer Spracheingabe mit einem eindeutigen Befehl, welcher eine Nennung der Fahrzeugfunktion (I, II, III) umfasst, unabhängig von der Anzeige auf dem Bildschirm (7) die genannte Fahrzeugfunktionen (I, II, III) aktiviert wird.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass eine der Grafiken durch eine Bedienhandlung einer das Fahrzeug nutzenden Person unterscheidbar gekennzeichnet wird, sodass die dieser Grafik zugeordnete Fahrzeugfunktion (I, II, III) dann als die auf den neutralen Kurzbefehl (8) reagierende Fahrzeugfunktion (I, II, III) festgelegt wird.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass diejenige Grafik, welche der auf den neutralen Kurzbefehl (8) reagierenden Fahrzeugfunktion (I, II, III) zugeordnet ist, auf dem Bildschirm mittels einer grafischen Hervorhebung (4) und/oder eine Zentrierung in horizontaler und/oder vertikaler Richtung auf dem Bildschirm angezeigt wird.
  9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die unterscheidende Kennzeichnung (4) von der einen Grafik, vorzugsweise animiert, zu einer anderen Grafik wechselt, sobald die der anderen Grafik zugeordnete Fahrzeugfunktion (I, II, III) diejenige wird, die über den neutralen Kurzbefehl ansprechbar ist.
  10. Bedieneinrichtung (1) zur Steuerung von Fahrzeugfunktionen (I, II, III) mit wenigstens einem Mikrophon und einem Bildschirm (7), welche zur Durchführung des Verfahrens nach einem der Ansprüche1 bis 9 eingerichtet ist.
DE102022000387.2A 2022-02-01 2022-02-01 Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen Withdrawn DE102022000387A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022000387.2A DE102022000387A1 (de) 2022-02-01 2022-02-01 Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen
PCT/EP2023/051811 WO2023148063A1 (de) 2022-02-01 2023-01-25 Verfahren zur verarbeitung von spracheingaben und bedieneinrichtung zur steuerung von fahrzeugfunktionen
EP23702291.8A EP4244847A1 (de) 2022-02-01 2023-01-25 Verfahren zur verarbeitung von spracheingaben und bedieneinrichtung zur steuerung von fahrzeugfunktionen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022000387.2A DE102022000387A1 (de) 2022-02-01 2022-02-01 Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen

Publications (1)

Publication Number Publication Date
DE102022000387A1 true DE102022000387A1 (de) 2023-08-03

Family

ID=85122332

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022000387.2A Withdrawn DE102022000387A1 (de) 2022-02-01 2022-02-01 Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen

Country Status (3)

Country Link
EP (1) EP4244847A1 (de)
DE (1) DE102022000387A1 (de)
WO (1) WO2023148063A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10360655A1 (de) 2003-12-23 2005-07-21 Daimlerchrysler Ag Bediensystem für ein Fahrzeug
US20060155547A1 (en) 2005-01-07 2006-07-13 Browne Alan L Voice activated lighting of control interfaces
EP1884921A1 (de) 2006-08-01 2008-02-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems
EP2026328A1 (de) 2007-08-09 2009-02-18 Volkswagen Aktiengesellschaft Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
DE102009058151A1 (de) 2009-12-12 2011-06-16 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102010054242A1 (de) 2010-12-11 2012-06-14 Volkswagen Ag Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung
DE102016218270A1 (de) 2016-09-22 2018-03-22 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69326431T2 (de) * 1992-12-28 2000-02-03 Toshiba Kawasaki Kk Spracherkennungs-Schnittstellensystem, das als Fenstersystem und Sprach-Postsystem verwendbar ist
JP4107093B2 (ja) * 2003-01-30 2008-06-25 株式会社日立製作所 対話型端末装置及び対話アプリケーション提供方法
US7899673B2 (en) * 2006-08-09 2011-03-01 Microsoft Corporation Automatic pruning of grammars in a multi-application speech recognition interface
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10360655A1 (de) 2003-12-23 2005-07-21 Daimlerchrysler Ag Bediensystem für ein Fahrzeug
US20060155547A1 (en) 2005-01-07 2006-07-13 Browne Alan L Voice activated lighting of control interfaces
EP1884921A1 (de) 2006-08-01 2008-02-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Unterstützung des Bedieners eines Spracheingabesystems
EP2026328A1 (de) 2007-08-09 2009-02-18 Volkswagen Aktiengesellschaft Verfahren zur multimodalen Bedienung mindestens eines Gerätes in einem Kraftfahrzeug
DE102009058151A1 (de) 2009-12-12 2011-06-16 Volkswagen Ag Verfahren zum Betreiben eines Sprachdialogsystems mit semantischer Bewertung und Sprachdialogsystem dazu
DE102010054242A1 (de) 2010-12-11 2012-06-14 Volkswagen Ag Verfahren zum Bereitstellen einer Bedienvorrichtung in einem Fahrzeug und Bedienvorrichtung
DE102016218270A1 (de) 2016-09-22 2018-03-22 Audi Ag Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug

Also Published As

Publication number Publication date
WO2023148063A1 (de) 2023-08-10
EP4244847A1 (de) 2023-09-20

Similar Documents

Publication Publication Date Title
EP1772339B1 (de) Verfahren zur Entlastung des Fahrers eines Kraftfahrzeugs
DE102014013960A1 (de) Verfahren zum Betreiben wenigstens einer Fahrerassistenzeinrichtung eines Kraftwagens und System mit einer Fahrerassistenzeinrichtung
DE102012013503A1 (de) Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
EP2930049A1 (de) Anwenderschnittstelle und Verfahren zur Anpassung einer Ansicht auf einer Anzeigeeinheit
DE10360656A1 (de) Bediensystem für ein Fahrzeug
EP2930603B1 (de) Verfahren und Vorrichtung zum Bereitstellen einer graphischen Benutzerschnittstelle in einem Fahrzeug
EP2952661B1 (de) Verfahren und anordnung zum berührungslosen öffnen eines zugangs und/oder ausgangs an einem fahrzeug zur personenbeförderung sowie mit dieser anordnung ausgerüstetes fahrzeug zur personenbeförderung
EP3480815A1 (de) Sprachsteuerung für ein fahrzeug
DE102014016237A1 (de) Verfahren zum Betrieb eines Fahrzeugs
DE112017002407T5 (de) Steuerung von Fahrzeugsystemen
DE102013000744A1 (de) Verfahren und System zum Steuern wenigstens einer Funktionseinheit sowie Kraftwagen und mobiles Endgerät mit einem solchen System
DE102009030263A1 (de) Bedienverfahren für ein menübasiertes Bedien- und Informationssystem eines Fahrzeugs
DE102022000387A1 (de) Verfahren zur Verarbeitung von Spracheingaben und Bedieneinrichtung zur Steuerung von Fahrzeugfunktionen
DE102020105042A1 (de) Verfahren zum Einstellen einer Bedieneinrichtung
DE102017124661A1 (de) Verfahren zum Unterstützen eines Benutzers eines Kraftfahrzeugs beim Einparken auf einem Parkplatz, entsprechendes Computerprogrammprodukt, entsprechende Fahrerassistenzvorrichtung und entsprechendes Kraftfahrzeug
DE102018206653B4 (de) Verfahren zum dynamischen Anpassen einer Bedienvorrichtung in einem Kraftfahrzeug sowie Bedienvorrichtung und Kraftfahrzeug
DE102013007256A1 (de) Verfahren zum personalisierten Betreiben einer graphischen Benutzeroberfläche eines Kraftwagens und Kraftwagen mit einer solchen graphischen Benutzeroberfläche
EP3802191A1 (de) Verfahren und system zum betreiben einer automatischen fahrfunktion in einem fahrzeug
DE102016218270B4 (de) Verfahren zum Betreiben einer Kraftfahrzeug-Bedienvorrichtung mit Spracherkenner, Bedienvorrichtung und Kraftfahrzeug
DE102019000899B4 (de) Verfahren und Vorrichtung zur Unterstützung eines Fahrers eines Fahrzeugs
DE102020214204A1 (de) Trainiertes Parken eines Fahrzeugs unter Vorgabe eines Zielparkbereichs
DE102013001885A1 (de) Systeminitiierte Hilfefunktion pro Fahrt und/oder pro Nutzer für die Bedienung von einer, einem Fahrzeug zugeordneten Vorrichtung
EP3947004A1 (de) Verfahren zum betreiben einer bedienvorrichtung für ein kraftfahrzeug und bedienvorrichtung für ein kraftfahrzeug
DE102016218288B4 (de) Verfahren zum Betreiben eines Kraftfahrzeugs in einem teilautonomen und/oder in einem autonomen Fahrmodus und Kraftfahrzeug
EP3976411B1 (de) Verfahren zur grafischen konfigurierung eines anzeigeinstrumentes in einem kraftfahrzeug und kraftfahrzeug zur durchführung des verfahrens

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R120 Application withdrawn or ip right abandoned