DE102012218938B4 - Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist - Google Patents

Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist Download PDF

Info

Publication number
DE102012218938B4
DE102012218938B4 DE102012218938.6A DE102012218938A DE102012218938B4 DE 102012218938 B4 DE102012218938 B4 DE 102012218938B4 DE 102012218938 A DE102012218938 A DE 102012218938A DE 102012218938 B4 DE102012218938 B4 DE 102012218938B4
Authority
DE
Germany
Prior art keywords
service
mobile device
services
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012218938.6A
Other languages
English (en)
Other versions
DE102012218938A1 (de
Inventor
Denis R. Burke
Danilo Gurovich
Daniel E. Rudman
Keith A. Fry
Shane M. McCutchen
Marco T. Carnevale
Mukesh Gupta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102012218938A1 publication Critical patent/DE102012218938A1/de
Application granted granted Critical
Publication of DE102012218938B4 publication Critical patent/DE102012218938B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist, mit den Schritten:
(a) Herstellen einer Kurzbereichsdrahtlosverbindung zwischen einer Mobilvorrichtung und einer oder mehreren Audiovorrichtungen, die zumindest ein Mikrophon und einen Lautsprecher aufweisen;
(b) Empfangen von Sprache, die über das Mikrophon von einem Nutzer eingegeben und über die Kurzbereichsdrahtlosverbindung gesendet worden ist, an der Mobilvorrichtung;
(c) drahtloses Übertragen der Spracheingabe von der Mobilvorrichtung an einen Spracherkennungsserver, der automatische Spracherkennung (ASR) bereitstellt;
(d) Empfangen eines Spracherkennungsergebnisses, das den Inhalt der Spracheingabe repräsentiert, an der Mobilvorrichtung;
(e) Bestimmen eines gewünschten Dienstes durch Verarbeiten des Spracherkennungsergebnisses unter Verwendung einer ersten Dienst identifizierenden Grammatik, was umfasst, dass sowohl ein Primärsitzungskontext als auch ein oder mehrere ergänzende Sitzungskontexte identifiziert und ein gewünschter Dienst, der dem Primärsitzungskontext zugeordnet ist, und ein ergänzender Dienst für jeden der ergänzenden Sitzungskontexte bestimmt werden;
(f) Bestimmen einer Nutzerdienstanforderung durch Verarbeiten zumindest eines Teils des Spracherkennungsergebnisses unter Verwendung einer zweiten dienstspezifischen Grammatik, die dem gewünschten Dienst zugeordnet ist;
(g) Auslösen der Nutzerdienstanforderung und Empfangen einer Dienstantwort;
(h) Erzeugen einer Audionachricht aus der Dienstantwort; und
(i) an den Nutzer erfolgendes Präsentieren der Audionachricht über den Lautsprecher.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft Sprachschnittstellen zu computerbasierten Diensten, die drahtlos von einem Zellulartelefon oder einer anderen Mobilvorrichtung erhalten werden, und derartige Schnittstellen, die in einem Fahrzeug, wie einem Personenwagen, implementiert sind. Insbesondere betrifft die vorliegende Erfindung ein Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist, wie es der Art nach im Wesentlichen aus der US 2010 / 0 151 788 A1 bekannt ist.
  • Bezüglich des weitergehenden Standes der Technik sei an dieser Stelle auf die Druckschriften US 7 212 970 B2 und US 2008 / 0 140 408 A1 verwiesen.
  • HINTERGRUND
  • Funktionen von sprachbasierten Mensch-Maschine-Schnittstellen (HMI von engl.: "human-machine interfaces) zum Fahrzeug und Zellulartelefonfunktionen und - anwendungen betreffen typischerweise einen anwendungsspezifischen oder funktionsspezifischen begrenzten Befehlssatz, der syntaktisch beschränkte Interaktionen zwischen dem Nutzer und den HMI erfordert. Bei diesen Systemen kann eingegebene Sprache in einen spezifischen Befehl für eine spezifische Anwendung umgewandelt werden, es existiert jedoch typischerweise nur eine beschränkte Fähigkeit zur Identifizierung und Ausführung verschiedener Dienste, die verschiedene Anwendungen oder Dienstanbieter betreffen.
  • Auf dem Gebiet des Zellulartelefongebrauchs in Fahrzeugen sind Systeme vorgeschlagen und einige implementiert worden, die helfen, eine Ablenkung des Fahrers zu reduzieren, indem ein freihändiger Telefongebrauch bereitgestellt wird wie auch einige grundsätzliche Fahrzeugsteueraufgaben ausgeführt werden, wie Auswählen und Steuern von Radio- und anderen Infotainmentdiensten an dem Fahrzeug. Bei einigen Systemen wird dies unter Verwendung eines eingebetteten Zellulartelefons gemacht, das Zugriff auf zumindest Abschnitte der Fahrzeugelektronik besitzt, um so eine Steuerung und ein Berichten über eine Sprachnutzerschnittstelle zuzulassen. Bei anderen Fahrzeugen wird für diesen Zweck die persönliche Mobilvorrichtung (z.B. Zellulartelefon) des Fahrers oder eines anderen Insassen verwendet, wobei das Fahrzeug eine grundsätzliche Audioschnittstelle bereitstellt, die ein Mikrofon sowie einen oder mehrere Lautsprecher wie auch eine Bluetooth- oder andere Drahtlosverbindung zu der Mobilvorrichtung aufweist. Dies erlaubt ein Senden von Sprache und anderem Ton zwischen der Audioschnittstelle und der Mobilvorrichtung in jeder Richtung. Jedoch sind diese Systeme typischerweise darauf beschränkt, dass nur einige grundsätzliche Mobilvorrichtungsfunktionen ermöglicht werden, wie Anrufen und Steuern einer Musikauswahl und Wiedergabe. Sie sehen keinen Zugriff auf die vielen anderen eingebauten und vom Nutzer hinzugefügten Anwendungen und Funktionen vor, die heutzutage typischerweise verfügbar sind.
  • Beispielsweise existieren nun eine weit verbreitete Verfügbarkeit und ein weit verbreiteter Gebrauch von Mobilvorrichtungen, wie Smartphones, die dem Nutzer ein Herunterladen bzw. Downloaden und Installieren relativ kleiner Softwareanwendungen (Apps) erlauben. Einige dieser Smartphones besitzen eingebaute Sprachunterstützung entweder über das Betriebssystem (OS von engl.: „operating system“), wie in dem Fall des AndroidTM OS, oder über eine eingebaute App, wie SiriTM, die auf dem iPhone4STM verfügbar ist. Siehe beispielsweise WO 2011 / 088 053 A2 , die am 21. Juli 2011 veröffentlicht wurde. Während ein größeres Integrationsniveau bereitgestellt wird, sind diese kommerziell verfügbaren Systeme nicht dazu konfiguriert, einen vollständig freihändigen Gebrauch der Mobilvorrichtung bereitzustellen, da sie sich immer noch stark auf den Bildschirm zur Interaktion mit dem Nutzer während der Sprachsitzung verlassen.
  • Figurenliste
  • Eine oder mehrere Ausführungsformen der Erfindung sind nachfolgend in Verbindung mit den angefügten Zeichnungen beschrieben, wobei gleiche Bezeichnungen gleiche Elemente bezeichnen, und in welchen:
    • 1 schematisch die Anteile der Hardware und Methodologie zeigt, die dazu verwendet werden, eine Sprachnutzerschnittstelle gemäß einer Ausführungsform der Erfindung bereitzustellen;
    • 2 ein Blockdiagramm ist, das eine Ausführungsform eines Kommunikationssystems, das in der Lage ist, die Sprachnutzerschnittstelle von 1 zu verwenden, wie auch die hier offenbarten Verfahren zeigt;
    • 3 ein Blockdiagramm von einigen der Hardware- und Softwarekomponenten der mobilen Vorrichtung, die in den 1 und 2 gezeigt ist, ist;
    • 4 die gestufte Softwarestruktur und Programmmodulinteraktionen der mobilen Stimmplattform und des Betriebssystems zeigt, die an der mobilen Vorrichtung der 1 bis 3 verwendet sind;
    • 5 weitere Einzelheiten betreffend die Struktur von Dienstschnittstellen zeigt, die in der Anwendungsschnittstellenfolge von 4 verwendet sind;
    • 6 ein Flussdiagramm eines Verfahrens ist, das mit der Sprachnutzerschnittstelle der 1 und 2 verwendet werden kann, um einen Nutzer mit einer vollständig freihändigen Sprachsitzung zu versehen;
    • 7 ein Sequenzdiagramm ist, das Nachrichtenströme für eine beispielhafte Sprachsitzung zeigt; und
    • 8 die 8A und 8B umfasst und ein anderes Sequenzdiagramm ist, das Nachrichtenströme für eine andere beispielhafte Sprachsitzung zeigt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Gemäß einem Aspekt der Erfindung ist ein Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist, vorgesehen, das die Merkmale des Anspruchs 1 aufweist. Das Verfahren umfasst ein Herstellen einer Kurzbereichsdrahtlosverbindung zwischen einer Mobilvorrichtung und einer oder mehreren Audiovorrichtungen, die zumindest ein Mikrophon und einen Lautsprecher aufweisen; ein Empfangen von Sprache, die über das Mikrophon von einem Nutzer eingegeben und über die Kurzbereichsdrahtlosverbindung gesendet worden ist, an der Mobilvorrichtung; ein drahtloses Übertragen der Spracheingabe von der Mobilvorrichtung an einen Spracherkennungsserver, der automatische Spracherkennung (ASR) bereitstellt; ein Empfangen eines Spracherkennungsergebnisses, das den Inhalt der Spracheingabe repräsentiert, an der Mobilvorrichtung; ein Bestimmen eines gewünschten Dienstes durch Verarbeiten des Spracherkennungsergebnisses unter Verwendung einer ersten Dienst identifizierenden Grammatik; ein Bestimmen einer Nutzerdienstanforderung durch Verarbeiten zumindest eines Teils des Spracherkennungsergebnisses unter Verwendung einer zweiten dienstspezifischen Grammatik, die dem gewünschten Dienst zugeordnet ist; Auslösen der Nutzerdienstanforderung und Empfangen einer Dienstantwort; Erzeugen einer Audionachricht aus der Dienstantwort; und an den Nutzer erfolgendes Präsentieren der Audionachricht über den Lautsprecher
  • DETAILLIERTE BESCHREIBUNG DER VERANSCHAULICHTEN AUSFÜHRUNGSFORM(EN)
  • Das System und Verfahren, die nachfolgend beschrieben sind, sehen eine mobile Stimmplattform vor, die (1) eine freihändige Kommunikation zwischen einem Fahrzeuginsassen und dem Zellulartelefon oder einer anderen Mobilvorrichtung des Insassen ermöglicht, ohne dass eine physikalische Interaktion mit der mobilen Vorrichtung erforderlich ist, und (2) dies auf eine Weise macht, die eine breite Unterstützung für einige oder alle der internetbasierten oder anderen computerbasierten Dienste ermöglicht, die dem Nutzer über die mobile Vorrichtung verfügbar sind. Der hier verwendete Begriff „Dienste“ umfasst allgemein die Bereitstellung von Information, Steuerung und/oder Kommunikationsassistenz für den Nutzer der mobilen Vorrichtung. Ferner weist, wie hier beschrieben ist, ein Dienst, der an der mobilen Vorrichtung verwendet wird oder auf den über die Mobile Vorrichtung zugegriffen wird, diejenigen auf, die anhand von Anwendungen, die an der mobilen Vorrichtung installiert sind, wie auch computerbasierten Diensten vorgesehen sind, die nur durch Kommunikation mit einem entfernten Server verfügbar sind. Diese letztgenannten computerbasierten Dienste werden auch als „Cloud-Dienste“ bezeichnet und können durch einen beliebigen Dienstanbieter geliefert werden, der einen darauf zugreifbaren Server aufweist, der über ein privates oder öffentliches Netzwerk verfügbar ist, wie einem Intranet oder das Internet.
  • 1 zeigt eine Ausführungsform einer sprachbasierten Nutzerschnittstelle 10, wie sie zur Bereitstellung von Diensten über eine Mobilvorrichtung für einen Fahrzeugfahrer in einer freihändigen Weise verwendet werden kann. Der hier verwendete Begriff „freihändig“ bedeutet, dass der Nutzer einen Teil oder alles einer vollständigen sprachbasierten Sitzung unter Verwendung der Mobilvorrichtung ohne physikalische Interaktion oder Steuerung der Vorrichtung ausführen kann oder ausgeführt hat. „Vollständig freihändig“ bedeutet, dass der Nutzer alles einer vollständigen sprachbasierten Sitzung unter Verwendung der Mobilvorrichtung ohne physikalische Interaktion oder Steuerung der Vorrichtung ausführen kann oder ausgeführt hat. Einige Ausführungsformen können implementiert sein, um einen freihändigen Gebrauch bereitzustellen, der eine gewisse Interaktion mit der Mobilvorrichtung erfordern kann, wie, diese in einen Hörmodus zu bringen, während andere Ausführungsformen vollständig freihändig ausgeführt werden können, während beispielsweise die Mobilvorrichtung sich in der Tasche, Börse oder der Aktentasche des Nutzers befindet, ohne dass ein physikalischer Zugriff auf die Vorrichtung notwendig ist.
  • Bei der gezeigten Ausführungsform interagiert ein Fahrer eines Fahrzeugs 12 über Sprache mit einer an Bord befindlichen installierten Audionutzerschnittstelle 14, die über eine Kurzbereichsdrahtlosverbindung mit der mobilen Vorrichtung 16 des Fahrers kommuniziert, die in diesem Fall ein Zellulartelefon ist. Die mobile Vorrichtung 16 kann eine beliebige tragbare Vorrichtung sein, die zu drahtloser Kommunikation und Digitalverarbeitung in der Lage ist, unabhängig davon, ob sie einen Mikroprozessor oder irgendeine einfachere oder komplexere Schaltung verwendet. Somit umfassen mobile Vorrichtungen Zellulartelefone, PDAs, Laptops, Notebooks, Netbooks und andere persönliche elektronische Vorrichtungen. Das Zellulartelefon 16, das in 1 gezeigt ist, ist üblicherweise als ein Smartphone bezeichnet, vorausgesetzt, dass es dem Nutzer ermöglicht, Softwareanwendungen (Apps) dem Smartphone hinzuzufügen, die Funktionen jenseits von Telefonie ausführen. Das Telefon 16 umfasst eine Touchscreen-Schnittstelle, einen oder mehrere manuelle Druckknöpfe, ein Mikrofon, einen Lautsprecher sowie interne Schaltung (Hardware) mit einem Mikroprozessor, einem Speicher zum Speichern von Software und Daten sowie eine Kommunikationsschaltung, die zumindest eine Kurzbereichsdrahtloskommunikationstechnologie, wie Bluetooth und/oder WiFi, aber auch Zellularkommunikationstechnologie aufweist, wie einen Zellularchipset für CDMA, GSM oder andere standardisierte Technologie. Diese verschiedenen Komponenten der mobilen Vorrichtung 16 können nach Bedarf herkömmlich sein und werden somit hier nicht separat veranschaulicht oder detailliert beschrieben.
  • Abgesehen von der Mobilvorrichtungshardware umfasst ein Zellulartelefon 16 eine mobile Stimmplattform (MVP von engl.: „mobile voice platform“) 18, die Software umfasst, die auf der mobilen Vorrichtung läuft. Die MVP 18 weist einen Sprachplattformkern (SPK von engl.: „speech platform kernel“) 20 sowie eine Anwendungsschnittstellenfolge (AIS von engl.: „application interface suite“) 22 auf, die beide Programmmodule sind, die Computeranweisungen umfassen, die bei Ausführung durch den Prozessor der Vorrichtung ihre jeweiligen Modulfunktionen ausführen, wie nachfolgend beschrieben ist. Anstatt der Bereitstellung automatisierter Sprachverarbeitung (ASR) an der Mobilvorrichtung selbst werden entfernt angeordnete (Cloud-)Sprachdienste 24 verwendet, obwohl bei einigen Ausführungsformen ASR an der Mobilvorrichtung 16 entweder mit oder ohne Zugriff zu entfernt angeordneten Sprachmodulen, Grammatiken und Berechnungseinrichtungen ausgeführt werden kann. Die mobile Vorrichtung 16 umfasst auch ein Betriebssystem (OS) 26, das Root-Level- bzw. Basisfunktionen bereitstellt, die beispielsweise Mechanismen zur Kommunikation zwischen Anwendungen und Eingangs/Ausgangs-I/O-Schnittstellenbildung zwischen Vorrichtungshardware und Softwaremodulen und Anwendungen, die an der Vorrichtung 16 laufen, aufweisen. In diesen Hardwareschnittstellenfunktionen des OS sind Kommunikationsprotokolle enthalten, die von der Vorrichtung verwendet werden, mit den Sprachdiensten 24 wie auch anderen Cloud-Diensten 28, die über das Internet oder ein anderes Netzwerk verfügbar sind, zu kommunizieren. Es kann jeder computerbasierte Dienst in der Liste von Cloud-Diensten 28 enthalten sein, jedoch sind in 1 einige dieser Dienste am nützlichsten für Nutzer von Zellulartelefonen; d.h. soziale Medien, Ortungsdienste (z.B. Navigation), Verkehr, Wetter, Neuigkeiten, Kalender, Speisen und Filme. Es können andere existieren.
  • Allgemein betrifft ein Freihandzugriff auf Dienste unter Verwendung einer mobilen Stimmplattform 18 die Ausführung einer vollständigen Sprachsitzung über eine Mobilvorrichtung 16 ohne jegliche physikalische Interaktion mit der Mobilvorrichtung. Dies umfasst breit ein Empfangen einer Spracheingabe von einem Nutzer, ein Erhalten eines Dienstergebnisses von einem Cloud-Dienst, der auf den Inhalt der Spracheingabe anspricht, und das Bereitstellen des Dienstergebnisses als eine Sprachantwort, die dem Nutzer präsentiert wird. Bei der Verwendung des Fahrzeugs 12 in 1 kann der Fahrer (Nutzer) mit der Mobilvorrichtung interagieren, um die Sprachsitzung über die Audioschnittstelle 14 auszuführen. Dies kann ein Herstellen einer Kurzbereichsdrahtlosverbindung zwischen der im Fahrzeug befindlichen Audioschnittstelle 14 und der Mobilvorrichtung 16 umfassen, die dann die Verwendung des Mikrofons und des Lautsprechers der Audioschnittstelle ermöglicht, um Sprache zu empfangen bzw. Sprache dem Fahrer oder einem anderen Insassen zu präsentieren. Die Spracheingabe kann als digitalisierte Sprache über diese Kurzbereichsdrahtlosverbindung via ein Digitalkommunikationsprotokoll, wie Bluetooth oder WiFi gesendet werden. Die digitalisierte Spracheingabe kann dann von der Mobilvorrichtung 16 über ein Zellular- oder anderes Drahtloskommunikationssystem an die Sprachdienste 24 gesendet werden, um Dienste von Sprache zu Text (STT von engl.: „speech-to-text“) auszuführen, die automatisierte Spracherkennung betreffen, oder Dienste von Text zu Sprache (TTS von engl.: „text-to-speech“) auszuführen, die entweder synthetisierte oder aufgezeichnete Sprache oder Sprachanteile (z.B. Phoneme) zur Verwendung bei der Erzeugung einer Audionachricht bereitstellen, die eine geeignete Sprachantwort auf die Spracheingabe bereitstellt. Die Spracherkennungsergebnisse (z.B. rückgeführter Text) werden dann von der SPK 20 verarbeitet, um schließlich den geeigneten (gewünschten) Dienst zu bestimmen, der zur Ausführung der Anforderung des Nutzers verwendet werden soll. Sobald der/die gewünschte(n) Dienst(e) bestimmt worden ist(sind), wird eine Dienstanforderung unter Verwendung der Befehle und Parameter geformt, die durch den bestimmten Dienst unterstützt werden, der unter Verwendung einer oder mehrerer Dienstschnittstellen von der Anwendungsschnittstellenfolge (AIS) 22 gewählt ist, wie nachfolgend detaillierter erläutert ist. Die Dienstanforderung wird an den gewünschten Dienst (installierte App und/oder Cloud-Dienst) gesendet und ein Dienstergebnis wird zurück empfangen. Das Dienstergebnis wird dann dazu verwendet, eine Sprachantwort in natürlicher Sprache zu erzeugen; dies bedeutet die Verwendung von Konversationssprache sowie Satz-/ Absatzstrukturen, die gängig und kontextspezifisch sind. Die Sprachantwort kann eine Audionachricht sein, die als eine Textantwort von Information in dem Dienstergebnis wie auch von anderer verfügbarer Information, wie Sitzungsvariablen und kontextspezifischen Objekten, anfänglich aufgebaut wird, wie nachfolgend detaillierter erläutert ist. Sobald die Textantwort formuliert worden ist, wird sie in eine Audiosprachantwort (z.B. Audionachricht) umgewandelt, und dies kann entweder an der Mobilvorrichtung 16 selbst oder unter Verwendung der TTS-Dienste 24 gemacht werden. Die Audionachricht kann dann von der Mobilvorrichtung an die Audionutzerschnittstelle 14 über die Kurzbereichsdrahtlosverbindung zur Präsentation für den Fahrzeuginsassen über den/die Fahrzeuglautsprecher gesendet werden.
  • Nun Bezug nehmend auf 2 ist eine Betriebsumgebung gezeigt, die ein mobiles Fahrzeugkommunikationssystem 100 umfasst, das die sprachbasierte Nutzerschnittstelle (SUI) 10 enthält und das dazu verwendet werden kann, die hier offenbarten Verfahren zu implementieren. Das Kommunikationssystem 100 weist allgemein das Fahrzeug 12 und seine Audionutzerschnittstelle 14, eine Mobilvorrichtung 16, Sprachdienste 24 und Cloud-Dienste 28 wie auch einiges der Systeminfrastruktur, die in 1 nicht gezeigt ist, auf, einschließlich einem oder mehreren drahtlosen Trägersystemen 34 sowie einem Landkommunikationsnetzwerk bzw. Festnetz 36. Andere optionale Ausstattungen, Einrichtungen und Systeme können enthalten sein, wie ein Computer 37, ein Rufcenter 38, eine in einer Wohnung befindliche oder andere fixierte Einrichtung 39 für Local Area Network, ein Satellitenkommunikationssystem mit fixierter Antenne 54 und einem oder mehreren Satelliten 56 und auch eine Konstellation 58 aus GPS-Satelliten zur Navigation. Es sei zu verstehen, dass das offenbarte Verfahren mit einer beliebigen Anzahl verschiedener Systeme verwendet werden kann und nicht auf die Betriebsumgebung, die hier gezeigt ist, spezifisch beschränkt ist. Auch sind die Architektur, die Konstruktion, die Einrichtung sowie der Betrieb der Komponenten des Systems 100, die hier nicht beschrieben sind, in der Technik allgemein bekannt. Somit sehen die folgenden Absätze einfach einen kurzen Überblick über ein derartiges Kommunikationssystem 10 vor; jedoch können andere Systeme, die nicht gezeigt sind, das offenbarte Verfahren genauso gut anwenden.
  • Das Fahrzeug 12 ist in der gezeigten Ausführungsform als ein Geländewagen (SUV) gezeigt, jedoch sei angemerkt, dass irgendein anderes Fahrzeug einschließlich Personenkraftwagen, Lastwägen, Motorrädern, Wohnmobilen (RVs von engl.: „recreational vehicle“), Schiffe, Flugzeuge, etc. genauso verwendet werden können. Einiges der Fahrzeugelektronik 29 ist in 2 allgemein gezeigt und umfasst eine Telematik- oder Telefonieeinheit 30, die drahtlos mit dem Trägersystem 34 über eine Antenne 32 und eine andere Schaltung kommuniziert, die dem Fachmann bekannt ist. Fahrzeugelektronik 29 weist auch die Audionutzerschnittstelle 14 auf, die eine Antenne 40 zur Kurzbereichsdrahtloskommunikation, ein Mikrofon 42, einen oder mehrere Druckknöpfe oder andere Steuereingänge 44 sowie einen oder mehrere Lautsprecher 46 aufweist. Andere Nutzerschnittstellenkomponenten können in dem Fahrzeug oder als ein Teil der Audionutzerschnittstelle 14 enthalten sein, wie ein visuelles Display (nicht gezeigt). Die Audionutzerschnittstelle 14 kann ein im Wesentlichen allein stehender Satz von Komponenten sein, der nur über die Antenne 40 kommuniziert, oder kann in andere Module oder Abschnitte des Elektroniksystems des Fahrzeugs verdrahtet oder anderweitig verschaltet sein, wie mit der Telefonieeinheit 30 und/oder einem Fahrzeugbus. Die Audionutzerschnittstelle 14 kann mit dem Fahrzeug 12 verdrahtet sein, um ein Lüftungsgebläse, eine Radiolautstärke etc. während einer Sprachsitzung herunter zu regeln. Der hier verwendete Begriff „Audionutzerschnittstelle“ umfasst breit jegliche geeignete Installation eines Mikrofons und Lautsprechers in dem Fahrzeug, einschließlich sowohl Hardware- als auch beliebiger Softwarekomponenten, die einem Fahrzeugnutzer ermöglichen, verbal mit dem Fahrzeug oder anderen Vorrichtungen in dem Fahrzeug, wie einer mobilen Vorrichtung 16, zu kommunizieren. Das Mikrofon 42 liefert einen Audioeingang, der über die Kurzbereichsdrahtlosverbindung unter Verwendung einer Antenne 40 gesendet werden kann. Ein oder mehrere Druckknöpfe 44 erlauben einen manuellen Nutzereingang in die Audionutzerschnittstelle, um Aktionen auszulösen, wie den Start einer Sprachsitzung, bei der das Mikrofon 42 und der Lautsprecher 46 verwendet werden, den Nutzer mit Freihanddiensten in dem Fahrzeug zu versehen, wie zum Ausführen drahtloser Telefongespräche oder Zugriff auf Daten, Bereitstellen einer Fernsteuerung oder Bereitstellen von Nachrichten- und Kommunikationsdiensten. Der Druckknopf kann an einem geeigneten Punkt für den Fahrer angeordnet sein, wie an der Lenkradnabe oder den Lenkradspeichen. Der Lautsprecher 46 kann ein einzelner Lautsprecher sein, der zur Verwendung mit der Audionutzerschnittstelle 14 zweckgebunden ist, oder kann mit anderen Komponenten oder Systemen integriert sein, wie einem Radiosystemlautsprecher.
  • Bei der gezeigten Ausführungsform ist die Telefonieeinheit 30 eine optionale Komponente, die nicht bei der Ausführung des Betriebs der Sprachnutzerschnittstelle (SUI) 10 verwendet wird, sondern bei anderen Ausführungsformen in der Audionutzerschnittstelle als ein einzelnes funktionales Modul enthalten und darin integriert sein kann. Die Telefonieeinheit 30 kann eine OEM-installierte (eingebettete) oder Zubehörmarktvorrichtung sein, die in dem Fahrzeug installiert ist und drahtlose Stimm- und/oder Datenkommunikation über ein Drahtlosträgersystem 34 und über Drahtlosnetzwerk ermöglicht. Dies erlaubt die Kommunikation des Fahrzeugs mit einem Rufcenter 38, anderen telematikunterstützten Fahrzeugen oder irgendeiner anderen Einheit oder Vorrichtung. Die Telefonieeinheit nutzt bevorzugt Radioübertragungen, um einen Kommunikationskanal (einen Stimmkanal und/oder einen Datenkanal) mit dem Drahtlosträgersystem 34 herzustellen, so dass Stimm- und/oder Datenübertragungen über den Kanal gesendet und empfangen werden können. Durch Bereitstellung von sowohl Stimm- als auch Datenkommunikation erlaubt die Telefonieeinheit 30, dass das Fahrzeug eine Anzahl verschiedener Dienste bietet, einschließlich denen in Verbindung mit Navigation, Telefonie, Notfallassistenz, Diagnose, Infotainment, etc. Die Daten können entweder über eine Datenverbindung, wie über eine Paketdatenübertragung mittels eines Datenkanals, oder über einen Stimmkanal unter Verwendung von in der Technik bekannten Techniken gesendet werden. Für kombinierte Dienste, die sowohl Stimmkommunikation (z.B. mit einem lebenden Betreuer oder einer Stimmantworteinheit an dem Rufcenter 38) als auch Datenkommunikation (z.B. um GPS-Ortungsdaten oder Fahrzeugdiagnosedaten an den Rufcenter 38 zu liefern) betreffen, kann das System einen einzelnen Anruf über einen Stimmkanal verwenden und nach Bedarf zwischen Stimm- und Datenübertragung über den Stimmkanal schalten, und dies kann unter Verwendung von Techniken durchgeführt werden, die dem Fachmann bekannt sind. Für Ortungsdienste kann die Telefonieeinheit ihre eigene GPS-Schaltung besitzen oder kann andere verfügbare GPS-Vorrichtungen verwenden, wie eine, die in dem Fahrzeug als Teil eines Fahrzeugnavigationssystems installiert ist, oder eine von der mobilen Vorrichtung 16 nutzen.
  • Das Drahtlosträgersystem 34 ist bevorzugt ein Zellulartelefonsystem, das eine Mehrzahl von Mobilfunkmasten 50 (nur einer gezeigt), eines oder mehrerer Mobilfunk-Vermittlungscenter (MSCs) 52 wie auch andere Netzwerkkomponenten umfasst, die erforderlich sind, um ein Drahtlosträgersystem 34 mit einem Festnetz 36 zu verbinden. Jeder Mobilfunkmast 50 umfasst Sende- und Empfangsantennen sowie eine Basisstation, wobei die Basisstationen von verschiedenen Mobilfunkmasten mit dem MSC 52 entweder direkt oder über Zwischenausstattung verbunden sind, wie einen Basisstationscontroller. Das Zellularsystem 34 kann eine beliebige geeignete Kommunikationstechnologie implementieren, einschließlich beispielsweise analoge Technologien, wie AMPS, oder den neueren digitalen Technologien, wie CDMA (z.B. CDMA2000) oder GSM/GPRS. Wie es in der Technik angemerkt sei, sind verschiedene Mobilfunkmast/Basisstation/MSC-Anordnungen möglich und können mit dem Drahtlossystem 34 verwendet werden. Beispielsweise können die Basisstation und der Mobilfunkmast gemeinsam an demselben Ort angeordnet sein oder sie können entfernt voneinander angeordnet sein, jede Basisstation kann für einen einzelnen Mobilfunkmast verantwortlich sein oder eine einzelne Basisstation kann verschiedene Mobilfunkmasten bedienen, und verschiedene Basisstationen können mit einem einzelnen MSC gekoppelt sein, um nur einige der möglichen Anordnungen zu nennen.
  • Abgesehen von der Verwendung des Drahtlosträgersystems 34 kann ein anderes Drahtlosträgersystem in der Form einer Satellitenkommunikation verwendet werden, um eine unidirektionale oder bidirektionale Kommunikation mit dem Fahrzeug bereitzustellen. Dies kann unter Verwendung eines oder mehrerer Kommunikationssatelliten 56 sowie einer Uplink-Übertragungsstation 54 durchgeführt werden. Eine unidirektionale Kommunikation können beispielsweise Satellitenradiodienste sein, wobei Programminhalt (Neuigkeiten, Musik, etc.) von der Übertragungsstation 54 empfangen wird, zum Upload gepackt wird und dann an den Satelliten 52 gesendet wird, der das Programm an Kunden sendet. Die bidirektionale Kommunikation können beispielsweise Satellitentelefoniedienste sein, die einen Satelliten 56 verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 12 und der Station 54 zu schalten. Wenn diese Satellitentelefonie verwendet ist, kann sie entweder zusätzlich zu oder anstelle des Drahtlosträgersystems 34 verwendet werden.
  • Das Festnetz 36 kann ein herkömmliches landbasiertes Telekommunikationsnetzwerk sein, das mit einem oder mehreren Festnetztelefonen verbunden ist und das Drahtlosträgersystem 34 mit solchen Dingen verbindet, wie Sprachdiensten 24, Cloud-Diensten 28 sowie anderen Computern oder Servern 37, wie einem Personalcomputer, der in einer Wohnung 39 oder einer anderen Einrichtung platziert ist. Beispielsweise kann das Festnetz 36 ein Fernsprechnetz (PSTN von engl.: „public switched telephone network“) aufweisen, wie eines, das dazu verwendet wird, Festnetztelefonie, paketgeschaltete Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetzes 36 können durch die Verwendung eines Standarddrahtnetzes, eines Faser- oder anderen optischen Netzwerks, eines Kabelnetzwerks, Stromleitungen, anderer drahtloser Netzwerke, wie drahtlose Local Area Networks (WLANs) oder Netzwerke, die einen Breitbanddrahtloszugriff (BWA von engl.: „broadband wireless access“) bereitstellen, oder eine Kombination daraus implementiert sein. Ferner müssen die verschiedenen Sprach- und Cloud-Dienste, die in 2 gezeigt sind, nicht über das Festnetz 36 verbunden sein, sondern können Drahtlostelefonieausstattung aufweisen, so dass sie direkt mit einem Drahtlosnetzwerk, wie einem Drahtlosträgersystem 34 kommunizieren können.
  • Der Computer 37 kann einer einer Anzahl von Computern sein, auf die über ein privates oder öffentliches Netzwerk, wie das Internet, zugegriffen werden kann. Jeder derartige Computer 37 kann für einen oder mehrere Zwecke verwendet werden, wie als ein Webserver, auf den durch das Fahrzeug über den Drahtlosträger 34 durch eine Audionutzerschnittstelle 14/Mobilvorrichtung 16 und/oder über Telefonieeinheit 30 zugegriffen wird. Andere derartige darauf zugreifbare Computer 37 können beispielsweise sein: ein Dienstcentercomputer, wo Diagnoseinformation und andere Fahrzeugdaten von dem Fahrzeug über die Telefonieeinheit 30 hochgeladen bzw. upgeloaded werden können; ein Clientcomputer, der von dem Fahrzeugeigner oder einem anderen Telematikdienstkunden für solche Zwecke wie Zugriff oder Empfang von Fahrzeugdaten oder Einrichten oder Konfigurieren von Kundenpräferenzen oder Steuern von Fahrzeugfunktionen verwendet wird; oder ein Drittmagazin, zu oder von dem Fahrzeugdaten oder andere Information bereitgestellt werden. Ein Computer 37 kann auch zur Bereitstellung einer Internetkonnektivität verwendet werden, wie DNS-Dienste, oder als ein Netzwerkadressserver, der DHCP oder ein anderes geeignetes Protokoll verwendet, um dem Fahrzeug 12 und/oder der Mobilvorrichtung 16 eine IP-Adresse zuzuweisen. Bei Verwendung als ein Clientcomputer 37 durch den Fahrzeugeigner, wie innerhalb einer Wohnung 39, kann die Drahtloskonnektivität zwischen der Mobilvorrichtung 16 und dem Computer 37 unter Verwendung irgendeiner geeigneten Kurzbereichsdrahtloskommunikationstechnologie bereitgestellt werden, wie Bluetooth oder eines der 802.11-Protokolle.
  • In 2 ist als einer der Cloud-Dienste ein Rufcenter 38 gezeigt, der dazu verwendet werden kann, den Fahrzeugbediener und/oder die Fahrzeugelektronik 29 mit einer Anzahl verschiedener fahrzeugbezogener Dienste sowie System-Back-End-Funktionen zu versehen. Diese umfassen solche Dinge, wie Straßen- oder Notfallassistenz, Diagnose- und Wartungsunterstützung, Entertainmentdienste, Information sowie Navigationsassistenz, etc., wie es in der Technik bekannt ist. Diese Rufcenterdienste können bereitgestellt werden, um diejenigen zu ergänzen, die dem Fahrzeugbediener über die Sprachnutzerschnittstelle 10 zugänglich sind, oder als Ausweichmöglichkeit in dem Fall, wenn der Bediener Schwierigkeiten mit der Sprachnutzerschnittstelle hat.
  • Obwohl sie außerhalb des Fahrzeugs in den 1 und 2 ausschließlich zur schematischen Darstellung gezeigt ist, betrifft der typische Gebrauch der Mobilvorrichtung 16 als Teil der Sprachnutzerschnittstelle 10 Umstände, bei denen die Mobilvorrichtung in dem Fahrzeug angeordnet ist, wie beispielsweise, wenn der Fahrer das Fahrzeug auf der Straße betreibt. Einige der grundsätzlichen funktionalen Hardware- und Softwarekomponenten der Mobilvorrichtung 16 sind in 3 gezeigt. Gemäß der Ausführungsform, die gezeigt ist, ist die Mobilvorrichtung 16 ein Smartphone, das eine Zellularkommunikation gemäß GSM- und/oder CDMA-Standards verwendet und somit einen Standardzellularchipsatz 61 und eine Antenne 62 zur Stimm- und Datenkommunikation, Antennen 63 und 64 und ihre zugeordnete Schaltung für Bluetooth- bzw. WiFi-Drahtlosverbindungen, eine elektronische Verarbeitungsvorrichtung 65, eine oder mehrere Digitalspeichervorrichtungen 66 und einen GPS-Empfänger 67 aufweist.
  • Der Prozessor 65 kann ein beliebiger Typ von Vorrichtung sein, der in der Lage ist, elektronische Anweisungen zu verarbeiten, einschließlich Mikroprozessoren, Mikrocontroller, Hostprozessoren, Controller, Fahrzeugkommunikationsprozessoren sowie anwendungsspezifische integrierte Schaltungen (ASICs). Der Prozessor 65 führt verschiedene Typen digital gespeicherter Anweisungen aus, wie Software- und Firmwareprogramme, die in dem Speicher 66 gespeichert sind. Dies umfasst das Vorrichtungs-OS 26, die mobile Fahrzeugplattform 18 sowie jegliche installierte Apps 68, die alle in dem Speicher 66 gespeichert sein können.
  • Das GPS-Modul 67 empfängt Funksignale von einer Konstellation 58 aus GPS-Satelliten. Von diesen Signalen kann das Modul 67 eine Mobilvorrichtungsposition bestimmen, die zur Bereitstellung von Navigation und anderen positionsbezogenen Diensten verwendet wird. Die Navigationsinformation kann an dem Display 69 der Vorrichtung angezeigt werden oder kann verbal über den der Vorrichtung eigenen Lautsprecher (nicht gezeigt) oder über die Audionutzerschnittstelle 14 präsentiert werden, wie es zum Liefern einer Navigation von Kurve um Kurve gemacht wird.
  • Allgemein kann die Sprachnutzerschnittstelle 10 teilweise unter Verwendung der mobilen Stimmplattform 18 realisiert sein, die auf dem Vorrichtungs-OS 26 läuft und mit installierten Apps 68, Cloud-Diensten 28 oder beiden koppelt, um Dienste für den Nutzer auf Grundlage seiner Spracheingabe auszuführen. Weitere Einzelheiten der mobilen Stimmplattform und ihrer Interaktion mit den anderen Komponenten der Mobilvorrichtung 16 sind in den 4 und 5 gezeigt.
  • 4 zeigt andere Programmmodule, von denen jedes Computeranweisungen bereitstellt, die bei Ausführung durch den Prozessor 65 ihre programmierten Funktionen unter Verwendung des Vorrichtungs-OS 26 ausführen, um mit den verschiedenen Hardwareabschnitten der Vorrichtung 16 zu koppeln. Die mobile Stimmplattform 18 weist den Sprachplattformkern (SPK) 20 sowie eine App-Schnittstellenfolge (AIS) 22 auf. Der SPK 20 weist ein App-Auslösermodul 21 auf, das dazu verwendet wird, einen Dienstanruf von dem SPK 20 zu einem Dienst an der Vorrichtung (z.B. eine der Apps 68) oder in der Cloud (z.B. einen der Cloud-Dienste 28) auszulösen. Die AIS 22 weist eine Anzahl einzelner Anwendungsdienstschnittstellen 23 auf, von denen jede einem der verschiedenen Dienste zugeordnet ist, die an der mobilen Stimmplattform 18 verfügbar sind. Die einzelnen Funktionen, die durch die verschiedenen Schichten ausgeführt werden, sind wie folgt:
  • Vorrichtungs-OS 26:
  • stellt eine zugrunde liegende Kommunikation mit Bluetooth und Vorrichtungskonnektivitätssteuerungen bereit
    stellt Medienabspieler-Funktionen der Mobilvorrichtung bereit, um zu bewirken, dass Audiodateien durch die Lautsprecher gespielt werden
    stellt eine mikrofonbetriebenes Spracherkennungssystem zum Umwandeln gesprochener Sprache in ein Textäquivalent bereit
    stellt Mechanismen zur Kommunikation zwischen Anwendungen bereit
  • Sprachplattformkern 20:
  • verwaltet die gesamte High-Level-Bluetooth-Integration mit dem Fahrzeug 12
    sieht konsistentes Vokabular und Mechanismen zum Behandeln gemeinsamer Sprachinteraktionen vor, wie Fehlschlag, Verzeihung (habe sie nicht verstanden) und Beenden
    verarbeitet umgewandelte Sprache-zu-Text in Befehlsstrukturen zur Verwendung durch Apps
    behält High-Level-App-Präferenzen bei, die mit Bluetoothvorrichtungen in Verbindung stehen, Anforderungsmanagement
    sieht Protokollierungs- und Sicherheitsmanagement vor
    Hält eine Steuerung über Audio- und Mikrofonkanäle einschließlich Audiofokus und Verstärkungsniveaus zu geeigneten Zeiten bei
  • Dienstschnittstellen 23:
  • verwenden ein standardisiertes Befehls/Parameter-I/O-Protokoll zur Kopplung mit dem SPK
    definieren die Grammatik, die diese zur Auslösung unterstützt
    definieren die Grammatik, die diese unterstützt, wenn die App aktiv ist
    verarbeiten ankommende Sprache-zu-Text-Befehlsstrukturen, die von dem SPK 20 bereitgestellt werden, und wandeln diese in gewünschte Aktionen um verbinden mit Cloud-Diensten, um Information, die erforderlich ist, um die Anforderung zu verarbeiten, zu senden und zu empfangen
    sehen jegliche gewünschte Nutzerschnittstelle des Vorrichtungsdisplays 69 vor
  • Wie oben und in 4 angegeben ist, läuft der SPK 20 an dem oberen Teil des Betriebssystems 26 und handhabt die gesamte Steuerung und Führung von Nachrichten, die für die mobile Stimmplattform verwendet werden. Der SPK 20 sieht die Befehle zwischen den Modulen vor, um den grundsätzlichen Prozessfluss der Sprachsitzung gemäß der Methodologie, die oben in Verbindung mit 1 diskutiert und in den 6 - 8 gezeigt ist, auszuführen. Während einer Sprachsitzung, in der ein Eingang (z.B. eine Anforderung oder ein Befehl) von einem Nutzer empfangen wird, handhabt das SPK 20 Sprachverarbeitung der Spracherkennungsergebnisse, die durch den cloudbasierten automatischen Spracherkennungs-(ASR)-Dienst rückgeführt werden. Dies wird unter Verwendung einer Nach-ASR-Dienstidentifizierungsgrammatik durchgeführt, die speziell mit einem Vokabular ausgelegt ist, das dazu bestimmt ist, einen gewünschten Dienst oder Sitzungskontext aus den Spracherkennungsergebnissen zu identifizieren. In diese Funktionalität ist eine Fehlerhandhabung und ein Aufbau von Antworten natürlicher Sprache zum Rückführen einer Sprachantwort an den Nutzer eingebaut. Ein Sitzungskontext (z.B. Navigation gegenüber Nachrichten gegenüber Speisereservierungen) kann ebenfalls an dem SPK 20 unter Verwendung dieser ersten Grammatik bestimmt werden, und der Sitzungskontext kann dazu verwendet werden, die Auswahl von Diensten, die durch den SPK 20 gewählt sind, weiter zu beschränken oder die Nach-ASR-Verarbeitung des Spracherkennungsergebnisses zu unterstützen. Jede Sprachsitzung besitzt zumindest einen Kontext; dies bedeutet, zumindest eine betreffende Domäne, der die Spracheingabe des Nutzers zugeordnet ist. Die verschiedenen Cloud-Dienste, die in den 1 und 2 gezeigt sind, geben einige der verschiedenen Sitzungskontexte an, die identifiziert und unterschieden werden können. Für jede Sprachsitzung können ein Primärsitzungskontext und ein oder mehrere ergänzende Dienstkontexte vorhanden sein. Beispielsweise kann das Durchführen von Speisereservierungen einen Speisesitzungskontext aufrufen, bei denen die Primärnachrichteninhalte, nach denen nachgefragt wird, eine Identifizierung eines Restaurants, einer Anzahl von Leuten in der Veranstaltung, Reservierungszeit, etc. umfassen. Es kann auch einen Navigationskontext aufrufen, bei dem Richtungen zu dem Restaurant gewünscht sind. Oder ein Nachrichtenkontext, bei dem die Benachrichtigung der Reservierung mit anderen geteilt wird. Der SPK 20 bestimmt nicht nur einen Primärsitzungskontext, sondern auch einen oder mehrere ergänzende, wenn geeignet, und identifiziert für jeden einen geeigneten Cloud- oder installierten Dienst.
  • Die Sprachdienste, die in den 1 und 2 identifiziert sind, können in verschiedenen Wegen und in einigen Ausführungsformen implementiert sein, können einmalig ausgelegt sein oder können spezifische Grammatik oder Modelle enthalten, die derart ausgelegt sind, die Sprachnutzerschnittstelle 10 zu unterstützen. Bei anderen Ausführungsformen wird ein generalisierter Cloud-ASR-Dienst verwendet; dies bedeutet, einen, bei dem, obwohl er Parameterspezifikationen für bestimmte Sprachmodelle oder andere allgemeine Konfigurationen der Spracherkennungsmaschine erlauben kann, keine Grammatik verwendet, die auf die Sitzungskontexte zugeschnitten ist, die für die Nutzersprachsitzung erwartet werden. Die Androidsprachfunktionalität, die von Google verfügbar ist, stellt ein Beispiel eines generalisierten Cloud-ASR-Dienstes dar.
  • Sobald der SPK 20 einen gewünschten Dienst identifiziert oder anderweitig bestimmt hat, nutzt er die App-Auslösung 21, um den gewählten Dienst über eine Dienstschnittstelle 23, die diesem Dienst zugeordnet ist, zu starten. Wie in 4 angegeben ist, interagieren einige der Dienstschnittstellen 23 nur mit den Cloud-Diensten oder nur mit Cloud-Diensten und der Vorrichtungsnutzerschnittstelle (z.B. Display 69), während andere mit den installierten Apps (z.B. App 4) koppeln, die selbst auf Cloud-Dienste unter Verwendung der Schnittstelle des Betriebssystems zu den Cloud-Diensten zugreifen können.
  • Nun Bezug nehmend auf 5 ist ein weiteres Detail der Dienstschnittstellen 23 gezeigt. Jede Dienstschnittstelle 23 weist eine SPK-Nachrichtenstrukturschnittstelle auf, die dem standardisierten I/O-Protokoll folgt, das von dem SPK 20 für Datentransfers zu den Dienstschnittstellen verwendet wird. Dies sieht einen gemeinsamen Rahmen zur Interaktion mit der mobilen Sprachplattform vor, so dass auf neue Dienste durch Erzeugung einer Dienstschnittstelle zugegriffen werden kann, die die I/O-Spezifikation des SPK 20 erfüllt, während der SPK 20 die Befehle und Parameter identifiziert werden, die erforderlich sind, um Ergebnisse von dem Dienst aufzurufen und zu empfangen. Die Dienstschnittstelle umfasst eine Befehlsverarbeitung, die eine dienstspezifische Grammatik nutzt, um eine Dienstanforderung aufzubauen und dann diese Dienstanforderung an den Cloud-Dienst oder die installierte App über das OS 26 zu senden. Die dienstspezifische Grammatik ist eine, die Vokabular aufweist, das zum Auslösen und Befehlen des Dienstes verwendet wird.
  • Das App-Auslösungmodul 21 des SPK 20 kann mit derselben Struktur implementiert sein, wie die Dienstschnittstellen, mit Ausnahme, dass es eine Schnittstelle für einen speziellen Zweck ist, die von dem SPK 20 verwendet wird, um eine gewählte Dienstschnittstelle zu kontaktieren, um den Dienst auszulösen und die erforderlichen Befehle und Parameter, die von dem Dienst verwendet werden, durchzulassen.
  • 6 zeigt ein Flussdiagramm einer vollständigen Sprachsitzung, die dazu verwendet werden kann, einen freihändigen oder sogar vollständig freihändigen Betrieb der Mobilvorrichtung durch einen Fahrer in einem Fahrzeug bereitzustellen.
  • 7 und 8 sehen detaillierte Beispiele einer vollständigen Sprachsitzung vor, die verschiedene Zwischen-Modul- und Zwischen-Vorrichtungs-Anrufe und -Abfolgen zeigt, um einen Dienst anzufordern, ein Ergebnis zu erhalten und dieses dem Fahrzeugfahrer bereitzustellen, und zwar alles über die Audionutzerschnittstelle 14.

Claims (6)

  1. Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist, mit den Schritten: (a) Herstellen einer Kurzbereichsdrahtlosverbindung zwischen einer Mobilvorrichtung und einer oder mehreren Audiovorrichtungen, die zumindest ein Mikrophon und einen Lautsprecher aufweisen; (b) Empfangen von Sprache, die über das Mikrophon von einem Nutzer eingegeben und über die Kurzbereichsdrahtlosverbindung gesendet worden ist, an der Mobilvorrichtung; (c) drahtloses Übertragen der Spracheingabe von der Mobilvorrichtung an einen Spracherkennungsserver, der automatische Spracherkennung (ASR) bereitstellt; (d) Empfangen eines Spracherkennungsergebnisses, das den Inhalt der Spracheingabe repräsentiert, an der Mobilvorrichtung; (e) Bestimmen eines gewünschten Dienstes durch Verarbeiten des Spracherkennungsergebnisses unter Verwendung einer ersten Dienst identifizierenden Grammatik, was umfasst, dass sowohl ein Primärsitzungskontext als auch ein oder mehrere ergänzende Sitzungskontexte identifiziert und ein gewünschter Dienst, der dem Primärsitzungskontext zugeordnet ist, und ein ergänzender Dienst für jeden der ergänzenden Sitzungskontexte bestimmt werden; (f) Bestimmen einer Nutzerdienstanforderung durch Verarbeiten zumindest eines Teils des Spracherkennungsergebnisses unter Verwendung einer zweiten dienstspezifischen Grammatik, die dem gewünschten Dienst zugeordnet ist; (g) Auslösen der Nutzerdienstanforderung und Empfangen einer Dienstantwort; (h) Erzeugen einer Audionachricht aus der Dienstantwort; und (i) an den Nutzer erfolgendes Präsentieren der Audionachricht über den Lautsprecher.
  2. Verfahren nach Anspruch 1, wobei der ASR-Server einen generalisierten Dritt-Clouddienst umfasst und wobei der Schritt (c) ferner ein Senden der Spracheingabe zu dem generalisierten Dritt-Clouddienst umfasst.
  3. Verfahren nach Anspruch 1, wobei das Verfahren unter Verwendung eines Fahrzeugs mit einer installierten Audionutzerschnittstelle ausgeführt wird, wobei der Schritt (a) ferner ein Herstellen der Kurzbereichsdrahtlosverbindung zwischen der Mobilvorrichtung und der Audionutzerschnittstelle umfasst und wobei der Schritt (i) ferner ein Senden der Audionachricht an die Audionutzerschnittstelle über die Kurzbereichsdrahtlosverbindung zur hörbaren Präsentation in dem Fahrzeug umfasst.
  4. Verfahren nach Anspruch 1, wobei der Schritt (g) ein Senden der Dienstanforderung an eine an der Mobilvorrichtung installierte Anwendung und ein Empfangen der Dienstantwort von der installierten Anwendung umfasst.
  5. Verfahren nach Anspruch 1, wobei der Schritt (g) ein Senden der Dienstanforderung an einen Clouddienst und ein Empfangen der Dienstantwort von dem Clouddienst umfasst.
  6. Verfahren nach Anspruch 1, wobei der Schritt (h) ein Erzeugen einer Textantwort auf Grundlage der Dienstantwort, ein Senden der Textantwort an einen Cloud-Text-zu Sprache- (TTS)-Dienst über ein Drahtloskommunikationssystem und ein Empfangen der Audionachricht von dem TTS-Dienst über das Drahtloskommunikationssystem umfasst.
DE102012218938.6A 2011-10-18 2012-10-17 Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist Active DE102012218938B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161548720P 2011-10-18 2011-10-18
US61/548,720 2011-10-18
US13/628,703 US9159322B2 (en) 2011-10-18 2012-09-27 Services identification and initiation for a speech-based interface to a mobile device
US13/628,703 2012-09-27

Publications (2)

Publication Number Publication Date
DE102012218938A1 DE102012218938A1 (de) 2013-04-18
DE102012218938B4 true DE102012218938B4 (de) 2019-04-18

Family

ID=47990938

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012218938.6A Active DE102012218938B4 (de) 2011-10-18 2012-10-17 Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist

Country Status (3)

Country Link
US (1) US9159322B2 (de)
CN (1) CN103067443B (de)
DE (1) DE102012218938B4 (de)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9183835B2 (en) 2011-10-18 2015-11-10 GM Global Technology Operations LLC Speech-based user interface for a mobile device
US9326088B2 (en) 2011-10-21 2016-04-26 GM Global Technology Operations LLC Mobile voice platform architecture with remote service interfaces
KR101193668B1 (ko) * 2011-12-06 2012-12-14 위준성 스마트 기기를 이용한 상황 인식 기반 외국어 습득 및 학습 서비스 제공 방법
JP5928048B2 (ja) * 2012-03-22 2016-06-01 ソニー株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび端末装置
KR101987255B1 (ko) * 2012-08-20 2019-06-11 엘지이노텍 주식회사 음성 인식 장치 및 이의 음성 인식 방법
US9875494B2 (en) 2013-04-16 2018-01-23 Sri International Using intents to analyze and personalize a user's dialog experience with a virtual personal assistant
DE102014109121B4 (de) * 2013-07-10 2023-05-04 Gm Global Technology Operations, Llc Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes
US20150317973A1 (en) 2014-04-30 2015-11-05 GM Global Technology Operations LLC Systems and methods for coordinating speech recognition
US9652451B2 (en) * 2014-05-08 2017-05-16 Marvin Elder Natural language query
US11327711B2 (en) * 2014-12-05 2022-05-10 Microsoft Technology Licensing, Llc External visual interactions for speech-based devices
US10339481B2 (en) * 2016-01-29 2019-07-02 Liquid Analytics, Inc. Systems and methods for generating user interface-based service workflows utilizing voice data
US11283742B2 (en) * 2016-09-27 2022-03-22 Bragi GmbH Audio-based social media platform
CN107978312A (zh) * 2016-10-24 2018-05-01 阿里巴巴集团控股有限公司 一种语音识别的方法、装置及系统
US9900440B1 (en) 2016-11-18 2018-02-20 International Business Machines Corporation Context-driven teleconference session management
US10600418B2 (en) 2016-12-07 2020-03-24 Google Llc Voice to text conversion based on third-party agent content
KR102458343B1 (ko) * 2016-12-26 2022-10-25 삼성전자주식회사 음성 데이터를 송수신하는 디바이스 및 방법
CN107277153B (zh) * 2017-06-30 2020-05-26 百度在线网络技术(北京)有限公司 用于提供语音服务的方法、装置和服务器
KR102406718B1 (ko) * 2017-07-19 2022-06-10 삼성전자주식회사 컨텍스트 정보에 기반하여 음성 입력을 수신하는 지속 기간을 결정하는 전자 장치 및 시스템
KR102396147B1 (ko) * 2017-08-22 2022-05-10 삼성전자 주식회사 음성 명령을 이용한 동작을 수행하는 전자 장치 및 전자 장치의 동작 방법
CA3073757A1 (en) * 2017-09-06 2019-03-14 Landis+Gyr Innovations, Inc. Voice-activated energy management system
US20190172452A1 (en) * 2017-12-06 2019-06-06 GM Global Technology Operations LLC External information rendering
DE102018200088B3 (de) 2018-01-04 2019-06-13 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Verarbeiten einer Spracheingabe, Kraftfahrzeug und Nutzerendgerät mit einer Sprachverarbeitung
KR102508677B1 (ko) * 2018-03-08 2023-03-13 삼성전자주식회사 사용자 발화를 처리하는 시스템 및 그 시스템의 제어 방법
WO2019236444A1 (en) * 2018-06-05 2019-12-12 Voicify, LLC Voice application platform
FR3088473B1 (fr) * 2018-11-09 2021-05-28 Psa Automobiles Sa Procede et dispositif d’assistance a l’utilisation d’un assistant vocal dans un vehicule
BR112021006261A2 (pt) * 2018-11-27 2021-07-06 Inventio Ag método e dispositivo para a emissão de uma mensagem de voz acústica em um sistema de elevador
CN113129891A (zh) * 2021-04-29 2021-07-16 平顶山聚新网络科技有限公司 一种汽车使用指导系统及方法
DE102021111176A1 (de) * 2021-04-30 2022-11-03 Cariad Se Kommunikationssystem und Verfahren zur Steuerung einer Fahrzeugfunktion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212970B2 (en) 1998-09-22 2007-05-01 Nokia Corporation Method and system of configuring a speech recognition system
US20080140408A1 (en) 2006-06-13 2008-06-12 Basir Otman A Vehicle communication system with news subscription service
US20100151788A1 (en) 2008-01-18 2010-06-17 Aliphcom, Inc. Headset and Audio Gateway System for Execution of Voice Input Driven Applications
WO2011088053A2 (en) 2010-01-18 2011-07-21 Apple Inc. Intelligent automated assistant

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748974A (en) * 1994-12-13 1998-05-05 International Business Machines Corporation Multimodal natural language interface for cross-application tasks
US5805775A (en) * 1996-02-02 1998-09-08 Digital Equipment Corporation Application user interface
US6233559B1 (en) * 1998-04-01 2001-05-15 Motorola, Inc. Speech control of multiple applications using applets
US6606599B2 (en) * 1998-12-23 2003-08-12 Interactive Speech Technologies, Llc Method for integrating computing processes with an interface controlled by voice actuated grammars
WO2000072463A2 (en) * 1999-05-26 2000-11-30 Johnson Controls Interiors Technology Corp. Wireless communications system and method
US7437295B2 (en) * 2001-04-27 2008-10-14 Accenture Llp Natural language processing for a location-based services system
US20030030666A1 (en) * 2001-08-07 2003-02-13 Amir Najmi Intelligent adaptive navigation optimization
US7197460B1 (en) * 2002-04-23 2007-03-27 At&T Corp. System for handling frequently asked questions in a natural language dialog service
US7693720B2 (en) * 2002-07-15 2010-04-06 Voicebox Technologies, Inc. Mobile systems and methods for responding to natural language speech utterance
US7461352B2 (en) * 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
US7197278B2 (en) 2004-01-30 2007-03-27 Lear Corporation Method and system for communicating information between a vehicular hands-free telephone system and an external device using a garage door opener as a communications gateway
KR20050122720A (ko) 2004-06-25 2005-12-29 에스케이 텔레콤주식회사 음성을 이용한 사용자 인터페이스를 제공하는 이동 통신방법 및 시스템
US9224394B2 (en) 2009-03-24 2015-12-29 Sirius Xm Connected Vehicle Services Inc Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
US20070027848A1 (en) * 2005-07-29 2007-02-01 Microsoft Corporation Smart search for accessing options
US8332218B2 (en) * 2006-06-13 2012-12-11 Nuance Communications, Inc. Context-based grammars for automated speech recognition
EP2052323B1 (de) * 2006-08-02 2018-04-18 Intellectual Ventures Assets 20 LLC Ereignis-sharing
JP4524763B2 (ja) 2008-03-25 2010-08-18 株式会社デンソー 自動車用情報提供システム
US8355711B2 (en) * 2008-07-25 2013-01-15 Zerotouchdigital Collaborative computing for mobile devices
CN101635766A (zh) 2009-07-24 2010-01-27 上海大亚科技有限公司 车载蓝牙通讯终端装置及其实现方法
US9117453B2 (en) * 2009-12-31 2015-08-25 Volt Delta Resources, Llc Method and system for processing parallel context dependent speech recognition results from a single utterance utilizing a context database
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
US9183835B2 (en) 2011-10-18 2015-11-10 GM Global Technology Operations LLC Speech-based user interface for a mobile device
US9326088B2 (en) 2011-10-21 2016-04-26 GM Global Technology Operations LLC Mobile voice platform architecture with remote service interfaces
US20130103404A1 (en) 2011-10-21 2013-04-25 GM Global Technology Operations LLC Mobile voice platform architecture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212970B2 (en) 1998-09-22 2007-05-01 Nokia Corporation Method and system of configuring a speech recognition system
US20080140408A1 (en) 2006-06-13 2008-06-12 Basir Otman A Vehicle communication system with news subscription service
US20100151788A1 (en) 2008-01-18 2010-06-17 Aliphcom, Inc. Headset and Audio Gateway System for Execution of Voice Input Driven Applications
WO2011088053A2 (en) 2010-01-18 2011-07-21 Apple Inc. Intelligent automated assistant

Also Published As

Publication number Publication date
US20130197907A1 (en) 2013-08-01
CN103067443A (zh) 2013-04-24
US9159322B2 (en) 2015-10-13
CN103067443B (zh) 2017-04-12
DE102012218938A1 (de) 2013-04-18

Similar Documents

Publication Publication Date Title
DE102012218938B4 (de) Verfahren zur Bereitstellung von Freihanddiensten unter Verwendung einer Mobilvorrichtung, die einen drahtlosen Zugriff auf computerbasierte Dienste aufweist
DE102012218934A1 (de) Sprachbasierte Nutzerschnittstelle für eine Mobilvorrichtung
DE102019105269B4 (de) Verfahren zur spracherkennung mit spracherkennungs-arbitrierungslogik
DE102012205128B4 (de) Verfahren zum Verwenden eines Smartphones als Telematikvorrichtungsschnittstelle
DE102012219020A1 (de) Architektur für mobile stimmplattform
US9326088B2 (en) Mobile voice platform architecture with remote service interfaces
US9679562B2 (en) Managing in vehicle speech interfaces to computer-based cloud services due recognized speech, based on context
DE102015110015B4 (de) Verfahren und Prozessor zum Aktualisieren von Datenstrukturen bei einem Mobilfunknetzdienstwechsel
DE102018128006A1 (de) Natürlichsprachliche generierung basierend auf dem benutzersprachstil
DE102018103188B4 (de) Verfahren zur spracherkennung in einem fahrzeug zur verbesserung der aufgabenerledigung
DE112009005365B4 (de) Verfahren und systeme zum weiterleiten von anrufen an ein call-center basierend auf gesprochenen sprachen
DE102012220796B4 (de) Verfahren zum Initiieren eines Freisprechkonferenzgesprächs
DE102014111816A1 (de) Fahrzeugtelematikeinheit und Verfahren zum Bedienen dieser
DE112010002210T5 (de) Ausführen von Freihand-Bedienung einer elektronischen Kalenderanwendung in einem Fahrzeug
DE102019111529A1 (de) Automatisierte spracherkennung unter verwendung einer dynamisch einstellbaren hörzeitüberschreitung
DE102012211496A1 (de) Verbesserte anpassung eines smartphones im fahrzeug
DE102016123616A1 (de) Bestimmen eines Standorts eines Fahrzeugbenutzers nach einem Kollisionsereignis
DE102018125966A1 (de) System und verfahren zur erfassung von stichworten in einer unterhaltung
DE102008061382A1 (de) Synchronisieren von Online-Adressbuchquellen für einen Fahrzeugbenutzer
DE102015117380B4 (de) Selektive Geräuschunterdrückung während automatischer Spracherkennung
DE102015106319B4 (de) Verfahren zum Betreiben einer Fahrzeug-Multitainment-Einheit zur Aktualisierung mit Inhalt von einer mobilen Einrichtung
DE102015105876A1 (de) Verfahren zum Bereitstellen einer Betreiberunterstützung unter Verwendung eines Telematikdienstsystems eines Fahrzeugs
DE102018128003A1 (de) Neuronales netzwerk zum anwenden bei der spracherkennungsarbitrierung
DE102019115685A1 (de) Sprachaktivierter fahrzeugalarm
DE102006002730B4 (de) Ferneinleitung eines Dreiergesprächs an einer Telematikeinheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final