DE102006056286B4 - Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug - Google Patents

Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug Download PDF

Info

Publication number
DE102006056286B4
DE102006056286B4 DE102006056286.0A DE102006056286A DE102006056286B4 DE 102006056286 B4 DE102006056286 B4 DE 102006056286B4 DE 102006056286 A DE102006056286 A DE 102006056286A DE 102006056286 B4 DE102006056286 B4 DE 102006056286B4
Authority
DE
Germany
Prior art keywords
vehicle
text elements
pronunciation information
text
specific pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102006056286.0A
Other languages
English (en)
Other versions
DE102006056286A1 (de
Inventor
Stefan Sellschopp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Priority to DE102006056286.0A priority Critical patent/DE102006056286B4/de
Priority to PCT/EP2007/009073 priority patent/WO2008064742A1/de
Priority to CN2007800382076A priority patent/CN101523483B/zh
Publication of DE102006056286A1 publication Critical patent/DE102006056286A1/de
Application granted granted Critical
Publication of DE102006056286B4 publication Critical patent/DE102006056286B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug, bei welchem folgende Schritte durchgeführt werden: a) Bereitstellen von Textelementen in einer fahrzeugexternen Einheit; b) Erzeugen und Bereitstellen von spezifischen Ausspracheinformationen für die jeweiligen Textelemente; c) Übermitteln der Textelemente und der spezifischen Ausspracheinformationen an eine fahrzeuginterne Verarbeitungseinheit; d) Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen; e) Wiedergabe der Textelemente unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug, wobei die Textelemente und die spezifischen Ausspracheinformationen im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen werden, wobei in der fahrzeuginternen Einheit vor der grundlegenden Inbetriebnahme des Sprachausgabesystems Basis-Textelemente mit zugeordneten Basis-Ausspracheinformationen abgespeichert werden, wobei in das Fahrzeug übertragene Textelemente mit Basis-Textelementen verglichen werden und bei einem Abweichen die spezifischen Ausspracheinformationen der Textelemente für die Sprachausgabe des Textes berücksichtigt werden, und wobei die Texte durch entsprechende Lautschriften ergänzt werden.

Description

  • Die Erfindung betrifft ein Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug.
  • In Fahrzeugen sind vorhandene Systeme bekannt, beispielsweise Navigationssysteme, welche als Textbausteine abgelegte Informationen durch Sprachsignale akustisch wiedergeben können. Diese Systeme sind auf abgelegte Basis-Textelemente beschränkt und lediglich die zugrunde gelegten Textelemente können durch Sprache wiedergegeben werden. Eine Erweiterung derartiger Systeme ist nicht möglich.
  • Darüber hinaus sind Systeme bekannt, bei denen extern empfangene Textinformationen durch Sprache im Fahrzeug wiedergegeben werden können. Ein wesentliches Problem dabei ist die eindeutige und verständliche Wiedergabe dieser Textinformationen durch Sprache.
  • Aus der US 2004/0049390 A1 ist ein Verfahren bekannt, bei dem auf einem Server abgelegte Textinhalte zu einem Browser gesendet werden und dann diese Textinhalte als Sprache ausgegeben werden. Die Textinhalte können mit personifizierter Sprachcharakteristik versehen sein und entsprechend ausgegeben werden.
  • Des Weiteren ist aus der US 5,899,975 A ein Verfahren bekannt, bei dem Web-Seiten mittels eines Sprachsynthesizers als Sprache ausgegeben werden.
  • Ferner ist aus Sellschopp, Stefan: „Audi Personal News auf Basis NewsService Journaline®”. Präsentation Medientage München am 20.10.2006 (http://www.medientage-muenchen.de/archiv/2006/sellschopp_stefan.pdf) gezeigt, dass Text und Bildinformationen in ein Fahrzeug übertragen werden können und dort eine Sprachausgabe erfolgen kann.
  • Daher ist es Aufgabe der vorliegenden Erfindung, ein Verfahren zu schaffen, mit dem die Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug verbessert werden kann.
  • Diese Aufgabe wird durch ein Verfahren, welches die Merkmale nach Patentanspruch 1 aufweist, gelöst.
  • Bei einem erfindungsgemäßen Verfahren werden Textinformationen durch Sprachsignale in einem Fahrzeug wiedergegeben. Die wiederzugebenden Textinformationen werden als Textelemente in einer fahrzeugexternen Einheit bereitgestellt. Die Textelemente können auch in dieser fahrzeugexternen Einheit prinzipiell erzeugt werden.
  • Des Weiteren werden spezifische Ausspracheinformationen für die jeweiligen Textelemente erzeugt und bereitgestellt. Die Textelemente und die spezifischen Ausspracheinformationen werden an eine fahrzeuginterne Verarbeitungseinheit übertragen bzw. übermittelt. Die spezifischen Ausspracheinformationen werden den jeweiligen Textelementen zugeordnet. Die Textelemente werden unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug wiedergegeben. Durch diese Vorgehensweise kann eine Vielzahl unterschiedlicher und individueller Textinformationen durch eine wesentlich verbesserte Sprachwiedergabe in dem Fahrzeug mitgeteilt werden. Insbesondere durch die externe Optimierung der Textinformationen mit den als spezifischen Ausspracheinformationen bereitgestellten Hilfsinformationen kann die Eindeutigkeit und Verständlichkeit der Sprachsignale wesentlich erhöht werden. Dadurch kann auch die Wiedergabe komplexester Texte eindeutiger und verständlicher erfolgen.
  • Die Textelemente und die spezifischen Ausspracheinformationen werden im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen.
  • Bevorzugt wird das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugextern durchgeführt. Dadurch kann die Flexibilität der wiederzugebenden Texte erhöht werden. Des Weiteren kann der im Fahrzeug benötigte elektronische Speicherplatz wesentlich reduziert werden.
  • Das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen kann jedoch auch fahrzeugintern durchgeführt werden.
  • Die Ausspracheinformationen werden bevorzugt in einer Datenbank abgelegt, welche bedarfsabhängig nach den jeweils erforderlichen Informationen durchsucht wird.
  • Die Textelemente und die spezifischen Ausspracheinformationen werden im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen.
  • Bevorzugt werden die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in einer standardisierten Form erzeugt. Bevorzugt kann dabei vorgesehen sein, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in SSML-(Sprachsynthese Markup Language)-Sprache erzeugt wird.
  • Es werden in der fahrzeuginternen Einheit bzw. Verarbeitungseinheit vor der grundlegenden Inbetriebnahme, und somit vor der Auslieferung an den Endkunden) des Sprachausgabesystems Basis-Textelemente mit zugeordneten Basis-Ausspracheinformationen abgespeichert.
  • Es werden in das Fahrzeug übertragene Textelemente mit Basis-Textelementen verglichen und bei einem Abweichen der spezifischen Ausspracheinformationen der Textelemente für die korrekte Sprachausgabe des Textes berücksichtigt.
  • Bevorzugt werden die Textelemente und die spezifischen Ausspracheinformationen über digitale Broadcastmedien, insbesondere über ein digitales Rundfunknetz, übertragen.
  • Unter Textelemente werden sowohl einzelne Worte als auch Satzteile oder gesamte Sätze umfasst. Es können auch mehr Sätze unter einem Textelement gefasst werden.
  • Sprachsynthese erzeugt aus Textinformationen Sprachsignale, indem die Textinformationen nach hinterlegten Mustern und Ausspracheschemata vorgelesen werden. Die zugrunde gelegte Software zur Sprachausgabe wird als Sprachsynthese oder Text to Speech(TTS)-Engine bezeichnet. Die TTS-Engine kann durch Ergänzung des Textes um Ausspracheinformationen zu einzelnen Wörtern oder Satzstrukturen, wie Grammatiken, in der Aussprache unterstützt werden. Dies kann beispielsweise bei Navigationssystemen eingesetzt werden. Die TTS-Engine weist den Vorteil auf, dass man ohne natürlichen Sprecher arbeiten kann und auch noch nachträglich neue so genannte Prompts, also Textausgaben, erzeugen kann. Die durch die optimale TTS-Engine erzeugten Audiofiles werden im Fahrzeug abgelegt und durch Events angesprochen, vergleichbar der heutigen Navigationsausgaben, bei denen beispielsweise abhängig von einem Erreichen eines bestimmten Abstands zu einem nächsten Ziel durch ein Sprachsignal angegeben wird, das ein Abbiegen nach 200 m links erfolgen soll. Die Satzteile werden aus den Bausteinen dynamisch zusammengebaut, welche im Fahrzeug gespeichert sind. Diese Basis-Textelemente sind als grundlegende Informationen in dem System abgelegt, um eine prinzipielle Funktionalität im Hinblick auf eine Sprachausgabe von Textinformationen generell gewährleisten zu können. Dies ist jedoch ein fester vorgegebener und begrenzter Satz von Textelementen, welcher für verschiedenste Textinformationen und Darstellungen nicht ausreicht.
  • Durch das erfindungsgemäße Verfahren bzw. eine vorteilhafte Ausgestaltung davon kann nun eine Optimierung dieser Sprachausgabe von verschiedensten Textinformationen erreicht werden, indem dieses Optimieren im Wesentlichen außerhalb des Fahrzeugs in einer fahrzeugexternen Einheit erfolgt. Bei der Optimierung werden dann für die TTS-Engine spezifische Transskripts, also Lautsprache, erzeugt. Diese können entweder dynamisch ins Fahrzeug übertragen werden oder nach dem Übertragen im Fahrzeug gespeichert werden. Anschließend erfolgt dann die akustische Audioausgabe im Fahrzeug. Diese auszusprechenden Texte mit Hilfsinhalten bzw. spezifischen Ausspracheinformationen können im Fahrzeug durch eine vergleichbare TTS-Engine analog zu einer so genannten Offboardumsetzung in eine Audioausgabe umgesetzt werden. Ein wesentlicher Vorteil, welcher dadurch erreicht werden kann, ist darin zu sehen, dass man nachträglich neue und vielfältigste unterschiedliche Inhalte von Textinformationen ins Fahrzeug bringen kann und mit verbesserter Sprachausgabe durch das System wiedergeben kann. So können insbesondere über Broadcastmedien drahtlos übertragene Text-Nachrichteninformationen übertragen werden und durch Sprachsignale im Fahrzeug eindeutig ausgegeben werden. Die als spezifische Ausspracheinformationen extern erzeugten Hilfsinhalte können dann zu einer eindeutigen Aussprache im Fahrzeug beitragen und eine erhebliche Verbesserung der Verständlichkeit gewährleisten. Für die Aussprache optimierte Inhalte können auch über einen Nachrichtendienst ans Fahrzeug übertragen werden.
  • Die TTS-Engine kann die Optimierung interpretieren und eine zufrieden stellende Ausgabe durchführen. Darüber hinaus wird durch das Verfahren eine erhebliche Reduzierung des erforderlichen Speicherplatzes erreicht, da die Speicherung von Text inklusive Optimierung in Textform etwa 10 bis 100 mal weniger Speicher benötigt, als die Ablage einer Vielzahl von Basis-Textelementen mit zugeordneten Basis-Ausspracheinformationen als grundlegende Wortbasis in einem derartigen System. Bevorzugt wird somit Offboard bzw. fahrzeugextern eine Optimierung der Textinformationen im Hinblick auf die Sprachdarstellung durchgeführt und das Audiofile erzeugt und im Fahrzeug nur das Audiofile ausgegeben.
  • Bevorzugt ist dann vorgesehen, dass die Beschreibung der Sprachoptimierung in einer standardisierten Form durchgeführt wird, damit unterschiedliche TTS-Engines die Inhalte gleich interpretieren können. Dies ist insbesondere bei dynamisch eingebrachten Nachrichten besonders vorteilhaft, da diese von allen Empfängern verarbeitet werden müssen. Ein möglicher Standard für die Sprachoptimierung ist die SSML-Sprache, aus der zum Beispiel ein Subset definiert werden kann und den dann die entsprechenden Empfängersysteme unterstützen und den die Sendeeinheiten liefern.
  • Besonders vorteilhaft erweist sich eine Vorgehensweise, bei der eine automatische Optimierung der Sprachausgabe von verschiedensten Textinformationen zugrunde gelegt wird. Beispielweise kann hier vorgesehen sein, dass die Textinformationen, die für den Nachrichtendienst ausgesendet werden, laufend aktualisiert werden, so dass eine manuelle Überprüfung der Inhalte auf Aussprechverhalten sehr aufwändig ist. Durch die automatische Optimierung kann dies verbessert werden.
  • Eine beispielhafte Vorgehensweise im Hinblick auf die automatische Optimierung kann vorsehen, dass zunächst Texte importiert werden und eine Aussprachedatenbank mit spezifischen Ausspracheinformationen geladen wird. Dann wird ein Vergleich der Textelemente der übertragenen Texte mit Basis-Textelementen durchgeführt und die Texte werden durch entsprechende Lautschriften ergänzt. Da sowohl für die Basis-Textelemente bereits vorab gespeicherte und zugeordnete Ausspracheinformationen vorliegen und auch für die mit den Texten übertragenen Textelemente spezifische Ausspracheinformationen vorhanden sind, kann der gesamte Text mit individuellen Ausspracheinformationen zugrunde gelegt werden und mit bestmöglicher Aussprache ausgeführt werden. Auch dann, wenn Textteile übertragen werden, welche durch die Basis-Textelemente nicht bekannt oder abgedeckt werden, können dann auch diese quasi nicht bekannten Textelemente eindeutig und klar durch Sprachsignale dargestellt werden, da auch denen spezifische Ausspracheinformationen zugeordnet sind, welche individuell Offboard erstellt und zusätzlich als Hilfsinformationen mit übertragen werden.
  • Die Ausgabe des gesamten Textes kann dann automatisch erfolgen oder zu einem vom Fahrzeugnutzer bestimmten Moment wiedergegeben werden. Somit kann der Fahrzeugnutzer Zeitpunkt und Dauer der Wiedergabe selbst bestimmen.
  • Darüber hinaus kann vorgesehen sein, dass eine Nachbearbeitung, insbesondere eine manuelle Nachbearbeitung, durch einen Redakteur erfolgen kann. Dadurch kann eine nochmalige Verbesserung erreicht werden und quasi ein Lernmodus initiiert werden.

Claims (7)

  1. Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug, bei welchem folgende Schritte durchgeführt werden: a) Bereitstellen von Textelementen in einer fahrzeugexternen Einheit; b) Erzeugen und Bereitstellen von spezifischen Ausspracheinformationen für die jeweiligen Textelemente; c) Übermitteln der Textelemente und der spezifischen Ausspracheinformationen an eine fahrzeuginterne Verarbeitungseinheit; d) Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen; e) Wiedergabe der Textelemente unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug, wobei die Textelemente und die spezifischen Ausspracheinformationen im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen werden, wobei in der fahrzeuginternen Einheit vor der grundlegenden Inbetriebnahme des Sprachausgabesystems Basis-Textelemente mit zugeordneten Basis-Ausspracheinformationen abgespeichert werden, wobei in das Fahrzeug übertragene Textelemente mit Basis-Textelementen verglichen werden und bei einem Abweichen die spezifischen Ausspracheinformationen der Textelemente für die Sprachausgabe des Textes berücksichtigt werden, und wobei die Texte durch entsprechende Lautschriften ergänzt werden.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugextern durchgeführt wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugintern durchgeführt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausspracheinformationen in einer Datenbank abgelegt werden, welche bedarfsabhängig durchsucht wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in einer standardisierten Form erzeugt werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in SSML-Sprache erzeugt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Textelemente und die spezifischen Ausspracheinformationen über Broadcastmedien, insbesondere über ein digitales Rundfunknetz, übertragen werden.
DE102006056286.0A 2006-11-29 2006-11-29 Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug Expired - Fee Related DE102006056286B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102006056286.0A DE102006056286B4 (de) 2006-11-29 2006-11-29 Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug
PCT/EP2007/009073 WO2008064742A1 (de) 2006-11-29 2007-10-19 Verfahren zur wiedergabe von textinformationen durch sprache in einem fahrzeug
CN2007800382076A CN101523483B (zh) 2006-11-29 2007-10-19 在汽车中通过语音再现文本信息的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102006056286.0A DE102006056286B4 (de) 2006-11-29 2006-11-29 Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug

Publications (2)

Publication Number Publication Date
DE102006056286A1 DE102006056286A1 (de) 2008-06-12
DE102006056286B4 true DE102006056286B4 (de) 2014-09-11

Family

ID=38988102

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006056286.0A Expired - Fee Related DE102006056286B4 (de) 2006-11-29 2006-11-29 Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug

Country Status (3)

Country Link
CN (1) CN101523483B (de)
DE (1) DE102006056286B4 (de)
WO (1) WO2008064742A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015211101A1 (de) * 2015-06-17 2016-12-22 Volkswagen Aktiengesellschaft Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015107601A1 (de) 2014-05-16 2015-11-19 Ford Global Technologies, Llc Vorrichtung und Verfahren zur Spracherkennung, insbesondere in einem Fahrzeug
DE102014209358A1 (de) 2014-05-16 2015-11-19 Ford Global Technologies, Llc Vorrichtung und Verfahren zur Spracherkennung, insbesondere in einem Fahrzeug
CN105606117A (zh) * 2014-11-18 2016-05-25 深圳市腾讯计算机系统有限公司 导航提示方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899975A (en) * 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
EP1047046A2 (de) * 1999-04-20 2000-10-25 Matsushita Electric Industrial Co., Ltd. Verteilte Architektur zum Trainieren eines Spracherkennungssystems
DE19942869A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
EP1220200A1 (de) * 2000-12-18 2002-07-03 Siemens Aktiengesellschaft Verfahren und Anordnung zur sprecherunabhängigen Spracherkennung für ein Telekommunikations- bzw. Datenendgerät
US20040049390A1 (en) * 2000-12-02 2004-03-11 Hewlett-Packard Company Voice site personality setting
DE10324198A1 (de) * 2003-05-28 2004-12-23 Traveltainer Beteiligungs-Gmbh Verfahren und Vorrichtung zur Bereitstellung von Informationen im Fahrzeug
DE112004001539T5 (de) * 2003-08-21 2006-06-29 General Motors Corp. (N.D.Ges.D. Staates Delaware), Detroit Spracherkennung bei einem Fahrzeugradiosystem
EP1086450B1 (de) * 1998-06-17 2006-08-16 Yahoo! Inc. Intelligente text-sprache-umsetzung
DE102005061505A1 (de) * 2005-12-22 2007-07-12 Audi Ag Verfahren zum Bereitstellen von Informationen in einem Fahrzeug

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19503419A1 (de) * 1995-02-03 1996-08-08 Bosch Gmbh Robert Verfahren und Einrichtung zur Ausgabe von digital codierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5899975A (en) * 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
EP1086450B1 (de) * 1998-06-17 2006-08-16 Yahoo! Inc. Intelligente text-sprache-umsetzung
EP1047046A2 (de) * 1999-04-20 2000-10-25 Matsushita Electric Industrial Co., Ltd. Verteilte Architektur zum Trainieren eines Spracherkennungssystems
DE19942869A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
US20040049390A1 (en) * 2000-12-02 2004-03-11 Hewlett-Packard Company Voice site personality setting
EP1220200A1 (de) * 2000-12-18 2002-07-03 Siemens Aktiengesellschaft Verfahren und Anordnung zur sprecherunabhängigen Spracherkennung für ein Telekommunikations- bzw. Datenendgerät
DE10324198A1 (de) * 2003-05-28 2004-12-23 Traveltainer Beteiligungs-Gmbh Verfahren und Vorrichtung zur Bereitstellung von Informationen im Fahrzeug
DE112004001539T5 (de) * 2003-08-21 2006-06-29 General Motors Corp. (N.D.Ges.D. Staates Delaware), Detroit Spracherkennung bei einem Fahrzeugradiosystem
DE102005061505A1 (de) * 2005-12-22 2007-07-12 Audi Ag Verfahren zum Bereitstellen von Informationen in einem Fahrzeug

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SELLSCHOPP, STEFAN: "Audi Personal News auf Basis NewsService Journaline®". Präsentation Medientage München am 20.10.2006. Stefan Sellschopp, AUDI AG. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015211101A1 (de) * 2015-06-17 2016-12-22 Volkswagen Aktiengesellschaft Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server

Also Published As

Publication number Publication date
CN101523483A (zh) 2009-09-02
DE102006056286A1 (de) 2008-06-12
WO2008064742A1 (de) 2008-06-05
CN101523483B (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
DE60222093T2 (de) Verfahren, modul, vorrichtung und server zur spracherkennung
EP1892700A1 (de) Verfahren zur Spracherkennung und Sprachwiedergabe
DE102007052055A1 (de) Kraftfahrzeug mit einer Sprachschnittstelle
DE102006029251B4 (de) Verfahren und System für einen Telefonbuchtransfer
WO1998010413A1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
DE102006056286B4 (de) Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
EP1058235B1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit text-basierter Sprachsynthese
DE102009021124A1 (de) Bediensystem für ein Fahrzeug
DE102014200570A1 (de) Verfahren und System zur Erzeugung eines Steuerungsbefehls
EP1105867A1 (de) Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten
EP0725382B1 (de) Verfahren und Einrichtung zur Ausgabe von digital kodierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache
DE102019213848A1 (de) Erzeugung eines modifizierten Audiosignals aus einem Audioquellsignal
DE10311581A1 (de) Verfahren und System zum automatisierten Erstellen von Sprachwortschätzen
EP1110203B1 (de) Vorrichtung und verfahren zur digitalen sprachbearbeitung
DE60022976T2 (de) Spracherkennungseinrichtung mit transfermitteln
EP1344211B1 (de) Vorrichtung und verfahren zur differenzierten sprachausgabe
EP2592623B1 (de) Technik zur Ausgabe eines akustischen Signals mittels eines Navigationssystems
DE102011113052A1 (de) Verfahren zur fahrzeuggerechten Darbietung von Texten und Grafiken über einen Internetdienst
EP3020039B1 (de) Verfahren und einrichtung zur identifizierung und ausgabe des inhalts eines hinweistextes
DE10163277A1 (de) Verfahren zum Versenden einer Nachricht an eine Rufnummer, sowie Vorrichtung hierfür
DE102012006837A1 (de) Verfahren zum Verfassen und Korrigieren von Textnachrichten durch einen Fahrer eines Kraftfahrzeugs während einer Fahrt
WO2015197341A1 (de) Verfahren, vorrichtung und produkt zum erleichterten erlernen einer fremdsprache

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee