WO2008064742A1 - Verfahren zur wiedergabe von textinformationen durch sprache in einem fahrzeug - Google Patents

Verfahren zur wiedergabe von textinformationen durch sprache in einem fahrzeug Download PDF

Info

Publication number
WO2008064742A1
WO2008064742A1 PCT/EP2007/009073 EP2007009073W WO2008064742A1 WO 2008064742 A1 WO2008064742 A1 WO 2008064742A1 EP 2007009073 W EP2007009073 W EP 2007009073W WO 2008064742 A1 WO2008064742 A1 WO 2008064742A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
text elements
pronunciation information
text
information
Prior art date
Application number
PCT/EP2007/009073
Other languages
English (en)
French (fr)
Inventor
Stefan Sellschopp
Original Assignee
Audi Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi Ag filed Critical Audi Ag
Priority to CN2007800382076A priority Critical patent/CN101523483B/zh
Publication of WO2008064742A1 publication Critical patent/WO2008064742A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Definitions

  • the invention relates to a method for reproducing text information by voice in a vehicle.
  • text information is reproduced by voice signals in a vehicle.
  • the text information to be reproduced is provided as text elements in an off-vehicle unit.
  • the text elements can also be generated in principle in this vehicle-external unit.
  • specific pronunciation information for the respective text elements is generated and provided.
  • the text elements and the specific pronunciation information are transmitted to an in-vehicle processing unit.
  • the specific pronunciation information is assigned to the respective text elements.
  • the text elements are reproduced in the vehicle taking into account the specific pronunciation information by an electronic speech device. By doing so, a variety of different and individual textual information can be communicated through much improved voice reproduction in the vehicle.
  • the external optimization of the text information with the auxiliary information provided as specific pronunciation information the uniqueness and intelligibility of the speech signals can be substantially increased. As a result, the reproduction of the most complex texts can be made clearer and more comprehensible.
  • the assignment of the specific pronunciation information to the respective text elements is preferably carried out outside the vehicle. This can increase the flexibility of the texts to be displayed. Furthermore, the electronic storage space required in the vehicle can be significantly reduced.
  • the assignment of the specific pronunciation information to the respective text elements can also be carried out in-vehicle.
  • the pronunciation information is preferably stored in a database, which is searched depending on the information required in each case.
  • the text elements and the specific pronunciation information are preferably transmitted to the vehicle during operation of the vehicle, in particular transmitted wirelessly.
  • the specific pronunciation information and / or the assignment to the text elements are preferably generated in a standardized form. It can preferably be provided that the specific pronunciation information and / or the assignment to the text elements is generated in SSML (Speech Synthesis Markup Language) language.
  • SSML Sound Synthesis Markup Language
  • basic text elements with associated basic pronunciation information are stored in the in-vehicle unit or processing unit prior to basic commissioning, and thus prior to delivery to the end user) of the speech output system.
  • Preferably text elements transmitted to the vehicle are compared with basic text elements and taken into account in a deviation of the specific pronunciation information of the text elements for the correct speech output of the text.
  • the text elements and the specific pronunciation information are preferred over digital broadcast media, in particular via a digital broadcast network . , transfer.
  • Text elements include both single words and phrases or entire sentences. You can also put more sentences under one text element.
  • Speech synthesis generates speech signals from text information by reading the text information according to stored patterns and pronunciation schemes.
  • the underlying voice output software is referred to as a speech synthesis or Text to Speech (TTS) engine.
  • TTS Text to Speech
  • the TTS engine can be supported by adding pronunciation information to individual words or sentence structures, such as grammars, in the pronunciation. This can be used for example in navigation systems.
  • the TTS engine has the advantage that you can work without a natural speaker and even later can create new so-called prompts, so text editions.
  • the audio files generated by the optimized TTS engine are stored in the vehicle and addressed by events, comparable to today's navigation outputs, in which, for example, is indicated by reaching a certain distance to a next destination by a voice signal, turning left after 200 m should be done.
  • the phrases are dynamically assembled from the building blocks stored in the vehicle.
  • These basic text elements are stored as basic information in the system in order to be able to guarantee a general functionality with regard to a speech output of text information in general.
  • this is a fixed and limited set of text elements, which is not sufficient for a variety of text information and representations.
  • an optimization of this speech output from a wide variety of text information can now be achieved by optimizing this essentially outside the vehicle in a vehicle-external unit.
  • specific transcriptions ie spoken language, are generated for the TTS engine. These can either be transmitted to the vehicle dynamically or stored in the vehicle after transmission.
  • auxiliary content or specific pronunciation information can be converted in the vehicle by a comparable TTS engine analogous to a so-called Offboarduma in an audio output.
  • a significant advantage, which can be achieved thereby, is to be seen in the fact that one can subsequently bring new and diverse different contents of text information into the vehicle and can reproduce it with improved speech output by the system.
  • the auxiliary content generated externally as specific pronunciation information can then contribute to a clear pronunciation in the vehicle and ensure a considerable improvement in intelligibility.
  • Content optimized for pronunciation can also be transmitted to the vehicle via a message service.
  • the TTS engine can interpret the optimization and perform a satisfactory output.
  • the method achieves a significant reduction of the required memory space, since the storage of text including optimization in text form requires about 10 to 100 times less memory than the storage of a plurality of basic text elements with associated base pronunciation information as the basic word base in such a system.
  • an optimization of the text information with regard to the voice representation is performed off-board or vehicle-externally and the audio file is generated and only the audio file is output in the vehicle.
  • the description of the language optimization is carried out in a standardized form, so that different TTS engines can interpret the contents the same.
  • This is special For dynamically introduced messages particularly advantageous because they must be processed by all recipients.
  • a possible standard for language optimization is the SSML language, from which, for example, a subset can be defined and then supported by the corresponding receiver systems and supplied by the transmitting units.
  • Particularly advantageous is a procedure in which an automatic optimization of the speech output of a variety of text information is used.
  • the text information sent out for the message service is constantly updated, so that a manual checking of the content for speech behavior is very complex. This can be improved by the automatic optimization.
  • An exemplary approach to automatic optimization may provide that texts are first imported and a pronunciation database loaded with specific pronunciation information. Then a comparison of the text elements of the transmitted texts with basic text elements is carried out and the texts are supplemented by corresponding phonetic transcripts. Since pre-recorded and associated pronunciation information is already available for the basic text elements and specific pronunciation information is also available for the text elements transmitted with the texts, the entire text can be based on individual pronunciation information and executed with the best possible pronunciation. Even if text passages are transmitted which are not known or covered by the basic text elements, then these quasi-unknown text elements can also be clearly and clearly represented by voice signals since specific pronunciation information is also assigned to them, which individually creates offbeat and additionally transmitted as auxiliary information.
  • the output of the entire text can then be done automatically or played back at a moment determined by the vehicle user.
  • the vehicle user can determine the time and duration of the playback itself.
  • a post-processing in particular a manual post-processing done by an editor can.
  • a further improvement can be achieved and, as it were, a learning mode can be initiated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug, bei welchem folgende Schritte durchgeführt werden: a) Bereitstellen von Textelementen in einer fahrzeugexternen Einheit; b) Erzeugen und Bereitstellen von spezifischen Ausspracheinformationen für die jeweiligen Textelemente; c) Übermitteln der Textelemente und der spezifischen Ausspracheinformationen an eine fahrzeuginterne Verarbeitungseinheit; d) Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen; e) Wiedergabe der Textelemente unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug.

Description

Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem
Fahrzeug
BESCHREIBUNG:
Die Erfindung betrifft ein Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug.
In Fahrzeugen sind vorhandene Systeme bekannt, beispielsweise Navigati- onssysteme, welche als Textbausteine abgelegte Informationen durch Sprachsignale akustisch wiedergeben können. Diese Systeme sind auf abgelegte Basis-Textelemente beschränkt und lediglich die zugrunde gelegten Textelemente können durch Sprache wiedergegeben werden. Eine Erweiterung derartiger Systeme ist nicht möglich.
Darüber hinaus sind Systeme bekannt, bei denen extern empfangene Textinformationen durch Sprache im Fahrzeug wiedergegeben werden können. Ein wesentliches Problem dabei ist die eindeutige und verständliche Wiedergabe dieser Textinformationen durch Sprache.
Daher ist es Aufgabe der vorliegenden Erfindung, ein Verfahren zu schaffen, mit dem die Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug verbessert werden kann.
Diese Aufgabe wird durch ein Verfahren, welches die Merkmale nach Patentanspruch 1 aufweist, gelöst.
Bei einem erfindungsgemäßen Verfahren werden Textinformationen durch Sprachsignale in einem Fahrzeug wiedergegeben. Die wiederzugebenden Textinformationen werden als Textelemente in einer fahrzeugexternen Einheit bereitgestellt. Die Textelemente können auch in dieser fahrzeugexternen Einheit prinzipiell erzeugt werden. Des Weiteren werden spezifische Ausspracheinformationen für die jeweiligen Textelemente erzeugt und bereitgestellt. Die Textelemente und die spezifischen Ausspracheinformationen werden an eine fahrzeuginterne Verarbeitungseinheit übertragen bzw. übermittelt. Die spezifischen Ausspracheinfor- mationen werden den jeweiligen Textelementen zugeordnet. Die Textelemente werden unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug wiedergegeben. Durch diese Vorgehensweise kann eine Vielzahl unterschiedlicher und individueller Textinformationen durch eine wesentlich verbesserte Sprachwiedergabe in dem Fahrzeug mitgeteilt werden. Insbesondere durch die externe Optimierung der Textinformationen mit den als spezifischen Ausspracheinformationen bereitgestellten Hilfsinformationen kann die Eindeutigkeit und Verständlichkeit der Sprachsignale wesentlich erhöht werden. Dadurch kann auch die Wiedergabe komplexester Texte eindeutiger und ver- ständlicher erfolgen.
Bevorzugt wird das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugextern durchgeführt. Dadurch kann die Flexibilität der wiederzugebenden Texte erhöht werden. Des Weiteren kann der im Fahrzeug benötigte elektronische Speicherplatz wesentlich reduziert werden.
Das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen kann jedoch auch fahrzeugintern durchgeführt werden.
Die Ausspracheinformationen werden bevorzugt in einer Datenbank abgelegt, welche bedarfsabhängig nach den jeweils erforderlichen Informationen durchsucht wird.
Die Textelemente und die spezifischen Ausspracheinformationen werden bevorzugterweise im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen.
Bevorzugt werden die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in einer standardisierten Form erzeugt. Bevorzugt kann dabei vorgesehen sein, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in SSML- (Sprachsynthese Markup Language)-Sprache erzeugt wird. Bevorzugt werden in der fahrzeuginternen Einheit bzw.- Verarbeitungseinheit vor der grundlegenden Inbetriebnahme, und somit vor der Auslieferung an den Endkunden) des Sprachausgabesystems Basis-Textelemente mit zugeordneten Basis-Ausspracheinformationen abgespeichert.
Bevorzugt werden in das Fahrzeug übertragene Textelemente mit Basis- Textelementen verglichen und bei einem Abweichen der spezifischen Ausspracheinformationen der Textelemente für die korrekte Sprachausgabe des Textes berücksichtigt.
Bevorzugt werden die Textelemente und die spezifischen Ausspracheinformationen über digitale Broadcastmedien, insbesondere über ein digitales Rundfunknetz., übertragen.
Unter Textelemente werden sowohl einzelne Worte als auch Satzteile oder gesamte Sätze umfasst. Es können auch mehr Sätze unter einem Textelement gefasst werden.
Sprachsynthese erzeugt aus Textinformationen Sprachsignale, indem die Textinformationen nach hinterlegten Mustern und Ausspracheschemata vorgelesen werden. Die zugrunde gelegte Software zur Sprachausgabe wird als Sprachsynthese oder Text to Speech (TTS)-Engine bezeichnet. Die TTS- Engine kann durch Ergänzung des Textes um Ausspracheinformationen zu einzelnen Wörtern oder Satzstrukturen, wie Grammatiken, in der Aussprache unterstützt werden. Dies kann beispielsweise bei Navigationssystemen eingesetzt werden. Die TTS-Engine weist den Vorteil auf, dass man ohne natürlichen Sprecher arbeiten kann und auch noch nachträglich neue so genannte Prompts, also Textausgaben, erzeugen kann. Die durch die optimierte TTS- Engine erzeugten Audiofiles werden im Fahrzeug abgelegt und durch Events angesprochen, vergleichbar der heutigen Navigationsausgaben, bei denen beispielsweise abhängig von einem Erreichen eines bestimmten Abstands zu einem nächsten Ziel durch ein Sprachsignal angegeben wird, das ein Abbiegen nach 200 m links erfolgen soll. Die Satzteile werden aus den Bausteinen dynamisch zusammengebaut, welche im Fahrzeug gespeichert sind. Diese Basis-Textelemente sind als grundlegende Informationen in dem System abgelegt, um eine prinzipielle Funktionalität im Hinblick auf eine Sprachausgabe von Textinformationen generell gewährleisten zu können. Dies ist jedoch ein fest vorgegebener und begrenzter Satz von Textelementen , welcher für verschiedenste Textinformationen und Darstellungen nicht ausreicht. Durch das erfindungsgemäße Verfahren bzw. eine vorteilhafte Ausgestaltung davon kann nun eine Optimierung dieser Sprachausgabe von verschiedensten Textinformationen erreicht werden, indem dieses Optimieren im Wesent- liehen außerhalb des Fahrzeugs in einer fahrzeugexternen Einheit erfolgt. Bei der Optimierung werden dann für die TTS-Engine spezifische Transskripts, also Lautsprache, erzeugt. Diese können entweder dynamisch ins Fahrzeug übertragen werden oder nach dem Übertragen im Fahrzeug gespeichert werden. Anschließend erfolgt dann die akustische Audioausgabe im Fahrzeug. Diese auszusprechenden Texte mit Hilfsinhalten bzw. spezifischen Ausspracheinformationen können im Fahrzeug durch eine vergleichbare TTS-Engine analog zu einer so genannten Offboardumsetzung in eine Audioausgabe umgesetzt werden. Ein wesentlicher Vorteil, welcher dadurch erreicht werden kann, ist darin zu sehen, dass man nachträglich neue und vielfältigste unterschiedliche Inhalte von Textinformationen ins Fahrzeug bringen kann und mit verbesserter Sprachausgabe durch das System wiedergeben kann. So können insbesondere über Broadcastmedien drahtlos übertragene Text-Nachrichteninformationen übertragen werden und durch Sprachsignale im Fahrzeug eindeutig ausgegeben werden. Die als spezifi- sehe Ausspracheinformationen extern erzeugten Hilfsinhalte können dann zu einer eindeutigen Aussprache im Fahrzeug beitragen und eine erhebliche Verbesserung der Verständlichkeit gewährleisten. Für die Aussprache optimierte Inhalte können auch über einen Nachrichtendienst ans Fahrzeug ü- bertragen werden.
Die TTS-Engine kann die Optimierung interpretieren und eine zufrieden stellende Ausgabe durchführen. Darüber hinaus wird durch das Verfahren eine erhebliche Reduzierung des erforderlichen Speicherplatzes erreicht, da die Speicherung von Text inklusive Optimierung in Textform etwa 10 bis 100 mal weniger Speicher benötigt, als die Ablage einer Vielzahl von Basis- Textelementen mit zugeordneten Basis-Ausspracheinformationen als grundlegende Wortbasis in einem derartigen System. Bevorzugt wird somit Offboard bzw. fahrzeugextern eine Optimierung der Textinformationen im Hinblick auf die Sprachdarstellung durchgeführt und das Audiofile erzeugt und im Fahrzeug nur das Audiofile ausgegeben.
Bevorzugt ist dann vorgesehen, dass die Beschreibung der Sprachoptimierung in einer standardisierten Form durchgeführt wird, damit unterschiedliche TTS-Engines die Inhalte gleich interpretieren können. Dies ist insbesondere bei dynamisch eingebrachten Nachrichten besonders vorteilhaft, da diese von allen Empfängern verarbeitet werden müssen. Ein möglicher Standard für die Sprachoptimierung ist die SSML-Sprache, aus der zum Beispiel ein Subset definiert werden kann und den dann die entsprechenden Empfänger- Systeme unterstützen und den die Sendeeinheiten liefern.
Besonders vorteilhaft erweist sich eine Vorgehensweise, bei der eine automatische Optimierung der Sprachausgabe von verschiedensten Textinformationen zugrunde gelegt wird. Beispielweise kann hier vorgesehen sein, dass die Textinformationen, die für den Nachrichtendienst ausgesendet werden, laufend aktualisiert werden, so dass eine manuelle Überprüfung der Inhalte auf Aussprechverhalten sehr aufwändig ist. Durch die automatische Optimierung kann dies verbessert werden.
Eine beispielhafte Vorgehensweise im Hinblick auf die automatische Optimierung kann vorsehen, dass zunächst Texte importiert werden und eine Aussprachedatenbank mit spezifischen Ausspracheinformationen geladen wird. Dann wird ein Vergleich der Textelemente der übertragenen Texte mit Basis-Textelementen durchgeführt und die Texte werden durch entspre- chende Lautschriften ergänzt. Da sowohl für die Basis-Textelemente bereits vorab gespeicherte und zugeordnete Ausspracheinformationen vorliegen und auch für die mit den Texten übertragenen Textelemente spezifische Ausspracheinformationen vorhanden sind, kann der gesamte Text mit individuellen Ausspracheinformationen zugrunde gelegt werden und mit bestmöglicher Aussprache ausgeführt werden. Auch dann, wenn Textteile übertragen werden, welche durch die Basis-Textelemente nicht bekannt oder abgedeckt werden, können dann auch diese quasi nicht bekannten Textelemente eindeutig und klar durch Sprachsignale dargestellt werden, da auch denen spezifische Ausspracheinformationen zugeordnet sind, welche individuell Offbo- ard erstellt und zusätzlich als Hilfsinformationen mit übertragen werden.
Die Ausgabe des gesamten Textes kann dann automatisch erfolgen oder zu einem vom Fahrzeugnutzer bestimmten Moment wiedergegeben werden. Somit kann der Fahrzeugnutzer Zeitpunkt und Dauer der Wiedergabe selbst bestimmen.
Darüber hinaus kann vorgesehen sein, dass eine Nachbearbeitung, insbesondere eine manuelle Nachbearbeitung, durch einen Redakteur erfolgen kann. Dadurch kann eine nochmalige Verbesserung erreicht werden und quasi ein Lernmodus initiiert werden.

Claims

PATENTANSPRÜCHE:
1. Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug, bei welchem folgende Schritte durchgeführt werden: a) Bereitstellen von Textelementen in einer fahrzeugexternen Einheit; b) Erzeugen und Bereitstellen von spezifischen Ausspracheinformationen für die jeweiligen Textelemente; c) Übermitteln der Textelemente und der spezifischen Ausspracheinformationen an eine fahrzeug interne Verarbeitungseinheit; d) Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen; e) Wiedergabe der Textelemente unter Berücksichtigung der spezifischen Ausspracheinformationen durch eine elektronische Spracheinrichtung in dem Fahrzeug.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugextern durchgeführt wird.
3. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das Zuordnen der spezifischen Ausspracheinformationen zu den jeweiligen Textelementen fahrzeugintern durchgeführt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausspracheinformationen in einer Datenbank abgelegt werden, welche bedarfsabhängig durchsucht wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Textelemente und die spezifischen Ausspracheinformationen im Betrieb des Fahrzeugs in das Fahrzeug übertragen, insbesondere drahtlos übertragen, werden.
6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in einer standardisierten Form erzeugt werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die spezifischen Ausspracheinformationen und/oder die Zuordnung zu den Textelementen in SSML-Sprache erzeugt wird.
8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in der fahrzeuginternen Einheit vor der grundlegenden Inbetriebnahme des Sprachausgabesystems Basis-Textelemente mit zugeordneten Basis-Ausspracheinformationen abgespeichert werden.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass in das Fahrzeug übertragene Textelemente mit Basis-Textelementen verglichen werden und bei einem Abweichen die spezifischen Ausspracheinformationen der Textelemente für die Sprachausgabe des Textes berücksichtigt werden.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Textelemente und die spezifischen Ausspracheinformationen über Broadcastmedien, insbesondere über ein digitales Rundfunknetz, übertragen werden.
PCT/EP2007/009073 2006-11-29 2007-10-19 Verfahren zur wiedergabe von textinformationen durch sprache in einem fahrzeug WO2008064742A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2007800382076A CN101523483B (zh) 2006-11-29 2007-10-19 在汽车中通过语音再现文本信息的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006056286.0 2006-11-29
DE102006056286.0A DE102006056286B4 (de) 2006-11-29 2006-11-29 Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug

Publications (1)

Publication Number Publication Date
WO2008064742A1 true WO2008064742A1 (de) 2008-06-05

Family

ID=38988102

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2007/009073 WO2008064742A1 (de) 2006-11-29 2007-10-19 Verfahren zur wiedergabe von textinformationen durch sprache in einem fahrzeug

Country Status (3)

Country Link
CN (1) CN101523483B (de)
DE (1) DE102006056286B4 (de)
WO (1) WO2008064742A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105606117A (zh) * 2014-11-18 2016-05-25 深圳市腾讯计算机系统有限公司 导航提示方法及装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014209358A1 (de) 2014-05-16 2015-11-19 Ford Global Technologies, Llc Vorrichtung und Verfahren zur Spracherkennung, insbesondere in einem Fahrzeug
DE102015107601A1 (de) 2014-05-16 2015-11-19 Ford Global Technologies, Llc Vorrichtung und Verfahren zur Spracherkennung, insbesondere in einem Fahrzeug
DE102015211101A1 (de) 2015-06-17 2016-12-22 Volkswagen Aktiengesellschaft Spracherkennungssystem sowie Verfahren zum Betreiben eines Spracherkennungssystems mit einer mobilen Einheit und einem externen Server

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725382A2 (de) * 1995-02-03 1996-08-07 Robert Bosch Gmbh Verfahren und Einrichtung zur Ausgabe von digital kodierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache
US5899975A (en) * 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
US20040049390A1 (en) * 2000-12-02 2004-03-11 Hewlett-Packard Company Voice site personality setting

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6446040B1 (en) * 1998-06-17 2002-09-03 Yahoo! Inc. Intelligent text-to-speech synthesis
US6463413B1 (en) * 1999-04-20 2002-10-08 Matsushita Electrical Industrial Co., Ltd. Speech recognition training for small hardware devices
DE19942869A1 (de) * 1999-09-08 2001-03-15 Volkswagen Ag Verfahren und Einrichtung zum Betrieb einer sprachgesteuerten Einrichtung bei Kraftfahrzeugen
EP1220200B1 (de) * 2000-12-18 2003-09-24 Siemens Aktiengesellschaft Verfahren und Anordnung zur sprecherunabhängigen Spracherkennung für ein Telekommunikations- bzw. Datenendgerät
DE10324198A1 (de) * 2003-05-28 2004-12-23 Traveltainer Beteiligungs-Gmbh Verfahren und Vorrichtung zur Bereitstellung von Informationen im Fahrzeug
US20050043067A1 (en) * 2003-08-21 2005-02-24 Odell Thomas W. Voice recognition in a vehicle radio system
DE102005061505B4 (de) * 2005-12-22 2018-04-12 Audi Ag Verfahren zum Bereitstellen von Informationen in einem Fahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725382A2 (de) * 1995-02-03 1996-08-07 Robert Bosch Gmbh Verfahren und Einrichtung zur Ausgabe von digital kodierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache
US5899975A (en) * 1997-04-03 1999-05-04 Sun Microsystems, Inc. Style sheets for speech-based presentation of web pages
US20040049390A1 (en) * 2000-12-02 2004-03-11 Hewlett-Packard Company Voice site personality setting

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
TAYLOR P ET AL: "SSML: A speech synthesis markup language", SPEECH COMMUNICATION, ELSEVIER SCIENCE PUBLISHERS, AMSTERDAM, NL, vol. 21, no. 1, February 1997 (1997-02-01), pages 123 - 133, XP004055059, ISSN: 0167-6393 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105606117A (zh) * 2014-11-18 2016-05-25 深圳市腾讯计算机系统有限公司 导航提示方法及装置

Also Published As

Publication number Publication date
CN101523483A (zh) 2009-09-02
DE102006056286B4 (de) 2014-09-11
DE102006056286A1 (de) 2008-06-12
CN101523483B (zh) 2013-07-24

Similar Documents

Publication Publication Date Title
EP1892700A1 (de) Verfahren zur Spracherkennung und Sprachwiedergabe
DE102007052055A1 (de) Kraftfahrzeug mit einer Sprachschnittstelle
EP0925578A1 (de) Sprachverarbeitungssystem und verfahren zur sprachverarbeitung
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
EP3095114B1 (de) Verfahren und system zur erzeugung eines steuerungsbefehls
DE102006056286B4 (de) Verfahren zur Wiedergabe von Textinformationen durch Sprache in einem Fahrzeug
EP1058235B1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit text-basierter Sprachsynthese
EP1282897B1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
DE102009021124A1 (de) Bediensystem für ein Fahrzeug
EP0725382B1 (de) Verfahren und Einrichtung zur Ausgabe von digital kodierten Verkehrsmeldungen mittels synthetisch erzeugter Sprache
DE10311581A1 (de) Verfahren und System zum automatisierten Erstellen von Sprachwortschätzen
EP1110203B1 (de) Vorrichtung und verfahren zur digitalen sprachbearbeitung
DE102019213848A1 (de) Erzeugung eines modifizierten Audiosignals aus einem Audioquellsignal
DE60022976T2 (de) Spracherkennungseinrichtung mit transfermitteln
EP1344211B1 (de) Vorrichtung und verfahren zur differenzierten sprachausgabe
EP0984427B1 (de) Verfahren zum akustischen Ausgeben von Text
EP2592623B1 (de) Technik zur Ausgabe eines akustischen Signals mittels eines Navigationssystems
DE10163277C2 (de) Verfahren zum Versenden einer Nachricht an eine Rufnummer, sowie Vorrichtung hierfür
WO2015003971A1 (de) Verfahren und einrichtung zur identifizierung und ausgabe des inhalts eines hinweistextes
DE102006057865A1 (de) Kommunikationssystem und Verfahren zum Ermitteln von Informationen zum Herstellen einer Kommunikationsverbindung
EP1181685A1 (de) Verfahren und anordnung zur sprachkodierung mittels phonetischer dekodierung und übertragung von sprechermerkmalen
DE10032700A1 (de) Vorrichtung und Verfahren zur Ausgabe von Bild,Text, Ton und/oder Sprache

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780038207.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07819138

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 07819138

Country of ref document: EP

Kind code of ref document: A1