EP1248251A2 - Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten - Google Patents

Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten Download PDF

Info

Publication number
EP1248251A2
EP1248251A2 EP02003909A EP02003909A EP1248251A2 EP 1248251 A2 EP1248251 A2 EP 1248251A2 EP 02003909 A EP02003909 A EP 02003909A EP 02003909 A EP02003909 A EP 02003909A EP 1248251 A2 EP1248251 A2 EP 1248251A2
Authority
EP
European Patent Office
Prior art keywords
speech
text
voice
profile
messages
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP02003909A
Other languages
English (en)
French (fr)
Other versions
EP1248251A3 (de
Inventor
Volker Luegger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unify GmbH and Co KG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of EP1248251A2 publication Critical patent/EP1248251A2/de
Publication of EP1248251A3 publication Critical patent/EP1248251A3/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems

Definitions

  • the present invention relates to a method as well as a system that can write any machine readable Text messages, such as emails or fax messages, via a suitable acoustic reproduction system, for example, via a cell phone, based on a acoustically outputs previously generated voice profile.
  • a suitable acoustic reproduction system for example, via a cell phone, based on a acoustically outputs previously generated voice profile.
  • the present invention is therefore based on the object a speech reproduction of machine-readable texts with to achieve synthetically generated voices so that a Alienation when listening to the generated voice is avoided.
  • the user's voice sample data can be analyzed and created a language profile based on this analysis becomes. Based on the created language profile any text message data approximated, so good recognizable to output with the user's voice become.
  • the sender is identified on the basis of voice if the text message data matches the Voices can be assigned accordingly.
  • creating the language profile by comparing a written reference text with one generated by acoustic articulation of a speaker Reference text are made.
  • a system for implementing Text messages in voice messages claimed.
  • This has a speech analyzer based on a Analysis of voice sample data a voice profile for entered Voice sample data generated.
  • This system also includes a speech generator based on the speech profile any text message in synthetic Implements voice sample data.
  • the figure shows schematically a technique for automatic Conversion of text messages into voice messages.
  • a method or a system is shown schematically in the figure for the automatic conversion of text messages into voice messages shown.
  • One from any person spoken text 1 is replaced by a step S1 Analyzer 2 analyzed. This usually happens because that the acoustic signals are registered analogously and converted into digital voice files by an A / D converter become.
  • Step S3 based on the analysis of the digital Language files creates a voice profile 3 of this person become.
  • the spoken text 1 can be any Free text or a reference text 8, the one step S2 as part of the analysis with the written form of the Reference text 8 is compared.
  • Based on the language profile 3 can be in the following any text message 5 via a speech generator 4 translate into synthetic voice message data 6 (step S5 and step S6).
  • the text message 5 can then in a step S7 according to the created language profile 3 be output acoustically.
  • a speech generator 4 for a synthetically generated language can be set so that any texts 5 with the voice of this speaker acoustically can be spent. Because of the possible Narrator with a natural and above all familiar Voice becomes strange when you hear the speech avoided. Of course, it is also conceivable that Speech generator speech samples of different people and thus multiple language profiles are available. So that's one Different speakers can be selected.
  • an author sends one Recipient an email message.
  • the destination address is the Author the recipient's phone number.
  • the used Unified Message System determines that as a recipient no E-mail connection, but a telephone connection selected was and therefore puts the entered text in a Voice message around. A language profile is used for this, which was previously created based on a speech sample by this author has been. With this, the voice of the synthetically produced So far the natural voice of the author approximated that the recipient uses the synthetic voice as a recognizes the familiar voice of the sending person.
  • the Unified Message System now initiates the construction of a Connection to the telephone line of the receiver and gives the Voice message with the author's voice.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Die vorliegende Erfindung bezieht sich auf ein Verfahren sowie ein System, das beliebige geschriebene maschinenlesbare Text-Nachrichten (5), beispielsweise E-Mails oder Fax-Nachrichten, über ein geeignetes akustisches Wiedergabesystem (2), (4), (7), beispielsweise über ein Mobiltelephon, auf Grundlage eines zuvor generierten Sprachprofils akustisch ausgibt. Zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten werden Sprachprobedaten eines Benutzers analysiert (S1) und auf Grundlage dieser Analyse ein Sprachprofil (3) erstellt. Durch die dadurch mögliche Sprachausgabe mit einer natürlichen und vor allem vertrauten Stimme wird ein Befremden beim Hören der ausgegebenen Sprache vermieden..

Description

Die vorliegende Erfindung bezieht sich auf ein Verfahren sowie ein System, das beliebige geschriebene maschinenlesbare Text-Nachrichten, beispielsweise E-Mails oder Fax-Nachrichten, über ein geeignetes akustisches Wiedergabesystem, beispielsweise über ein Mobiltelephon, auf Grundlage eines zuvor generierten Stimmenprofils akustisch ausgibt.
Nach dem Stand der Technik ist es bekannt, in einer Multimedia-Umgebung Inhalte von E-Mails, Fax-Nachrichten oder sonstigen Texten mittels fest vorgegebener synthetisch erzeugter Stimmen auszugeben. Um die Kommunikation in einer Multimedia-Umgebung (in der Literatur wird in diesem Zusammenhang häufig von einem "Unified Message System" gesprochen) so natürlich wie möglich erscheinen zu lassen, ist es von Interesse, die entsprechende Text-Nachricht mit der Stimme des jeweiligen Autors auszugeben.
Aus der DE 198 41 683 A1 ist eine Vorrichtung und ein Verfahren zur digitalen Sprachbearbeitung bekannt. Die in eine Sprachausgabe umsetzbaren Wörter sind in einer Tabelle (Wörterbuch) zusammen mit Informationen zu ihrer Aussprache (phonetische Einträge, phonetische Entsprechungen) verzeichnet. Ein Übersetzer erzeugt aus den phonetischen Einträgen der einzelnen Worte eine Sprachnachrichten-Datei, die in einem Editor (Editiereinrichtung) in Form einer Lautschrift angezeigt und bearbeitet werden kann. Zur Bearbeitung werden Parameter (Modifikatoren) hinzugefügt oder verändert. Die Parameter verschiedener Sprechertypen (Mann, Frau, Kind etc.) sind in jeweils einem Sprachprofil (Sprechermodell) zusammengefasst und als Standardmodelle vorgegeben. Durch Anpassung der Parameter gestaltet (editiert) der Benutzer die "Stimme" der anschließenden synthetischen Sprachausgabe bis zum gewünschten qualitativen Zustand.
Bei dem bekannten Verfahren hat sich als nachteilig erwiesen, dass die erzeugte, natürlichen Stimmen nachempfundene Sprachausgabe meist immer noch künstlich oder fremd klingt und dem Hörer nicht vertraut ist.
Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, eine Sprachwiedergabe von maschinenlesbaren Texten mit synthetisch erzeugten Stimmen so zu erreichen, dass ein Befremden beim Hören der erzeugten Stimme vermieden wird.
Diese Aufgabe wird gemäß der Erfindung durch die Merkmale der unabhängigen Ansprüche gelöst. Die abhängigen Ansprüche bilden den zentralen Gedanken in vorteilhafter Weise weiter.
Erfindungsgemäß wird vorgeschlagen, dass zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten eines Benutzers Sprachprobedaten des Benutzers analysiert werden und auf Grundlage dieser Analyse ein Sprachprofil erstellt wird. Auf Grundlage des erstellten Sprachprofiles können beliebige Text-Nachrichtendaten angenähert, also gut wiedererkennbar, mit der Stimme des Benutzers auszugeben werden. Insbesondere ist ein Erkennen des Absenders anhand der Stimme möglich, wenn die Text-Nachrichtendaten den Stimmen ensprechend zugeordnet werden.
Das Erstellen des Sprachprofiles kann dabei beispielsweise durch einen Vergleich eines schriftlichen Referenz-Textes mit einem durch akustische Artikulation eines Sprechers erzeugten Referenz-Text erfolgen.
Erfindungsgemäß wird weiterhin ein System zur Umsetzung von Text-Nachrichten in Sprach-Nachrichten beansprucht. Dieses weist einen Sprachanalysator auf, der auf Grundlage einer Analyse von Sprachprobedaten ein Sprachprofil für eingegebene Sprachprobedaten erzeugt. Außerdem enthält dieses System einen Sprachgenerator, der auf Grundlage des Sprachprofils eine beliebige Text-Nachricht in synthetische Sprachprobedaten umsetzt.
Weitere Vorteile, Merkmale und Eigenschaften der vorliegenden Erfindung werden im folgenden anhand eines Ausführungsbeispiels unter Bezugnahme auf die begleitende Zeichnung näher erläutert.
Die Figur zeigt schematisch eine Technik zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten.
In der Figur ist schematisch ein Verfahren bzw. ein System zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten dargestellt. Ein von einer beliebigen Person gesprochener Text 1 wird in einem Schritt S1 von einem Analysator 2 analysiert. Dies geschieht in der Regel dadurch, dass die akustischen Signale analog registriert werden und durch einen A/D-Wandler in digitale Sprachdateien umgesetzt werden. Mit einer entsprechenden Software kann in einem Schritt S3 auf Grundlage der erfolgten Analyse der digitalen Sprachdateien ein Sprachprofil 3 dieser Person erzeugt werden. Dabei kann der gesprochene Text 1 ein beliebiger Freitext oder ein Referenztext 8 sein, der in einem Schritt S2 im Rahmen der Analyse mit der schriftlichen Form des Referenztextes 8 verglichen wird.
Auf Grundlage des Sprachprofils 3 lässt sich im folgenden jede beliebige Text-Nachricht 5 über einen Sprachgenerator 4 in synthetische Sprachnachrichtendaten 6 übersetzen (Schritt S5 und Schritt S6). Die Textnachricht 5 kann anschließend in einem Schritt S7 gemäß dem erstellten Sprachprofil 3 akustisch ausgegeben werden.
So kann anhand einer Sprachprobe 1 eines Sprechers über das dadurch gewonnene Sprachprofil 3 ein Sprachgenerator 4 für eine synthetisch erzeugte Sprache so eingestellt werden, dass beliebige Texte 5 mit der Stimme dieses Sprechers akustisch ausgegeben werden können. Durch die dadurch mögliche Sprachausgabe mit einer natürlichen und vor allem vertrauten Stimme wird ein Befremden beim Hören der ausgegebenen Sprache vermieden. Natürlich ist es auch denkbar, dass dem Sprachgenerator Sprachproben verschiedener Personen und damit mehrere Sprachprofile zur Verfügung stehen. Damit ist eine Auswahl verschiedener Sprecher möglich.
Dies ist insbesondere innerhalb von Multimediaumgebungen von großem Wert, wenn nämlich die Verknüpfung von synthetisch erzeugter Sprache zu Dokumenten des Sprechers automatisch erstellt werden kann. Der Hörer kann den Absender der Nachricht dann anhand der Stimme erkennen, was einer angenehmen Kommunikation mit modernen technischen Mitteln entspricht. Dabei ist es zudem äußerst vorteilhaft, dass die Profilgenerierung für die Ausgabe der Sprache automatisch aus einer beliebigen Sprachprobe innerhalb des Multimediaumfeldes erfolgen kann.
Normalerweise werden innerhalb eines einheitlichen Nachrichten-Systems (Unified Message System) verschiedene Dokumente, wie z.B. Sprachnachrichten (Anrufbeantworter), E-Mails, Faxnachrichten usw., des gleichen Autors verwaltet. Um beispielsweise E-Mails innerhalb dieses Systems z.B. auf einem Mobiltelephon auszugeben, wird der E-Mail-Text erfindungsgemäß in Sprache übersetzt. Vorteilhafterweise kann dabei mit Hilfe einer in demselben System eingegangenen Sprach-Nachricht 1 des gleichen Autors und des daraus generierten Stimmenprofils 3 die E-Mail-Nachricht mit der Stimme dieses Autors ausgegeben werden. Bei entsprechender Vorlage einer Sprachprobe anderer Personen, wie z.B. prominenter Personen, wäre auch eine Wiedergabe der Dokumente mit deren Stimme möglich.
Im zuvor beschriebenen Beispiel sendet also ein Autor einem Empfänger eine E-Mail-Nachricht. Als Zieladresse gibt der Autor die Telefonnummer des Empfängers an. Das verwendete Unified Message System stellt fest, dass als Empfänger kein E-Mail-Anschluß, sondern ein Fernsprechanschluß ausgewählt wurde und setzt daher den eingegebenen Text in eine Sprachnachricht um. Dazu wird ein Sprachprofil verwendet, welches zuvor anhand einer Sprechprobe dieses Autors erstellt worden ist. Damit wird die Stimme der synthetisch erzeugten Sprachausgabe der natürlichen Stimme des Autors soweit angenähert, dass der Empfänger die synthetische Stimme als die vertraute Stimme der sendenden Person erkennt. Das Unified Message System veranlasst nun den Aufbau einer Verbindung zum Fernsprechanschluß des Empfängers und gibt die Sprachnachricht mit der Stimme des Autors aus.

Claims (6)

  1. Verfahren zur automatischen Umsetzung von Text-Nachrichten (5) in Sprach-Nachrichten (6), mit den folgenden Schritten:
    Erstellen (S3) eines Sprachprofils (3) und
    Umsetzen (4) von eingegebenen Text-Nachrichtendaten (5) in synthetische Sprach-Nachrichtendaten (6) auf Grundlage des Sprachprofils (3),
    dadurch gekennzeichnet, dass das Sprachprofil (3) nach Analyse (S1 von Sprachprobedaten (1) eines Benutzers auf Grundlage der vorgenommenen Analyse (S1) erstellt wird, um den Text angenähert mit der Stimme des Benutzers auszugeben.
  2. Verfahren nach Anspruch 1,
    dadurch gekennzeichnet, dass das Erstellen des Sprachprofils (3) auf Grundlage eines Vergleichs (S2) von Referenz-Textdaten (8) mit Referenz-Sprachprobedaten (1) erfolgt, wobei die Referenz-Sprachprobedaten (1) durch akustische Wiedergabe der Referenz-Textdaten (8) durch einen Sprecher erzeugt werden.
  3. System zur Umsetzung von Text-Nachrichten (5) in Sprach-Nachrichten (6),
    mit einem Sprachanalysator (2), der auf Grundlage einer Analyse (S1) von Sprachprobedaten (1) ein Sprachprofil (3) für eingegebene Sprachprobedaten (1) erzeugt, und
    mit einem Sprachgenerator (4), der auf Grundlage des Sprachprofils (3) eine beliebige Text-Nachricht (5) in synthetische Sprachprobedaten (6) umsetzt.
  4. System nach Anspruch 3,
    dadurch gekennzeichnet, dass der Sprachgenerator (4) dazu ausgelegt ist, das Sprachprofil (3) auf Grundlage eines Vergleichs eines schriftlichen Referenz-Textes (8) mit der von einem Benutzer gesprochenen Form (1) dieses Referenz-Textes (8) zu erzeugen.
  5. System nach Anspruch 3 oder 4,
    dadurch gekennzeichnet, dass in Multimediaumgebungen der Sprachanteil von Sprachnachrichten (1) automatisch analysiert wird (S1) und zur akustischen Wiedergabe (7) von Textnachrichten (5) verwendet wird.
  6. Mobiltelephon, aufweisend ein System nach Anspruch 3, 4 oder 5,
    dadurch gekennzeichnet, dass die Text-Nachrichten (5) Dokumente in einer Multimediaumgebung, beispielsweise E-Mail-Texte, sind, die auf dem Mobiltelephon in der Sprache gemäß dem zuvor erzeugten Sprachprofil (3) akustisch ausgegeben werden.
EP02003909A 2001-04-06 2002-02-21 Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten Withdrawn EP1248251A3 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10117367 2001-04-06
DE10117367A DE10117367B4 (de) 2001-04-06 2001-04-06 Verfahren und System zur automatischen Umsetzung von Text-Nachrichten in Sprach-Nachrichten

Publications (2)

Publication Number Publication Date
EP1248251A2 true EP1248251A2 (de) 2002-10-09
EP1248251A3 EP1248251A3 (de) 2009-10-07

Family

ID=7680748

Family Applications (1)

Application Number Title Priority Date Filing Date
EP02003909A Withdrawn EP1248251A3 (de) 2001-04-06 2002-02-21 Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten

Country Status (3)

Country Link
US (1) US20020169610A1 (de)
EP (1) EP1248251A3 (de)
DE (1) DE10117367B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2383502B (en) * 2001-11-02 2005-11-02 Nec Corp Voice synthesis system and method,and portable terminal and server therefor
WO2011083362A1 (en) * 2010-01-05 2011-07-14 Sony Ericsson Mobile Communications Ab Personalized text-to-speech synthesis and personalized speech feature extraction

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1774715A (zh) * 2003-04-14 2006-05-17 皇家飞利浦电子股份有限公司 用于对音频-视频流执行自动配音的系统和方法
US8005677B2 (en) * 2003-05-09 2011-08-23 Cisco Technology, Inc. Source-dependent text-to-speech system
US8068588B2 (en) * 2007-06-26 2011-11-29 Microsoft Corporation Unified rules for voice and messaging
US8285548B2 (en) 2008-03-10 2012-10-09 Lg Electronics Inc. Communication device processing text message to transform it into speech
KR101566379B1 (ko) * 2009-05-07 2015-11-13 삼성전자주식회사 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
US20130079029A1 (en) * 2011-09-28 2013-03-28 Royce A. Levien Multi-modality communication network auto-activation
US9906927B2 (en) 2011-09-28 2018-02-27 Elwha Llc Multi-modality communication initiation
US9788349B2 (en) * 2011-09-28 2017-10-10 Elwha Llc Multi-modality communication auto-activation
US9002937B2 (en) 2011-09-28 2015-04-07 Elwha Llc Multi-party multi-modality communication
US9503550B2 (en) 2011-09-28 2016-11-22 Elwha Llc Multi-modality communication modification
US9477943B2 (en) 2011-09-28 2016-10-25 Elwha Llc Multi-modality communication
US9762524B2 (en) 2011-09-28 2017-09-12 Elwha Llc Multi-modality communication participation
US9699632B2 (en) 2011-09-28 2017-07-04 Elwha Llc Multi-modality communication with interceptive conversion
US10424288B2 (en) 2017-03-31 2019-09-24 Wipro Limited System and method for rendering textual messages using customized natural voice
CN111369966A (zh) * 2018-12-06 2020-07-03 阿里巴巴集团控股有限公司 一种用于个性化语音合成的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3416238A1 (de) * 1983-05-02 1984-12-20 Motorola, Inc., Schaumburg, Ill. Extremschmalband-uebertragungssystem
JPH05260082A (ja) * 1992-03-13 1993-10-08 Toshiba Corp テキスト読み上げ装置
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method
EP0901000A2 (de) * 1997-07-31 1999-03-10 Toyota Jidosha Kabushiki Kaisha Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6035273A (en) * 1996-06-26 2000-03-07 Lucent Technologies, Inc. Speaker-specific speech-to-text/text-to-speech communication system with hypertext-indicated speech parameter changes
US6216104B1 (en) * 1998-02-20 2001-04-10 Philips Electronics North America Corporation Computer-based patient record and message delivery system
US6081780A (en) * 1998-04-28 2000-06-27 International Business Machines Corporation TTS and prosody based authoring system
DE19841683A1 (de) * 1998-09-11 2000-05-11 Hans Kull Vorrichtung und Verfahren zur digitalen Sprachbearbeitung
US6243676B1 (en) * 1998-12-23 2001-06-05 Openwave Systems Inc. Searching and retrieving multimedia information
US20020072900A1 (en) * 1999-11-23 2002-06-13 Keough Steven J. System and method of templating specific human voices
US6801931B1 (en) * 2000-07-20 2004-10-05 Ericsson Inc. System and method for personalizing electronic mail messages by rendering the messages in the voice of a predetermined speaker
US6978239B2 (en) * 2000-12-04 2005-12-20 Microsoft Corporation Method and apparatus for speech synthesis without prosody modification

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3416238A1 (de) * 1983-05-02 1984-12-20 Motorola, Inc., Schaumburg, Ill. Extremschmalband-uebertragungssystem
JPH05260082A (ja) * 1992-03-13 1993-10-08 Toshiba Corp テキスト読み上げ装置
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method
EP0901000A2 (de) * 1997-07-31 1999-03-10 Toyota Jidosha Kabushiki Kaisha Nachrichtenverarbeitungssystem und Verfahren für die Verarbeitung von Nachrichten

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2383502B (en) * 2001-11-02 2005-11-02 Nec Corp Voice synthesis system and method,and portable terminal and server therefor
US7313522B2 (en) 2001-11-02 2007-12-25 Nec Corporation Voice synthesis system and method that performs voice synthesis of text data provided by a portable terminal
WO2011083362A1 (en) * 2010-01-05 2011-07-14 Sony Ericsson Mobile Communications Ab Personalized text-to-speech synthesis and personalized speech feature extraction
CN102117614B (zh) * 2010-01-05 2013-01-02 索尼爱立信移动通讯有限公司 个性化文本语音合成和个性化语音特征提取
US8655659B2 (en) 2010-01-05 2014-02-18 Sony Corporation Personalized text-to-speech synthesis and personalized speech feature extraction

Also Published As

Publication number Publication date
DE10117367A1 (de) 2002-10-17
US20020169610A1 (en) 2002-11-14
EP1248251A3 (de) 2009-10-07
DE10117367B4 (de) 2005-08-18

Similar Documents

Publication Publication Date Title
EP1248251A2 (de) Verfahren und System zur automatischen Umsetzung von Textnachrichten in Sprachnachrichten
DE102019200954A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP0644680A2 (de) Verfahren und Vorrichtung zum Erstellen und Bearbeiten von Textdokumenten
DE102004050785A1 (de) Verfahren und Anordnung zur Bearbeitung von Nachrichten im Rahmen eines Integrated Messaging Systems
DE112005000924T5 (de) Stimme über Short Message Service
EP1051701B1 (de) Verfahren zum übermitteln von sprachdaten
DE112006000322T5 (de) Audioerkennungssystem zur Erzeugung von Antwort-Audio unter Verwendung extrahierter Audiodaten
DE69413912T2 (de) Sprachumsetzungsverfahren
EP2047668B1 (de) Verfahren, sprachdialogsystem und telekommunikationsendgerät zur multilingualen sprachausgabe
DE102019200956A1 (de) Signalverarbeitungseinrichtung, System und Verfahren zur Verarbeitung von Audiosignalen
EP1134726A1 (de) Verfahren zur Erkennung von Sprachäusserungen nicht-muttersprachlicher Sprecher in einem Sprachverarbeitungssystem
DE60020504T2 (de) Anpassung eines spracherkenners an korrigierte texte
DE60008893T2 (de) Sprachgesteuertes tragbares Endgerät
DE19920501A1 (de) Wiedergabeverfahren für sprachgesteuerte Systeme mit textbasierter Sprachsynthese
EP1282897A1 (de) Verfahren zum erzeugen einer sprachdatenbank für einen zielwortschatz zum trainieren eines spracherkennungssystems
WO2020221865A1 (de) Verfahren, computerprogrammprodukt, system und vorrichtung zum modifizieren von akustischen interaktionssignalen, die von mindestens einem interaktionspartner erzeugt werden, hinsichtlich eines interaktionsziels
DE19811879C1 (de) Einrichtung und Verfahren zum Erkennen von Sprache
DE10311581A1 (de) Verfahren und System zum automatisierten Erstellen von Sprachwortschätzen
EP1169841B1 (de) Erstellen eines referenzmodell-verzeichnisses für ein sprachgesteuertes kommunikationsgerät
DE69419846T2 (de) Sende- und empfangsverfahren für kodierte sprache
EP0984427B1 (de) Verfahren zum akustischen Ausgeben von Text
DE102019135799A1 (de) Verfahren zum Verbessern von Sprachverständlichkeit einer elektronischen Sprechverbindung und Headset zur Durchführung des Verfahrens
DE10033104C2 (de) Verfahren zum Erzeugen einer Statistik von Phondauern und Verfahren zum Ermitteln der Dauer einzelner Phone für die Sprachsynthese
DE10163277C2 (de) Verfahren zum Versenden einer Nachricht an eine Rufnummer, sowie Vorrichtung hierfür
WO2004047466A2 (de) Verfahren zur wiedergabe von gesendeten textnachrichten

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Free format text: AL;LT;LV;MK;RO;SI

PUAL Search report despatched

Free format text: ORIGINAL CODE: 0009013

AK Designated contracting states

Kind code of ref document: A3

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

AX Request for extension of the european patent

Extension state: AL LT LV MK RO SI

17P Request for examination filed

Effective date: 20100329

AKX Designation fees paid

Designated state(s): DE FR GB IT SE

17Q First examination report despatched

Effective date: 20101201

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: SIEMENS ENTERPRISE COMMUNICATIONS GMBH & CO. KG

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20110615