DE69631037T2 - Sprachsynthese - Google Patents

Sprachsynthese Download PDF

Info

Publication number
DE69631037T2
DE69631037T2 DE69631037T DE69631037T DE69631037T2 DE 69631037 T2 DE69631037 T2 DE 69631037T2 DE 69631037 T DE69631037 T DE 69631037T DE 69631037 T DE69631037 T DE 69631037T DE 69631037 T2 DE69631037 T2 DE 69631037T2
Authority
DE
Germany
Prior art keywords
speech
units
section
voiced
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69631037T
Other languages
English (en)
Other versions
DE69631037D1 (de
Inventor
Andrew Ipswich LOWRY
Andrew Ipswich BREEN
Peter Ipswich JACKSON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Application granted granted Critical
Publication of DE69631037D1 publication Critical patent/DE69631037D1/de
Publication of DE69631037T2 publication Critical patent/DE69631037T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • G10L13/07Concatenation rules

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Absorbent Articles And Supports Therefor (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

  • Ein Verfahren zur Sprachsynthese beinhaltet das Aneinanderhängen kleiner Spracheinheiten im Zeitraum. Damit können Darstellungen von Sprachsignalen gespeichert werden und kleine Einheiten wie Phoneme, Diphone oder Triphone – d. h. Einheiten mit weniger als einem Wort – je nach der Sprache ausgewählt werden, die synthetisiert werden soll, und dann aneinandergehängt werden. Nach dem Aneinanderhängen können bekannte Techniken eingesetzt werden, um das zusammengesetzte Signal anzupassen, so dass die Kontinuität von Klanghöhe und Signalphase sichergestellt ist. Ein weiterer Faktor mit Einfluss auf die wahrgenommene Qualität der sich ergebenden synthetisierten Sprache ist jedoch die Amplitude der Einheiten; es konnte nicht bestätigt werden, dass eine Vorverarbeitung der Signalwellen – d. h. die Anpassung der Amplitude vor der Abspeicherung – dieses Problem löst, unter anderem wegen der Länge der Einheiten, die aus den abgespeicherten Daten extrahiert werden und variieren können.
  • In EP 0 427 485 wird eine Sprachsynthesevorrichtung und ein entsprechendes Verfahren offenbart, bei denen Sprachsegmente aneinandergehängt werden, um synthetisierte Sprache zu erzeugen, die einem eingegebenen Text entspricht. Die Segmente, die verwendet werden, sind so genannte VCV- (Vowel-Consonant-Vowel-, Vokal-Konsonant-Vokal-) Segmente, und die Energie der Vokale, die bei der Aneinanderhängung zu Nachbarn werden, wird für diesen Vokal auf eine gespeicherte Referenzenergie normalisiert.
  • In einem Artikel mit dem Titel "Speech synthesis by linear Interpolation of spectral parameters between dyad boundaries" von Shadle et al. im Journal of the Acoustics Society of America, Band 66, Nr. 5, November 1979, New York, USA, werden Beeinträchtigungen auf Grund der Interpolation von spektralen Parametern beim Synthetisieren von Sprache über Dyadengrenzen hinweg beschrieben.
  • Gemäß der vorliegenden Erfindung wird eine Sprachsynthetisierungsvorrichtung gemäß Anspruch 1 geschaffen und ein Verfahren zum Synthetisieren von Sprache gemäß Anspruch 6 angegeben.
  • Eine Form der Erfindung wird im Folgenden als Beispiel beschrieben, wobei Bezug genommen wird auf die beigefügten Zeichnungen.
  • 1 ist ein Blockdiagramm eines Beispiels für die Sprachsynthese gemäß der Erfindung.
  • 2 ist ein Flussdiagramm zur Darstellung des Ablaufs der Synthese.
  • 3 ist ein Zeitdiagramm.
  • Bei der Sprachsynthetisierungsvorrichtung nach 1 enthält ein Speicher 1 Abschnitte des Sprachsignalverlaufs, die aus digitalisierten Sprachabschnitten erzeugt wurden, welche ursprünglich von einem menschlichen Sprecher aufgenommen wurden, der einen Abschnitt (von vielleicht 200 Sätzen) liest, der ausgewählt wurde, weil er alle möglichen (oder wenigstens eine große Anzahl von) verschiedenen Klängen enthält. Zu jedem Abschnitt werden Daten abgespei chert, die "Klanghöhenmarkierungen" definieren, welche stimmlose Punkte in dem Signal anzeigen, die auf übliche Art bei der ursprünglichen Aufnahme erzeugt wurden.
  • Ein Eingangssignal, das zu synthetisierende Sprache in Form einer phonetischen Darstellung darstellt, wird an einen Eingang 2 angelegt. Diese Eingabe kann, falls gewünscht, mit (nicht dargestellten) konventionellen Mitteln aus einem eingegebenen Text erzeugt werden. Diese Eingabe wird auf bekannte Art durch eine Auswahleinheit 3 verarbeitet, durch die entsprechend dem durch die Einheit dargestellten Klang für jede Einheit der Eingabe die Adressen in dem Speicher 1 eines gespeicherten Signalverlaufsabschnittes festgelegt werden. Eine Einheit kann, wie erwähnt, ein Phonem, ein Diphon oder eine andere Wortuntereinheit sein, und im Allgemeinen kann die Länge einer Einheit je nach Verfügbarkeit in dem Signalverlaufsspeicher eines entsprechenden Abschnittes im Signalverlauf variieren.
  • Die Einheiten werden, nachdem sie einmal ausgelesen worden sind, bei 4 aneinandergehängt, und die aneinander gehängte Signalverlaufsform wird bei 5 irgendeiner gewünschten Klanghöhenanpassung unterworfen.
  • Vor diesem Aneinanderhängen wird jede Einheit individuell einem Amplitudennormalisierungsprozess in einer Einheit 6 für die Amplitudenanpassung unterworfen, deren Funktion im Folgenden genauer erläutert wird. Das grundsätzliche Ziel besteht darin, jeden sprachlichen Abschnitt einer Einheit auf einen festgelegten RMS-Pegel zu normalisieren, bevor irgendeine weitere Verarbeitung statt findet. Eine Markierung, die die ausgewählte Einheit darstellt, ermöglicht es dem Referenzmarkierungsspeicher 8, den geeigneten RMS-Pegel festzulegen, der bei der Normalisierung verwendet werden soll. Stimmlose Abschnitte werden nicht angepasst, aber die Übergänge zwischen stimmhaften und stimmlosen Abschnitten können geglättet werden, um scharfe Brüche zu vermeiden. Die Motivation für diesen Ansatz liegt in der Funktion der Auswahl der Einheiten und dem Aneinanderhängen. Die ausgewählten Einheiten variieren in der Länge und in Abhängigkeit von dem Kontext, aus dem sie entnommen wurden. Dieses macht die Vorbereitung schwierig, da die Länge, der Kontext und die Stimmeigenschaften zusammenhängender Einheiten den Algorithmus beim Zusammensetzen und damit die Änderung der Amplitude über den Übergang hinweg beeinflussen. Diese Information ist nur während der Laufzeit bekannt, wenn jede Einheit ausgewählt wird. Die Nachverarbeitung nach dem Zusammensetzen ist genauso schwierig.
  • Die erste Aufgabe der Amplitudenanpassungseinheit besteht darin, den stimmhaften Abschnitt/die stimmhaften Abschnitte der Einheit (falls vorhanden) zu identifizieren. Dies erfolgt mit der Hilfe eines Stimmdetektors 7, der auf Klanghöhenzeitmarkierungen zurückgreift, die die stimmlosen Punkte in dem Signal anzeigen, wobei der Abstand zwischen aufeinander folgenden Markierungen die fundamentale Frequenz des Signals festlegt. Die Daten (von dem Signalverlaufsspeicher 1), die die Zeitpunkte der Klanghöhenmarkierungen darstellen, werden von dem Stimmdetektor 7 empfangen, der mit Bezug auf eine maximale Beabstandung entsprechend der niedrigsten erwarteten fundamentalen Frequenz die stimmhaften Abschnitte der Einheit identifiziert, indem eine Abfolge von Klanghöhenmar kierungen angenommen wird, die weniger als dieser Maximalwert beabstandet sind, um einen stimmhaften Abschnitt zu bilden. Ein stimmhafter Abschnitt, dessen erste (oder letzte) Klanghöhenmarkierung innerhalb dieses Maximums des Beginns (oder des Endes) der Spracheinheit liegt, wird jeweils angesehen als beginnend am Anfang der Einheit oder endend am Ende der Einheit. Dieser Identifizierungsschritt wird als Schritt 10 in dem Flussdiagramm in 2 dargestellt.
  • Die Amplitudenanpassungseinheit 6 berechnet dann (im Schritt 11) den RMS-Wert des Signalverlaufs über den stimmhaften Abschnitt, zum Beispiel den Abschnitt B in dem Zeitdiagramm nach 3, sowie einen Skalierungsfaktor S gleich einem festen Referenzwert, dividiert durch diesen RMS-Wert. Der feste Referenzwert kann der gleiche für alle Sprachabschnitte sein, oder es kann mehr als ein Referenzwert verwendet werden, je nach entsprechender Teilmenge der Sprachabschnitte. Beispielsweise können verschiedene Phoneme verschiedenen Referenzwerten zugeordnet werden. Wenn der stimmhafte Abschnitt übergreifend über die Grenzen zwischen zwei verschiedenen Teilmengen hinweg auftritt, so kann der Skalierungsfaktor S berechnet werden als gewichtete Summe jedes festen Referenzwertes, dividiert durch den RMS-Wert. Geeignete Gewichte werden in Abhängigkeit von dem Verhältnis des stimmhaften Abschnittes innerhalb jeder Teilmenge berechnet. Alle Abtastwerte innerhalb des stimmhaften Abschnittes werden (im Schritt 12 in 2) mit dem Skalierungsfaktor S multipliziert. Um die stimmhaften/stimmlosen Übergänge zu glätten, werden die letzten 10 ms der stimmlosen Sprachabtastungen vor dem stimmhaften Abschnitt (im Schritt 13) mit einem Faktor S1 multipliziert, der sich über diese Pe riode linear zwischen 1 und S ändert. Ähnlich werden die ersten 10 ms der stimmlosen Sprachabtastungen nach dem stimmhaften Abschnitt (im Schritt 14) mit einem Faktor S2 multipliziert, der sich linear zwischen S und 1 ändert. Die Abfragen 15 und 16 in dem Flussdiagramm stellen sicher, dass diese Schritte nicht durchgeführt werden, wenn der stimmhafte Abschnitt an der Grenze der Einheit beginnt bzw. endet.
  • 3 zeigt die Skalierung für eine Einheit mit drei stimmhaften Abschnitten A, B, C, D, zwischen denen stimmlose Abschnitte liegen. Der Abschnitt A befindet sich am Beginn der Einheit, und damit weist er kein Eingangsrampensegment auf, sondern hat ein Ausgangsrampensegment. Der Abschnitt B beginnt und endet in der Einheit und hat somit ein Eingangsrampen- und ein Ausgangsrampensegment. Der Abschnitt C beginnt innerhalb der Einheit, setzt sich jedoch bis zum Ende der Einheit fort, so dass er ein Eingangsrampen-, jedoch kein Ausgangsrampensegment aufweist.
  • Diese Skalierung soll ihrerseits auf jeden stimmhaften Abschnitt angewendet werden, wenn mehr als einer gefunden wird.
  • Obgleich die Amplitudenanpassungseinheit in spezieller Hardware realisiert werden kann, so wird sie doch vorzugsweise durch ein gespeichertes Programm realisiert, das einen Prozessor steuert, der in Übereinstimmung mit dem Flussdiagramm nach 2 arbeitet.

Claims (6)

  1. Sprachsynthetisierungsvorrichtung mit: einem Speicher (1) mit Darstellung von Sprachsignalverlauf; eine Auswahleinrichtung (3), die in Abhängigkeit von phonetischen Darstellungen gewünschter Klänge arbeitet, die eingegeben werden, um die Speichereinheiten der Sprachsignalverlauf darstellenden Abschnitte von Worten entsprechend den gewünschten Klängen auszuwählen; eine Einrichtung (4) zum Aneinanderhängen der ausgewählten Einheiten des Sprachsignalverlaufs; wobei die Synthetisierungsvorrichtung dadurch gekennzeichnet ist, dass: einige der Einheiten mit einem stimmlosen Abschnitt anfangen und/oder enden und die Synthetisierungsvorrichtung außerdem umfasst: eine Einrichtung (7) zum Identifizieren der stimmhaften Abschnitte in den ausgewählten Einheiten; eine Amplitudenanpassungseinrichtung (6), die in Abhängigkeit von der Identifizierungsvorrichtung (7) für stimmhafte Abschnitte arbeitet und die dazu dient, die Amplitude der stimmhaften Abschnitte der Einheiten mit Bezug auf einen vorgegebenen Referenzpegel anzupassen und die Amplitude von wenigstens einem Teil von einem stimmlosen Abschnitt der Einheit unverändert zu lassen.
  2. Sprachsynthetisierungsvorrichtung nach Anspruch 1, bei der die Einheiten des Sprachsignalverlaufs zwischen Phonemen, Diphonen, Triphonen und anderen Wortteileinheiten variieren.
  3. Sprachsynthetisierungsvorrichtung nach Anspruch 1, bei der die Anpassungseinrichtung (6) dazu dient, den oder jeden stimmhaften Abschnitt mit einem entsprechenden Skalierungsfaktor zu skalieren und den benachbarten Teil jedes angrenzenden stimmlosen Abschnittes mit einem Faktor zu skalieren, der monoton über die Dauer dieses Teils zwischen dem Skalierungsfaktor und Eins variiert.
  4. Sprachsynthetisierungsvorrichtung nach Anspruch 1 oder 3, bei der mehrere Referenzpegel verwendet werden, wobei die Anpassungseinrichtung (6) für jeden stimmhaften Abschnitt dazu dient, einen Referenzpegel in Abhängigkeit von dem Klang auszuwählen, der durch diesen Abschnitt dargestellt wird.
  5. Sprachsynthetisierungsvorrichtung nach Anspruch 4, bei der jedes Phonem einem Referenzpegel zugeordnet wird und jeder stimmhafte Abschnitt mit Signalverlaufssegmenten von mehr als einem Phonem einem Referenzpegel zugeordnet wird, der eine gewichtete Summe der Pegel darstellt, die den darin enthaltenen Phonemen zugeordnet sind, wobei die Wichtung den relativen Dauern der Segmente entspricht.
  6. Verfahren zum Sprachsynthetisieren mit den Schritten: Erfassen von phonetischen Darstellungen gewünschter Klänge; Auswählen aus einem Speicher mit Darstellungen von Sprachsignalverlauf in Abhängigkeit von den phonetischen Darstellungen von Einheiten von Sprachsignalverlauf, der Abschnitte von Worten entsprechend den gewünschten Klängen darstellt; Aneinanderhängen der ausgewählten Einheiten des Sprachsignalverlaufs; wobei das Verfahren dadurch gekennzeichnet ist, dass: einige der Einheiten mit einem stimmlosen Abschnitt beginnen und/oder enden; und das Verfahren außerdem die Schritte aufweist: Identifizieren (10) der stimmhaften Abschnitte der ausgewählten Einheiten und in Abhängigkeit von der Identifizierung der stimmhaften Abschnitte Anpassen (12) der Amplitude der stimmhaften Abschnitte der Einheiten in Abhängigkeit von einem vorgegebenen Referenzpegel und unverändertes Belassen der Amplitude wenigstens eines Teils irgendeines stimmlosen Abschnittes der Einheit.
DE69631037T 1995-03-07 1996-03-07 Sprachsynthese Expired - Lifetime DE69631037T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP95301478 1995-03-07
EP95301478 1995-03-07
PCT/GB1996/000529 WO1996027870A1 (en) 1995-03-07 1996-03-07 Speech synthesis

Publications (2)

Publication Number Publication Date
DE69631037D1 DE69631037D1 (de) 2004-01-22
DE69631037T2 true DE69631037T2 (de) 2004-08-19

Family

ID=8221114

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69631037T Expired - Lifetime DE69631037T2 (de) 1995-03-07 1996-03-07 Sprachsynthese

Country Status (10)

Country Link
US (1) US5978764A (de)
EP (1) EP0813733B1 (de)
JP (1) JPH11501409A (de)
KR (1) KR19980702608A (de)
AU (1) AU699837B2 (de)
CA (1) CA2213779C (de)
DE (1) DE69631037T2 (de)
NO (1) NO974100D0 (de)
NZ (1) NZ303239A (de)
WO (1) WO1996027870A1 (de)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1266943B1 (it) * 1994-09-29 1997-01-21 Cselt Centro Studi Lab Telecom Procedimento di sintesi vocale mediante concatenazione e parziale sovrapposizione di forme d'onda.
DE69631037T2 (de) * 1995-03-07 2004-08-19 British Telecommunications P.L.C. Sprachsynthese
DE69615832T2 (de) * 1995-04-12 2002-04-25 British Telecomm Sprachsynthese mit wellenformen
CA2259374A1 (en) * 1996-07-05 1998-01-15 The Victoria University Of Manchester Speech synthesis system
JP3912913B2 (ja) * 1998-08-31 2007-05-09 キヤノン株式会社 音声合成方法及び装置
EP1138038B1 (de) * 1998-11-13 2005-06-22 Lernout & Hauspie Speech Products N.V. Sprachsynthese durch verkettung von sprachwellenformen
JP2001117576A (ja) * 1999-10-15 2001-04-27 Pioneer Electronic Corp 音声合成方法
US6684187B1 (en) 2000-06-30 2004-01-27 At&T Corp. Method and system for preselection of suitable units for concatenative speech
KR100363027B1 (ko) * 2000-07-12 2002-12-05 (주) 보이스웨어 음성 합성 또는 음색 변환을 이용한 노래 합성 방법
US6738739B2 (en) * 2001-02-15 2004-05-18 Mindspeed Technologies, Inc. Voiced speech preprocessing employing waveform interpolation or a harmonic model
US7089184B2 (en) * 2001-03-22 2006-08-08 Nurv Center Technologies, Inc. Speech recognition for recognizing speaker-independent, continuous speech
US20040073428A1 (en) * 2002-10-10 2004-04-15 Igor Zlokarnik Apparatus, methods, and programming for speech synthesis via bit manipulations of compressed database
KR100486734B1 (ko) * 2003-02-25 2005-05-03 삼성전자주식회사 음성 합성 방법 및 장치
DE602005026778D1 (de) * 2004-01-16 2011-04-21 Scansoft Inc Corpus-gestützte sprachsynthese auf der basis von segmentrekombination
US8027377B2 (en) * 2006-08-14 2011-09-27 Intersil Americas Inc. Differential driver with common-mode voltage tracking and method
US8321222B2 (en) * 2007-08-14 2012-11-27 Nuance Communications, Inc. Synthesis by generation and concatenation of multi-form segments
US9798653B1 (en) * 2010-05-05 2017-10-24 Nuance Communications, Inc. Methods, apparatus and data structure for cross-language speech adaptation
TWI467566B (zh) * 2011-11-16 2015-01-01 Univ Nat Cheng Kung 多語言語音合成方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4949241B1 (de) * 1968-05-01 1974-12-26
JPS5972494A (ja) * 1982-10-19 1984-04-24 株式会社東芝 規則合成方式
JP2504171B2 (ja) * 1989-03-16 1996-06-05 日本電気株式会社 声門波形に基づく話者識別装置
DE69028072T2 (de) * 1989-11-06 1997-01-09 Canon Kk Verfahren und Einrichtung zur Sprachsynthese
US5384893A (en) * 1992-09-23 1995-01-24 Emerson & Stern Associates, Inc. Method and apparatus for speech synthesis based on prosodic analysis
US5469257A (en) * 1993-11-24 1995-11-21 Honeywell Inc. Fiber optic gyroscope output noise reducer
DE69631037T2 (de) * 1995-03-07 2004-08-19 British Telecommunications P.L.C. Sprachsynthese

Also Published As

Publication number Publication date
NZ303239A (en) 1999-01-28
AU699837B2 (en) 1998-12-17
US5978764A (en) 1999-11-02
CA2213779C (en) 2001-12-25
EP0813733B1 (de) 2003-12-10
EP0813733A1 (de) 1997-12-29
NO974100L (no) 1997-09-05
DE69631037D1 (de) 2004-01-22
AU4948896A (en) 1996-09-23
JPH11501409A (ja) 1999-02-02
CA2213779A1 (en) 1996-09-12
NO974100D0 (no) 1997-09-05
KR19980702608A (ko) 1998-08-05
WO1996027870A1 (en) 1996-09-12
MX9706349A (es) 1997-11-29

Similar Documents

Publication Publication Date Title
DE69631037T2 (de) Sprachsynthese
DE60004420T2 (de) Erkennung von Bereichen überlappender Elemente für ein konkatenatives Sprachsynthesesystem
DE69917415T2 (de) Sprachsynthese mit Prosodie-Mustern
DE4237563C2 (de) Verfahren zum Synthetisieren von Sprache
DE60020434T2 (de) Erzeugung und Synthese von Prosodie-Mustern
DE69932786T2 (de) Tonhöhenerkennung
DE60126575T2 (de) Vorrichtung und Verfahren zur Synthese einer singenden Stimme und Programm zur Realisierung des Verfahrens
DE60035001T2 (de) Sprachsynthese mit Prosodie-Mustern
DE602005002706T2 (de) Verfahren und System für die Umsetzung von Text-zu-Sprache
DE2945413C1 (de) Verfahren und Vorrichtung zur Synthetisierung von Sprache
EP1184839B1 (de) Graphem-Phonem-Konvertierung
DE60112512T2 (de) Kodierung von Ausdruck in Sprachsynthese
DE69909716T2 (de) Formant Sprachsynthetisierer unter Verwendung von Verkettung von Halbsilben mit unabhängiger Überblendung im Filterkoeffizienten- und Quellenbereich
DE60118874T2 (de) Prosodiemustervergleich für Text-zu-Sprache Systeme
DE69821673T2 (de) Verfahren und Vorrichtung zum Editieren synthetischer Sprachnachrichten, sowie Speichermittel mit dem Verfahren
DE60126564T2 (de) Verfahren und Anordnung zur Sprachsysnthese
DE69926462T2 (de) Bestimmung des von einer phasenänderung herrührenden rauschanteils für die audiokodierung
DE69720861T2 (de) Verfahren zur Tonsynthese
DE2115258A1 (de) Sprachsynthese durch Verkettung von in Formant Form codierten Wortern
DE60305716T2 (de) Verfahren zum synthetisieren eines nicht stimmhaften sprachsignals
DE69627865T2 (de) Sprachsynthesizer mit einer datenbank für akustische elemente
DE69917960T2 (de) Phonembasierte Sprachsynthese
DE60108104T2 (de) Verfahren zur Sprecheridentifikation
WO2000011647A1 (de) Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten
DE69722585T2 (de) Synthese von wellenformen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition