DE69631037T2 - Sprachsynthese - Google Patents
Sprachsynthese Download PDFInfo
- Publication number
- DE69631037T2 DE69631037T2 DE69631037T DE69631037T DE69631037T2 DE 69631037 T2 DE69631037 T2 DE 69631037T2 DE 69631037 T DE69631037 T DE 69631037T DE 69631037 T DE69631037 T DE 69631037T DE 69631037 T2 DE69631037 T2 DE 69631037T2
- Authority
- DE
- Germany
- Prior art keywords
- speech
- units
- section
- voiced
- amplitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000015572 biosynthetic process Effects 0.000 title description 6
- 238000003786 synthesis reaction Methods 0.000 title description 6
- 238000000034 method Methods 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims 1
- YBJHBAHKTGYVGT-ZKWXMUAHSA-N (+)-Biotin Chemical compound N1C(=O)N[C@@H]2[C@H](CCCCC(=O)O)SC[C@@H]21 YBJHBAHKTGYVGT-ZKWXMUAHSA-N 0.000 description 5
- FEPMHVLSLDOMQC-UHFFFAOYSA-N virginiamycin-S1 Natural products CC1OC(=O)C(C=2C=CC=CC=2)NC(=O)C2CC(=O)CCN2C(=O)C(CC=2C=CC=CC=2)N(C)C(=O)C2CCCN2C(=O)C(CC)NC(=O)C1NC(=O)C1=NC=CC=C1O FEPMHVLSLDOMQC-UHFFFAOYSA-N 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- MQJKPEGWNLWLTK-UHFFFAOYSA-N Dapsone Chemical compound C1=CC(N)=CC=C1S(=O)(=O)C1=CC=C(N)C=C1 MQJKPEGWNLWLTK-UHFFFAOYSA-N 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/06—Elementary speech units used in speech synthesisers; Concatenation rules
- G10L13/07—Concatenation rules
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
- Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
- Absorbent Articles And Supports Therefor (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
Description
- Ein Verfahren zur Sprachsynthese beinhaltet das Aneinanderhängen kleiner Spracheinheiten im Zeitraum. Damit können Darstellungen von Sprachsignalen gespeichert werden und kleine Einheiten wie Phoneme, Diphone oder Triphone – d. h. Einheiten mit weniger als einem Wort – je nach der Sprache ausgewählt werden, die synthetisiert werden soll, und dann aneinandergehängt werden. Nach dem Aneinanderhängen können bekannte Techniken eingesetzt werden, um das zusammengesetzte Signal anzupassen, so dass die Kontinuität von Klanghöhe und Signalphase sichergestellt ist. Ein weiterer Faktor mit Einfluss auf die wahrgenommene Qualität der sich ergebenden synthetisierten Sprache ist jedoch die Amplitude der Einheiten; es konnte nicht bestätigt werden, dass eine Vorverarbeitung der Signalwellen – d. h. die Anpassung der Amplitude vor der Abspeicherung – dieses Problem löst, unter anderem wegen der Länge der Einheiten, die aus den abgespeicherten Daten extrahiert werden und variieren können.
- In
EP 0 427 485 wird eine Sprachsynthesevorrichtung und ein entsprechendes Verfahren offenbart, bei denen Sprachsegmente aneinandergehängt werden, um synthetisierte Sprache zu erzeugen, die einem eingegebenen Text entspricht. Die Segmente, die verwendet werden, sind so genannte VCV- (Vowel-Consonant-Vowel-, Vokal-Konsonant-Vokal-) Segmente, und die Energie der Vokale, die bei der Aneinanderhängung zu Nachbarn werden, wird für diesen Vokal auf eine gespeicherte Referenzenergie normalisiert. - In einem Artikel mit dem Titel "Speech synthesis by linear Interpolation of spectral parameters between dyad boundaries" von Shadle et al. im Journal of the Acoustics Society of America, Band 66, Nr. 5, November 1979, New York, USA, werden Beeinträchtigungen auf Grund der Interpolation von spektralen Parametern beim Synthetisieren von Sprache über Dyadengrenzen hinweg beschrieben.
- Gemäß der vorliegenden Erfindung wird eine Sprachsynthetisierungsvorrichtung gemäß Anspruch 1 geschaffen und ein Verfahren zum Synthetisieren von Sprache gemäß Anspruch 6 angegeben.
- Eine Form der Erfindung wird im Folgenden als Beispiel beschrieben, wobei Bezug genommen wird auf die beigefügten Zeichnungen.
-
1 ist ein Blockdiagramm eines Beispiels für die Sprachsynthese gemäß der Erfindung. -
2 ist ein Flussdiagramm zur Darstellung des Ablaufs der Synthese. -
3 ist ein Zeitdiagramm. - Bei der Sprachsynthetisierungsvorrichtung nach
1 enthält ein Speicher1 Abschnitte des Sprachsignalverlaufs, die aus digitalisierten Sprachabschnitten erzeugt wurden, welche ursprünglich von einem menschlichen Sprecher aufgenommen wurden, der einen Abschnitt (von vielleicht 200 Sätzen) liest, der ausgewählt wurde, weil er alle möglichen (oder wenigstens eine große Anzahl von) verschiedenen Klängen enthält. Zu jedem Abschnitt werden Daten abgespei chert, die "Klanghöhenmarkierungen" definieren, welche stimmlose Punkte in dem Signal anzeigen, die auf übliche Art bei der ursprünglichen Aufnahme erzeugt wurden. - Ein Eingangssignal, das zu synthetisierende Sprache in Form einer phonetischen Darstellung darstellt, wird an einen Eingang
2 angelegt. Diese Eingabe kann, falls gewünscht, mit (nicht dargestellten) konventionellen Mitteln aus einem eingegebenen Text erzeugt werden. Diese Eingabe wird auf bekannte Art durch eine Auswahleinheit3 verarbeitet, durch die entsprechend dem durch die Einheit dargestellten Klang für jede Einheit der Eingabe die Adressen in dem Speicher1 eines gespeicherten Signalverlaufsabschnittes festgelegt werden. Eine Einheit kann, wie erwähnt, ein Phonem, ein Diphon oder eine andere Wortuntereinheit sein, und im Allgemeinen kann die Länge einer Einheit je nach Verfügbarkeit in dem Signalverlaufsspeicher eines entsprechenden Abschnittes im Signalverlauf variieren. - Die Einheiten werden, nachdem sie einmal ausgelesen worden sind, bei
4 aneinandergehängt, und die aneinander gehängte Signalverlaufsform wird bei5 irgendeiner gewünschten Klanghöhenanpassung unterworfen. - Vor diesem Aneinanderhängen wird jede Einheit individuell einem Amplitudennormalisierungsprozess in einer Einheit
6 für die Amplitudenanpassung unterworfen, deren Funktion im Folgenden genauer erläutert wird. Das grundsätzliche Ziel besteht darin, jeden sprachlichen Abschnitt einer Einheit auf einen festgelegten RMS-Pegel zu normalisieren, bevor irgendeine weitere Verarbeitung statt findet. Eine Markierung, die die ausgewählte Einheit darstellt, ermöglicht es dem Referenzmarkierungsspeicher8 , den geeigneten RMS-Pegel festzulegen, der bei der Normalisierung verwendet werden soll. Stimmlose Abschnitte werden nicht angepasst, aber die Übergänge zwischen stimmhaften und stimmlosen Abschnitten können geglättet werden, um scharfe Brüche zu vermeiden. Die Motivation für diesen Ansatz liegt in der Funktion der Auswahl der Einheiten und dem Aneinanderhängen. Die ausgewählten Einheiten variieren in der Länge und in Abhängigkeit von dem Kontext, aus dem sie entnommen wurden. Dieses macht die Vorbereitung schwierig, da die Länge, der Kontext und die Stimmeigenschaften zusammenhängender Einheiten den Algorithmus beim Zusammensetzen und damit die Änderung der Amplitude über den Übergang hinweg beeinflussen. Diese Information ist nur während der Laufzeit bekannt, wenn jede Einheit ausgewählt wird. Die Nachverarbeitung nach dem Zusammensetzen ist genauso schwierig. - Die erste Aufgabe der Amplitudenanpassungseinheit besteht darin, den stimmhaften Abschnitt/die stimmhaften Abschnitte der Einheit (falls vorhanden) zu identifizieren. Dies erfolgt mit der Hilfe eines Stimmdetektors
7 , der auf Klanghöhenzeitmarkierungen zurückgreift, die die stimmlosen Punkte in dem Signal anzeigen, wobei der Abstand zwischen aufeinander folgenden Markierungen die fundamentale Frequenz des Signals festlegt. Die Daten (von dem Signalverlaufsspeicher1 ), die die Zeitpunkte der Klanghöhenmarkierungen darstellen, werden von dem Stimmdetektor7 empfangen, der mit Bezug auf eine maximale Beabstandung entsprechend der niedrigsten erwarteten fundamentalen Frequenz die stimmhaften Abschnitte der Einheit identifiziert, indem eine Abfolge von Klanghöhenmar kierungen angenommen wird, die weniger als dieser Maximalwert beabstandet sind, um einen stimmhaften Abschnitt zu bilden. Ein stimmhafter Abschnitt, dessen erste (oder letzte) Klanghöhenmarkierung innerhalb dieses Maximums des Beginns (oder des Endes) der Spracheinheit liegt, wird jeweils angesehen als beginnend am Anfang der Einheit oder endend am Ende der Einheit. Dieser Identifizierungsschritt wird als Schritt10 in dem Flussdiagramm in2 dargestellt. - Die Amplitudenanpassungseinheit
6 berechnet dann (im Schritt11 ) den RMS-Wert des Signalverlaufs über den stimmhaften Abschnitt, zum Beispiel den Abschnitt B in dem Zeitdiagramm nach3 , sowie einen Skalierungsfaktor S gleich einem festen Referenzwert, dividiert durch diesen RMS-Wert. Der feste Referenzwert kann der gleiche für alle Sprachabschnitte sein, oder es kann mehr als ein Referenzwert verwendet werden, je nach entsprechender Teilmenge der Sprachabschnitte. Beispielsweise können verschiedene Phoneme verschiedenen Referenzwerten zugeordnet werden. Wenn der stimmhafte Abschnitt übergreifend über die Grenzen zwischen zwei verschiedenen Teilmengen hinweg auftritt, so kann der Skalierungsfaktor S berechnet werden als gewichtete Summe jedes festen Referenzwertes, dividiert durch den RMS-Wert. Geeignete Gewichte werden in Abhängigkeit von dem Verhältnis des stimmhaften Abschnittes innerhalb jeder Teilmenge berechnet. Alle Abtastwerte innerhalb des stimmhaften Abschnittes werden (im Schritt12 in2 ) mit dem Skalierungsfaktor S multipliziert. Um die stimmhaften/stimmlosen Übergänge zu glätten, werden die letzten 10 ms der stimmlosen Sprachabtastungen vor dem stimmhaften Abschnitt (im Schritt13 ) mit einem Faktor S1 multipliziert, der sich über diese Pe riode linear zwischen 1 und S ändert. Ähnlich werden die ersten 10 ms der stimmlosen Sprachabtastungen nach dem stimmhaften Abschnitt (im Schritt14 ) mit einem Faktor S2 multipliziert, der sich linear zwischen S und 1 ändert. Die Abfragen15 und16 in dem Flussdiagramm stellen sicher, dass diese Schritte nicht durchgeführt werden, wenn der stimmhafte Abschnitt an der Grenze der Einheit beginnt bzw. endet. -
3 zeigt die Skalierung für eine Einheit mit drei stimmhaften Abschnitten A, B, C, D, zwischen denen stimmlose Abschnitte liegen. Der Abschnitt A befindet sich am Beginn der Einheit, und damit weist er kein Eingangsrampensegment auf, sondern hat ein Ausgangsrampensegment. Der Abschnitt B beginnt und endet in der Einheit und hat somit ein Eingangsrampen- und ein Ausgangsrampensegment. Der Abschnitt C beginnt innerhalb der Einheit, setzt sich jedoch bis zum Ende der Einheit fort, so dass er ein Eingangsrampen-, jedoch kein Ausgangsrampensegment aufweist. - Diese Skalierung soll ihrerseits auf jeden stimmhaften Abschnitt angewendet werden, wenn mehr als einer gefunden wird.
- Obgleich die Amplitudenanpassungseinheit in spezieller Hardware realisiert werden kann, so wird sie doch vorzugsweise durch ein gespeichertes Programm realisiert, das einen Prozessor steuert, der in Übereinstimmung mit dem Flussdiagramm nach
2 arbeitet.
Claims (6)
- Sprachsynthetisierungsvorrichtung mit: einem Speicher (
1 ) mit Darstellung von Sprachsignalverlauf; eine Auswahleinrichtung (3 ), die in Abhängigkeit von phonetischen Darstellungen gewünschter Klänge arbeitet, die eingegeben werden, um die Speichereinheiten der Sprachsignalverlauf darstellenden Abschnitte von Worten entsprechend den gewünschten Klängen auszuwählen; eine Einrichtung (4 ) zum Aneinanderhängen der ausgewählten Einheiten des Sprachsignalverlaufs; wobei die Synthetisierungsvorrichtung dadurch gekennzeichnet ist, dass: einige der Einheiten mit einem stimmlosen Abschnitt anfangen und/oder enden und die Synthetisierungsvorrichtung außerdem umfasst: eine Einrichtung (7 ) zum Identifizieren der stimmhaften Abschnitte in den ausgewählten Einheiten; eine Amplitudenanpassungseinrichtung (6 ), die in Abhängigkeit von der Identifizierungsvorrichtung (7 ) für stimmhafte Abschnitte arbeitet und die dazu dient, die Amplitude der stimmhaften Abschnitte der Einheiten mit Bezug auf einen vorgegebenen Referenzpegel anzupassen und die Amplitude von wenigstens einem Teil von einem stimmlosen Abschnitt der Einheit unverändert zu lassen. - Sprachsynthetisierungsvorrichtung nach Anspruch 1, bei der die Einheiten des Sprachsignalverlaufs zwischen Phonemen, Diphonen, Triphonen und anderen Wortteileinheiten variieren.
- Sprachsynthetisierungsvorrichtung nach Anspruch 1, bei der die Anpassungseinrichtung (
6 ) dazu dient, den oder jeden stimmhaften Abschnitt mit einem entsprechenden Skalierungsfaktor zu skalieren und den benachbarten Teil jedes angrenzenden stimmlosen Abschnittes mit einem Faktor zu skalieren, der monoton über die Dauer dieses Teils zwischen dem Skalierungsfaktor und Eins variiert. - Sprachsynthetisierungsvorrichtung nach Anspruch 1 oder 3, bei der mehrere Referenzpegel verwendet werden, wobei die Anpassungseinrichtung (
6 ) für jeden stimmhaften Abschnitt dazu dient, einen Referenzpegel in Abhängigkeit von dem Klang auszuwählen, der durch diesen Abschnitt dargestellt wird. - Sprachsynthetisierungsvorrichtung nach Anspruch 4, bei der jedes Phonem einem Referenzpegel zugeordnet wird und jeder stimmhafte Abschnitt mit Signalverlaufssegmenten von mehr als einem Phonem einem Referenzpegel zugeordnet wird, der eine gewichtete Summe der Pegel darstellt, die den darin enthaltenen Phonemen zugeordnet sind, wobei die Wichtung den relativen Dauern der Segmente entspricht.
- Verfahren zum Sprachsynthetisieren mit den Schritten: Erfassen von phonetischen Darstellungen gewünschter Klänge; Auswählen aus einem Speicher mit Darstellungen von Sprachsignalverlauf in Abhängigkeit von den phonetischen Darstellungen von Einheiten von Sprachsignalverlauf, der Abschnitte von Worten entsprechend den gewünschten Klängen darstellt; Aneinanderhängen der ausgewählten Einheiten des Sprachsignalverlaufs; wobei das Verfahren dadurch gekennzeichnet ist, dass: einige der Einheiten mit einem stimmlosen Abschnitt beginnen und/oder enden; und das Verfahren außerdem die Schritte aufweist: Identifizieren (
10 ) der stimmhaften Abschnitte der ausgewählten Einheiten und in Abhängigkeit von der Identifizierung der stimmhaften Abschnitte Anpassen (12 ) der Amplitude der stimmhaften Abschnitte der Einheiten in Abhängigkeit von einem vorgegebenen Referenzpegel und unverändertes Belassen der Amplitude wenigstens eines Teils irgendeines stimmlosen Abschnittes der Einheit.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP95301478 | 1995-03-07 | ||
EP95301478 | 1995-03-07 | ||
PCT/GB1996/000529 WO1996027870A1 (en) | 1995-03-07 | 1996-03-07 | Speech synthesis |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69631037D1 DE69631037D1 (de) | 2004-01-22 |
DE69631037T2 true DE69631037T2 (de) | 2004-08-19 |
Family
ID=8221114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69631037T Expired - Lifetime DE69631037T2 (de) | 1995-03-07 | 1996-03-07 | Sprachsynthese |
Country Status (10)
Country | Link |
---|---|
US (1) | US5978764A (de) |
EP (1) | EP0813733B1 (de) |
JP (1) | JPH11501409A (de) |
KR (1) | KR19980702608A (de) |
AU (1) | AU699837B2 (de) |
CA (1) | CA2213779C (de) |
DE (1) | DE69631037T2 (de) |
NO (1) | NO974100D0 (de) |
NZ (1) | NZ303239A (de) |
WO (1) | WO1996027870A1 (de) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IT1266943B1 (it) * | 1994-09-29 | 1997-01-21 | Cselt Centro Studi Lab Telecom | Procedimento di sintesi vocale mediante concatenazione e parziale sovrapposizione di forme d'onda. |
DE69631037T2 (de) * | 1995-03-07 | 2004-08-19 | British Telecommunications P.L.C. | Sprachsynthese |
DE69615832T2 (de) * | 1995-04-12 | 2002-04-25 | British Telecomm | Sprachsynthese mit wellenformen |
CA2259374A1 (en) * | 1996-07-05 | 1998-01-15 | The Victoria University Of Manchester | Speech synthesis system |
JP3912913B2 (ja) * | 1998-08-31 | 2007-05-09 | キヤノン株式会社 | 音声合成方法及び装置 |
EP1138038B1 (de) * | 1998-11-13 | 2005-06-22 | Lernout & Hauspie Speech Products N.V. | Sprachsynthese durch verkettung von sprachwellenformen |
JP2001117576A (ja) * | 1999-10-15 | 2001-04-27 | Pioneer Electronic Corp | 音声合成方法 |
US6684187B1 (en) | 2000-06-30 | 2004-01-27 | At&T Corp. | Method and system for preselection of suitable units for concatenative speech |
KR100363027B1 (ko) * | 2000-07-12 | 2002-12-05 | (주) 보이스웨어 | 음성 합성 또는 음색 변환을 이용한 노래 합성 방법 |
US6738739B2 (en) * | 2001-02-15 | 2004-05-18 | Mindspeed Technologies, Inc. | Voiced speech preprocessing employing waveform interpolation or a harmonic model |
US7089184B2 (en) * | 2001-03-22 | 2006-08-08 | Nurv Center Technologies, Inc. | Speech recognition for recognizing speaker-independent, continuous speech |
US20040073428A1 (en) * | 2002-10-10 | 2004-04-15 | Igor Zlokarnik | Apparatus, methods, and programming for speech synthesis via bit manipulations of compressed database |
KR100486734B1 (ko) * | 2003-02-25 | 2005-05-03 | 삼성전자주식회사 | 음성 합성 방법 및 장치 |
DE602005026778D1 (de) * | 2004-01-16 | 2011-04-21 | Scansoft Inc | Corpus-gestützte sprachsynthese auf der basis von segmentrekombination |
US8027377B2 (en) * | 2006-08-14 | 2011-09-27 | Intersil Americas Inc. | Differential driver with common-mode voltage tracking and method |
US8321222B2 (en) * | 2007-08-14 | 2012-11-27 | Nuance Communications, Inc. | Synthesis by generation and concatenation of multi-form segments |
US9798653B1 (en) * | 2010-05-05 | 2017-10-24 | Nuance Communications, Inc. | Methods, apparatus and data structure for cross-language speech adaptation |
TWI467566B (zh) * | 2011-11-16 | 2015-01-01 | Univ Nat Cheng Kung | 多語言語音合成方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS4949241B1 (de) * | 1968-05-01 | 1974-12-26 | ||
JPS5972494A (ja) * | 1982-10-19 | 1984-04-24 | 株式会社東芝 | 規則合成方式 |
JP2504171B2 (ja) * | 1989-03-16 | 1996-06-05 | 日本電気株式会社 | 声門波形に基づく話者識別装置 |
DE69028072T2 (de) * | 1989-11-06 | 1997-01-09 | Canon Kk | Verfahren und Einrichtung zur Sprachsynthese |
US5384893A (en) * | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
US5469257A (en) * | 1993-11-24 | 1995-11-21 | Honeywell Inc. | Fiber optic gyroscope output noise reducer |
DE69631037T2 (de) * | 1995-03-07 | 2004-08-19 | British Telecommunications P.L.C. | Sprachsynthese |
-
1996
- 1996-03-07 DE DE69631037T patent/DE69631037T2/de not_active Expired - Lifetime
- 1996-03-07 EP EP96905926A patent/EP0813733B1/de not_active Expired - Lifetime
- 1996-03-07 KR KR1019970706013A patent/KR19980702608A/ko not_active Application Discontinuation
- 1996-03-07 JP JP8526713A patent/JPH11501409A/ja active Pending
- 1996-03-07 CA CA002213779A patent/CA2213779C/en not_active Expired - Fee Related
- 1996-03-07 WO PCT/GB1996/000529 patent/WO1996027870A1/en active IP Right Grant
- 1996-03-07 US US08/700,369 patent/US5978764A/en not_active Expired - Lifetime
- 1996-03-07 AU AU49488/96A patent/AU699837B2/en not_active Ceased
- 1996-03-07 NZ NZ303239A patent/NZ303239A/xx unknown
-
1997
- 1997-09-05 NO NO974100A patent/NO974100D0/no unknown
Also Published As
Publication number | Publication date |
---|---|
NZ303239A (en) | 1999-01-28 |
AU699837B2 (en) | 1998-12-17 |
US5978764A (en) | 1999-11-02 |
CA2213779C (en) | 2001-12-25 |
EP0813733B1 (de) | 2003-12-10 |
EP0813733A1 (de) | 1997-12-29 |
NO974100L (no) | 1997-09-05 |
DE69631037D1 (de) | 2004-01-22 |
AU4948896A (en) | 1996-09-23 |
JPH11501409A (ja) | 1999-02-02 |
CA2213779A1 (en) | 1996-09-12 |
NO974100D0 (no) | 1997-09-05 |
KR19980702608A (ko) | 1998-08-05 |
WO1996027870A1 (en) | 1996-09-12 |
MX9706349A (es) | 1997-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69631037T2 (de) | Sprachsynthese | |
DE60004420T2 (de) | Erkennung von Bereichen überlappender Elemente für ein konkatenatives Sprachsynthesesystem | |
DE69917415T2 (de) | Sprachsynthese mit Prosodie-Mustern | |
DE4237563C2 (de) | Verfahren zum Synthetisieren von Sprache | |
DE60020434T2 (de) | Erzeugung und Synthese von Prosodie-Mustern | |
DE69932786T2 (de) | Tonhöhenerkennung | |
DE60126575T2 (de) | Vorrichtung und Verfahren zur Synthese einer singenden Stimme und Programm zur Realisierung des Verfahrens | |
DE60035001T2 (de) | Sprachsynthese mit Prosodie-Mustern | |
DE602005002706T2 (de) | Verfahren und System für die Umsetzung von Text-zu-Sprache | |
DE2945413C1 (de) | Verfahren und Vorrichtung zur Synthetisierung von Sprache | |
EP1184839B1 (de) | Graphem-Phonem-Konvertierung | |
DE60112512T2 (de) | Kodierung von Ausdruck in Sprachsynthese | |
DE69909716T2 (de) | Formant Sprachsynthetisierer unter Verwendung von Verkettung von Halbsilben mit unabhängiger Überblendung im Filterkoeffizienten- und Quellenbereich | |
DE60118874T2 (de) | Prosodiemustervergleich für Text-zu-Sprache Systeme | |
DE69821673T2 (de) | Verfahren und Vorrichtung zum Editieren synthetischer Sprachnachrichten, sowie Speichermittel mit dem Verfahren | |
DE60126564T2 (de) | Verfahren und Anordnung zur Sprachsysnthese | |
DE69926462T2 (de) | Bestimmung des von einer phasenänderung herrührenden rauschanteils für die audiokodierung | |
DE69720861T2 (de) | Verfahren zur Tonsynthese | |
DE2115258A1 (de) | Sprachsynthese durch Verkettung von in Formant Form codierten Wortern | |
DE60305716T2 (de) | Verfahren zum synthetisieren eines nicht stimmhaften sprachsignals | |
DE69627865T2 (de) | Sprachsynthesizer mit einer datenbank für akustische elemente | |
DE69917960T2 (de) | Phonembasierte Sprachsynthese | |
DE60108104T2 (de) | Verfahren zur Sprecheridentifikation | |
WO2000011647A1 (de) | Verfahren und vorrichtungen zur koartikulationsgerechten konkatenation von audiosegmenten | |
DE69722585T2 (de) | Synthese von wellenformen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |