JPH10116089A - 音声合成用の基本周波数テンプレートを収容する韻律データベース - Google Patents
音声合成用の基本周波数テンプレートを収容する韻律データベースInfo
- Publication number
- JPH10116089A JPH10116089A JP9266401A JP26640197A JPH10116089A JP H10116089 A JPH10116089 A JP H10116089A JP 9266401 A JP9266401 A JP 9266401A JP 26640197 A JP26640197 A JP 26640197A JP H10116089 A JPH10116089 A JP H10116089A
- Authority
- JP
- Japan
- Prior art keywords
- speech
- prosody
- text
- fundamental frequency
- database
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002194 synthesizing effect Effects 0.000 title claims abstract description 10
- 230000033764 rhythmic process Effects 0.000 title abstract 4
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 16
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 41
- 239000003550 marker Substances 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000000717 retained effect Effects 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 claims 2
- 238000003058 natural language processing Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000019771 cognition Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000000867 larynx Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
- G10L15/144—Training of HMMs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
- G10L2025/903—Pitch determination of speech signals using a laryngograph
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
する韻律データベースを提供する。 【解決手段】 韻律データベースは音声合成システム用
の基本周波数テンプレートを保持する。韻律データベー
ステンプレートは所定の文における音節に関する基本周
波数値を保持しうる。これらの基本周波数値は音声の文
を合成する際に適用されうる。テンプレートは音色パタ
ーンマーキングによって指標付けられる。予測音色マー
キングパターンは合成されるべきテキストの各文に関し
て生成され、音色マーキングのこの予測パターンは最適
合テンプレートを見つけるのに使用される。テンプレー
トは、所定の無標コーパスに関して人間のトレーナによ
って話された文に関して追跡可能な根拠の基本周波数を
計算することによって得られる。
Description
タ処理システムに関し、特に、音声合成用の基本周波数
テンプレートを収容する韻律データベースに関する。
ムは原文通りの入力によって指定された音声を合成す
る。従来の音声テキストシステムの限界の1つは、それ
らが非常に不自然なロボットのような合成された音声を
作り出していたということである。かかる合成された音
声は、典型的には人間の音声である韻律的特徴を示さな
い。従来の音声テキストシステムのほとんどは、時間に
伴う韻律パラメータの展開を定義するために、僅かなセ
ットのルールを適用することによって韻律を生み出す。
韻律は一般的には、音の持続期間と、音の大きさと、音
に関係するピッチアクセントとを含むように考えられ
る。所定の音声テキストシステムは、そのシステムによ
って作り出されたかかる合成された音声の本質を高める
推測統計学的技術を採用するように試みられている。こ
れらの推測統計学的学習技術は、口述された句又は文の
コーパスから導かれる統計に基づいた韻律を求めるよう
に試みられている。しかし、これらの推測統計学的技術
はまた、自然な音声を一貫して作り出すのに失敗してき
ている。
れば、コンピュータで実施される方法は、音声を合成す
るためのシステムで実行される。この方法によれば、合
成されるべき音声に関するテキストは韻律テンプレート
に沿って設けられる。各韻律テンプレートは、音声のユ
ニットに関する一連の基本周波数値を保持する。テンプ
レートのうちの1つは、テキストに関して合成された音
声に関する韻律の確立用に選択される。次いで、音声
は、音声に関する韻律を確立する際に、選択されたテン
プレートから基本周波数のうちの少なくとも1つを使用
してテキストに関して合成される。本発明の別の態様に
よれば、音声のユニットに関する基本周波数の韻律デー
タベースが提供される。韻律データベースの各エントリ
は、基本周波数が保持される音声のユニットに関する強
調の度合いと対応する音色マーキングのパターンによっ
て指標付けされる。自然言語解析を所定のテキストで実
施する。自然言語解析の結果に基づいて、音色マーキン
グの予測パターンがテキストにおける音声のユニットに
関して予測される。韻律データベースにおける最適合イ
ンデックスが、韻律データベースにおけるエントリのイ
ンデックスを持ったテキストにおける音声のユニットに
関する音色マーキングの予測パターンと比較することに
よって識別される。最適合インデックスによって指標付
けされた韻律データベースにおけるエントリの基本周波
数のうちの少なくとも1つは、テキストに関して合成さ
れた音声において韻律を確立するために使用される。
ベースを構築する方法がコンピュータシステムで実行さ
れる。人間のトレーナによって話される、話されたテキ
ストの複数の対応する部分の各々に関して、音響信号が
得られる。各音響信号は、人間トレーナがテキストの対
応する部分を話すときに生じる信号である。話されるテ
キストの各部分に関する喉頭グラフ(laryngograph)
は、テキストの部分が話されるとき、人間トレーナに付
随する喉頭グラフから得られる。音響信号は、テキスト
の音節を表わすセグメントに区分けられる。各音節は母
音部分を含む。喉頭グラフ信号は、音響信号のセグメン
トと適合するセグメントに区分けられる。テキストの各
部分で各音節の母音部分に関する瞬間的な基本周波数の
重み合計が計算される。基本周波数は、喉頭グラフ信号
から得られ、重みは音響信号から得られる。テキストの
各部分に関して、韻律データベースにおけるテキストの
部分の各音節に関する瞬間的な基本周波数の重み合計は
ストアされ、これらの重み合計は合成された音声の韻律
を確立するために使用される。
トシステムは入力テキストを音声のユニットに解析する
ためのパーサを含む。このシステムはまた、韻律テンプ
レートを保持する韻律データベースを含み、各韻律テン
プレートは音声のユニットに関する一連の基本周波数値
を保持する。このシステムは、入力テキストにおける音
声のユニットに関して基本周波数値を得るために、韻律
データベースにおけるテンプレートのうちの選択された
1つを使用することによって、入力テキストに対応する
音声を作り出すための音声合成手段を更に含む。本発明
の更なる態様によれば、音声の異なるスタイルに関する
韻律テンプレートを保持する韻律データベースが設けら
れる。作り出されるべき音声の部分に適用されるべきで
ある韻律スタイルが求められ、求められた韻律スタイル
に関する韻律データベースにおけるテンプレートのうち
の少なくとも1つは、求められた韻律スタイルを持った
音声の部分を作り出すのに使用される。
タベースは、単一の話者に関する異なる韻律スタイルの
韻律テンプレートを保持することが設けられる。システ
ムによって作り出されるべきである音声の部分に適用さ
れるべきである韻律スタイルが求められ、韻律データベ
ースにおけるテンプレートのうちの少なくとも1つが、
求められた韻律スタイルを持った音声の部分を作り出す
ために求められた韻律スタイルのために使用される。
又は文に関する基本周波数のテンプレートを保持する1
又はそれ以上の韻律データベースを設ける。複数の話者
に関する韻律データベースを保持し、異なる韻律スタイ
ルに関する複数の韻律データベースを保持することがで
きる。これらのデータベースの各々は、一種の「ボイス
フォント」としての役割を果たす。韻律データベース
は、より自然な合成された音声を作り出すように利用さ
れる。音声合成では、所望の韻律をセットするためにこ
れらのボイスフォントの間から選択することができる。
特に、合成された音声の出力における音節に割り当てら
れるべき基本周波数を決定するために、韻律データベー
スのうちの1つからの最も適合したテンプレートを使用
する。本発明の典型的な実施形態の音声テキストシステ
ムへのテキスト入力は、韻律データベースにおける最も
適合したテンプレートを決定するように処理される。正
確な一致が見つからないならば、最も適合するテンプレ
ートから無標の領域に一致を作り出すように改竄技術を
適用しうる。かかる合成された音声は、従来の音声テキ
ストシステムによって作り出された音声より、より自然
な音である。
人間の話者が話す文を有することによって構築されてい
る。次いで、これらの文は、自然言語処理エンジンによ
って処理され、隠れマルコフモデル(HMM)を使用し
て音素と音節に区分される。この喉頭グラフ出力は、H
MMによってマイクロフォン音声信号に作り出された区
分に従って区分されている。区分された喉頭グラフ出力
は、各音節の母音部分における重み基本周波数を求める
ように処理される。これらの重み基本周波数は韻律デー
タベースのエントリにストアされ、韻律データベースの
エントリは音色マーキングによって指標付けられる。本
発明の典型的な実施形態は、所定の話者に関する韻律を
判断するために、迅速で且つ容易なアプローチを提供す
る。このアプローチは、全てのタイプのテキストに偏在
して適用されるべく広範囲に及ぶ。典型的な実施形態は
また、扱いやすく、該システムを扱ったオリジナルスピ
ーカーと非常に似ているように発する音声を作り出す機
構を提供する。
するのに適当なコンピュータシステム10を示す。当業
者は、図1におけるコンピュータシステム構成が単に説
明することを意図したものであり、本発明を限定するも
のではないことを認識するであろう。本発明はまた、分
散型システム及び密結合多重プロセッサシステムを含
む、他のコンピュータシステム構成の状態で実行されう
る。コンピュータシステム10は、中央処理装置(CP
U)12及びたくさんの入出力デバイスを含む。例え
ば、これらのデバイスはキーボード14、ビデオディス
プレィ16、及び、マウス18を含みうる。CPU12
はメモリ20へのアクセスを有する。メモリ20は音声
テキスト(text-to-speech)(TTS)機構28のコピ
ーを保持する。TTS機構28は、本発明の典型的な実
施形態を実行するための命令を保持する。コンピュータ
システム10はまた、CPU12をネットワーク24と
接続するためのネットワークアダプタ22を含む。コン
ピュータシステム10は更に、モデム26と、オーディ
オ出力を発生させるために(ラウドスピーカのような)
オーディオ出力デバイス27とを含みうる。
データベースを含む。単一の話者に関する複数のデータ
ベースが保持されうる。例えば、話者は異なる領域内の
アクセントに関する別々のデータベースを作り出すこと
ができ、各アクセントは、それら自体の韻律スタイルを
有する。更に、話者は、ニュース放送を読むことによっ
てデータベースを作ることができ、子供向けの本を読む
ことによって別のデータベースを作りうる。更に、別の
韻律データベースを多数の話者のために保持しうる。上
で述べたように、これらのデータベースの各々は、別々
の「ボイスフォント」を斟酌しうる。図2は、入力テキ
ストの単一の文に関する合成された音声出力を作り出す
ために、本発明の典型的な実施形態によって行われる段
階の概観をなすフローチャートである。複数の入力テキ
スト文が処理されるべきならば、図2(即ち、ステップ
32乃至44)に示された多くのステップは各文に関し
て繰り返されうる。図2のフローチャートを、本発明の
典型的な実施形態のTTS機能28の基本的な構成を図
示する図3に関連して説明する。本発明の典型的な実施
形態において実施される第1の段階は、韻律データベー
スを構築する(図2のステップ30)。韻律データベー
スは図3に示される韻律テンプレート60の部分であ
る。テンプレート60は、複数の韻律データベース即ち
ボイスフォントを含みうる。上で議論したように、各韻
律データベースは、無標コーパスからの多くの文を人間
の話者に話させることによって、且つ、かかるアナログ
音声信号及び喉頭グラフを寄せ集めることによって作り
出される。次いで、このデータは韻律データベースを構
築するために処理される。
築するために実施される段階を図示したフローチャート
である。図4に示されたステップは、話者によって話さ
れた無標コーパス50における各文に関して実施され
る。最初に、話されるトレーニング文に関する喉頭グラ
フ信号を受信する(図4のステップ70)。図5Aは、
マイクロフォン音声信号の例を示す。図5Bは対応する
喉頭グラフ信号を示す。この信号は、その時点での話者
の音声コードがどの程度に開いているか又は閉じている
かの指示を与える。トレーニング文に関する音素及び音
節によるセグメンテーションを受信し、同様な仕方で喉
頭グラフ信号を区分する。特に、喉頭グラフ信号は、マ
イクロフォン信号が区分けされたのと丁度同じ時間サイ
ズで区分けされる。特に、HMMトレーニング52は、
区分けされたコーパス54をもたらすように、無標コー
パス50の話される文で実施される。HMM技術は当該
技術分野で周知である。適当なHMMトレーニング技術
は、1996年5月1日に出願された「連続密度隠れマルコ
フモデルを使用して音声認識をする方法及びシステム
(Method and System for Speech Recognition Using C
ontinuousDensity Hidden Markov Models)」と題する
継続出願第08/655,273号に記載されており、本出願と共
通の譲受人に譲渡されている。これらのHMM技術によ
り、音素及び音節によって区分された音声信号になる。
音節区分は、本発明の典型的な実施形態に対して特別に
重要なものである。
うに、且つ、瞬間的な基本周波数(F0)情報を作り出す
ように処理される。この文脈中では、エポックとは、音
声コードが開いている及び閉じている継続時間のことを
言う。言い換えれば、1つのエポックが音声コードの1
つの開き及び閉じに対応する。基本周波数は、話者の音
声コードが音節に関して振動する基本周波数を言う。こ
れは、本発明の典型的な実施形態の最も重要なものであ
る韻律パラメータである。エポック情報は、喉頭グラフ
信号の継続時間のスムージング評価の局所的最大から得
られる。母音領域は、典型的には、最も強く強調される
音節の部分だから、解析のために選択される。音節の母
音部分に関する喉頭グラフ信号から選られた瞬間的な基
本周波数値の重み合計として、重みF0(weighted F0 )
を計算する。より数式的には、重み基本周波数は数学的
に以下のように表わしうる:
本周波数である。基本周波数F0i を、喉頭グラフの信号
における隣接したピークを分離する時間分の1として計
算する。典型的には、音節の母音部分は複数のピークを
含むであろう。重みWは音響信号から得られ、式的には
以下のように表わしうる:
幅、ta は第1のピークでの時間、tbは第2のピーク
での時間である。ta 及びtb の値は、それぞれ第1及
び第2のピークに関する喉頭グラフ信号のピークに対応
する時間における点を表わしているものである。この重
み機構により、音節毎の知覚重みF0を計算する際に、速
度信号のより大きな振幅の部分に、より大きな重みを与
えることができる。この重み機構は、F0カーブの知覚的
に重要な部分(即ち、振幅が高い場所)に更なる重みを
与える。自然言語処理(NLP)は文で実行され(即
ち、テキスト解析56が実行される)、自然言語処理か
ら得られた情報は音色マーキングを予測するように使用
される(図4のステップ76)。多くのどんな周知の技
術でも、この解析を実行するように使用されうる。自然
言語処理は文を解析するので、音声の部分の同一性、文
脈単語、文の文法構造、文のタイプ、及び、文における
単語の発音が生ずる。かかるNLPパーズから得られた
情報は、文の各音節に関して音色マーキングを予測する
ように使用される。音声の人間的韻律パターンの多くが
各音節に関して3つの音色マーキングのうちの1つを予
測することによって表現されることは認識されていた。
これらの3つの音色マーキングは、高音、低音、又は、
特別な強調の無いものである。本発明の典型的な実施形
態は、音節基(syllable basis)毎に解析された入力文
に関して、音色マーキングのパターンを予測する。音色
マーキングを予測及び割り当てるための適当なアプロー
チは、John Goldsmith著「English as a Tone Languag
e」(Communication and Cognition, 1978 )と、Janet
Pierrehumbert 著「The Phonology and Phonetics of
English Intonation 」(学位論文、マサチューセッツ
工科大学、1980)に説明されている。予測された音色マ
ーキングストリングの例は「2 H 0 H 0 N 0 L 1 - 」で
ある。このストリングは数字と、H,L,h,l,+ 及び- の組
から選択された記号とから構成される。記号は、所定の
高い突出音節の音色の特徴、第1のアクセント、及び、
最後の音節を示し、数字は、これらのアクセント又は最
後の音節の間にいくつの音節が生じるかを示す。H 及び
L はそれぞれ強調された音節での高音及び低音を示し、
+ 及び- は最後の音節での高音及び低音を示し、h 及び
l は以下に続く強調された音節の最左端の音節での(以
下に続く音節が無ければ、それ自身の強調された音節で
の)高音及び低音を示す。
波数の連続を保持するために韻律データベースに作成さ
れる。各エントリを、文に関する関連した音色マーキン
グストリングによって指標付けする(図4のステップ7
8)。基本周波数値は、符号無しのキャラクタ値として
韻律データベースにストアされうる(図4のステップ8
0)。上述したステップは、韻律データベースを構築す
るために各文に関して実行される。一般的には、セグメ
ンテーション及び原文通りの解析は、韻律データベース
60を構築するために、本発明の典型的な実施形態によ
って採用された韻律モデルによって使用される。韻律デ
ータベースが構築された後(図2のステップ30参
照)、データベースを音声合成に利用しうる。音声合成
における第1の段階は、作り出されるべき音声を識別す
る(図2のステップ32)。本発明の典型的な実施形態
では、この音声は、文を表わすテキストのチャンクであ
る。それにもかかわらず、当業者は、本発明がまた、成
句、単語又はパラグラフさえも含むテキストの他の細分
性を伴って実行されうることを理解するであろう。合成
段階(図3)における次のステップは、入力テキストを
解析し、入力文に関する音色マーキング予測を作り出す
(図2のステップ34)。一般的には、上で議論した同
じ自然言語処理は、音声の部分、文法構造、単語の発
音、及び、入力テキスト文に関する文のタイプの同一性
を判断するために適用される。この処理は、図3のテキ
スト解析ボックス56として指定される。音色マーキン
グは、上で議論したGoldsmith の技術を使用して自然言
語処理パーズから得られた情報を使用して予測される。
典型的な実施形態のこの態様は、合成段階48の韻律生
成段階66で実行される。
韻律データベースにおける韻律テンプレート60はイン
デックスとして予測された音色マーキングを使用して、
アクセスされうる(図2のステップ36)。正確な調和
(即ち、入力文に関して予測されたものと同じ音色マー
キングパターンによって指標付けされるエントリ)があ
るならば、それは初めに決定される(図2のステップ3
8)。調和したエントリがあるならば、エントリにスト
アされた重み基本周波数は、入力文に関して合成された
音声に関する韻律を確立するのに使用される。次いで、
システムは、これらの重み基本周波数を利用する音声出
力を生成するために進行する(図2のステップ44)。
図3に示したように、本発明の典型定期名実施形態は音
声合成への連鎖的なアプローチを使用する。特に、区分
けされたコーパス55は、2音素(diphone )、3音素
(triphone)等のような音響単位を識別するために処理
され、合成された音声を作り出すのに使用されうる。こ
のプロセスは図3のユニット生成段階46によって示さ
れ、ユニットの目録を与える。入力テキスト文に関する
ユニットの適当なセットはユニット目録62から引き出
され、合成された音声出力を作り出すために連結され
る。韻律データベースからの基本周波数は、合成された
音声出力の韻律を確立するために採用される。
らなければ、韻律データベースにおける最適合エントリ
は判断され、最適合エントリ内の基本周波数値は、合成
された音声出力の生成に用いられる基本周波数とより近
く適合するように修正される(図2のステップ42及び
44)。本発明の典型的な実施形態は最適合エントリを
見つけるために最適化された検索ストラテジを使用す
る。特に、予測された音色マーキングは、韻律データベ
ースのエントリに関する音色マーキングインデックスと
比較し、音色マーキングインデックスは、予測された音
色マーキングとの類似性に基づいてスコアされる。特
に、ダイナミックプログラミング(即ち、ヴィテルビ)
検索は、インデックス音色マーキングに対して予測され
た音色マーキングで実行される(図6のステップ8
2)。ヴィテルビアルゴリズムについて詳細に述べるた
めに、まず初めに幾らかの名称集を確立する必要があ
る。ヴィテルビアルゴリズムは所定の観測(observatio
n )シーケンスによって最も良いステートシーケンスを
見つけるためにシークする。所定の観測シーケンスO=
(o1 o2 ・・・oT )に関して、ステートシーケンス
はqとして指定され、ここでqは(q1 q2 ・・・
qT )であり、λはパラメータセットであり、Tはステ
ート及び観測のそれぞれのシーケンスにおける数であ
る。ステートiにおける最初のt観測と最後のものを説
明する、時間Tでの単一のパスに沿った最も良いスコア
は、以下のように定義される:
表わし、音色マーカの各値は観測を表わす。ヴィテルビ
アルゴリズムは以下のように数式化して表わしうる: 1.初期設定
P[ qi =i] である。 2.再帰
までのステート遷移確率であり、bj (ot )は、ot
が観測されるステートjに関する観測確率である。
ラッキング
つけるためにヴィテルビアルゴリズムを適用する(ステ
ップ82)。アルゴリズムはクイックアウトを行うため
に修正される。特に、システムは、これまで見つけられ
た最も安いコスト解のトラックを維持し、ストリングを
修正する最小コストが以前に見つけられた最も良いスト
リングのコストを上回ることが発見されるとすぐに、各
連続ストリングに関するアルゴリズムを中止する。コス
トは、多くの経験的に得られた方法で割り当てられう
る。ある解は、2つの数字の間の違いのコストを割り当
て、ここで、予測音色パターンストリングにおける数字
はインデックス音色パターンストリングにおける数字と
適合する。従って、予測音色パターンストリングがある
場所にストアされた2の値を有し、インデックス音色パ
ターンストリングにストアされた同じ場所値が3なら
ば、1のコストはこのミスマッチのために割り当てられ
うる。ノンストレスキャラクタの包含又は削除に関する
キャラクタのミスマッチには10のコストが割り当てら
れる。
適合ではないインデックス音色パターンができる限り早
急に無視されるように、実質的に検索スペースを切り詰
める。次いで、システムは、より近い適合シーケンスを
得るように、基本周波数の最適合ストリングを修正する
ように探す。特に、2つのストリングが、連続して現れ
る無標の音節の数において異なっている場所に関して、
最適合インデックスと予測音色パターンとの間の違いを
計算するように、基本周波数を修正する。次いで、連続
関数を作るための領域におけるオリジナル基本周波数値
の間の線形補間によって、異なる基本周波数の最適合ス
トリングの部分を修正する。次いで、領域の所望の新し
い数にレンジを分割し、領域に関する所望の出力基本周
波数サンプルポイントを表わす離散点の新しいセットを
作るためにこれらの点でレンジを再びサンプリングす
る。最適合インデックスが「H 5 H 」の音色マーキング
パターンを有している例を考える。このパターンは、初
めの音節が高音マーキングを有し、5つの無標音節が続
き、今度は高音マーク音節が続いていることを示す。予
測音色パターンが「H 4 H 」であると仮定する。最適合
インデックスは追加の無標音節を有する。4つの無標音
節を作り出すために修正しなければならない。最適合韻
律データベースエントリの7つの基本周波数値は、6つ
の線形セグメントから成り立つ連続関数を作り出すため
に、7つの点の間で線形補間するように処理される。6
つの線形セグメントは4つの新しい中間無標点で再びサ
ンプリングされ、高音にマークされたエンドポイントに
対応する以前の2つの基本周波数値は保持される。
つは、望みの音声のスタイルの選択を合成することを可
能にすることである。複数のボイスフォントは、所定の
話者に関して種々の個人の特異性のスタイルを迅速且つ
容易に作り出すことができる能力を備える。作り出され
た音声は、個人の特異性スタイルの全てを必要とせず、
単一の話者から得られる。本発明の典型的な実施形態に
関して説明したけれども、当業者は添付した特許請求の
範囲に定義する本発明の意図した範囲から逸脱すること
無く種々の変更がなされることを理解するであろう。例
えば、本発明は、文の代わりに句を解析するシステムで
実施されても良く、音素のような別の音声のユニットを
使用しても良い。更に、他のセグメンテーション技術が
使用されうる。
なコンピュータシステムのブロック図である。
ために、本発明の典型的な実施形態によって実行される
段階の概観を図示するフローチャートである。
TS)機能のコンポーネントを図示するブロック図であ
る。
ために実行される段階を図示するフローチャートであ
る。
グラフ(laryngograph)信号を示す。
らないとき、基本周波数値を得るために実行される段階
を図示するフローチャートである。
Claims (38)
- 【請求項1】 音声合成用システムにおいて、 合成されるべき音声に関するテキストを設け、 各テンプレートが音声のユニットに関する一連の基本周
波数を保持する、韻律データベースを設け、 前記テキストのために合成される音声について韻律を確
立するにあたって使用するためのテンプレートの1つを
選択し、 音声に関する韻律を確立するにあたって、選択されたテ
ンプレートから基本周波数のうちの少なくとも1つを使
用してテキストのための音声を合成する、コンピュータ
で実施される段階を含む方法。 - 【請求項2】テキストのセグメンテーションを確立する
ためにテキストを音声のユニットに区分けする段階を更
に含む、請求項1に記載の方法。 - 【請求項3】音声のユニットが音節である、請求項1に
記載の方法。 - 【請求項4】テキストが句である、請求項1に記載の方
法。 - 【請求項5】テキストが文である、請求項1に記載の方
法。 - 【請求項6】音色マーカがテキストにおける音声の各ユ
ニットのために設けられ、各韻律テンプレートが音色強
調マーカパターンによって指標付けされる、請求項1に
記載の方法。 - 【請求項7】テキストに関する予測音色マーカパターン
を作り出す段階を更に含み、テンプレートのうちの1つ
を選択する前記段階が、予測音色マーカパターンと最適
合するインデックスを有するテンプレートを選択するこ
とによって行われる、請求項6に記載の方法。 - 【請求項8】 音声合成用のシステムにおいて、 合成されるべき音声に関するテキストを設け、 各々が、音声のユニットについての一連の基本周波数値
を保持する韻律テンプレートを設け、 テキストのために合成される音声についての韻律を確立
するにあたって使用するためのテンプレートのうちの1
つを選択し、 音声に関する韻律を確立するにあたって、選択されたテ
ンプレートから基本周波数の少なくとも1つを使用し
て、前記テキストのための音声を合成する、コンピュー
タで実施される段階を含む方法を実行するための命令を
保持する、コンピュータ読み取り可能記憶媒体。 - 【請求項9】記憶媒体がまた、テキストを音声のユニッ
トに分割するための命令を保持する、請求項8に記載の
コンピュータ読み取り可能記憶媒体。 - 【請求項10】音声のユニットが音節である、請求項9
に記載のコンピュータ読み取り可能記憶媒体。 - 【請求項11】各韻律テンプレートが音色強調マーカパ
ターンによって指標付けされ、音色マーカがテキストに
おける音声の各ユニットのために提供される、請求項8
に記載のコンピュータ読み取り可能記憶媒体。 - 【請求項12】 テキストに関する予測音色マーカパタ
ーンを作り出す、段階を更に含み、 テンプレートのうちの1つを選択する前記段階が、予測
音色マーカパターンと最適合するインデックスを有する
テンプレートを選択することによって行われる、請求項
9に記載のコンピュータ読み取り可能記憶媒体。 - 【請求項13】 音声合成用システムにおいて、 前記韻律データベースにおける各エントリが、基本周波
数が保持されている音声のユニットに関して強調の度合
いと一致する音色マーキングのパターンによって指標付
けされている、音声のユニットに関する基本周波数の韻
律データベースを設け、 所定のテキストで自然言語解析を行い、 自然言語解析の結果に基づいて、テキストにおける音声
のユニットに関して音色マーキングの予測パターンを予
測し、 韻律データベースのエントリのインデックスを持ったテ
キストにおいて音声のユニットに関して音色マーキング
の予測パターンと比較することによって、韻律データベ
ースにおいて最適合インデックスを識別し、 テキストに関する音声を合成するにあたって韻律を確立
するために最適合インデックスによって指標付けされた
韻律データベースのエントリの基本周波数値の少なくと
も1つを使用する、コンピュータで実施される段階を含
む方法。 - 【請求項14】最適合インデックスが音色マーキングの
予測パターンと正確に適合する、請求項13に記載の方
法。 - 【請求項15】最適合インデックスによって指標付けさ
れたエントリにおける全ての基本周波数値が、韻律を確
立する際に使用される、請求項13に記載の方法。 - 【請求項16】最適合インデックスが音色マーキングの
予測パターンと正確に適合しない、請求項13に記載の
方法。 - 【請求項17】音色マーカが、高音強調マーカと、低音
強調マーカと、特別な強調がない音色マーカと、無標ス
トレスを明記するマーカとを含む、請求項13に記載の
方法。 - 【請求項18】最適合インデックスが、音声のユニット
に関して連続無標ストレスの数において音色マーキング
の予測パターンと異なる、請求項17に記載の方法。 - 【請求項19】 最適合インデックスの不適合部分に対
応する最適合インデックスによって指標付けされた韻律
データベースへのエントリにおいて、音色マーキングの
予測パターン及び基本周波数値と適合しない、最適合イ
ンデックスの不適合部分を識別し、 最適合インデックスの不適合部分と対応するエントリで
の識別された基本周波数値を拘束する最適合インデック
スによって指標付けされた韻律データベースエントリに
おける拘束性基本周波数値の間に線形補間を適用して、
拘束性基本周波数値の間に連続関数を作り、 音色マーキングの予測パターンにおいて連続無標ストレ
スマーカの数と適合する音声の無標ストレスユニットに
関する多数の基本周波数値を得るために連続関数を再サ
ンプリングし、 テキストのための音声を合成する際に韻律を確立するに
あたって該再サンプリングによって得られた基本周波数
値を使用する、段階を更に含む、請求項18に記載の方
法。 - 【請求項20】最適合インデックスを識別するためにヴ
ィテルビ検索が採用される、請求項13に記載の方法。 - 【請求項21】 音声合成用システムにおいて、 前記韻律データベースにおける各エントリが、基本周波
数が保持されている音声のユニットに関して強調の度合
いと一致する音色マーキングのパターンによって指標付
けされている、音声のユニットに関する基本周波数の韻
律データベースを設け、 所定のテキストで自然言語解析を行い、 自然言語解析の結果に基づいて、テキストにおける音声
のユニットに関して音色マーキングの予測パターンを予
測し、 韻律データベースのエントリのインデックスを持ったテ
キストにおいて音声のユニットに関して音色マーキング
の予測パターンと比較することによって、韻律データベ
ースにおいて最適合インデックスを識別し、 テキストに関して音声を合成するにあたって韻律を確立
するために最適合インデックスによって指標付けされた
韻律データベースのエントリの基本周波数値の少なくと
も1つを使用する、コンピュータで実施される段階を含
む方法を実行するための命令を保持するコンピュータ読
取り可能記憶媒体。 - 【請求項22】最適合インデックスが音色マーキングの
予測パターンと正確に適合する、請求項21に記載のコ
ンピュータ読取り可能記憶媒体。 - 【請求項23】最適合インデックスによって指標付けさ
れたエントリにおける全ての基本周波数値が、韻律を確
立する際に使用される、請求項21に記載のコンピュー
タ読取り可能記憶媒体。 - 【請求項24】最適合インデックスが音色マーキングの
予測パターンと正確に適合しない、請求項21に記載の
コンピュータ読取り可能記憶媒体。 - 【請求項25】音色マーカが、高音強調マーカと、低音
強調マーカと、特別な強調がない音色マーカと、無標ス
トレスを明記するマーカとを含む、請求項21に記載の
コンピュータ読取り可能記憶媒体。 - 【請求項26】最適合インデックスが、音声のユニット
に関して連続無標ストレスの数において音色マーキング
の予測パターンと異なる、請求項25に記載のコンピュ
ータ読取り可能記憶媒体。 - 【請求項27】 最適合インデックスの不適合部分に対
応する最適合インデックスによって指標付けされた韻律
データベースへのエントリにおいて、音色マーキングの
予測パターン及び基本周波数値と適合しない、最適合イ
ンデックスの不適合部分を識別し、 最適合インデックスの不適合部分と対応するエントリで
の識別された基本周波数値を拘束する最適合インデック
スによって指標付けされた韻律データベースエントリに
おける拘束性基本周波数値の間に線形補間を適用して、
拘束性基本周波数値の間に連続関数を作り、 音色マーキングの予測パターンにおいて連続無標ストレ
スマーカの数と適合する音声の無標ストレスユニットに
関する多数の基本周波数値を得るために連続関数を再サ
ンプリングし、 テキストのための音声を合成する際に韻律を確立するに
あたって該再サンプリングによって得られた基本周波数
値を使用する、段階のための命令をも保持する、請求項
26に記載のコンピュータ読取り可能記憶媒体。 - 【請求項28】最適合インデックスを識別するためにヴ
ィテルビ検索が採用される、請求項21に記載のコンピ
ュータ読取り可能記憶媒体。 - 【請求項29】 人間トレーナによって話されるテキス
トの複数の対応する部分の各々について該人間トレーナ
がテキストの対応する部分を話すときに生じる信号とし
て音響信号を得、 テキストの前記部分が話されるとき、話されるテキスト
の各部分に関する喉頭グラフ信号を人間トレーナに付随
する喉頭グラフから得、 各音節が母音部分を含むテキスト内の音節を表わすセグ
メントに前記音響信号を区分けし、 音響信号のセグメントに適合するセグメントに喉頭グラ
フ信号を区分けし、 基本周波数が喉頭グラフ信号から得られ、且つ、重みが
音響信号から得られるような形でテキストの各部分にお
いて、各音節の母音部分に関する瞬間的な基本周波数の
重み合計を計算し、 テキストの各部分に関して、韻律データベースにおいて
テキストの部分の各音節に関する瞬間的な基本周波数の
重み合計をストアし、 合成される音声の韻律を確立するために韻律データベー
スにおいて瞬間的な基本周波数の重み合計を使用する、
コンピュータで実施する段階を含む、コンピュータシス
テムにおいて韻律データベースを構築する方法。 - 【請求項30】 音節の各母音部分に関して、喉頭グラ
フ信号がピークを含み、各瞬間的な基本周波数が、すぐ
隣接したピークを分離する時間量分の1として計算され
る、請求項29に記載の方法。 - 【請求項31】 各瞬間的な基本周波数が、喉頭信号に
おけるすぐ隣接したピークと対応する音響信号の間の音
響信号の大きさに基づいて重み付けされる、請求項30
に記載の方法。 - 【請求項32】 人間トレーナによって話されるテキス
トの複数の対応する部分の各々について、該人間トレー
ナがテキストの対応する部分を話すときに生じる信号と
して各音響信号を得、 テキストの部分が話されるとき、話されるテキストの各
部分に関する喉頭グラフ信号を人間トレーナに付随する
喉頭グラフから得、 各音節が母音部分を含むテキスト内の音節を表わすセグ
メントに前記音響信号を区分けし、 音響信号のセグメントに適合するセグメントに喉頭グラ
フ信号を区分けし、 基本周波数が喉頭グラフ信号から得られ、且つ、重みが
音響信号から得られるような形で、テキストの各部分に
おいて、各音節の母音部分に関する瞬間的な基本周波数
の重み合計を計算し、 テキストの各部分に関して、韻律データベースにおいて
テキストの部分の各音節に関する瞬間的な基本周波数の
重み合計をストアし、 合成される音声の韻律を確立するために韻律データベー
スにおいて瞬間的な基本周波数の重み合計を使用する、
段階を含む、コンピュータシステムにおいて韻律データ
ベースを構築する方法を実施するための命令を保持する
コンピュータ読取り可能記憶媒体。 - 【請求項33】 入力テキストを音声のユニットに分解
するパーサと、 各々が、音声のユニットについての一連の基本周波数値
を保持する韻律テンプレートを備えた韻律データベース
と、 韻律データベース内のテンプレートのうちの選択された
1つを使用して入力テキスト内の音声のユニットに関す
る基本周波数値を得ることによって、入力テキストに対
応する音声を作り出すための音声合成手段と、を含む、
音声テキスト(text-to-speech)システム。 - 【請求項34】 システムが、入力テキストに関する音
色パターンを予測するための音色パターン予測手段を更
に含み、音声合成手段が、韻律データベースにおいて選
択されたテンプレートを選択するように、入力テキスト
に関して予測音色パターンを使用する、請求項33に記
載の音声テキスト(text-to-speech)システム。 - 【請求項35】 音声生成用システムにおいて、 音声の異なるスタイルに関する韻律テンプレートを保持
する韻律データベースを設け、 作り出されるべき音声の部分に適応するような韻律スタ
イルを求め、 求められた韻律スタイルをもった音声の部分を作り出す
ために、求められた韻律スタイルに関する韻律データベ
ースにおけるテンプレートのうちの少なくとも1つを使
用する、コンピュータで実行される段階を含む方法。 - 【請求項36】 音声生成用システムにおいて、 音声の異なるスタイルに関する韻律テンプレートを保持
する韻律データベースを設け、 作り出されるべき音声の部分に適応するような韻律スタ
イルを求め、 求められた韻律スタイルをもった音声の部分を作り出す
ために、求められた韻律スタイルに関する韻律データベ
ースにおけるテンプレートのうちの少なくとも1つを使
用する、コンピュータで実行される段階を含む方法を実
施するためのコンピュータで実行可能な命令を保持する
コンピュータ読取り可能媒体。 - 【請求項37】 音声生成用システムにおいて、 単一の話者のために異なる韻律スタイルの韻律テンプレ
ートを保持する韻律データベースを設け、 作り出されるべき音声の部分に適用されるべきである韻
律スタイルを求め、 求められた韻律スタイルを持った音声の部分を作り出す
ために、求められた韻律スタイルに関する韻律データベ
ースにおけるテンプレートのうちの少なくとも1つを使
用する、コンピュータで実行される段階を含む方法。 - 【請求項38】 音声生成用システムにおいて、 単一の話者のために異なる韻律スタイルの韻律テンプレ
ートを保持する韻律データベースを設け、 作り出されるべき音声の部分に適用されるべきである韻
律スタイルを求め、 求められた韻律スタイルを持った音声の部分を作り出す
ために、求められた韻律スタイルに関する韻律データベ
ースにおけるテンプレートのうちの少なくとも1つを使
用する、コンピュータで実行される段階を含む方法を実
施するためのコンピュータ実行可能命令を保持するコン
ピュータ読取り可能媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US08/724,071 US5905972A (en) | 1996-09-30 | 1996-09-30 | Prosodic databases holding fundamental frequency templates for use in speech synthesis |
US08/724071 | 1996-09-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10116089A true JPH10116089A (ja) | 1998-05-06 |
JP4302788B2 JP4302788B2 (ja) | 2009-07-29 |
Family
ID=24908854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26640197A Expired - Lifetime JP4302788B2 (ja) | 1996-09-30 | 1997-09-30 | 音声合成用の基本周波数テンプレートを収容する韻律データベース |
Country Status (5)
Country | Link |
---|---|
US (1) | US5905972A (ja) |
EP (1) | EP0833304B1 (ja) |
JP (1) | JP4302788B2 (ja) |
CN (1) | CN1169115C (ja) |
DE (1) | DE69719654T2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000058943A1 (fr) * | 1999-03-25 | 2000-10-05 | Matsushita Electric Industrial Co., Ltd. | Systeme et procede de synthese de la parole |
JP2001282277A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理装置及びその方法と記憶媒体 |
US6826530B1 (en) | 1999-07-21 | 2004-11-30 | Konami Corporation | Speech synthesis for tasks with word and prosody dictionaries |
US7502739B2 (en) | 2001-08-22 | 2009-03-10 | International Business Machines Corporation | Intonation generation method, speech synthesis apparatus using the method and voice server |
JP2013011902A (ja) * | 2000-09-05 | 2013-01-17 | Alcatel-Lucent Usa Inc | 非言語依存韻律マークアップを用いてテキストからスピーチに処理する方法および装置 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BE1011892A3 (fr) * | 1997-05-22 | 2000-02-01 | Motorola Inc | Methode, dispositif et systeme pour generer des parametres de synthese vocale a partir d'informations comprenant une representation explicite de l'intonation. |
US6418431B1 (en) * | 1998-03-30 | 2002-07-09 | Microsoft Corporation | Information retrieval and speech recognition based on language models |
US6182044B1 (en) * | 1998-09-01 | 2001-01-30 | International Business Machines Corporation | System and methods for analyzing and critiquing a vocal performance |
US6601030B2 (en) * | 1998-10-28 | 2003-07-29 | At&T Corp. | Method and system for recorded word concatenation |
US6253182B1 (en) * | 1998-11-24 | 2001-06-26 | Microsoft Corporation | Method and apparatus for speech synthesis with efficient spectral smoothing |
US6260016B1 (en) * | 1998-11-25 | 2001-07-10 | Matsushita Electric Industrial Co., Ltd. | Speech synthesis employing prosody templates |
JP3361066B2 (ja) * | 1998-11-30 | 2003-01-07 | 松下電器産業株式会社 | 音声合成方法および装置 |
US6185533B1 (en) * | 1999-03-15 | 2001-02-06 | Matsushita Electric Industrial Co., Ltd. | Generation and synthesis of prosody templates |
AU2931600A (en) * | 1999-03-15 | 2000-10-04 | British Telecommunications Public Limited Company | Speech synthesis |
EP1045372A3 (en) * | 1999-04-16 | 2001-08-29 | Matsushita Electric Industrial Co., Ltd. | Speech sound communication system |
JP3669869B2 (ja) * | 1999-06-28 | 2005-07-13 | 株式会社サン・フレア | 最適テンプレートパターンを用いた評価方法、評価装置および記録媒体 |
JP3361291B2 (ja) * | 1999-07-23 | 2003-01-07 | コナミ株式会社 | 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体 |
JP3450237B2 (ja) * | 1999-10-06 | 2003-09-22 | 株式会社アルカディア | 音声合成装置および方法 |
US6496801B1 (en) * | 1999-11-02 | 2002-12-17 | Matsushita Electric Industrial Co., Ltd. | Speech synthesis employing concatenated prosodic and acoustic templates for phrases of multiple words |
US6904402B1 (en) * | 1999-11-05 | 2005-06-07 | Microsoft Corporation | System and iterative method for lexicon, segmentation and language model joint optimization |
US6411933B1 (en) * | 1999-11-22 | 2002-06-25 | International Business Machines Corporation | Methods and apparatus for correlating biometric attributes and biometric attribute production features |
GB0013241D0 (en) * | 2000-05-30 | 2000-07-19 | 20 20 Speech Limited | Voice synthesis |
US6865528B1 (en) | 2000-06-01 | 2005-03-08 | Microsoft Corporation | Use of a unified language model |
US7031908B1 (en) * | 2000-06-01 | 2006-04-18 | Microsoft Corporation | Creating a language model for a language processing system |
US20030195740A1 (en) * | 2000-06-20 | 2003-10-16 | Sunflare Co., Ltd. | Translation evaluation using optimum template pattern determination method |
US6684187B1 (en) | 2000-06-30 | 2004-01-27 | At&T Corp. | Method and system for preselection of suitable units for concatenative speech |
US7277855B1 (en) | 2000-06-30 | 2007-10-02 | At&T Corp. | Personalized text-to-speech services |
US6505158B1 (en) * | 2000-07-05 | 2003-01-07 | At&T Corp. | Synthesis-based pre-selection of suitable units for concatenative speech |
US7451087B2 (en) * | 2000-10-19 | 2008-11-11 | Qwest Communications International Inc. | System and method for converting text-to-voice |
US6978239B2 (en) * | 2000-12-04 | 2005-12-20 | Microsoft Corporation | Method and apparatus for speech synthesis without prosody modification |
US7263488B2 (en) * | 2000-12-04 | 2007-08-28 | Microsoft Corporation | Method and apparatus for identifying prosodic word boundaries |
US6845358B2 (en) * | 2001-01-05 | 2005-01-18 | Matsushita Electric Industrial Co., Ltd. | Prosody template matching for text-to-speech systems |
US6513008B2 (en) * | 2001-03-15 | 2003-01-28 | Matsushita Electric Industrial Co., Ltd. | Method and tool for customization of speech synthesizer databases using hierarchical generalized speech templates |
DE10120513C1 (de) * | 2001-04-26 | 2003-01-09 | Siemens Ag | Verfahren zur Bestimmung einer Folge von Lautbausteinen zum Synthetisieren eines Sprachsignals einer tonalen Sprache |
JP4680429B2 (ja) * | 2001-06-26 | 2011-05-11 | Okiセミコンダクタ株式会社 | テキスト音声変換装置における高速読上げ制御方法 |
US8229753B2 (en) * | 2001-10-21 | 2012-07-24 | Microsoft Corporation | Web server controls for web enabled recognition and/or audible prompting |
US7711570B2 (en) * | 2001-10-21 | 2010-05-04 | Microsoft Corporation | Application abstraction with dialog purpose |
US20030101045A1 (en) * | 2001-11-29 | 2003-05-29 | Peter Moffatt | Method and apparatus for playing recordings of spoken alphanumeric characters |
JP2003186490A (ja) * | 2001-12-21 | 2003-07-04 | Nissan Motor Co Ltd | テキスト音声読み上げ装置および情報提供システム |
DE10207875A1 (de) * | 2002-02-19 | 2003-08-28 | Deutsche Telekom Ag | Parametergesteuerte Sprachsynthese |
US7496498B2 (en) * | 2003-03-24 | 2009-02-24 | Microsoft Corporation | Front-end architecture for a multi-lingual text-to-speech system |
US7280968B2 (en) * | 2003-03-25 | 2007-10-09 | International Business Machines Corporation | Synthetically generated speech responses including prosodic characteristics of speech inputs |
US8301436B2 (en) * | 2003-05-29 | 2012-10-30 | Microsoft Corporation | Semantic object synchronous understanding for highly interactive interface |
US7200559B2 (en) * | 2003-05-29 | 2007-04-03 | Microsoft Corporation | Semantic object synchronous understanding implemented with speech application language tags |
EP1630791A4 (en) * | 2003-06-05 | 2008-05-28 | Kenwood Corp | SPEECH SYNTHESIS DEVICE, SPEECH SYNTHESIS METHOD, AND PROGRAM |
CN100498932C (zh) * | 2003-09-08 | 2009-06-10 | 中国科学院声学研究所 | 通用的汉语两级混合模板口语对话语言生成方法 |
US8160883B2 (en) * | 2004-01-10 | 2012-04-17 | Microsoft Corporation | Focus tracking in dialogs |
CN100524457C (zh) * | 2004-05-31 | 2009-08-05 | 国际商业机器公司 | 文本至语音转换以及调整语料库的装置和方法 |
US7788098B2 (en) * | 2004-08-02 | 2010-08-31 | Nokia Corporation | Predicting tone pattern information for textual information used in telecommunication systems |
US7558389B2 (en) * | 2004-10-01 | 2009-07-07 | At&T Intellectual Property Ii, L.P. | Method and system of generating a speech signal with overlayed random frequency signal |
CN1811912B (zh) * | 2005-01-28 | 2011-06-15 | 北京捷通华声语音技术有限公司 | 小音库语音合成方法 |
US20080177548A1 (en) * | 2005-05-31 | 2008-07-24 | Canon Kabushiki Kaisha | Speech Synthesis Method and Apparatus |
US8374873B2 (en) | 2008-08-12 | 2013-02-12 | Morphism, Llc | Training and applying prosody models |
CN101894547A (zh) * | 2010-06-30 | 2010-11-24 | 北京捷通华声语音技术有限公司 | 一种语音合成方法和系统 |
US8744854B1 (en) * | 2012-09-24 | 2014-06-03 | Chengjun Julian Chen | System and method for voice transformation |
US9472182B2 (en) | 2014-02-26 | 2016-10-18 | Microsoft Technology Licensing, Llc | Voice font speaker and prosody interpolation |
US10832587B2 (en) * | 2017-03-15 | 2020-11-10 | International Business Machines Corporation | Communication tone training |
CN112365880B (zh) * | 2020-11-05 | 2024-03-26 | 北京百度网讯科技有限公司 | 语音合成方法、装置、电子设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4139732A (en) * | 1975-01-24 | 1979-02-13 | Larynogograph Limited | Apparatus for speech pattern derivation |
JPS5919358B2 (ja) * | 1978-12-11 | 1984-05-04 | 株式会社日立製作所 | 音声内容伝送方式 |
US4797930A (en) * | 1983-11-03 | 1989-01-10 | Texas Instruments Incorporated | constructed syllable pitch patterns from phonological linguistic unit string data |
JPH0833744B2 (ja) * | 1986-01-09 | 1996-03-29 | 株式会社東芝 | 音声合成装置 |
GB8618193D0 (en) * | 1986-07-25 | 1986-11-26 | Smiths Industries Plc | Speech recognition apparatus |
GB8911153D0 (en) * | 1989-05-16 | 1989-09-20 | Smiths Industries Plc | Speech recognition apparatus and methods |
EP0515709A1 (en) * | 1991-05-27 | 1992-12-02 | International Business Machines Corporation | Method and apparatus for segmental unit representation in text-to-speech synthesis |
US5384893A (en) * | 1992-09-23 | 1995-01-24 | Emerson & Stern Associates, Inc. | Method and apparatus for speech synthesis based on prosodic analysis |
US5636325A (en) * | 1992-11-13 | 1997-06-03 | International Business Machines Corporation | Speech synthesis and analysis of dialects |
JP3422541B2 (ja) * | 1992-12-17 | 2003-06-30 | ゼロックス・コーポレーション | キーワードのモデル化方法及び非キーワードhmmの提供方法 |
-
1996
- 1996-09-30 US US08/724,071 patent/US5905972A/en not_active Expired - Lifetime
-
1997
- 1997-08-18 EP EP97114208A patent/EP0833304B1/en not_active Expired - Lifetime
- 1997-08-18 DE DE69719654T patent/DE69719654T2/de not_active Expired - Lifetime
- 1997-09-29 CN CNB971195943A patent/CN1169115C/zh not_active Expired - Lifetime
- 1997-09-30 JP JP26640197A patent/JP4302788B2/ja not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000058943A1 (fr) * | 1999-03-25 | 2000-10-05 | Matsushita Electric Industrial Co., Ltd. | Systeme et procede de synthese de la parole |
US6823309B1 (en) | 1999-03-25 | 2004-11-23 | Matsushita Electric Industrial Co., Ltd. | Speech synthesizing system and method for modifying prosody based on match to database |
US6826530B1 (en) | 1999-07-21 | 2004-11-30 | Konami Corporation | Speech synthesis for tasks with word and prosody dictionaries |
JP2001282277A (ja) * | 2000-03-31 | 2001-10-12 | Canon Inc | 音声情報処理装置及びその方法と記憶媒体 |
JP4632384B2 (ja) * | 2000-03-31 | 2011-02-16 | キヤノン株式会社 | 音声情報処理装置及びその方法と記憶媒体 |
JP2013011902A (ja) * | 2000-09-05 | 2013-01-17 | Alcatel-Lucent Usa Inc | 非言語依存韻律マークアップを用いてテキストからスピーチに処理する方法および装置 |
US7502739B2 (en) | 2001-08-22 | 2009-03-10 | International Business Machines Corporation | Intonation generation method, speech synthesis apparatus using the method and voice server |
Also Published As
Publication number | Publication date |
---|---|
EP0833304A3 (en) | 1999-03-24 |
DE69719654T2 (de) | 2003-08-21 |
US5905972A (en) | 1999-05-18 |
EP0833304B1 (en) | 2003-03-12 |
DE69719654D1 (de) | 2003-04-17 |
JP4302788B2 (ja) | 2009-07-29 |
EP0833304A2 (en) | 1998-04-01 |
CN1179587A (zh) | 1998-04-22 |
CN1169115C (zh) | 2004-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4302788B2 (ja) | 音声合成用の基本周波数テンプレートを収容する韻律データベース | |
US11990118B2 (en) | Text-to-speech (TTS) processing | |
US8224645B2 (en) | Method and system for preselection of suitable units for concatenative speech | |
JP4054507B2 (ja) | 音声情報処理方法および装置および記憶媒体 | |
US7418389B2 (en) | Defining atom units between phone and syllable for TTS systems | |
US20050119890A1 (en) | Speech synthesis apparatus and speech synthesis method | |
US20200410981A1 (en) | Text-to-speech (tts) processing | |
US11763797B2 (en) | Text-to-speech (TTS) processing | |
JP3587048B2 (ja) | 韻律制御方法及び音声合成装置 | |
US10699695B1 (en) | Text-to-speech (TTS) processing | |
Stöber et al. | Speech synthesis using multilevel selection and concatenation of units from large speech corpora | |
JP5874639B2 (ja) | 音声合成装置、音声合成方法及び音声合成プログラム | |
Sakai et al. | A probabilistic approach to unit selection for corpus-based speech synthesis. | |
JPH08335096A (ja) | テキスト音声合成装置 | |
JPH09152884A (ja) | 音声合成装置 | |
EP1589524B1 (en) | Method and device for speech synthesis | |
EP1640968A1 (en) | Method and device for speech synthesis | |
IMRAN | ADMAS UNIVERSITY SCHOOL OF POST GRADUATE STUDIES DEPARTMENT OF COMPUTER SCIENCE | |
JPH07181995A (ja) | 音声合成装置及び音声合成方法 | |
JPH08160990A (ja) | 音声合成装置 | |
SARANYA | DEVELOPMENT OF BILINGUAL TTS USING FESTVOX FRAMEWORK | |
Kayte et al. | Overview of Hidden Markov Model for Test-To-Speech Synthesis Methods | |
Hojjatkhah et al. | Segmentation Words for Speech Synthesis in Persian Language Based On Silence | |
STAN | TEZA DE DOCTORAT | |
KR20010054592A (ko) | 음성 합성 시스템의 억양 모델링 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040806 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20040806 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040826 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060915 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20061215 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20061221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070315 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080722 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20081021 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20081021 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081119 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20081201 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090327 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090423 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120501 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130501 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |