JPH10116089A - 音声合成用の基本周波数テンプレートを収容する韻律データベース - Google Patents

音声合成用の基本周波数テンプレートを収容する韻律データベース

Info

Publication number
JPH10116089A
JPH10116089A JP9266401A JP26640197A JPH10116089A JP H10116089 A JPH10116089 A JP H10116089A JP 9266401 A JP9266401 A JP 9266401A JP 26640197 A JP26640197 A JP 26640197A JP H10116089 A JPH10116089 A JP H10116089A
Authority
JP
Japan
Prior art keywords
speech
prosody
text
fundamental frequency
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9266401A
Other languages
English (en)
Other versions
JP4302788B2 (ja
Inventor
Xuedong D Huang
ディー ヒューアン シュードン
James L Adcock
エル アドコック ジェームズ
John A Goldsmith
エイ ゴールドスミス ジョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JPH10116089A publication Critical patent/JPH10116089A/ja
Application granted granted Critical
Publication of JP4302788B2 publication Critical patent/JP4302788B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • G10L2025/903Pitch determination of speech signals using a laryngograph

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 音声合成用の基本周波数テンプレートを収容
する韻律データベースを提供する。 【解決手段】 韻律データベースは音声合成システム用
の基本周波数テンプレートを保持する。韻律データベー
ステンプレートは所定の文における音節に関する基本周
波数値を保持しうる。これらの基本周波数値は音声の文
を合成する際に適用されうる。テンプレートは音色パタ
ーンマーキングによって指標付けられる。予測音色マー
キングパターンは合成されるべきテキストの各文に関し
て生成され、音色マーキングのこの予測パターンは最適
合テンプレートを見つけるのに使用される。テンプレー
トは、所定の無標コーパスに関して人間のトレーナによ
って話された文に関して追跡可能な根拠の基本周波数を
計算することによって得られる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般的には、デー
タ処理システムに関し、特に、音声合成用の基本周波数
テンプレートを収容する韻律データベースに関する。
【0002】
【従来の技術】音声テキスト(text-to-speech)システ
ムは原文通りの入力によって指定された音声を合成す
る。従来の音声テキストシステムの限界の1つは、それ
らが非常に不自然なロボットのような合成された音声を
作り出していたということである。かかる合成された音
声は、典型的には人間の音声である韻律的特徴を示さな
い。従来の音声テキストシステムのほとんどは、時間に
伴う韻律パラメータの展開を定義するために、僅かなセ
ットのルールを適用することによって韻律を生み出す。
韻律は一般的には、音の持続期間と、音の大きさと、音
に関係するピッチアクセントとを含むように考えられ
る。所定の音声テキストシステムは、そのシステムによ
って作り出されたかかる合成された音声の本質を高める
推測統計学的技術を採用するように試みられている。こ
れらの推測統計学的学習技術は、口述された句又は文の
コーパスから導かれる統計に基づいた韻律を求めるよう
に試みられている。しかし、これらの推測統計学的技術
はまた、自然な音声を一貫して作り出すのに失敗してき
ている。
【0003】
【課題を解決するための手段】本発明の第1の態様によ
れば、コンピュータで実施される方法は、音声を合成す
るためのシステムで実行される。この方法によれば、合
成されるべき音声に関するテキストは韻律テンプレート
に沿って設けられる。各韻律テンプレートは、音声のユ
ニットに関する一連の基本周波数値を保持する。テンプ
レートのうちの1つは、テキストに関して合成された音
声に関する韻律の確立用に選択される。次いで、音声
は、音声に関する韻律を確立する際に、選択されたテン
プレートから基本周波数のうちの少なくとも1つを使用
してテキストに関して合成される。本発明の別の態様に
よれば、音声のユニットに関する基本周波数の韻律デー
タベースが提供される。韻律データベースの各エントリ
は、基本周波数が保持される音声のユニットに関する強
調の度合いと対応する音色マーキングのパターンによっ
て指標付けされる。自然言語解析を所定のテキストで実
施する。自然言語解析の結果に基づいて、音色マーキン
グの予測パターンがテキストにおける音声のユニットに
関して予測される。韻律データベースにおける最適合イ
ンデックスが、韻律データベースにおけるエントリのイ
ンデックスを持ったテキストにおける音声のユニットに
関する音色マーキングの予測パターンと比較することに
よって識別される。最適合インデックスによって指標付
けされた韻律データベースにおけるエントリの基本周波
数のうちの少なくとも1つは、テキストに関して合成さ
れた音声において韻律を確立するために使用される。
【0004】本発明の更なる態様によれば、韻律データ
ベースを構築する方法がコンピュータシステムで実行さ
れる。人間のトレーナによって話される、話されたテキ
ストの複数の対応する部分の各々に関して、音響信号が
得られる。各音響信号は、人間トレーナがテキストの対
応する部分を話すときに生じる信号である。話されるテ
キストの各部分に関する喉頭グラフ(laryngograph)
は、テキストの部分が話されるとき、人間トレーナに付
随する喉頭グラフから得られる。音響信号は、テキスト
の音節を表わすセグメントに区分けられる。各音節は母
音部分を含む。喉頭グラフ信号は、音響信号のセグメン
トと適合するセグメントに区分けられる。テキストの各
部分で各音節の母音部分に関する瞬間的な基本周波数の
重み合計が計算される。基本周波数は、喉頭グラフ信号
から得られ、重みは音響信号から得られる。テキストの
各部分に関して、韻律データベースにおけるテキストの
部分の各音節に関する瞬間的な基本周波数の重み合計は
ストアされ、これらの重み合計は合成された音声の韻律
を確立するために使用される。
【0005】本発明の追加の態様によれば、音声テキス
トシステムは入力テキストを音声のユニットに解析する
ためのパーサを含む。このシステムはまた、韻律テンプ
レートを保持する韻律データベースを含み、各韻律テン
プレートは音声のユニットに関する一連の基本周波数値
を保持する。このシステムは、入力テキストにおける音
声のユニットに関して基本周波数値を得るために、韻律
データベースにおけるテンプレートのうちの選択された
1つを使用することによって、入力テキストに対応する
音声を作り出すための音声合成手段を更に含む。本発明
の更なる態様によれば、音声の異なるスタイルに関する
韻律テンプレートを保持する韻律データベースが設けら
れる。作り出されるべき音声の部分に適用されるべきで
ある韻律スタイルが求められ、求められた韻律スタイル
に関する韻律データベースにおけるテンプレートのうち
の少なくとも1つは、求められた韻律スタイルを持った
音声の部分を作り出すのに使用される。
【0006】本発明の更に別の態様によれば、韻律デー
タベースは、単一の話者に関する異なる韻律スタイルの
韻律テンプレートを保持することが設けられる。システ
ムによって作り出されるべきである音声の部分に適用さ
れるべきである韻律スタイルが求められ、韻律データベ
ースにおけるテンプレートのうちの少なくとも1つが、
求められた韻律スタイルを持った音声の部分を作り出す
ために求められた韻律スタイルのために使用される。
【0007】
【発明の実施の形態】本発明の典型的な実施形態は、句
又は文に関する基本周波数のテンプレートを保持する1
又はそれ以上の韻律データベースを設ける。複数の話者
に関する韻律データベースを保持し、異なる韻律スタイ
ルに関する複数の韻律データベースを保持することがで
きる。これらのデータベースの各々は、一種の「ボイス
フォント」としての役割を果たす。韻律データベース
は、より自然な合成された音声を作り出すように利用さ
れる。音声合成では、所望の韻律をセットするためにこ
れらのボイスフォントの間から選択することができる。
特に、合成された音声の出力における音節に割り当てら
れるべき基本周波数を決定するために、韻律データベー
スのうちの1つからの最も適合したテンプレートを使用
する。本発明の典型的な実施形態の音声テキストシステ
ムへのテキスト入力は、韻律データベースにおける最も
適合したテンプレートを決定するように処理される。正
確な一致が見つからないならば、最も適合するテンプレ
ートから無標の領域に一致を作り出すように改竄技術を
適用しうる。かかる合成された音声は、従来の音声テキ
ストシステムによって作り出された音声より、より自然
な音である。
【0008】各韻律データベースは、無標コーパスから
人間の話者が話す文を有することによって構築されてい
る。次いで、これらの文は、自然言語処理エンジンによ
って処理され、隠れマルコフモデル(HMM)を使用し
て音素と音節に区分される。この喉頭グラフ出力は、H
MMによってマイクロフォン音声信号に作り出された区
分に従って区分されている。区分された喉頭グラフ出力
は、各音節の母音部分における重み基本周波数を求める
ように処理される。これらの重み基本周波数は韻律デー
タベースのエントリにストアされ、韻律データベースの
エントリは音色マーキングによって指標付けられる。本
発明の典型的な実施形態は、所定の話者に関する韻律を
判断するために、迅速で且つ容易なアプローチを提供す
る。このアプローチは、全てのタイプのテキストに偏在
して適用されるべく広範囲に及ぶ。典型的な実施形態は
また、扱いやすく、該システムを扱ったオリジナルスピ
ーカーと非常に似ているように発する音声を作り出す機
構を提供する。
【0009】図1は、本発明の典型的な実施形態を実行
するのに適当なコンピュータシステム10を示す。当業
者は、図1におけるコンピュータシステム構成が単に説
明することを意図したものであり、本発明を限定するも
のではないことを認識するであろう。本発明はまた、分
散型システム及び密結合多重プロセッサシステムを含
む、他のコンピュータシステム構成の状態で実行されう
る。コンピュータシステム10は、中央処理装置(CP
U)12及びたくさんの入出力デバイスを含む。例え
ば、これらのデバイスはキーボード14、ビデオディス
プレィ16、及び、マウス18を含みうる。CPU12
はメモリ20へのアクセスを有する。メモリ20は音声
テキスト(text-to-speech)(TTS)機構28のコピ
ーを保持する。TTS機構28は、本発明の典型的な実
施形態を実行するための命令を保持する。コンピュータ
システム10はまた、CPU12をネットワーク24と
接続するためのネットワークアダプタ22を含む。コン
ピュータシステム10は更に、モデム26と、オーディ
オ出力を発生させるために(ラウドスピーカのような)
オーディオ出力デバイス27とを含みうる。
【0010】TTS機構28は、1又はそれ以上の韻律
データベースを含む。単一の話者に関する複数のデータ
ベースが保持されうる。例えば、話者は異なる領域内の
アクセントに関する別々のデータベースを作り出すこと
ができ、各アクセントは、それら自体の韻律スタイルを
有する。更に、話者は、ニュース放送を読むことによっ
てデータベースを作ることができ、子供向けの本を読む
ことによって別のデータベースを作りうる。更に、別の
韻律データベースを多数の話者のために保持しうる。上
で述べたように、これらのデータベースの各々は、別々
の「ボイスフォント」を斟酌しうる。図2は、入力テキ
ストの単一の文に関する合成された音声出力を作り出す
ために、本発明の典型的な実施形態によって行われる段
階の概観をなすフローチャートである。複数の入力テキ
スト文が処理されるべきならば、図2(即ち、ステップ
32乃至44)に示された多くのステップは各文に関し
て繰り返されうる。図2のフローチャートを、本発明の
典型的な実施形態のTTS機能28の基本的な構成を図
示する図3に関連して説明する。本発明の典型的な実施
形態において実施される第1の段階は、韻律データベー
スを構築する(図2のステップ30)。韻律データベー
スは図3に示される韻律テンプレート60の部分であ
る。テンプレート60は、複数の韻律データベース即ち
ボイスフォントを含みうる。上で議論したように、各韻
律データベースは、無標コーパスからの多くの文を人間
の話者に話させることによって、且つ、かかるアナログ
音声信号及び喉頭グラフを寄せ集めることによって作り
出される。次いで、このデータは韻律データベースを構
築するために処理される。
【0011】図4は、より詳細に韻律データベースを構
築するために実施される段階を図示したフローチャート
である。図4に示されたステップは、話者によって話さ
れた無標コーパス50における各文に関して実施され
る。最初に、話されるトレーニング文に関する喉頭グラ
フ信号を受信する(図4のステップ70)。図5Aは、
マイクロフォン音声信号の例を示す。図5Bは対応する
喉頭グラフ信号を示す。この信号は、その時点での話者
の音声コードがどの程度に開いているか又は閉じている
かの指示を与える。トレーニング文に関する音素及び音
節によるセグメンテーションを受信し、同様な仕方で喉
頭グラフ信号を区分する。特に、喉頭グラフ信号は、マ
イクロフォン信号が区分けされたのと丁度同じ時間サイ
ズで区分けされる。特に、HMMトレーニング52は、
区分けされたコーパス54をもたらすように、無標コー
パス50の話される文で実施される。HMM技術は当該
技術分野で周知である。適当なHMMトレーニング技術
は、1996年5月1日に出願された「連続密度隠れマルコ
フモデルを使用して音声認識をする方法及びシステム
(Method and System for Speech Recognition Using C
ontinuousDensity Hidden Markov Models)」と題する
継続出願第08/655,273号に記載されており、本出願と共
通の譲受人に譲渡されている。これらのHMM技術によ
り、音素及び音節によって区分された音声信号になる。
音節区分は、本発明の典型的な実施形態に対して特別に
重要なものである。
【0012】喉頭グラフは、エポック情報を識別するよ
うに、且つ、瞬間的な基本周波数(F0)情報を作り出す
ように処理される。この文脈中では、エポックとは、音
声コードが開いている及び閉じている継続時間のことを
言う。言い換えれば、1つのエポックが音声コードの1
つの開き及び閉じに対応する。基本周波数は、話者の音
声コードが音節に関して振動する基本周波数を言う。こ
れは、本発明の典型的な実施形態の最も重要なものであ
る韻律パラメータである。エポック情報は、喉頭グラフ
信号の継続時間のスムージング評価の局所的最大から得
られる。母音領域は、典型的には、最も強く強調される
音節の部分だから、解析のために選択される。音節の母
音部分に関する喉頭グラフ信号から選られた瞬間的な基
本周波数値の重み合計として、重みF0(weighted F0 )
を計算する。より数式的には、重み基本周波数は数学的
に以下のように表わしうる:
【0013】
【数1】
【0014】ここで、Wi は重み、F0i は時間i での基
本周波数である。基本周波数F0i を、喉頭グラフの信号
における隣接したピークを分離する時間分の1として計
算する。典型的には、音節の母音部分は複数のピークを
含むであろう。重みWは音響信号から得られ、式的には
以下のように表わしうる:
【0015】
【数2】
【0016】ここで、A(t)は時間tでの音響信号の振
幅、ta は第1のピークでの時間、tbは第2のピーク
での時間である。ta 及びtb の値は、それぞれ第1及
び第2のピークに関する喉頭グラフ信号のピークに対応
する時間における点を表わしているものである。この重
み機構により、音節毎の知覚重みF0を計算する際に、速
度信号のより大きな振幅の部分に、より大きな重みを与
えることができる。この重み機構は、F0カーブの知覚的
に重要な部分(即ち、振幅が高い場所)に更なる重みを
与える。自然言語処理(NLP)は文で実行され(即
ち、テキスト解析56が実行される)、自然言語処理か
ら得られた情報は音色マーキングを予測するように使用
される(図4のステップ76)。多くのどんな周知の技
術でも、この解析を実行するように使用されうる。自然
言語処理は文を解析するので、音声の部分の同一性、文
脈単語、文の文法構造、文のタイプ、及び、文における
単語の発音が生ずる。かかるNLPパーズから得られた
情報は、文の各音節に関して音色マーキングを予測する
ように使用される。音声の人間的韻律パターンの多くが
各音節に関して3つの音色マーキングのうちの1つを予
測することによって表現されることは認識されていた。
これらの3つの音色マーキングは、高音、低音、又は、
特別な強調の無いものである。本発明の典型的な実施形
態は、音節基(syllable basis)毎に解析された入力文
に関して、音色マーキングのパターンを予測する。音色
マーキングを予測及び割り当てるための適当なアプロー
チは、John Goldsmith著「English as a Tone Languag
e」(Communication and Cognition, 1978 )と、Janet
Pierrehumbert 著「The Phonology and Phonetics of
English Intonation 」(学位論文、マサチューセッツ
工科大学、1980)に説明されている。予測された音色マ
ーキングストリングの例は「2 H 0 H 0 N 0 L 1 - 」で
ある。このストリングは数字と、H,L,h,l,+ 及び- の組
から選択された記号とから構成される。記号は、所定の
高い突出音節の音色の特徴、第1のアクセント、及び、
最後の音節を示し、数字は、これらのアクセント又は最
後の音節の間にいくつの音節が生じるかを示す。H 及び
L はそれぞれ強調された音節での高音及び低音を示し、
+ 及び- は最後の音節での高音及び低音を示し、h 及び
l は以下に続く強調された音節の最左端の音節での(以
下に続く音節が無ければ、それ自身の強調された音節で
の)高音及び低音を示す。
【0017】エントリは、文の音節に関する重み基本周
波数の連続を保持するために韻律データベースに作成さ
れる。各エントリを、文に関する関連した音色マーキン
グストリングによって指標付けする(図4のステップ7
8)。基本周波数値は、符号無しのキャラクタ値として
韻律データベースにストアされうる(図4のステップ8
0)。上述したステップは、韻律データベースを構築す
るために各文に関して実行される。一般的には、セグメ
ンテーション及び原文通りの解析は、韻律データベース
60を構築するために、本発明の典型的な実施形態によ
って採用された韻律モデルによって使用される。韻律デ
ータベースが構築された後(図2のステップ30参
照)、データベースを音声合成に利用しうる。音声合成
における第1の段階は、作り出されるべき音声を識別す
る(図2のステップ32)。本発明の典型的な実施形態
では、この音声は、文を表わすテキストのチャンクであ
る。それにもかかわらず、当業者は、本発明がまた、成
句、単語又はパラグラフさえも含むテキストの他の細分
性を伴って実行されうることを理解するであろう。合成
段階(図3)における次のステップは、入力テキストを
解析し、入力文に関する音色マーキング予測を作り出す
(図2のステップ34)。一般的には、上で議論した同
じ自然言語処理は、音声の部分、文法構造、単語の発
音、及び、入力テキスト文に関する文のタイプの同一性
を判断するために適用される。この処理は、図3のテキ
スト解析ボックス56として指定される。音色マーキン
グは、上で議論したGoldsmith の技術を使用して自然言
語処理パーズから得られた情報を使用して予測される。
典型的な実施形態のこの態様は、合成段階48の韻律生
成段階66で実行される。
【0018】予測された音色マーキングを与えるので、
韻律データベースにおける韻律テンプレート60はイン
デックスとして予測された音色マーキングを使用して、
アクセスされうる(図2のステップ36)。正確な調和
(即ち、入力文に関して予測されたものと同じ音色マー
キングパターンによって指標付けされるエントリ)があ
るならば、それは初めに決定される(図2のステップ3
8)。調和したエントリがあるならば、エントリにスト
アされた重み基本周波数は、入力文に関して合成された
音声に関する韻律を確立するのに使用される。次いで、
システムは、これらの重み基本周波数を利用する音声出
力を生成するために進行する(図2のステップ44)。
図3に示したように、本発明の典型定期名実施形態は音
声合成への連鎖的なアプローチを使用する。特に、区分
けされたコーパス55は、2音素(diphone )、3音素
(triphone)等のような音響単位を識別するために処理
され、合成された音声を作り出すのに使用されうる。こ
のプロセスは図3のユニット生成段階46によって示さ
れ、ユニットの目録を与える。入力テキスト文に関する
ユニットの適当なセットはユニット目録62から引き出
され、合成された音声出力を作り出すために連結され
る。韻律データベースからの基本周波数は、合成された
音声出力の韻律を確立するために採用される。
【0019】正確な調和が図2のステップ38で見つか
らなければ、韻律データベースにおける最適合エントリ
は判断され、最適合エントリ内の基本周波数値は、合成
された音声出力の生成に用いられる基本周波数とより近
く適合するように修正される(図2のステップ42及び
44)。本発明の典型的な実施形態は最適合エントリを
見つけるために最適化された検索ストラテジを使用す
る。特に、予測された音色マーキングは、韻律データベ
ースのエントリに関する音色マーキングインデックスと
比較し、音色マーキングインデックスは、予測された音
色マーキングとの類似性に基づいてスコアされる。特
に、ダイナミックプログラミング(即ち、ヴィテルビ)
検索は、インデックス音色マーキングに対して予測され
た音色マーキングで実行される(図6のステップ8
2)。ヴィテルビアルゴリズムについて詳細に述べるた
めに、まず初めに幾らかの名称集を確立する必要があ
る。ヴィテルビアルゴリズムは所定の観測(observatio
n )シーケンスによって最も良いステートシーケンスを
見つけるためにシークする。所定の観測シーケンスO=
(o1 2 ・・・oT )に関して、ステートシーケンス
はqとして指定され、ここでqは(q1 2 ・・・
T )であり、λはパラメータセットであり、Tはステ
ート及び観測のそれぞれのシーケンスにおける数であ
る。ステートiにおける最初のt観測と最後のものを説
明する、時間Tでの単一のパスに沿った最も良いスコア
は、以下のように定義される:
【0020】
【数3】
【0021】この文脈では、各音色マーカはステートを
表わし、音色マーカの各値は観測を表わす。ヴィテルビ
アルゴリズムは以下のように数式化して表わしうる: 1.初期設定
【0022】
【数4】 δ1 (i)=π1 1 (o1 ) 1≦i≦N Φ1 (i)=0
【0023】ここで、Nはステートの数であり、πi
P[ qi =i] である。 2.再帰
【0024】
【数5】
【0025】ここで、aijはステートiからステートj
までのステート遷移確率であり、bj (ot )は、ot
が観測されるステートjに関する観測確率である。
【0026】
【数6】
【0027】3.終了
【0028】
【数7】
【0029】4.パス(ステートシーケンス)バックト
ラッキング
【0030】
【数8】 q* t =Φt+1 (q* t+1 )、 t=T−1,T−2,....1
【0031】従って、図6に示したように、最適合を見
つけるためにヴィテルビアルゴリズムを適用する(ステ
ップ82)。アルゴリズムはクイックアウトを行うため
に修正される。特に、システムは、これまで見つけられ
た最も安いコスト解のトラックを維持し、ストリングを
修正する最小コストが以前に見つけられた最も良いスト
リングのコストを上回ることが発見されるとすぐに、各
連続ストリングに関するアルゴリズムを中止する。コス
トは、多くの経験的に得られた方法で割り当てられう
る。ある解は、2つの数字の間の違いのコストを割り当
て、ここで、予測音色パターンストリングにおける数字
はインデックス音色パターンストリングにおける数字と
適合する。従って、予測音色パターンストリングがある
場所にストアされた2の値を有し、インデックス音色パ
ターンストリングにストアされた同じ場所値が3なら
ば、1のコストはこのミスマッチのために割り当てられ
うる。ノンストレスキャラクタの包含又は削除に関する
キャラクタのミスマッチには10のコストが割り当てら
れる。
【0032】クイックアウトアプローチは、明らかに最
適合ではないインデックス音色パターンができる限り早
急に無視されるように、実質的に検索スペースを切り詰
める。次いで、システムは、より近い適合シーケンスを
得るように、基本周波数の最適合ストリングを修正する
ように探す。特に、2つのストリングが、連続して現れ
る無標の音節の数において異なっている場所に関して、
最適合インデックスと予測音色パターンとの間の違いを
計算するように、基本周波数を修正する。次いで、連続
関数を作るための領域におけるオリジナル基本周波数値
の間の線形補間によって、異なる基本周波数の最適合ス
トリングの部分を修正する。次いで、領域の所望の新し
い数にレンジを分割し、領域に関する所望の出力基本周
波数サンプルポイントを表わす離散点の新しいセットを
作るためにこれらの点でレンジを再びサンプリングす
る。最適合インデックスが「H 5 H 」の音色マーキング
パターンを有している例を考える。このパターンは、初
めの音節が高音マーキングを有し、5つの無標音節が続
き、今度は高音マーク音節が続いていることを示す。予
測音色パターンが「H 4 H 」であると仮定する。最適合
インデックスは追加の無標音節を有する。4つの無標音
節を作り出すために修正しなければならない。最適合韻
律データベースエントリの7つの基本周波数値は、6つ
の線形セグメントから成り立つ連続関数を作り出すため
に、7つの点の間で線形補間するように処理される。6
つの線形セグメントは4つの新しい中間無標点で再びサ
ンプリングされ、高音にマークされたエンドポイントに
対応する以前の2つの基本周波数値は保持される。
【0033】本発明の典型的な実施形態の主な利益の1
つは、望みの音声のスタイルの選択を合成することを可
能にすることである。複数のボイスフォントは、所定の
話者に関して種々の個人の特異性のスタイルを迅速且つ
容易に作り出すことができる能力を備える。作り出され
た音声は、個人の特異性スタイルの全てを必要とせず、
単一の話者から得られる。本発明の典型的な実施形態に
関して説明したけれども、当業者は添付した特許請求の
範囲に定義する本発明の意図した範囲から逸脱すること
無く種々の変更がなされることを理解するであろう。例
えば、本発明は、文の代わりに句を解析するシステムで
実施されても良く、音素のような別の音声のユニットを
使用しても良い。更に、他のセグメンテーション技術が
使用されうる。
【図面の簡単な説明】
【図1】本発明の典型的な実施形態を実施するのに適当
なコンピュータシステムのブロック図である。
【図2】所定の入力テキスト文に関する音声を合成する
ために、本発明の典型的な実施形態によって実行される
段階の概観を図示するフローチャートである。
【図3】本発明の典型的な実施形態の音声テキスト(T
TS)機能のコンポーネントを図示するブロック図であ
る。
【図4】韻律データベースにおけるエントリを構築する
ために実行される段階を図示するフローチャートであ
る。
【図5A】実例となる音響信号を示す。
【図5B】図5Aの音響信号と対応する実例となる喉頭
グラフ(laryngograph)信号を示す。
【図6】正確な適合が韻律データベースにおいて見つか
らないとき、基本周波数値を得るために実行される段階
を図示するフローチャートである。
【符号の説明】
12 CPU 28 TTS機能 50 無標コーパス 54 区分けられたコーパス 60 韻律テンプレート 62 ユニット目録
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ジェームズ エル アドコック アメリカ合衆国 ワシントン州 98006 ベルヴィュー ワンハンドレッドアンドフ ィフティフィフス プレイス サウスイー スト 5005 (72)発明者 ジョン エイ ゴールドスミス アメリカ合衆国 ワシントン州 98008 ベルヴィュー ノースイースト トゥエン ティエイス プレイス 17126

Claims (38)

    【特許請求の範囲】
  1. 【請求項1】 音声合成用システムにおいて、 合成されるべき音声に関するテキストを設け、 各テンプレートが音声のユニットに関する一連の基本周
    波数を保持する、韻律データベースを設け、 前記テキストのために合成される音声について韻律を確
    立するにあたって使用するためのテンプレートの1つを
    選択し、 音声に関する韻律を確立するにあたって、選択されたテ
    ンプレートから基本周波数のうちの少なくとも1つを使
    用してテキストのための音声を合成する、コンピュータ
    で実施される段階を含む方法。
  2. 【請求項2】テキストのセグメンテーションを確立する
    ためにテキストを音声のユニットに区分けする段階を更
    に含む、請求項1に記載の方法。
  3. 【請求項3】音声のユニットが音節である、請求項1に
    記載の方法。
  4. 【請求項4】テキストが句である、請求項1に記載の方
    法。
  5. 【請求項5】テキストが文である、請求項1に記載の方
    法。
  6. 【請求項6】音色マーカがテキストにおける音声の各ユ
    ニットのために設けられ、各韻律テンプレートが音色強
    調マーカパターンによって指標付けされる、請求項1に
    記載の方法。
  7. 【請求項7】テキストに関する予測音色マーカパターン
    を作り出す段階を更に含み、テンプレートのうちの1つ
    を選択する前記段階が、予測音色マーカパターンと最適
    合するインデックスを有するテンプレートを選択するこ
    とによって行われる、請求項6に記載の方法。
  8. 【請求項8】 音声合成用のシステムにおいて、 合成されるべき音声に関するテキストを設け、 各々が、音声のユニットについての一連の基本周波数値
    を保持する韻律テンプレートを設け、 テキストのために合成される音声についての韻律を確立
    するにあたって使用するためのテンプレートのうちの1
    つを選択し、 音声に関する韻律を確立するにあたって、選択されたテ
    ンプレートから基本周波数の少なくとも1つを使用し
    て、前記テキストのための音声を合成する、コンピュー
    タで実施される段階を含む方法を実行するための命令を
    保持する、コンピュータ読み取り可能記憶媒体。
  9. 【請求項9】記憶媒体がまた、テキストを音声のユニッ
    トに分割するための命令を保持する、請求項8に記載の
    コンピュータ読み取り可能記憶媒体。
  10. 【請求項10】音声のユニットが音節である、請求項9
    に記載のコンピュータ読み取り可能記憶媒体。
  11. 【請求項11】各韻律テンプレートが音色強調マーカパ
    ターンによって指標付けされ、音色マーカがテキストに
    おける音声の各ユニットのために提供される、請求項8
    に記載のコンピュータ読み取り可能記憶媒体。
  12. 【請求項12】 テキストに関する予測音色マーカパタ
    ーンを作り出す、段階を更に含み、 テンプレートのうちの1つを選択する前記段階が、予測
    音色マーカパターンと最適合するインデックスを有する
    テンプレートを選択することによって行われる、請求項
    9に記載のコンピュータ読み取り可能記憶媒体。
  13. 【請求項13】 音声合成用システムにおいて、 前記韻律データベースにおける各エントリが、基本周波
    数が保持されている音声のユニットに関して強調の度合
    いと一致する音色マーキングのパターンによって指標付
    けされている、音声のユニットに関する基本周波数の韻
    律データベースを設け、 所定のテキストで自然言語解析を行い、 自然言語解析の結果に基づいて、テキストにおける音声
    のユニットに関して音色マーキングの予測パターンを予
    測し、 韻律データベースのエントリのインデックスを持ったテ
    キストにおいて音声のユニットに関して音色マーキング
    の予測パターンと比較することによって、韻律データベ
    ースにおいて最適合インデックスを識別し、 テキストに関する音声を合成するにあたって韻律を確立
    するために最適合インデックスによって指標付けされた
    韻律データベースのエントリの基本周波数値の少なくと
    も1つを使用する、コンピュータで実施される段階を含
    む方法。
  14. 【請求項14】最適合インデックスが音色マーキングの
    予測パターンと正確に適合する、請求項13に記載の方
    法。
  15. 【請求項15】最適合インデックスによって指標付けさ
    れたエントリにおける全ての基本周波数値が、韻律を確
    立する際に使用される、請求項13に記載の方法。
  16. 【請求項16】最適合インデックスが音色マーキングの
    予測パターンと正確に適合しない、請求項13に記載の
    方法。
  17. 【請求項17】音色マーカが、高音強調マーカと、低音
    強調マーカと、特別な強調がない音色マーカと、無標ス
    トレスを明記するマーカとを含む、請求項13に記載の
    方法。
  18. 【請求項18】最適合インデックスが、音声のユニット
    に関して連続無標ストレスの数において音色マーキング
    の予測パターンと異なる、請求項17に記載の方法。
  19. 【請求項19】 最適合インデックスの不適合部分に対
    応する最適合インデックスによって指標付けされた韻律
    データベースへのエントリにおいて、音色マーキングの
    予測パターン及び基本周波数値と適合しない、最適合イ
    ンデックスの不適合部分を識別し、 最適合インデックスの不適合部分と対応するエントリで
    の識別された基本周波数値を拘束する最適合インデック
    スによって指標付けされた韻律データベースエントリに
    おける拘束性基本周波数値の間に線形補間を適用して、
    拘束性基本周波数値の間に連続関数を作り、 音色マーキングの予測パターンにおいて連続無標ストレ
    スマーカの数と適合する音声の無標ストレスユニットに
    関する多数の基本周波数値を得るために連続関数を再サ
    ンプリングし、 テキストのための音声を合成する際に韻律を確立するに
    あたって該再サンプリングによって得られた基本周波数
    値を使用する、段階を更に含む、請求項18に記載の方
    法。
  20. 【請求項20】最適合インデックスを識別するためにヴ
    ィテルビ検索が採用される、請求項13に記載の方法。
  21. 【請求項21】 音声合成用システムにおいて、 前記韻律データベースにおける各エントリが、基本周波
    数が保持されている音声のユニットに関して強調の度合
    いと一致する音色マーキングのパターンによって指標付
    けされている、音声のユニットに関する基本周波数の韻
    律データベースを設け、 所定のテキストで自然言語解析を行い、 自然言語解析の結果に基づいて、テキストにおける音声
    のユニットに関して音色マーキングの予測パターンを予
    測し、 韻律データベースのエントリのインデックスを持ったテ
    キストにおいて音声のユニットに関して音色マーキング
    の予測パターンと比較することによって、韻律データベ
    ースにおいて最適合インデックスを識別し、 テキストに関して音声を合成するにあたって韻律を確立
    するために最適合インデックスによって指標付けされた
    韻律データベースのエントリの基本周波数値の少なくと
    も1つを使用する、コンピュータで実施される段階を含
    む方法を実行するための命令を保持するコンピュータ読
    取り可能記憶媒体。
  22. 【請求項22】最適合インデックスが音色マーキングの
    予測パターンと正確に適合する、請求項21に記載のコ
    ンピュータ読取り可能記憶媒体。
  23. 【請求項23】最適合インデックスによって指標付けさ
    れたエントリにおける全ての基本周波数値が、韻律を確
    立する際に使用される、請求項21に記載のコンピュー
    タ読取り可能記憶媒体。
  24. 【請求項24】最適合インデックスが音色マーキングの
    予測パターンと正確に適合しない、請求項21に記載の
    コンピュータ読取り可能記憶媒体。
  25. 【請求項25】音色マーカが、高音強調マーカと、低音
    強調マーカと、特別な強調がない音色マーカと、無標ス
    トレスを明記するマーカとを含む、請求項21に記載の
    コンピュータ読取り可能記憶媒体。
  26. 【請求項26】最適合インデックスが、音声のユニット
    に関して連続無標ストレスの数において音色マーキング
    の予測パターンと異なる、請求項25に記載のコンピュ
    ータ読取り可能記憶媒体。
  27. 【請求項27】 最適合インデックスの不適合部分に対
    応する最適合インデックスによって指標付けされた韻律
    データベースへのエントリにおいて、音色マーキングの
    予測パターン及び基本周波数値と適合しない、最適合イ
    ンデックスの不適合部分を識別し、 最適合インデックスの不適合部分と対応するエントリで
    の識別された基本周波数値を拘束する最適合インデック
    スによって指標付けされた韻律データベースエントリに
    おける拘束性基本周波数値の間に線形補間を適用して、
    拘束性基本周波数値の間に連続関数を作り、 音色マーキングの予測パターンにおいて連続無標ストレ
    スマーカの数と適合する音声の無標ストレスユニットに
    関する多数の基本周波数値を得るために連続関数を再サ
    ンプリングし、 テキストのための音声を合成する際に韻律を確立するに
    あたって該再サンプリングによって得られた基本周波数
    値を使用する、段階のための命令をも保持する、請求項
    26に記載のコンピュータ読取り可能記憶媒体。
  28. 【請求項28】最適合インデックスを識別するためにヴ
    ィテルビ検索が採用される、請求項21に記載のコンピ
    ュータ読取り可能記憶媒体。
  29. 【請求項29】 人間トレーナによって話されるテキス
    トの複数の対応する部分の各々について該人間トレーナ
    がテキストの対応する部分を話すときに生じる信号とし
    て音響信号を得、 テキストの前記部分が話されるとき、話されるテキスト
    の各部分に関する喉頭グラフ信号を人間トレーナに付随
    する喉頭グラフから得、 各音節が母音部分を含むテキスト内の音節を表わすセグ
    メントに前記音響信号を区分けし、 音響信号のセグメントに適合するセグメントに喉頭グラ
    フ信号を区分けし、 基本周波数が喉頭グラフ信号から得られ、且つ、重みが
    音響信号から得られるような形でテキストの各部分にお
    いて、各音節の母音部分に関する瞬間的な基本周波数の
    重み合計を計算し、 テキストの各部分に関して、韻律データベースにおいて
    テキストの部分の各音節に関する瞬間的な基本周波数の
    重み合計をストアし、 合成される音声の韻律を確立するために韻律データベー
    スにおいて瞬間的な基本周波数の重み合計を使用する、
    コンピュータで実施する段階を含む、コンピュータシス
    テムにおいて韻律データベースを構築する方法。
  30. 【請求項30】 音節の各母音部分に関して、喉頭グラ
    フ信号がピークを含み、各瞬間的な基本周波数が、すぐ
    隣接したピークを分離する時間量分の1として計算され
    る、請求項29に記載の方法。
  31. 【請求項31】 各瞬間的な基本周波数が、喉頭信号に
    おけるすぐ隣接したピークと対応する音響信号の間の音
    響信号の大きさに基づいて重み付けされる、請求項30
    に記載の方法。
  32. 【請求項32】 人間トレーナによって話されるテキス
    トの複数の対応する部分の各々について、該人間トレー
    ナがテキストの対応する部分を話すときに生じる信号と
    して各音響信号を得、 テキストの部分が話されるとき、話されるテキストの各
    部分に関する喉頭グラフ信号を人間トレーナに付随する
    喉頭グラフから得、 各音節が母音部分を含むテキスト内の音節を表わすセグ
    メントに前記音響信号を区分けし、 音響信号のセグメントに適合するセグメントに喉頭グラ
    フ信号を区分けし、 基本周波数が喉頭グラフ信号から得られ、且つ、重みが
    音響信号から得られるような形で、テキストの各部分に
    おいて、各音節の母音部分に関する瞬間的な基本周波数
    の重み合計を計算し、 テキストの各部分に関して、韻律データベースにおいて
    テキストの部分の各音節に関する瞬間的な基本周波数の
    重み合計をストアし、 合成される音声の韻律を確立するために韻律データベー
    スにおいて瞬間的な基本周波数の重み合計を使用する、
    段階を含む、コンピュータシステムにおいて韻律データ
    ベースを構築する方法を実施するための命令を保持する
    コンピュータ読取り可能記憶媒体。
  33. 【請求項33】 入力テキストを音声のユニットに分解
    するパーサと、 各々が、音声のユニットについての一連の基本周波数値
    を保持する韻律テンプレートを備えた韻律データベース
    と、 韻律データベース内のテンプレートのうちの選択された
    1つを使用して入力テキスト内の音声のユニットに関す
    る基本周波数値を得ることによって、入力テキストに対
    応する音声を作り出すための音声合成手段と、を含む、
    音声テキスト(text-to-speech)システム。
  34. 【請求項34】 システムが、入力テキストに関する音
    色パターンを予測するための音色パターン予測手段を更
    に含み、音声合成手段が、韻律データベースにおいて選
    択されたテンプレートを選択するように、入力テキスト
    に関して予測音色パターンを使用する、請求項33に記
    載の音声テキスト(text-to-speech)システム。
  35. 【請求項35】 音声生成用システムにおいて、 音声の異なるスタイルに関する韻律テンプレートを保持
    する韻律データベースを設け、 作り出されるべき音声の部分に適応するような韻律スタ
    イルを求め、 求められた韻律スタイルをもった音声の部分を作り出す
    ために、求められた韻律スタイルに関する韻律データベ
    ースにおけるテンプレートのうちの少なくとも1つを使
    用する、コンピュータで実行される段階を含む方法。
  36. 【請求項36】 音声生成用システムにおいて、 音声の異なるスタイルに関する韻律テンプレートを保持
    する韻律データベースを設け、 作り出されるべき音声の部分に適応するような韻律スタ
    イルを求め、 求められた韻律スタイルをもった音声の部分を作り出す
    ために、求められた韻律スタイルに関する韻律データベ
    ースにおけるテンプレートのうちの少なくとも1つを使
    用する、コンピュータで実行される段階を含む方法を実
    施するためのコンピュータで実行可能な命令を保持する
    コンピュータ読取り可能媒体。
  37. 【請求項37】 音声生成用システムにおいて、 単一の話者のために異なる韻律スタイルの韻律テンプレ
    ートを保持する韻律データベースを設け、 作り出されるべき音声の部分に適用されるべきである韻
    律スタイルを求め、 求められた韻律スタイルを持った音声の部分を作り出す
    ために、求められた韻律スタイルに関する韻律データベ
    ースにおけるテンプレートのうちの少なくとも1つを使
    用する、コンピュータで実行される段階を含む方法。
  38. 【請求項38】 音声生成用システムにおいて、 単一の話者のために異なる韻律スタイルの韻律テンプレ
    ートを保持する韻律データベースを設け、 作り出されるべき音声の部分に適用されるべきである韻
    律スタイルを求め、 求められた韻律スタイルを持った音声の部分を作り出す
    ために、求められた韻律スタイルに関する韻律データベ
    ースにおけるテンプレートのうちの少なくとも1つを使
    用する、コンピュータで実行される段階を含む方法を実
    施するためのコンピュータ実行可能命令を保持するコン
    ピュータ読取り可能媒体。
JP26640197A 1996-09-30 1997-09-30 音声合成用の基本周波数テンプレートを収容する韻律データベース Expired - Lifetime JP4302788B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/724,071 US5905972A (en) 1996-09-30 1996-09-30 Prosodic databases holding fundamental frequency templates for use in speech synthesis
US08/724071 1996-09-30

Publications (2)

Publication Number Publication Date
JPH10116089A true JPH10116089A (ja) 1998-05-06
JP4302788B2 JP4302788B2 (ja) 2009-07-29

Family

ID=24908854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26640197A Expired - Lifetime JP4302788B2 (ja) 1996-09-30 1997-09-30 音声合成用の基本周波数テンプレートを収容する韻律データベース

Country Status (5)

Country Link
US (1) US5905972A (ja)
EP (1) EP0833304B1 (ja)
JP (1) JP4302788B2 (ja)
CN (1) CN1169115C (ja)
DE (1) DE69719654T2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000058943A1 (fr) * 1999-03-25 2000-10-05 Matsushita Electric Industrial Co., Ltd. Systeme et procede de synthese de la parole
JP2001282277A (ja) * 2000-03-31 2001-10-12 Canon Inc 音声情報処理装置及びその方法と記憶媒体
US6826530B1 (en) 1999-07-21 2004-11-30 Konami Corporation Speech synthesis for tasks with word and prosody dictionaries
US7502739B2 (en) 2001-08-22 2009-03-10 International Business Machines Corporation Intonation generation method, speech synthesis apparatus using the method and voice server
JP2013011902A (ja) * 2000-09-05 2013-01-17 Alcatel-Lucent Usa Inc 非言語依存韻律マークアップを用いてテキストからスピーチに処理する方法および装置

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1011892A3 (fr) * 1997-05-22 2000-02-01 Motorola Inc Methode, dispositif et systeme pour generer des parametres de synthese vocale a partir d'informations comprenant une representation explicite de l'intonation.
US6418431B1 (en) * 1998-03-30 2002-07-09 Microsoft Corporation Information retrieval and speech recognition based on language models
US6182044B1 (en) * 1998-09-01 2001-01-30 International Business Machines Corporation System and methods for analyzing and critiquing a vocal performance
US6601030B2 (en) * 1998-10-28 2003-07-29 At&T Corp. Method and system for recorded word concatenation
US6253182B1 (en) * 1998-11-24 2001-06-26 Microsoft Corporation Method and apparatus for speech synthesis with efficient spectral smoothing
US6260016B1 (en) * 1998-11-25 2001-07-10 Matsushita Electric Industrial Co., Ltd. Speech synthesis employing prosody templates
JP3361066B2 (ja) * 1998-11-30 2003-01-07 松下電器産業株式会社 音声合成方法および装置
US6185533B1 (en) * 1999-03-15 2001-02-06 Matsushita Electric Industrial Co., Ltd. Generation and synthesis of prosody templates
AU2931600A (en) * 1999-03-15 2000-10-04 British Telecommunications Public Limited Company Speech synthesis
EP1045372A3 (en) * 1999-04-16 2001-08-29 Matsushita Electric Industrial Co., Ltd. Speech sound communication system
JP3669869B2 (ja) * 1999-06-28 2005-07-13 株式会社サン・フレア 最適テンプレートパターンを用いた評価方法、評価装置および記録媒体
JP3361291B2 (ja) * 1999-07-23 2003-01-07 コナミ株式会社 音声合成方法、音声合成装置及び音声合成プログラムを記録したコンピュータ読み取り可能な媒体
JP3450237B2 (ja) * 1999-10-06 2003-09-22 株式会社アルカディア 音声合成装置および方法
US6496801B1 (en) * 1999-11-02 2002-12-17 Matsushita Electric Industrial Co., Ltd. Speech synthesis employing concatenated prosodic and acoustic templates for phrases of multiple words
US6904402B1 (en) * 1999-11-05 2005-06-07 Microsoft Corporation System and iterative method for lexicon, segmentation and language model joint optimization
US6411933B1 (en) * 1999-11-22 2002-06-25 International Business Machines Corporation Methods and apparatus for correlating biometric attributes and biometric attribute production features
GB0013241D0 (en) * 2000-05-30 2000-07-19 20 20 Speech Limited Voice synthesis
US6865528B1 (en) 2000-06-01 2005-03-08 Microsoft Corporation Use of a unified language model
US7031908B1 (en) * 2000-06-01 2006-04-18 Microsoft Corporation Creating a language model for a language processing system
US20030195740A1 (en) * 2000-06-20 2003-10-16 Sunflare Co., Ltd. Translation evaluation using optimum template pattern determination method
US6684187B1 (en) 2000-06-30 2004-01-27 At&T Corp. Method and system for preselection of suitable units for concatenative speech
US7277855B1 (en) 2000-06-30 2007-10-02 At&T Corp. Personalized text-to-speech services
US6505158B1 (en) * 2000-07-05 2003-01-07 At&T Corp. Synthesis-based pre-selection of suitable units for concatenative speech
US7451087B2 (en) * 2000-10-19 2008-11-11 Qwest Communications International Inc. System and method for converting text-to-voice
US6978239B2 (en) * 2000-12-04 2005-12-20 Microsoft Corporation Method and apparatus for speech synthesis without prosody modification
US7263488B2 (en) * 2000-12-04 2007-08-28 Microsoft Corporation Method and apparatus for identifying prosodic word boundaries
US6845358B2 (en) * 2001-01-05 2005-01-18 Matsushita Electric Industrial Co., Ltd. Prosody template matching for text-to-speech systems
US6513008B2 (en) * 2001-03-15 2003-01-28 Matsushita Electric Industrial Co., Ltd. Method and tool for customization of speech synthesizer databases using hierarchical generalized speech templates
DE10120513C1 (de) * 2001-04-26 2003-01-09 Siemens Ag Verfahren zur Bestimmung einer Folge von Lautbausteinen zum Synthetisieren eines Sprachsignals einer tonalen Sprache
JP4680429B2 (ja) * 2001-06-26 2011-05-11 Okiセミコンダクタ株式会社 テキスト音声変換装置における高速読上げ制御方法
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US7711570B2 (en) * 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
US20030101045A1 (en) * 2001-11-29 2003-05-29 Peter Moffatt Method and apparatus for playing recordings of spoken alphanumeric characters
JP2003186490A (ja) * 2001-12-21 2003-07-04 Nissan Motor Co Ltd テキスト音声読み上げ装置および情報提供システム
DE10207875A1 (de) * 2002-02-19 2003-08-28 Deutsche Telekom Ag Parametergesteuerte Sprachsynthese
US7496498B2 (en) * 2003-03-24 2009-02-24 Microsoft Corporation Front-end architecture for a multi-lingual text-to-speech system
US7280968B2 (en) * 2003-03-25 2007-10-09 International Business Machines Corporation Synthetically generated speech responses including prosodic characteristics of speech inputs
US8301436B2 (en) * 2003-05-29 2012-10-30 Microsoft Corporation Semantic object synchronous understanding for highly interactive interface
US7200559B2 (en) * 2003-05-29 2007-04-03 Microsoft Corporation Semantic object synchronous understanding implemented with speech application language tags
EP1630791A4 (en) * 2003-06-05 2008-05-28 Kenwood Corp SPEECH SYNTHESIS DEVICE, SPEECH SYNTHESIS METHOD, AND PROGRAM
CN100498932C (zh) * 2003-09-08 2009-06-10 中国科学院声学研究所 通用的汉语两级混合模板口语对话语言生成方法
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
CN100524457C (zh) * 2004-05-31 2009-08-05 国际商业机器公司 文本至语音转换以及调整语料库的装置和方法
US7788098B2 (en) * 2004-08-02 2010-08-31 Nokia Corporation Predicting tone pattern information for textual information used in telecommunication systems
US7558389B2 (en) * 2004-10-01 2009-07-07 At&T Intellectual Property Ii, L.P. Method and system of generating a speech signal with overlayed random frequency signal
CN1811912B (zh) * 2005-01-28 2011-06-15 北京捷通华声语音技术有限公司 小音库语音合成方法
US20080177548A1 (en) * 2005-05-31 2008-07-24 Canon Kabushiki Kaisha Speech Synthesis Method and Apparatus
US8374873B2 (en) 2008-08-12 2013-02-12 Morphism, Llc Training and applying prosody models
CN101894547A (zh) * 2010-06-30 2010-11-24 北京捷通华声语音技术有限公司 一种语音合成方法和系统
US8744854B1 (en) * 2012-09-24 2014-06-03 Chengjun Julian Chen System and method for voice transformation
US9472182B2 (en) 2014-02-26 2016-10-18 Microsoft Technology Licensing, Llc Voice font speaker and prosody interpolation
US10832587B2 (en) * 2017-03-15 2020-11-10 International Business Machines Corporation Communication tone training
CN112365880B (zh) * 2020-11-05 2024-03-26 北京百度网讯科技有限公司 语音合成方法、装置、电子设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4139732A (en) * 1975-01-24 1979-02-13 Larynogograph Limited Apparatus for speech pattern derivation
JPS5919358B2 (ja) * 1978-12-11 1984-05-04 株式会社日立製作所 音声内容伝送方式
US4797930A (en) * 1983-11-03 1989-01-10 Texas Instruments Incorporated constructed syllable pitch patterns from phonological linguistic unit string data
JPH0833744B2 (ja) * 1986-01-09 1996-03-29 株式会社東芝 音声合成装置
GB8618193D0 (en) * 1986-07-25 1986-11-26 Smiths Industries Plc Speech recognition apparatus
GB8911153D0 (en) * 1989-05-16 1989-09-20 Smiths Industries Plc Speech recognition apparatus and methods
EP0515709A1 (en) * 1991-05-27 1992-12-02 International Business Machines Corporation Method and apparatus for segmental unit representation in text-to-speech synthesis
US5384893A (en) * 1992-09-23 1995-01-24 Emerson & Stern Associates, Inc. Method and apparatus for speech synthesis based on prosodic analysis
US5636325A (en) * 1992-11-13 1997-06-03 International Business Machines Corporation Speech synthesis and analysis of dialects
JP3422541B2 (ja) * 1992-12-17 2003-06-30 ゼロックス・コーポレーション キーワードのモデル化方法及び非キーワードhmmの提供方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000058943A1 (fr) * 1999-03-25 2000-10-05 Matsushita Electric Industrial Co., Ltd. Systeme et procede de synthese de la parole
US6823309B1 (en) 1999-03-25 2004-11-23 Matsushita Electric Industrial Co., Ltd. Speech synthesizing system and method for modifying prosody based on match to database
US6826530B1 (en) 1999-07-21 2004-11-30 Konami Corporation Speech synthesis for tasks with word and prosody dictionaries
JP2001282277A (ja) * 2000-03-31 2001-10-12 Canon Inc 音声情報処理装置及びその方法と記憶媒体
JP4632384B2 (ja) * 2000-03-31 2011-02-16 キヤノン株式会社 音声情報処理装置及びその方法と記憶媒体
JP2013011902A (ja) * 2000-09-05 2013-01-17 Alcatel-Lucent Usa Inc 非言語依存韻律マークアップを用いてテキストからスピーチに処理する方法および装置
US7502739B2 (en) 2001-08-22 2009-03-10 International Business Machines Corporation Intonation generation method, speech synthesis apparatus using the method and voice server

Also Published As

Publication number Publication date
EP0833304A3 (en) 1999-03-24
DE69719654T2 (de) 2003-08-21
US5905972A (en) 1999-05-18
EP0833304B1 (en) 2003-03-12
DE69719654D1 (de) 2003-04-17
JP4302788B2 (ja) 2009-07-29
EP0833304A2 (en) 1998-04-01
CN1179587A (zh) 1998-04-22
CN1169115C (zh) 2004-09-29

Similar Documents

Publication Publication Date Title
JP4302788B2 (ja) 音声合成用の基本周波数テンプレートを収容する韻律データベース
US11990118B2 (en) Text-to-speech (TTS) processing
US8224645B2 (en) Method and system for preselection of suitable units for concatenative speech
JP4054507B2 (ja) 音声情報処理方法および装置および記憶媒体
US7418389B2 (en) Defining atom units between phone and syllable for TTS systems
US20050119890A1 (en) Speech synthesis apparatus and speech synthesis method
US20200410981A1 (en) Text-to-speech (tts) processing
US11763797B2 (en) Text-to-speech (TTS) processing
JP3587048B2 (ja) 韻律制御方法及び音声合成装置
US10699695B1 (en) Text-to-speech (TTS) processing
Stöber et al. Speech synthesis using multilevel selection and concatenation of units from large speech corpora
JP5874639B2 (ja) 音声合成装置、音声合成方法及び音声合成プログラム
Sakai et al. A probabilistic approach to unit selection for corpus-based speech synthesis.
JPH08335096A (ja) テキスト音声合成装置
JPH09152884A (ja) 音声合成装置
EP1589524B1 (en) Method and device for speech synthesis
EP1640968A1 (en) Method and device for speech synthesis
IMRAN ADMAS UNIVERSITY SCHOOL OF POST GRADUATE STUDIES DEPARTMENT OF COMPUTER SCIENCE
JPH07181995A (ja) 音声合成装置及び音声合成方法
JPH08160990A (ja) 音声合成装置
SARANYA DEVELOPMENT OF BILINGUAL TTS USING FESTVOX FRAMEWORK
Kayte et al. Overview of Hidden Markov Model for Test-To-Speech Synthesis Methods
Hojjatkhah et al. Segmentation Words for Speech Synthesis in Persian Language Based On Silence
STAN TEZA DE DOCTORAT
KR20010054592A (ko) 음성 합성 시스템의 억양 모델링 장치 및 방법

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040806

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040826

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060915

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20061215

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080722

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081119

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term