JPH04313034A - 合成音声生成方法及びテキスト音声合成装置 - Google Patents

合成音声生成方法及びテキスト音声合成装置

Info

Publication number
JPH04313034A
JPH04313034A JP3200126A JP20012691A JPH04313034A JP H04313034 A JPH04313034 A JP H04313034A JP 3200126 A JP3200126 A JP 3200126A JP 20012691 A JP20012691 A JP 20012691A JP H04313034 A JPH04313034 A JP H04313034A
Authority
JP
Japan
Prior art keywords
speech
aehmm
sequence
text
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3200126A
Other languages
English (en)
Other versions
JP2826215B2 (ja
Inventor
Massimo Giustiniani
ギウスティニアーニ マッシーモ
Piero Pierucci
ピエルッチ ピエロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH04313034A publication Critical patent/JPH04313034A/ja
Application granted granted Critical
Publication of JP2826215B2 publication Critical patent/JP2826215B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は音声合成の分野に関し、
無制約の書面テキストから音声を合成する手法に関する
【0002】
【従来の技術】音声合成は、合成さるべきそれぞれの文
章について音調曲線と合成すべき音声情報を表わすスペ
クトル特徴の系列とを計算することによって得られるの
が普通である。音声を正確にスペクトル表現することは
音声合成における大きな問題である。従来方法は連結合
成と規則による合成の2つの一般的アプローチによって
いる。
【0003】連結合成は所望の合成音声を構成するため
に、共に引きのばされ隣接する予め記録された音声部分
を適当に表現することに基づいて行なわれる。通常の場
合は線形予測符号化(LPC)によって行なわれる。
【0004】一方、ホルマント合成としても知られる規
則による合成はそれぞれの音素について定常状態をスペ
クトル記述することによって行なわれる。2つの隣接す
る音素間のスペクトルはその後音声学者により導き出さ
れる一連の規則に基づいて補間される。
【0005】従来技術の欠点は最初の方法では自然の音
声から抽出さるべき区分の集合が大きくなければならず
(数百もしくはそれ以上)、第2番目の方法では高度の
音声学的知識が必要とされるという点である。前記必要
条件は規則固有の複雑さと相まって前記方法を使用する
音声シンセサイザの普及を従来より制約してきた。更に
、全体として音声シンセサイザは厳密に言語に依存して
いる。事実、音声規則は連結合成において使用さるべき
音声の区分と共に言語によって様々であり、その結果、
シンセサイザを別の言語にカスタマイズする複雑さは全
く新たなものを設計する場合の複雑さに近いものとなっ
ている。
【0006】
【発明が解決しようとする課題】本発明の目的は予め記
録された区分や明示的な規則を必要としない統計的手法
に基づいて無制約なテキストから音声を合成する新しい
手法を提供することである。本発明のシンセサイザは2
つのマルコフモデルの相互作用によるもので、モデルを
処理するために音声的に一致する音声データベースが必
要である。
【0007】本発明の目的は、無制約のテキストから合
成音声を生成するシンセサイザ装置と方法を提供するこ
とである。本発明の場合、音声を合成する言語を音声学
的に記述すること、即ち、当該言語の音素の目録が必要
となる。かかる目録を構成する手続きは当該技術分野に
おいて周知である。また、当該言語について音声学的に
一致する現存単語の音声データベースを利用できること
が仮定されている。このことは、発声されたデータベー
スの単語についてそれぞれその音声記号への翻訳が利用
でき、それぞれの単語音素について大雑把な始点と終点
とが確認できることを意味する。データベースの大きさ
は種々のものが使用できるが、ほぼ2千語のものが適当
である。
【0008】
【課題を解決するための手段及び作用】本発明のシンセ
サイザは一つの音韻プロセッサと2つのマルコフモデル
を活用する。音韻プロセッサは入力されたテキストスト
リングを一連の音声学的情報に変換する。それぞれの情
報ストリングはマルコフモデルの情報系列と考えること
ができ、以下では音声エルゴードマルコフモデル(Ph
EHMM)と称する。その後、隠れた状態の系列が計算
される。それぞれの状態に対しては一組の音声特徴ベク
トルが別のマルコフモデル(以下では音響エルゴードマ
ルコフモデル(AEHMM)と称する)を使用すること
によって関連づけられる。合成フィルタによって音声特
徴ベクトルを適当に変形して合成音声の出力をつくり出
す。本発明はPhEHMMとAEHMMの構造とそれら
の処理法を提示するものである。本発明はその音声を合
成する特定言語から大部分独立した音声シンセサイザを
構成する方法を提供する。更に、その望ましい音声特徴
ベクトルは極度に少ない人間知識と相互作用によりフル
オートマチックな処理によって得ることができる。
【0009】
【実施例】A.音響エルゴードマルコフモデル本発明の
シンセサイザは2つの異なるマルコフモデルの相互作用
に基づいている。最初のモデルは音響エルゴードマルコ
フモデル(AEHMM)で図1に示す。本図はAEHM
Mの構成を略示したもので、qi 、qj ・・・・は
モデルの状態を表わし、ai 、j は状態qiから状
態qj への遷移確率を表わす。それぞれの状態qi 
付近のダイアグラムは特徴ベクトル出力の確率密度関数
の期待値から計算した平均出力密度スペクトルを表わす
。AEHMMは一つ又はそれ以上のステップにおいて各
状態から他の何れの状態へも移動することが可能である
から完全に接続したモデルである。音声信号は多次元特
徴空間によって表現されるものと仮定する。前記実施例
では同空間は確率分布の場合と同様に連続している。そ
のことは音声特徴ベクトルの各成分を分布値が、定量化
されない実数の連続値をとることを意味する。このアプ
ローチは幾つかの利点を与えることができる。然しなが
ら、離散的アプローチも可能である。前記一組の特徴中
には合成すべき音素の性質に従って有声音パラメータや
エネルギの如きその他のパラメータを含ませたり、外部
知識によって決定することもできる。AEHMMの各状
態は、局部モデル、即ち、一定の音声特徴ベクトル(以
下、観測値と称する)を発する連続的な密度分布確率を
有する特徴源と考えることができる。本発明の実施例の
場合、音声スペクトルは自己相関関数r(j)の最初の
p+1のラグ、即ち、1<j<p(p=自己相関ラグの
数)と、線形予測利得σ(シグマ)とによって表わされ
る。このことは、音声がp次の自己回帰過程によりモデ
ル化できることを意味する。音声は適当な周波数、例え
ば、10kHzでサンプリングされ、その結果得られる
定量化された音声信号が保存される。前記音声信号はそ
の後、フレームと称する同じ長さの一連のスライスに分
割される。それぞれのフレームについて自己相関関数と
LPCが計算される。pの値として適当な値は12であ
るが、他の値も使用することができる。
【0010】AEHMMは次の式によって表わす。
【数1】 但し、Aはモデルの大きさ、即ち、モデルの状態数であ
る。Qは状態集合、Π(パイ)は初期確率ベクトル、A
は状態遷移行列、Fは観測確率関数の集合である。各モ
デル成分の定義は次の通りである。観測確率関数Fは連
続的な多変量ガウス分布であって、それぞれの状態につ
いてパラメータベクトルOによって表現される音声事象
が当該状態から観測される確率を与える。即ち、
【数2
】 但し、
【数3】 rai(j)は状態iの自己相関ベクトルのj番目のラ
グであり、rt (j)は入力音声フレームの自己相関
ベクトルのj番目のラグである。更に、βi は状態自
己相関行列の固有値であり、mvi、σviは状態iの
ガウス音声確率分布を定義するパラメータである。前記
状態はスペクトル密度から独立しているものと想定され
る。Nは解析されるフレームの長さに全体として比例す
る一定値である。この手法は例えば、「音声認識におけ
るマルコフモデルとダイナミックタイムウォーピング(
時間軸正規化整合法)について:統一見解」(AT&T
ベル研技術誌Vol.63, No.7、9月号、19
84年、B.H.ジュアン」と、「ガウス自己回帰過程
の正確な最大確率評価について」(音響、音声信号処理
に関するIEEE紀要、Vol.36, No.6、1
988年6月、セルヌシーフリアス・J.B.ロジャー
ス)の如き論文において論ぜられている通りである。
【0011】各状態は局部的な自己回帰信号源と考える
ことができる。即ち、所与の自己回帰フレームを観測す
る確率は前記(A.2)によって与えられる。これらの
信号源は以下の局部信号と称する。前記の局部信号源は
遷移確率行列により接続され、音声のホノタクティクス
による制約を表わす。M状態の集合Q≡{qi }とす
ると、大域モデルは次の一組の初期確率値と遷移確率行
列とによって完全に定義される。
【数4】
【数5】 (A.4)は時間t=0における状態qi の絶対確率
を表わし、(A.5)は時間t−1の前記状態qi に
よって条件づけられた時間tにおける入力状態qj の
確率を与える状態間遷移規則を表わす。
【0012】AEHMMの解説は「音声符号化における
有限状態マルコフ量信号」(TCASSP会議紀要、米
国、1990年4月、ファラシ、M.ギウスチニアーニ
、pピエルッシ)及び「音声合成におけるマルコフモデ
ル手法」(欧州言語処理、パリ、1989年、ファラシ
、M.ギウスチニアーニ、M.ヴェローラ)に報告され
ている通りである。
【0013】マルコフモデルは2つの確率的過程を表わ
す。一つは直接に観測できるものであり、一つは隠れて
いるものである。AEHMMでは観測された過程は音声
から抽出された特徴の系列であるのに対し、その基礎に
ある隠れたプロセスは恐らく観察音声を生成したと思わ
れる局部信号源の系列である。このことはAEHMMが
それぞれの音声信号フレームから算出された特徴を、状
態、又は状態の集合に、従って恐らくその信号フレーム
の特徴を発声したと思われる対応信号源に対して関連づ
けることを意味する。それぞれの信号源はラベルと称さ
れる級数によって表わすことができる。かくして、ラベ
ルの総数はAEHMMの大きさに等しくなる。このこと
はAEHMMがそれぞれのフレームに対して恐らくその
フレームを発したと思われる信号源の各々のラベルを関
連づけることを意味する。この働きは音響ラベリングと
称される。
【0014】モデルを構築するためには一定種類の距離
又は歪みの尺度を用いる。本実施例では確率比歪み尺度
が望ましかったが、他の種類の尺度も使用することがで
きる。どんな種類の特徴表現を使用するにせよ、それら
が信号のスペクトルを表現する上で有効である限り、本
発明でAEHMMを使用する上での基本的なポイントは
一つの音声に対して多分観測された発声を発生したと思
われる信号源の系列、従って、ラベルの系列を生成する
点である。この場合、確率は通常標準的なベクトル量記
号を用いることによって発声全体について計算され、局
部的には行なわない。このことは信号の確認が局部的に
行なわれるのではなく、発声の展開全体と遷移確率行列
中に具体化された音声的制約を考慮することによって行
なわれることを意味する。
【0015】AEHMMの初期化と処理AEHMMはA
EHMMで使用される同一の音声パラメータ表現に適用
される標準的なクラスタリングアルゴリズムによって初
期化される。再評価手続きにおける計算上の要求条件を
減らすために、モデルはAEHMMと同じ大きさを有す
るベクトル定量化クラスタリング手法(以下ではVQと
称する)によって初期化することが望ましい。前記手法
はその音声がAEHMM再評価手続きについて使用され
る同一話者によって発せられる発声の集合に対して適用
される。ベクトル定量化は従来技術において公知である
。状態観測密度に対する初期評価はベクトル量記号コー
ドブック重心の音声特徴ベクトルによって直接得ること
ができると共に、提案される特徴表現の変量は正規化さ
れたLPC残留エネルギーである。状態遷移確率行列の
初期評価はVQ定量化発声の集合を使用して生起したV
Qラベルli とラベルlj の数を順次VQラベルl
i からはじまる観測された対の総数によって除するこ
とによって得ることができる。
【数6】 但し、Coc(li t−1 、lj t )は処理デ
ータにおいて時刻t−1のVQラベルli に続いて時
刻tのVQラベルlj が共起することを示す。初期確
率ベクトル(A.3)の初期評価は観測ラベルの総数に
よって除したVQラベルli の生起数の場合と同様に
して計算することができる。
【数7】 但し、Cnt(li )は処理データにおけるVQラベ
ルli の生起数である。その後、通常の順方向/逆方
向回帰とバウムウエルチ再評価式によって一定音声サン
プルに対して処理を実行する。系列データサイズの要求
条件を減らすため、また評価手続き全体を改善するため
に音声データ全体は同一の話者が発するようにすること
が望ましい。更に、発声は音声時にバランスがとれてい
ること、即ち、それらは当該言語に典型的に音声事象を
表わし、当該言語に典型的な音素確率を提供するように
することが望ましい。
【0016】AEHMMの使用 AHEMMを使用して音声的に整合した音声データベー
スに対して音響ラベリングを実行する。このことはそれ
ぞれの音声フレーム毎にAEHMM中の選択状態を示す
ラベル、選択ラベルに対応する局部信号源に関連づけら
れる音声特徴ベクトル、及び音声が抽出される発声音素
を適当な音声アルファベットで音声翻訳する可能性が存
在することを意味する。音声的に整合した音声データベ
ースとAEHMMを処理するために使用される処理音声
データベースは同一話者により発せられることが望まし
い。M=256の状態モデルを処理するためには2千も
しくはそれ以上の音声的に一致する単語のサイズを有す
る音声を使用することが望ましい。
【0017】B.音声エルゴードマルコフモデル図2は
本発明に使用する第2のマルコフモデルである音声エル
ゴードマルコフモデル(PhEHMM)を示す。
【0018】PhEHMMは以下の点で先に述べたAE
HMMと類似するモデルである。即ち、両者は同じサイ
ズ、即ち、同じ状態数をもっている。またAEHMMの
遷移確率行列によって得られる状態のうちの同じ遷移確
率によって初期化される。PhEHMMの観測確率関数
はPhEHMMの各状態に対して採用された音声アルフ
ァベットの音素を発する観測確率関数が関連づけられる
点でAEHMMのものと異なっている。それぞれ合成さ
るべき発声におけるそれらの持続時間に比例する一連の
回数だけ繰返した音素系列を本文では合成観測値と称す
ることにする。
【0019】PhEHMMの役割は、ここでは、合成観
測値のストリングと、恐らく前記合成観測値を発したと
思われる音声源の系列との間の対応関係を確立すること
である。従って、PhEHMMは以下の式によって表さ
れる。
【数8】 但し、Mはモデルの大きさ、即ち、AEHMMの場合と
同一であり、Tは状態の集合、Θは初期確率ベクトル、
Zは遷移確率行列の状態であり、Λは観察確率関数の集
合である。
【0020】各状態の観測確率関数は離散型で、それぞ
れの状態に対してその状態から音声記号Ψi が観察さ
れる確率を与える。
【数9】
【0021】音声記号領域の性質のため観測確率関数は
離散的である。Eは採用された音声アルファベットの大
きさである。一定の音声信号を所与とすると、PhEH
MMを使用して隠れた状態系列を構成するラベルの最も
確率の高い系列を計算する。即ちAEHMMを使用して
音声記号ストリングに対応するスペクトル特徴の最も確
率の高い系列を計算する。
【0022】図2はPhEHMMの簡単な構成を示す。 但し、τi ,τj ,τk ・・・はモデルの状態を
表し、zi,j は状態τi から状態τj へ至る遷
移確率を示す。 各状態に近接するダイアグラムは採用された音声アルフ
ァベットの各音素を発する離散密度確率を表す。
【0023】PhEHMMの初期化と処理PhEHMM
はAEHMMに関連して先に定義した音響的かつ音声的
にラベル付けした同じ音声サンプルを用いて初期化する
。初期確率ベクトルと遷移確率行列に対する初期評価は
、AEHMMの同じ遷移確率行列Aを遷移確率行列Zと
考えて、対応するAEHMMの統計的記述によって得る
ことができる。初期確率ベクトルΘについても同様のこ
とを行う。
【数10】
【0024】各状態の観測分布関数は以下の手続を経て
初期化する。先に定義した音声サンプルはAEHMMを
使用して音響的にラベル付けして、以下のAEHMM状
態系列を得る。
【数11】
【0025】同じ音声サンプルの音声的翻訳は適当な方
法を用いて得ることができ、次の音声記号の一系列が得
られる。
【数12】
【0026】さて、以下の式を用いてそれぞれの状態に
ついての観測確率関数の初期評価を得ることができる。
【数13】 その結果、それぞれの状態についてその状態から一定の
音声記号Ψijが得られる確率が与えられる。この式に
おいて Cnt(Ψi , τj )は音声記号Ψi 
状態τj が共に生起することが観測される数である。 その後、適当な音声的に翻訳したテキストサンプルにつ
いてPhEHMMを周知のバウム・ウェルチアルゴリズ
ムによって反復して再評価する。
【0027】C.合成システムの解説 図3はテキスト合成シンセサイザ30のブロック線図を
示す。同図において、本発明と関連する構造のみが完全
に説明されているが、音声合成に必要であるが当該技術
分野において標準的な構成部分はごく手短かに説明する
。シンセサイザ30はテキスト入力装置31、音声プロ
セッサ32、音韻プロセッサ34、ラベリング装置33
、スペクトル系列生成装置、及び合成フィルタ36を含
む。テキスト入力装置31はテキスト入力インターフェ
ースを提供するものであって入力テキストを以下の処理
のために複数の文に分割するために必要な処理を実行す
る。音声プロセッサ32は図4に詳解する。
【0028】図4について述べると、シラビフィケータ
41は音節化装置であって入力テキストを次の処理のた
めに複数の音節に分割する目的を有する。音声トランス
クライバ42は入力書記素をそれに対応する音素に変換
する。本実施例では表1に示すように29の記号の音声
アルファベットを使用したが、必要とあらば他の音声ア
ルファベットを使用することもできる。
【表1】
【0029】微音韻プロセッサ43は合成さるべき各音
素に対する全持続時間を計算する。前記プロセッサ43
は音節モデルと構文形態に関する情報を活用して所望の
出力を生成する。それは音素の固有持続時間の概念に基
づいている。各音素は音節中のその位置と字句のアクセ
ントに応じて異なるものと考える。それぞれの異なる音
素位置に対して持続時間データベース44中に保存され
た異なる持続時間値を関連づける。この種の音節モデル
は従来より文献中に提案されているものである。固有持
続時間はその後、文中の単語の品詞に従って引延ばされ
る。品詞に従って持続時間を修正するためのアルゴリズ
ムは従来技術に報告済みである。合成観測値ジェネレー
タ45は音素の系列とそれに対応する持続時間全体をP
hEHMM合成観測値に変換する役割を有する。前記ジ
ェネレータは音素のストリングを生成し、そこで各音素
はその計算された持続時間に対応するフレーム数と同回
数だけ反復される。
【0030】図5について述べると、入力ストリングテ
キストのサンプルが図5の(A)に示されている。そこ
ではイタリア文”Questo e un esemp
io di frase”が合成さるべきテキスト例と
して使用されている。図5の(B)はその例で使用され
る文の音声的翻訳を示す。図5の(C)には単語の系列
とそれに対応する品詞が示されている。図5の(D)は
各音素がその計算された持続時間全体に対応するフレー
ム数と同回数だけ反復されることを示す。
【0031】図3のラベリング装置(LU)は合成観測
値の系列に対応する最もありそうな状態系列を計算する
目的を有する。ラベリング装置33は図7と図8のLU
70とLU80の2つの異なる実施例の形が示されてい
る。図7のラベリング装置は図5Dに示すような合成観
測値の系列から基礎にあるPhEHMMの状態系列を計
算する。バウムウェルチPhEHMMプロセッサ71は
周知のバウムウェルチアルゴリズムを実行する。プロセ
ッサ71はそれぞれの観測音素について図6に示すよう
な音声記号観測値を生ぜしめた各状態の確率ベクトルを
生成する目的を有する。図6の配列中の各要素はラベル
(L1,L2,L3・・・)と各観測値に対するラベル
確率(P(1),P(2),P(3)・・・)の対より
構成される。但し、一つの観測値は、先に指定の如く、
合成観測値系列の音声記号であり、表の各欄についてL
BLはPhEHMMの状態のラベルを表わし、Prob
はその観測値を生成したラベルの確率である。
【0032】図8は図3のラベリング装置(LU)の第
2の実施例(LU80)である。合成観測値の系列から
任意の最適性基準を使用してPhEHMMの状態の最も
優れた系列を計算する。一つの状態だけ(即ち1ラベル
)が合成系列観測値の各項目と関連する。一例として、
状態系列は、ヴィテルビPhEHMMプロセッサ81に
より合成観測値系列に対して実行された周知のヴィテル
ビアルゴリズムによって計算することができる。
【0033】図3のスペクトル系列生成装置(SSPU
)はラベリング装置70又は80により生成されるよう
な入力ラベル系列をフィルタ係数の系列に変換する目的
を有する。図9と図10はそれぞれラベリング装置70
と80の2つの実施例に対応するSSPU90と100
の構造を示す。SSPU90は音声特徴コードブック(
SFC)92と音声補間器(FI)91とによって構成
される。SFC92は先のAEHMM処理によって決定
されるようにAEHMMの対応する原始モデルを各ラベ
ルに関連させる。このことは本実施例においては原始パ
ラメータの期待値のベクトルがラベリング装置によって
生成された各ラベルに関連づけられることを意味する。 これは多変量ガウス分布を使用する直後である。かかる
場合にはガウス密分布自体の平均値が各ラベルに関連づ
けられる。FI91は計算して合成フィルタ中に使用さ
れる実特徴ベクトルを生成する。この目的においてそれ
はAEHMMコードブックの音声特徴ベクトルの加重平
均を計算する。前記特徴は補間スキームに対して線形で
あることが望ましいことはいうまでもない。予測係数を
使用する場合、それらを例えばログエリア比のようなよ
り線形的な特徴に変換することが望ましい。特徴ベクト
ル変換処理はΓ(ri )により示され、以下の如く特
徴ベクトルの異なる集合ui を与える。
【数14】
【0034】その後、出力特徴ベクトルが合成さるべき
各フレームについてコードブックの各特徴ベクトルを時
間tにおける対応ラベルの確率によって重みをつけるこ
とによって計算される。
【数15】 但し、prob(τ it )はラベリング装置70に
より計算される各状態の確率であり、ui はコードブ
ックの関連する特徴ベクトルの変形であり、uavt 
は合成フィルタに送らるべき合成特徴ベクトルである。 その結果はその後合成プロセスにふさわしいスペクトル
表現に逆変換される。本実施例の場合、反映係数kを使
用して(C.3)に示すように逆変換する。
【数16】 但し、Δは逆変換演算子である。
【0035】図10にLU80にふさわしいSSPU1
00を示す。SSPU100はスペクトル特徴コードコ
ードブック102と特徴セレクタ101より構成される
。本実施例では特徴セレクタ101は各ラベルに対して
最適アルゴリズムに従って選択される音声特徴ベクトル
コードブック102中に保存されるAEHMMの対応す
る音声特徴ベクトルを関連づける。
【0036】その結果得られる音声特徴ベクトルはその
後合成フィルタ36により使用されるフィルタ係数に変
換される。反映係数kが使用される場合、合成フィルタ
は図11に示す構造をとる。図11において、利得値は
韻律プロセッサ34により計算されるエネルギー等高線
によって与えられる。
【0037】エネルギーを計算するために他の手続を使
用することができる。図11の励起源、声門脈動ジェネ
レータとノイズジェネレータは有声音パラメータにより
制御される。有声音は異なる方法で計算することができ
る。即ち、もしそれがスペクトル特徴集合の中に埋込ま
れていれば、他の特徴と同一の方法で処理される。音声
フレームを有声音、無声音に分類するためにはスレショ
ルド決定法を使用することができる。あるいは両者を混
合した励起法を使用することもできる。さもない場合に
は、有声音パラメータを合成さるべきそれぞれの音素に
関連づけて、実際に合成された音素に従って合成プロセ
ス中で変化させるべきである。
【0038】D.シンセサイザの動作 いったんA節とB節に述べたようにAEHMMとPhE
HMMの2つのマルコフモデルを構築し終えると、テキ
スト合成プロセス全体を次のように要約することができ
る。 −テキスト入力31を介して書面テキストを入力した後
、音声プロセッサ32によって音声発音記号に変換する
。音声プロセッッサ32はまた合成フィルタ36中で使
用可能な追加的なパラメータを決定する。 −微音韻プロセッサ43がそれぞれの音素について全体
の持続時間を計算する。 −持続時間データベース44によって各音素に対して異
なる持続時間を付与する。 −音素系列と各系列に関連する持続時間は合成観測値ジ
ェネレータ45によって処理される。合成観測値ジェネ
レータ45はそのサンプルを図5Dに示す合成観測値の
系列を生成する。 −その後、合成観測値系列をラベリング装置33により
処理する。ラベリング装置33は選択された最適性基準
に応じて前記合成観測値系列に対応するラベル系列、即
ちPhEHMMの状態の系列を計算する。 −スペクトル系列生成装置35は入力としてラベル系列
を受取り、対応するAEHMMの音声特徴ベクトルをそ
れらのラベルに関連づける。 −その後、その結果として得られる特徴ベクトルをフィ
ルタ係数に変換する。これらの係数は音韻プロセッサ3
4に生成される音韻とその他のパラメータと共にその後
合成フィルタ36によって合成音声出力を生成するため
に使用される。
【0039】
【発明の効果】本発明は、上記のように構成されている
ので、予め記録された区分や明示的な規則を必要としな
い統計的手法に基づいて無制約なテキストから音声を合
成できる優れた効果を有する。
【図面の簡単な説明】
【図1】AEHMMの概略構造図である。
【図2】PhEHMMの概略構造図である。
【図3】本発明のテキスト生成シンセサイザのブロック
線図である。
【図4】図3の音声プロセッサのブロック線図である。
【図5】音声プロセッサによって実行されるテキストの
サンプル図である。
【図6】異なる観測値に対するラベルの配列とそれらの
確率を示す図である。
【図7】図3のラベリング装置の実施例のブロック線図
である。
【図8】図3のラベリング装置の別の実施例のブロック
線図である。
【図9】図7のラベリング装置と共に使用されるスペク
トル系列生成装置のブロック線図である。
【図10】図8のラベリング装置と共に使用されるスペ
クトル系列生成装置のブロック線図である。
【図11】実施例で使用されるラティス合成フィルタの
構造図である。
【符号の説明】
30    テキスト合成シンセサイザ31    テ
キスト入力 32、40    音声プロセッサ 33    ラベリング装置 34    音韻プロセッサ 35    スペクトル系列生成装置 36    合成フィルタ 41    シラビフィケータ 42    音声トランスクライバ 43    微音韻プロセッサ 44    持続時間データベース 45    合成観測値ジェネレータ

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】  音声上の制約を反映する音響エルゴー
    ドマルコフモデル(AEHMM)が音声エルゴードマル
    コフモデル(PhEHMM)に相関づけられるような合
    成音声生成方法において、 a)前記AEHMMの処理中に発声された音声が分割さ
    れるフレームから抽出された音声特徴ベクトルを観測値
    の系列として、また恐らく前記発声フレームを発したと
    思われる信号源の系列を隠れた系列として考えて一定の
    AEHMMを構築し、 b)前記AEHMMと同じ大きさを持つベクトル定量化
    クラスタリングスキームによって前記AEHMMを初期
    化し、 c)前記AEHMMを順方向−逆方向アルゴリズムとバ
    ウム−ウエルチ再評価公式によって処理し、d)各フレ
    ームに対して最も確率の高い信号源のラベルを関連づけ
    、 e)書面テキストから得られる合成観測値系列を観測値
    の系列として、またラベルの系列を隠れた系列として考
    えて前記AEHMMと同じ大きさのPhEHMMを構築
    し、 f)状態遷移確率に対して対応する前記AEHMMの状
    態の遷移確率と同一値を付与することによって前記Ph
    EHMM遷移確率行列を初期化し、 g)i )音声学的に一致する音声サンプルを使用し、
    ii)前記AEHMMの音響ラベリング特徴を使用して
    最も確率の高いラベルのシーケンスを前記音声サンプル
    に対して生成し、 iii)前記状態によって発せられる音素の総数によっ
    て除せられる一状態中の音素の生起回数をカウントして
    各音素について観測値確率関数を計算する、ことによっ
    て、前記PhEHMM観測値確率関数を初期化し、h)
    適当な合成観測値サンプルに対してバウム−ウエルチア
    ルゴリズムによって前記PhEHMMを処理し、i)合
    成さるべき各ワードについて一定の合成観測値を、また
    前記PhEHMMを介して適当な最適性基準によって対
    応するラベルの系列を決定し、j)韻律プロセッサによ
    り入力テキストからエネルギー、音韻等高線及び有声音
    の如き追加的なパラメータの集合を決定し、 k)前記ラベルの系列について前記AEHMMにより対
    応する音声特徴ベクトルの集合を決定し、l)前記音声
    特徴ベクトルをスペクトル情報を保存するフィルタ係数
    の集合に変形し、 m)前記フィルタ係数の集合と一定の合成フィルタ中の
    前記追加パラメータを使用して一定の合成音声出力を生
    成する、ステップより成る合成音声生成方法。
  2. 【請求項2】  ステップi)の適当な最適性基準がバ
    ウム−ウエルチアルゴリズムによって与えられ、ステッ
    プk)の音声特徴ベクトルの決定がそれぞれの特徴ベク
    トルを対応するラベルの確率によって重みづけすること
    によって得られる請求項1の無制約書面テキストから音
    声を生成する方法。
  3. 【請求項3】  ステップi)の適当な最適性基準がヴ
    ィテルビアルゴリズムによって与えられ、ステップk)
    の音声特徴ベクトルの決定が対応する前記AEHMMの
    音声特徴ベクトルを各ラベルに関連づけることによって
    得られる請求項1の無制約書面テキストから音声を生成
    させる方法。
  4. 【請求項4】  合成さるべきテキストを入力するため
    のテキスト入力装置(31)と、書記素入力を音声表現
    に変換し、音声持続時間パラメータを決定する音声プロ
    セッサ(32)と合成さるべき発声に対する音韻とエネ
    ルギー等高線を判断する音韻プロセッサ(34)と、前
    記音韻とエネルギーの等高線とフィルタ係数を用いて生
    成さるべき音声を合成する合成フィルタ(36)と、を
    含むテキスト合成シンセサイザ装置において、前記音声
    プロセッサ(32)が前記入力テキストの音声表現をそ
    れぞれ前記音韻プロセッサ(34)により計算される音
    素持続時間を適切に反映するように繰り返される音声記
    号のストリングに翻訳し音声エルゴードマルコフモデル
    (PhEHMM)観測値の系列を生成する合成観測値ジ
    ェネレータ(45)と、前記状態が最適性基準により前
    記観測値を生成した確率を前記観測値系列中の各観測値
    に関連づけるラベリング装置(33)と、先に発声され
    た音声サンプルに基づいて構築された音響エルゴードマ
    ルコフモデル(AEHMM)により計算されるラベルと
    音声特徴ベクトル間の相関づけによって合成さるべき各
    音声フレームについて音声特徴ベクトルを計算するスペ
    クトル系列生成装置(35)とを含み、前記スペクトル
    系列生成装置(35)が逆変換によって音声特徴ベクト
    ルを前記合成フィルタ(36)により使用さるべきフィ
    ルタ係数に変換するテキスト合成シンセサイザ。
  5. 【請求項5】  前記ラベリング装置(33)において
    使用される最適性基準が各状態がバウム−ウエルチアル
    ゴリズムにより一定の観測値を生成した確率を計算する
    ことから成り、各音声特徴ベクトルが前記ラベリング装
    置(33)により計算された各ラベルの確率によって重
    みづけされる前記AEHMMによって各ラベルに関連づ
    けられる音声特徴ベクトルの和として計算される請求項
    4のテキスト合成シンセサイザ装置。
  6. 【請求項6】  前記ラベリング装置(33)において
    使用される最適性基準がヴィテルビアルゴリズムによっ
    て得られるような合成観測系列を生成した確率が最も高
    い状態の系列を計算することから成り、各音声特徴ベク
    トルが前記AEHMMの対応する原始モデルを各ラベル
    に対して関連づけ、その原始モデルに関連づけされた平
    均ベクトルを音声特徴ベクトルとして想定することによ
    って得られる請求項4のテキスト合成シンセサイザ装置
JP3200126A 1990-10-16 1991-07-15 合成音声生成方法及びテキスト音声合成装置 Expired - Lifetime JP2826215B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IT90119789.7 1990-10-16
EP90119789A EP0481107B1 (en) 1990-10-16 1990-10-16 A phonetic Hidden Markov Model speech synthesizer

Publications (2)

Publication Number Publication Date
JPH04313034A true JPH04313034A (ja) 1992-11-05
JP2826215B2 JP2826215B2 (ja) 1998-11-18

Family

ID=8204620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3200126A Expired - Lifetime JP2826215B2 (ja) 1990-10-16 1991-07-15 合成音声生成方法及びテキスト音声合成装置

Country Status (4)

Country Link
US (1) US5230037A (ja)
EP (1) EP0481107B1 (ja)
JP (1) JP2826215B2 (ja)
DE (1) DE69022237T2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524288A (ja) * 2009-04-16 2012-10-11 ユニヴェルシテ ドゥ モンス 音声合成および符号化方法
CN103531196A (zh) * 2013-10-15 2014-01-22 中国科学院自动化研究所 一种波形拼接语音合成的选音方法

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940002854B1 (ko) * 1991-11-06 1994-04-04 한국전기통신공사 음성 합성시스팀의 음성단편 코딩 및 그의 피치조절 방법과 그의 유성음 합성장치
US5606645A (en) * 1992-02-28 1997-02-25 Kabushiki Kaisha Toshiba Speech pattern recognition apparatus utilizing multiple independent sequences of phonetic segments
US5383120A (en) * 1992-03-02 1995-01-17 General Electric Company Method for tagging collocations in text
EP0577488B9 (en) * 1992-06-29 2007-10-03 Nippon Telegraph And Telephone Corporation Speech coding method and apparatus for the same
WO1995010832A1 (en) * 1993-10-15 1995-04-20 At & T Corp. A method for training a system, the resulting apparatus, and method of use thereof
JP3450411B2 (ja) * 1994-03-22 2003-09-22 キヤノン株式会社 音声情報処理方法及び装置
GB2290684A (en) * 1994-06-22 1996-01-03 Ibm Speech synthesis using hidden Markov model to determine speech unit durations
US5633983A (en) * 1994-09-13 1997-05-27 Lucent Technologies Inc. Systems and methods for performing phonemic synthesis
US5497337A (en) * 1994-10-21 1996-03-05 International Business Machines Corporation Method for designing high-Q inductors in silicon technology without expensive metalization
GB2296846A (en) * 1995-01-07 1996-07-10 Ibm Synthesising speech from text
US5719996A (en) * 1995-06-30 1998-02-17 Motorola, Inc. Speech recognition in selective call systems
US6038533A (en) * 1995-07-07 2000-03-14 Lucent Technologies Inc. System and method for selecting training text
US5822731A (en) * 1995-09-15 1998-10-13 Infonautics Corporation Adjusting a hidden Markov model tagger for sentence fragments
US5832441A (en) * 1996-09-16 1998-11-03 International Business Machines Corporation Creating speech models
JPH10153998A (ja) * 1996-09-24 1998-06-09 Nippon Telegr & Teleph Corp <Ntt> 補助情報利用型音声合成方法、この方法を実施する手順を記録した記録媒体、およびこの方法を実施する装置
US5950162A (en) * 1996-10-30 1999-09-07 Motorola, Inc. Method, device and system for generating segment durations in a text-to-speech system
US5933805A (en) * 1996-12-13 1999-08-03 Intel Corporation Retaining prosody during speech analysis for later playback
JPH10260692A (ja) * 1997-03-18 1998-09-29 Toshiba Corp 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム
JP3033514B2 (ja) * 1997-03-31 2000-04-17 日本電気株式会社 大語彙音声認識方法及び装置
EP1016077B1 (de) * 1997-09-17 2001-05-16 Siemens Aktiengesellschaft Verfahren zur bestimmung einer wahrscheinlichkeit für das auftreten einer folge von mindestens zwei wörtern bei einer spracherkennung
WO2000030069A2 (en) * 1998-11-13 2000-05-25 Lernout & Hauspie Speech Products N.V. Speech synthesis using concatenation of speech waveforms
US6185533B1 (en) * 1999-03-15 2001-02-06 Matsushita Electric Industrial Co., Ltd. Generation and synthesis of prosody templates
DE19915648A1 (de) * 1999-04-07 2000-10-12 Rohde & Schwarz Verfahren zum Bewerten der Sprachqualität von Telefonverbindungen
US6178402B1 (en) 1999-04-29 2001-01-23 Motorola, Inc. Method, apparatus and system for generating acoustic parameters in a text-to-speech system using a neural network
US7219056B2 (en) * 2000-04-20 2007-05-15 International Business Machines Corporation Determining and using acoustic confusability, acoustic perplexity and synthetic acoustic word error rate
US6999926B2 (en) * 2000-11-16 2006-02-14 International Business Machines Corporation Unsupervised incremental adaptation using maximum likelihood spectral transformation
US7124082B2 (en) * 2002-10-11 2006-10-17 Twisted Innovations Phonetic speech-to-text-to-speech system and method
US7593845B2 (en) * 2003-10-06 2009-09-22 Microsoflt Corporation Method and apparatus for identifying semantic structures from text
US7412377B2 (en) 2003-12-19 2008-08-12 International Business Machines Corporation Voice model for speech processing based on ordered average ranks of spectral features
JP2006047866A (ja) * 2004-08-06 2006-02-16 Canon Inc 電子辞書装置およびその制御方法
CN1755796A (zh) * 2004-09-30 2006-04-05 国际商业机器公司 文本到语音转换中基于统计技术的距离定义方法和系统
US7684988B2 (en) * 2004-10-15 2010-03-23 Microsoft Corporation Testing and tuning of automatic speech recognition systems using synthetic inputs generated from its acoustic models
US20060136215A1 (en) * 2004-12-21 2006-06-22 Jong Jin Kim Method of speaking rate conversion in text-to-speech system
US20070213987A1 (en) * 2006-03-08 2007-09-13 Voxonic, Inc. Codebook-less speech conversion method and system
JP2008263543A (ja) * 2007-04-13 2008-10-30 Funai Electric Co Ltd 記録再生装置
US8321222B2 (en) * 2007-08-14 2012-11-27 Nuance Communications, Inc. Synthesis by generation and concatenation of multi-form segments
US20090248647A1 (en) * 2008-03-25 2009-10-01 Omer Ziv System and method for the quality assessment of queries
CN102047321A (zh) * 2008-05-30 2011-05-04 诺基亚公司 用于提供改进的语音合成的方法、设备和计算机程序产品
US9299338B2 (en) * 2010-11-08 2016-03-29 Nec Corporation Feature sequence generating device, feature sequence generating method, and feature sequence generating program
WO2012134877A2 (en) * 2011-03-25 2012-10-04 Educational Testing Service Computer-implemented systems and methods evaluating prosodic features of speech
WO2016011189A1 (en) * 2014-07-15 2016-01-21 The Regents Of The University Of California Frequency-multiplexed speech-sound stimuli for hierarchical neural characterization of speech processing
US10002543B2 (en) * 2014-11-04 2018-06-19 Knotbird LLC System and methods for transforming language into interactive elements
JP6672114B2 (ja) * 2016-09-13 2020-03-25 本田技研工業株式会社 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム
CN109087630B (zh) * 2018-08-29 2020-09-15 深圳追一科技有限公司 语音识别的方法及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01159698A (ja) * 1987-12-16 1989-06-22 Matsushita Electric Ind Co Ltd パターン認識用モデル作成装置
JPH01202798A (ja) * 1988-02-09 1989-08-15 Nec Corp 音声認識方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4882759A (en) * 1986-04-18 1989-11-21 International Business Machines Corporation Synthesizing word baseforms used in speech recognition
US4852180A (en) * 1987-04-03 1989-07-25 American Telephone And Telegraph Company, At&T Bell Laboratories Speech recognition by acoustic/phonetic system and technique
US5033087A (en) * 1989-03-14 1991-07-16 International Business Machines Corp. Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01159698A (ja) * 1987-12-16 1989-06-22 Matsushita Electric Ind Co Ltd パターン認識用モデル作成装置
JPH01202798A (ja) * 1988-02-09 1989-08-15 Nec Corp 音声認識方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012524288A (ja) * 2009-04-16 2012-10-11 ユニヴェルシテ ドゥ モンス 音声合成および符号化方法
CN103531196A (zh) * 2013-10-15 2014-01-22 中国科学院自动化研究所 一种波形拼接语音合成的选音方法
CN103531196B (zh) * 2013-10-15 2016-04-13 中国科学院自动化研究所 一种波形拼接语音合成的选音方法

Also Published As

Publication number Publication date
DE69022237D1 (de) 1995-10-12
US5230037A (en) 1993-07-20
EP0481107A1 (en) 1992-04-22
EP0481107B1 (en) 1995-09-06
DE69022237T2 (de) 1996-05-02
JP2826215B2 (ja) 1998-11-18

Similar Documents

Publication Publication Date Title
JP2826215B2 (ja) 合成音声生成方法及びテキスト音声合成装置
US11735162B2 (en) Text-to-speech (TTS) processing
JP3933750B2 (ja) 連続密度ヒドンマルコフモデルを用いた音声認識方法及び装置
Tokuda et al. Speech synthesis based on hidden Markov models
JP4302788B2 (ja) 音声合成用の基本周波数テンプレートを収容する韻律データベース
EP2179414B1 (en) Synthesis by generation and concatenation of multi-form segments
JP4176169B2 (ja) 言語合成のためのランタイムアコースティックユニット選択方法及び装置
US5970453A (en) Method and system for synthesizing speech
US10692484B1 (en) Text-to-speech (TTS) processing
US11763797B2 (en) Text-to-speech (TTS) processing
US20070192100A1 (en) Method and system for the quick conversion of a voice signal
US10699695B1 (en) Text-to-speech (TTS) processing
Ostendorf et al. The impact of speech recognition on speech synthesis
EP0515709A1 (en) Method and apparatus for segmental unit representation in text-to-speech synthesis
WO2015025788A1 (ja) 定量的f0パターン生成装置及び方法、並びにf0パターン生成のためのモデル学習装置及び方法
JP5574344B2 (ja) 1モデル音声認識合成に基づく音声合成装置、音声合成方法および音声合成プログラム
Phan et al. A study in vietnamese statistical parametric speech synthesis based on HMM
Lee et al. A segmental speech coder based on a concatenative TTS
Mullah A comparative study of different text-to-speech synthesis techniques
Takaki et al. Overview of NIT HMM-based speech synthesis system for Blizzard Challenge 2012
El Ouahabi et al. Amazigh speech recognition using triphone modeling and clustering tree decision
CN114270433A (zh) 声学模型学习装置、语音合成装置、方法以及程序
EP1589524A1 (en) Method and device for speech synthesis
Orphanidou et al. Voice morphing using the generative topographic mapping
JP2862306B2 (ja) 音声認識装置