JP2583074B2 - 音声合成方法 - Google Patents
音声合成方法Info
- Publication number
- JP2583074B2 JP2583074B2 JP62234358A JP23435887A JP2583074B2 JP 2583074 B2 JP2583074 B2 JP 2583074B2 JP 62234358 A JP62234358 A JP 62234358A JP 23435887 A JP23435887 A JP 23435887A JP 2583074 B2 JP2583074 B2 JP 2583074B2
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- cluster
- clusters
- patterns
- initial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Description
【発明の詳細な説明】 「産業上の利用分野」 この発明は規則合成による音声合成方法に関する。
「従来の技術」 従来、規則音声合成の合成単位としてはVCV,CV,CVC
(Cは子音を、Vは母音を表わす)などが用いられ、そ
の種類、数に関しては日本語に関する先見的音素知識に
基づき経験的に決定されており、音声の物理的特徴パラ
メータ自身の性質に直接基づいたものではなかった。
(Cは子音を、Vは母音を表わす)などが用いられ、そ
の種類、数に関しては日本語に関する先見的音素知識に
基づき経験的に決定されており、音声の物理的特徴パラ
メータ自身の性質に直接基づいたものではなかった。
また合成単位は、VCV,CV,CVCなどの音素連鎖を単独ま
たは無意味単語内に埋め込んだ形で発生された音声から
切り出して作成されており、自然な発話状況とはかなり
異なっていた。この合成単位の切り出し作業における境
界位置の設定は、音声合成時の合成単位接続の際の内挿
方式、スムージング法とも係わっており、微妙かつ多大
の時間、労力を要していた。
たは無意味単語内に埋め込んだ形で発生された音声から
切り出して作成されており、自然な発話状況とはかなり
異なっていた。この合成単位の切り出し作業における境
界位置の設定は、音声合成時の合成単位接続の際の内挿
方式、スムージング法とも係わっており、微妙かつ多大
の時間、労力を要していた。
「問題点を解決するための手段」 この発明によれば音素名やその他の複数の音素環境と
ラベルを多数の音素パターンに付与し、そのラベルが付
与された音素パターンを、音素パターン間の距離尺度に
基づいて同一音素名ラベルの集合として初期クラスタに
分割し、かつその各初期クラスタに初期環境ラベルを付
与する第1過程と、これら分割された初期クラスタ中の
クラスタ評価値の最大なる初期クラスタを探索する第2
過程と、第2過程で探索した初期クラスタの音素パター
ンを音素パターン間の距離尺度に基づいて、他の音素環
境のラベルの集合として複数の第2クラスタに分割し、
これら第2クラスタにその分割に用いた音素環境のラベ
ルを追加付与する第3過程と、それまでに得られている
全てのクラスタを初期クラスタとして、上記第2過程と
上記第3過程を上記第2過程のクラスタ評価値が所定値
以下になるなど予め決めた条件になるまで繰り返す第4
過程とにより、上記多数の音素パターンを複数個の音素
環境ラベルが付けられたクラスタに分類し、 その各クラスタのセントロイドパターンを求め、 そのセントロイドパターンによって得られた音素パタ
ーンを記憶し、入力音声記号列に基づいて上記クラスタ
毎のセントロイドパターンの中から対応する音素環境を
含むクラスタのセントロイドパターンを読み出して連結
し、音声合成を行う。
ラベルを多数の音素パターンに付与し、そのラベルが付
与された音素パターンを、音素パターン間の距離尺度に
基づいて同一音素名ラベルの集合として初期クラスタに
分割し、かつその各初期クラスタに初期環境ラベルを付
与する第1過程と、これら分割された初期クラスタ中の
クラスタ評価値の最大なる初期クラスタを探索する第2
過程と、第2過程で探索した初期クラスタの音素パター
ンを音素パターン間の距離尺度に基づいて、他の音素環
境のラベルの集合として複数の第2クラスタに分割し、
これら第2クラスタにその分割に用いた音素環境のラベ
ルを追加付与する第3過程と、それまでに得られている
全てのクラスタを初期クラスタとして、上記第2過程と
上記第3過程を上記第2過程のクラスタ評価値が所定値
以下になるなど予め決めた条件になるまで繰り返す第4
過程とにより、上記多数の音素パターンを複数個の音素
環境ラベルが付けられたクラスタに分類し、 その各クラスタのセントロイドパターンを求め、 そのセントロイドパターンによって得られた音素パタ
ーンを記憶し、入力音声記号列に基づいて上記クラスタ
毎のセントロイドパターンの中から対応する音素環境を
含むクラスタのセントロイドパターンを読み出して連結
し、音声合成を行う。
上記クラスタ分類は文節、単語境界などの構文的環境
や先行、後続音素環境との対応を採りながら行う。
や先行、後続音素環境との対応を採りながら行う。
実音声中の各音素は、常に一定したパターンではな
く、その音素環境によってさまざまな変形を受けてい
る。音素環境とは当該音素にとって環境となる要因すべ
ての組合せであり、その要因としては、その音素名を初
めとして、先行音素、先々行音素、後続音素、後々続音
素、ピッチ周波数、パワ、ストレスの有無、アクセント
核からの位置、息継ぎからの時間、発声速度、感情など
が考えられる。例えば|aoa|と発声した時の|o|,|uou|と
発声した時の|o|,|ioi|と発声した時の|o|は互になにが
しか異なる。この場合の音素変形は同じ当該音素に対し
て先行、後続音素が異なっている場合である。
く、その音素環境によってさまざまな変形を受けてい
る。音素環境とは当該音素にとって環境となる要因すべ
ての組合せであり、その要因としては、その音素名を初
めとして、先行音素、先々行音素、後続音素、後々続音
素、ピッチ周波数、パワ、ストレスの有無、アクセント
核からの位置、息継ぎからの時間、発声速度、感情など
が考えられる。例えば|aoa|と発声した時の|o|,|uou|と
発声した時の|o|,|ioi|と発声した時の|o|は互になにが
しか異なる。この場合の音素変形は同じ当該音素に対し
て先行、後続音素が異なっている場合である。
音素変形という現象は単純な統計的変動ではなく、こ
れら音素環境に依存する割合の多い、再現性の高い現象
と考えられる。この考え方がこの発明の主要な観点の一
つである。
れら音素環境に依存する割合の多い、再現性の高い現象
と考えられる。この考え方がこの発明の主要な観点の一
つである。
もし大量の音声を観察できるならば、すべての音素の
変形と音素環境との関係を調べることができる。しかし
その数は膨大なものとなる。実用に際しては変形された
音素も含めて対象言語に現われる音素パターンを例えば
1000種類に限定した時、どの様に音素環境を分け、どの
様に音素環境同士を一つにまとめるかを、この発明では
クラスタ化の手法により行う。これは音声素片のクラス
タ化とはやや異なるものであり、音素環境が付与された
パターンの集合をもとに音素環境をクラスタ化するもの
である。
変形と音素環境との関係を調べることができる。しかし
その数は膨大なものとなる。実用に際しては変形された
音素も含めて対象言語に現われる音素パターンを例えば
1000種類に限定した時、どの様に音素環境を分け、どの
様に音素環境同士を一つにまとめるかを、この発明では
クラスタ化の手法により行う。これは音声素片のクラス
タ化とはやや異なるものであり、音素環境が付与された
パターンの集合をもとに音素環境をクラスタ化するもの
である。
考慮すべき音素環境要因には、既に述べたように当該
音素名、先行音素名、後続音素名などが考えられるが、
これらに加えて要求される音声品質に応じて先々行音
素、後々続音素、ピッチ周波数、パワ、ストレスの有
無、アクセント核からの位置、息継ぎからの時間、発声
速度、感情などを要因に含めれば良い。また複数の発声
者を用いて「発生者」を要因に加えれば、複数話者の音
声合成が可能になる。環境要因の数をMとする。
音素名、先行音素名、後続音素名などが考えられるが、
これらに加えて要求される音声品質に応じて先々行音
素、後々続音素、ピッチ周波数、パワ、ストレスの有
無、アクセント核からの位置、息継ぎからの時間、発声
速度、感情などを要因に含めれば良い。また複数の発声
者を用いて「発生者」を要因に加えれば、複数話者の音
声合成が可能になる。環境要因の数をMとする。
音声収録とラベル付け(準備) 一人の話者言語(たとえば日本語関東方言)の十分な
かつ偏りのない発声リストあるいはテキストにより音声
を発声し、それを収録する。この音声データについて波
形表示やスペクトル表示などを使用しながら、その中に
含まれているすべての音素について音素環境を決め、音
素ラベル及び音素環境ラベルを付与する。こうしてN個
の音素パターンが得られる。
かつ偏りのない発声リストあるいはテキストにより音声
を発声し、それを収録する。この音声データについて波
形表示やスペクトル表示などを使用しながら、その中に
含まれているすべての音素について音素環境を決め、音
素ラベル及び音素環境ラベルを付与する。こうしてN個
の音素パターンが得られる。
クラスタ化(学習ステージ) ラベル付けされたN個の全音素区間(素片)に対し
て、M種の音素環境要因に関するクラスタ化を行う。ク
ラスタとは音素パターンの集合であり、音声パターンと
は音素に対応する音声パラメータベクトルの時系列で、
通常扱いが簡単なために時間は正規化したものである。
即ち音素パターンは一定の次数(例えば16×10)の行列
の形で表現される。学習に用いる音声データは、音素パ
ターンの集合である。音声パラメータとしてはLSPパラ
メータやPARCORパラメータなどを用いることができる。
て、M種の音素環境要因に関するクラスタ化を行う。ク
ラスタとは音素パターンの集合であり、音声パターンと
は音素に対応する音声パラメータベクトルの時系列で、
通常扱いが簡単なために時間は正規化したものである。
即ち音素パターンは一定の次数(例えば16×10)の行列
の形で表現される。学習に用いる音声データは、音素パ
ターンの集合である。音声パラメータとしてはLSPパラ
メータやPARCORパラメータなどを用いることができる。
全素片(音素パターン)の作る多次元空間を、各クラ
スタがなるべく同程度の大きさになる様に空間の分割を
行い、つまり音素パターンの集合を部分集合に分割し、
各クラスタの代表点(セントロイド、ここでは平均素片
と呼ぶ)を決めて記憶、蓄積する。セントロイドはその
クラスタに属する全ての音素パターンからの距離の総和
が最も小さいパターンであり、距離がユークリット距離
であるならば単に全音素パターンに対する距離の算術平
均を取ればよい。パターン間距離は一対の音素パターン
の間に定義される量で、音素パターン同士の、遠さを表
わし、実際には厳密に距離の公理を満たしていなくても
良く、通常は、音素パターンの対応する行列要素同士の
差の自乗和をとるユークリット距離がよく用いられる。
スタがなるべく同程度の大きさになる様に空間の分割を
行い、つまり音素パターンの集合を部分集合に分割し、
各クラスタの代表点(セントロイド、ここでは平均素片
と呼ぶ)を決めて記憶、蓄積する。セントロイドはその
クラスタに属する全ての音素パターンからの距離の総和
が最も小さいパターンであり、距離がユークリット距離
であるならば単に全音素パターンに対する距離の算術平
均を取ればよい。パターン間距離は一対の音素パターン
の間に定義される量で、音素パターン同士の、遠さを表
わし、実際には厳密に距離の公理を満たしていなくても
良く、通常は、音素パターンの対応する行列要素同士の
差の自乗和をとるユークリット距離がよく用いられる。
音声合成(合成ステージ) 入力された音素記号列や韻律情報などに対応する音素
環境の平均素片を読み出し、それらを連結し、韻律を与
えて音声波形を生成して出力する。つまり入力音素記号
列はまず音素環境列に変換される。例えば先行、中心、
後続音素名の3種の音素環境要因のみを考慮する。入力
音素列が|ochanomizu|(お茶の水)であるとすれば、こ
れは3つの音素環境要因組合せ(先行音素名、中心音素
名、後続音素内)の列(−,o,ch),(o,ch,a),(ch,
a,n),(a,n,o),(n,o,m),(o,m,i),(m,i,
z),(i,z,u),(z,u,−)に変換される(−は無音を
意味する)。ここで例えば(ch,a,n)は音素|ch|と|n|
とに挟まれた|a|を意味している。このようにして得ら
れた各音素環境組合せに対応するクラスタの平均素片を
それぞれ読み出し、それらを連結することにより音韻特
徴パラメータ系列が生成される。この際、連結されるパ
ターンが時間正規化されているものならば、元の時間に
戻す。これに指定された韻律制御情報、例えばアクセン
ト位置、イントネーション、ポージ長、息継ぎ位置など
に基づいて、各フレームごとのピッチ周波数制御と、文
節間の間隙時間長などを決めて音声波形を生成する。音
声変形の生成にはLSP音声合成法あるいはPARCOR音声合
成法などを利用することができる。
環境の平均素片を読み出し、それらを連結し、韻律を与
えて音声波形を生成して出力する。つまり入力音素記号
列はまず音素環境列に変換される。例えば先行、中心、
後続音素名の3種の音素環境要因のみを考慮する。入力
音素列が|ochanomizu|(お茶の水)であるとすれば、こ
れは3つの音素環境要因組合せ(先行音素名、中心音素
名、後続音素内)の列(−,o,ch),(o,ch,a),(ch,
a,n),(a,n,o),(n,o,m),(o,m,i),(m,i,
z),(i,z,u),(z,u,−)に変換される(−は無音を
意味する)。ここで例えば(ch,a,n)は音素|ch|と|n|
とに挟まれた|a|を意味している。このようにして得ら
れた各音素環境組合せに対応するクラスタの平均素片を
それぞれ読み出し、それらを連結することにより音韻特
徴パラメータ系列が生成される。この際、連結されるパ
ターンが時間正規化されているものならば、元の時間に
戻す。これに指定された韻律制御情報、例えばアクセン
ト位置、イントネーション、ポージ長、息継ぎ位置など
に基づいて、各フレームごとのピッチ周波数制御と、文
節間の間隙時間長などを決めて音声波形を生成する。音
声変形の生成にはLSP音声合成法あるいはPARCOR音声合
成法などを利用することができる。
「実施例」 この発明の実施例を第1図を用いて説明する。まず、
合成単位学習系(学習ステージ)1では、合成単位学習
用音声の特徴パラメータ系列及び系列中の音韻区分を示
す音韻区分データが合成単位学習用データ入力部3に入
力され、合成単位生成部4に出力される。合成単位生成
部4は、特徴パラメータ系列及び音韻区分データを元
に、文節・単語境界等の構文的環境や先行・後続音素環
境との対応を取りながらクラスタの歪等の統計的評価尺
度に元づきクラスタリング(クラスタの分割)を行い、
最終的に得られた各クラスタのセントロイド(平均素
片)を合成単位音素情報蓄積部6に書き込み、これと対
応する各クラスタの構文的環境・先行・後続音素環境に
関する情報(以後これを音韻環境ラベルと呼ぶ)を合成
単位音素環境蓄積部5に書き込む。
合成単位学習系(学習ステージ)1では、合成単位学習
用音声の特徴パラメータ系列及び系列中の音韻区分を示
す音韻区分データが合成単位学習用データ入力部3に入
力され、合成単位生成部4に出力される。合成単位生成
部4は、特徴パラメータ系列及び音韻区分データを元
に、文節・単語境界等の構文的環境や先行・後続音素環
境との対応を取りながらクラスタの歪等の統計的評価尺
度に元づきクラスタリング(クラスタの分割)を行い、
最終的に得られた各クラスタのセントロイド(平均素
片)を合成単位音素情報蓄積部6に書き込み、これと対
応する各クラスタの構文的環境・先行・後続音素環境に
関する情報(以後これを音韻環境ラベルと呼ぶ)を合成
単位音素環境蓄積部5に書き込む。
規制合成系(合成ステージ)2では、主制御部7に合
成すべき音声の音素記号列、及び声の高さに相当するピ
ッチ周波数パターンが入力され、駆動音減生成処理部8
にピッチ周波数パターンを、合成単位選択処理部9に音
素記号列を各々引き渡す。合成単位選択処理部9は入力
された音素記号系列と最も適合する音素環境ラベルを有
する合成単位を合成単位音素環境蓄積部5から検索し、
この合成単位系列の音素パラメータ(平均素片)を合成
単位音素情報蓄積部6から読みだして、これを合成単位
結合処理部10で結合して音素特徴パラメータ系列を生成
し、音声合成部11へ出力し、また有声/無声情報を駆動
音減生成処理部8に引き渡す。駆動音減生成処理部8
は、主制御部7から入力されたピッチ周波数パターンと
合成単位結合処理部10から入力された有声/無声情報か
ら、有声部はピッチ周波数のインパルス系列を、無声部
は白色雑音による駆動音減波を生成し音声合成部11へ送
出する、音声合成部11は合成単位結合処理部10より出力
された特徴パラメータ系列をデジタルフィルタとし駆動
音源波を入力し、生成されたデジタル音声波をD/A変換
器12に通し、アナログ音声波形に変換して有効帯域の低
域ろは器を通した後スピーカ13によって出力される。
成すべき音声の音素記号列、及び声の高さに相当するピ
ッチ周波数パターンが入力され、駆動音減生成処理部8
にピッチ周波数パターンを、合成単位選択処理部9に音
素記号列を各々引き渡す。合成単位選択処理部9は入力
された音素記号系列と最も適合する音素環境ラベルを有
する合成単位を合成単位音素環境蓄積部5から検索し、
この合成単位系列の音素パラメータ(平均素片)を合成
単位音素情報蓄積部6から読みだして、これを合成単位
結合処理部10で結合して音素特徴パラメータ系列を生成
し、音声合成部11へ出力し、また有声/無声情報を駆動
音減生成処理部8に引き渡す。駆動音減生成処理部8
は、主制御部7から入力されたピッチ周波数パターンと
合成単位結合処理部10から入力された有声/無声情報か
ら、有声部はピッチ周波数のインパルス系列を、無声部
は白色雑音による駆動音減波を生成し音声合成部11へ送
出する、音声合成部11は合成単位結合処理部10より出力
された特徴パラメータ系列をデジタルフィルタとし駆動
音源波を入力し、生成されたデジタル音声波をD/A変換
器12に通し、アナログ音声波形に変換して有効帯域の低
域ろは器を通した後スピーカ13によって出力される。
第2図は、合成単位生成部4の処理の1つの実施例を
示している。まず、停止条件の設定21において、合成単
位総数の許容最大値や、全クラスタのクラスタ評価値の
しきい値、更に各クラスタに存するセグメントパタン数
の最小値などの停止条件を設定する。次に、初期スラス
タ設定22では、音素区分化された自然音声の特徴パラメ
ータ系列上で、同一音素区分となったセグメントパター
ンの集合を1つのクラスタとする初期クラスタを設定す
る。この時、クラスタ毎に定義されるクラスタ評価値を
計算する。通常はクラスタ評価値として、クラスタの歪
や、これを平均継続時間長で正規化した値などが用いら
れる。また、各クラスタの音素環境ラベルとして、先行
・後続音素などを何も限定しないという初期値を付与す
る。分割クラスタ探索23では、クラスタ評価値の最大と
なるクラスタを探索し、次に分割を行うクラスタとす
る。クラスタ分割24では、選択されたクラスタの音素環
境ラベルに、更に限定された音素環境を設定することに
よりクラスタを分割する。(例えば、先行音韻のみ限定
されている音素環境ラベルの場合、新たに後続音素や先
々音素などを限定することによって、クラスタ分割が行
える)この際、限定する音素環境は、可能なものの中で
最もクラスタ評価値を減少させる組合せを採択する。停
止条件25では、全クラスタの評価値平均値や総クラスタ
数などをチェックし、条件が満たされれば終了停止、そ
うでない限り分割クラスタの探索23に戻る。
示している。まず、停止条件の設定21において、合成単
位総数の許容最大値や、全クラスタのクラスタ評価値の
しきい値、更に各クラスタに存するセグメントパタン数
の最小値などの停止条件を設定する。次に、初期スラス
タ設定22では、音素区分化された自然音声の特徴パラメ
ータ系列上で、同一音素区分となったセグメントパター
ンの集合を1つのクラスタとする初期クラスタを設定す
る。この時、クラスタ毎に定義されるクラスタ評価値を
計算する。通常はクラスタ評価値として、クラスタの歪
や、これを平均継続時間長で正規化した値などが用いら
れる。また、各クラスタの音素環境ラベルとして、先行
・後続音素などを何も限定しないという初期値を付与す
る。分割クラスタ探索23では、クラスタ評価値の最大と
なるクラスタを探索し、次に分割を行うクラスタとす
る。クラスタ分割24では、選択されたクラスタの音素環
境ラベルに、更に限定された音素環境を設定することに
よりクラスタを分割する。(例えば、先行音韻のみ限定
されている音素環境ラベルの場合、新たに後続音素や先
々音素などを限定することによって、クラスタ分割が行
える)この際、限定する音素環境は、可能なものの中で
最もクラスタ評価値を減少させる組合せを採択する。停
止条件25では、全クラスタの評価値平均値や総クラスタ
数などをチェックし、条件が満たされれば終了停止、そ
うでない限り分割クラスタの探索23に戻る。
「発明の効果」 以上述べたこの発明の音声合成方法によれば、次の効
果が得られる。
果が得られる。
音素環境を考慮した音素単位の音声合成なので実音声
そのままの音素変形(調音結合)を含み、滑らかな連結
ができ、音素の継続時間は自然のままでよく、扱い易
く、しかも合成音声は自然性に優れている。
そのままの音素変形(調音結合)を含み、滑らかな連結
ができ、音素の継続時間は自然のままでよく、扱い易
く、しかも合成音声は自然性に優れている。
ラベル付けされた通常音声があれば、必要な音素パタ
ーンを自動的に選択しかつ平均化をすることができる。
ーンを自動的に選択しかつ平均化をすることができる。
音声合成単位の個数(クラスタ数に等しい)を設定す
れば、その個数の最適な単位のセットが得られる。
れば、その個数の最適な単位のセットが得られる。
言語的・音韻論的・音声学的な専門知識は不要であ
る。
る。
第1図はこの発明による音声合成方法の実施例を示すブ
ロック図、第2図は第1図中の合成単位生成部4の処理
例を示す流れ図である。
ロック図、第2図は第1図中の合成単位生成部4の処理
例を示す流れ図である。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭61−215599(JP,A) 特開 昭59−148094(JP,A) 特開 昭61−296396(JP,A)
Claims (1)
- 【請求項1】音素名及びその他の複数の音素環境のラベ
ルを多数の音素パターンに付与し、そのラベルが付与さ
れた音素パターンを、音素パターン間の距離尺度に基づ
いて同一音素名ラベルの集合として初期クラスタに分割
し、かつその各初期クラスタに初期環境ラベルを付与す
る第1過程と、これら分割された初期クラスタ中のクラ
スタ評価値の最大なる初期クラスタを探索する第2過程
と、第2過程で探索した初期クラスタの音素パターンを
音素パターン間の距離尺度に基づいて、他の音素環境の
ラベルの集合として複数の第2クラスタに分割し、これ
ら第2クラスタにその分割に用いた音素環境のラベルを
追加付与する第3過程と、それまでに得られている全て
のクラスタを初期クラスタとして、上記第2過程と上記
第3過程を上記第2過程のクラスタ評価値が所定値以下
になるなど予め決めた条件になるまで繰り返す第4過程
とにより、上記多数の音素パターンを複数個の音素環境
ラベルが付けられたクラスタに分類し、 その各クラスタのセントロイドパターンを求め、 そのセントロイドパターンによって得られた音素パター
ンを記憶し、 入力音素記号列に基づいて上記クラスタごとのセントロ
イドパターンの中から対応する音素環境を含むクラスタ
のセントロイドパターンを読み出して、連結し音声合成
を行う音声合成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62234358A JP2583074B2 (ja) | 1987-09-18 | 1987-09-18 | 音声合成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP62234358A JP2583074B2 (ja) | 1987-09-18 | 1987-09-18 | 音声合成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6478300A JPS6478300A (en) | 1989-03-23 |
JP2583074B2 true JP2583074B2 (ja) | 1997-02-19 |
Family
ID=16969753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP62234358A Expired - Lifetime JP2583074B2 (ja) | 1987-09-18 | 1987-09-18 | 音声合成方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2583074B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7603278B2 (en) | 2004-09-15 | 2009-10-13 | Canon Kabushiki Kaisha | Segment set creating method and apparatus |
US7668717B2 (en) | 2003-11-28 | 2010-02-23 | Kabushiki Kaisha Toshiba | Speech synthesis method, speech synthesis system, and speech synthesis program |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4225128B2 (ja) | 2003-06-13 | 2009-02-18 | ソニー株式会社 | 規則音声合成装置及び規則音声合成方法 |
WO2012164835A1 (ja) * | 2011-05-30 | 2012-12-06 | 日本電気株式会社 | 韻律生成装置、音声合成装置、韻律生成方法および韻律生成プログラム |
JP6121273B2 (ja) * | 2013-07-10 | 2017-04-26 | 日本電信電話株式会社 | 音声合成用モデル学習装置と音声合成装置と、それらの方法とプログラム |
GB2517503B (en) | 2013-08-23 | 2016-12-28 | Toshiba Res Europe Ltd | A speech processing system and method |
CN110567322B (zh) * | 2019-07-09 | 2022-05-17 | 中国人民解放军63926部队 | 伪装网网面变形挂件及使用方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59148094A (ja) * | 1983-02-14 | 1984-08-24 | 松下電器産業株式会社 | 音声合成装置 |
JP2605256B2 (ja) * | 1985-03-20 | 1997-04-30 | 日本電気株式会社 | Lspパタンマツチングボコーダ |
JPH0632019B2 (ja) * | 1985-06-25 | 1994-04-27 | 松下電工株式会社 | 音声コ−ド作成方法 |
-
1987
- 1987-09-18 JP JP62234358A patent/JP2583074B2/ja not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7668717B2 (en) | 2003-11-28 | 2010-02-23 | Kabushiki Kaisha Toshiba | Speech synthesis method, speech synthesis system, and speech synthesis program |
US7856357B2 (en) | 2003-11-28 | 2010-12-21 | Kabushiki Kaisha Toshiba | Speech synthesis method, speech synthesis system, and speech synthesis program |
US7603278B2 (en) | 2004-09-15 | 2009-10-13 | Canon Kabushiki Kaisha | Segment set creating method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
JPS6478300A (en) | 1989-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240029710A1 (en) | Method and System for a Parametric Speech Synthesis | |
US8224645B2 (en) | Method and system for preselection of suitable units for concatenative speech | |
JP4302788B2 (ja) | 音声合成用の基本周波数テンプレートを収容する韻律データベース | |
EP1138038B1 (en) | Speech synthesis using concatenation of speech waveforms | |
US7869999B2 (en) | Systems and methods for selecting from multiple phonectic transcriptions for text-to-speech synthesis | |
JP4328698B2 (ja) | 素片セット作成方法および装置 | |
US20200410981A1 (en) | Text-to-speech (tts) processing | |
US20050209855A1 (en) | Speech signal processing apparatus and method, and storage medium | |
US11763797B2 (en) | Text-to-speech (TTS) processing | |
US10699695B1 (en) | Text-to-speech (TTS) processing | |
JPH1039895A (ja) | 音声合成方法および装置 | |
JP2583074B2 (ja) | 音声合成方法 | |
JP3281266B2 (ja) | 音声合成方法及び装置 | |
JP3109778B2 (ja) | 音声規則合成装置 | |
US6847932B1 (en) | Speech synthesis device handling phoneme units of extended CV | |
JP3281281B2 (ja) | 音声合成方法及び装置 | |
Chen et al. | A first study on neural net based generation of prosodic and spectral information for Mandarin text-to-speech | |
JPH08335096A (ja) | テキスト音声合成装置 | |
EP1589524B1 (en) | Method and device for speech synthesis | |
EP1640968A1 (en) | Method and device for speech synthesis | |
JP3275940B2 (ja) | 音声合成用合成単位作成方法 | |
Chemeda | Hidden Markov Model Based Text to Speech Synthesis for Afan Oromo | |
EP1501075B1 (en) | Speech synthesis using concatenation of speech waveforms | |
EP1638080B1 (en) | A text-to-speech system and method | |
Hojjatkhah et al. | Segmentation Words for Speech Synthesis in Persian Language Based On Silence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EXPY | Cancellation because of completion of term |