JPH07104791A - 声質制御型音声合成装置 - Google Patents

声質制御型音声合成装置

Info

Publication number
JPH07104791A
JPH07104791A JP5247828A JP24782893A JPH07104791A JP H07104791 A JPH07104791 A JP H07104791A JP 5247828 A JP5247828 A JP 5247828A JP 24782893 A JP24782893 A JP 24782893A JP H07104791 A JPH07104791 A JP H07104791A
Authority
JP
Japan
Prior art keywords
voice
data
interpolation
quality control
control type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5247828A
Other languages
English (en)
Other versions
JP2951514B2 (ja
Inventor
Naoto Iwahashi
直人 岩橋
Yoshinori Kosaka
芳典 匂坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Original Assignee
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK, ATR Interpreting Telecommunications Research Laboratories filed Critical ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Priority to JP5247828A priority Critical patent/JP2951514B2/ja
Publication of JPH07104791A publication Critical patent/JPH07104791A/ja
Application granted granted Critical
Publication of JP2951514B2 publication Critical patent/JP2951514B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 従来例に比較して非常に簡単な構成を有し、
しかもより高い自由度を有して入力された音声に対して
声質制御した後の音声を合成することができる音声合成
装置を提供する。 【構成】 複数の話者の音声スペクトルのデータを予め
記憶する記憶装置と、記憶装置から複数の話者の音声ス
ペクトルのデータを読み出し、所定の補間比率を用いて
上記複数の話者の音声スペクトルのデータに対して内挿
処理を実行して所定の声質を有する音声スペクトルのデ
ータを出力する処理回路と、処理回路から出力される音
声スペクトルのデータに基づいて音声を合成して出力す
る音声合成回路とを備える。さらに、ターゲット話者の
音声に基づいて音声スペクトルのデータを抽出し、抽出
された音声スペクトルのデータが処理回路から出力され
る音声スペクトルのデータに近似するように補間比率を
演算して設定する演算回路とを備える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、声質を制御して音声合
成することができる声質制御型音声合成装置に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】男性の
声から女性の声に又は女性の声から男性の声に変換する
方法(以下、第1の従来例という。)が、例えば、箱田
和雄,“極制御による男女声変換法の検討”,日本音響
学会講演論文集,2−6−13,pp213−214,
昭和62年10月に開示されている。この第1の従来例
においては、LPC分析で得られる極周波数を用いて、
母音情報の代わりに極周波数値を用いて極の変換を行う
とともに、変換に伴うスペクトルの傾きの変動を2次の
フィルタを用いて吸収する方法を提案している。しかし
ながら、男性の声から女性の声に又は女性の声から男性
の声への変換のみで、例えば男性から男性への変換で、
異なる個人性を有する音声を発生することはできない。
【0003】また、アナウンサーなどの明瞭は音声の物
理的特性の1つとして、ホルマント周波数のダイナミッ
クな変動に着目し、特に声の明瞭性を改善するために、
ホルマント周波数の時間変化を制御する方法(以下、第
2の従来例という。)が、例えば、都木徹,桑原尚夫,
“ホルマント変化の強調・抑圧による声質制御”,日本
音響学会講演論文集,1−4−12,pp145−14
6,昭和61年10月に開示されている。この第2の従
来例は、次のステップを有する。 (a)所定の標本化周波数でD/A変換した音声信号
を、所定のフレーム幅、フレーム周期、及び男女で異な
る分析次数で線形予測分析し、予測係数との残差を計算
する。 (b)各フレーム毎に予測係数からホルマント周波数を
算出し、従来の粕谷の方法(“線形予測分析法で得られ
る極周波数からのホルマント周波数選択アルゴリズ
ム”,電子通信学会論文誌,Vol.J66−A,N
o.11,pp.1144−1145,1983年11
月参照。)により、母音部の第1乃至第3ホルマントの
軌跡を求める。 (c)得られたホルマント軌跡に対して、ある音声のホ
ルマント周波数の時間変化を示す所定の式に適用し、各
フレーム毎に新たなホルマント軌跡を求め、その値から
合成に用いる予測係数を算出する。なお、ここで、第4
以上のホルマント及び無声音部、有声子音部は変更しな
い。 (d)新たな予測係数と最初に求めた残差から合成音を
発生する。 この第2の従来例においては、ホルマント周波数のダイ
ナミックスを強調又は抑制するのみなので、声の明瞭性
を改善することはできるが、第1の従来例と同様に、異
なる個人性を有する音声を発生することはできず、声質
制御の自由度が小さいという問題点があった。
【0004】さらに、ある特定話者からターゲット話者
への声質の変換方法(以下、第3の従来例という。)
が、M.Abe et al.,“Voice Conversion through vector
quantization",Proc.ICASSP'88,pp.655-658,1988年に
開示されている。この第3の従来例においては、いわゆ
るコードベクトル・マッピング手法に基づいて特徴パラ
メータのベクトル量を制御し、これらのマッピングは音
声スペクトルに対する適切な拘束なしに学習データから
計算されていたために、ターゲット話者への適切なマッ
ピング関数を求めるときに、ターゲット話者による大量
の発声データを必要とし、極めて大きな記憶装置を設け
る必要があるという問題点があった。
【0005】本発明の目的は以上の問題点を解決し、従
来例に比較して非常に簡単な構成を有し、しかもより高
い自由度を有して声質制御して音声合成することができ
る音声合成装置を提供することにある。
【0006】
【課題を解決するための手段】本発明に係る請求項1記
載の声質制御型音声合成装置は、複数の話者の音声スペ
クトルのデータを予め記憶する記憶手段と、上記記憶手
段から複数の話者の音声スペクトルのデータを読み出
し、所定の補間比率を用いて上記複数の話者の音声スペ
クトルのデータに対して内挿処理を実行して所定の声質
を有する音声スペクトルのデータを出力する処理手段
と、上記処理手段から出力される音声スペクトルのデー
タに基づいて音声を合成して出力する音声合成手段とを
備えたことを特徴とする。
【0007】また、請求項2記載の声質制御型音声合成
装置は、請求項1記載の声質制御型音声合成装置におい
て、さらに、ターゲット話者の音声に基づいて音声スペ
クトルのデータを抽出する特徴抽出手段と、上記特徴抽
出手段によって抽出された音声スペクトルのデータが上
記処理手段から出力される音声スペクトルのデータに近
似するように上記補間比率を演算して上記処理手段に設
定する演算手段とを備えたことを特徴とする。
【0008】さらに、請求項3記載の声質制御型音声合
成装置は、請求項1記載の声質制御型音声合成装置にお
いて、さらに、上記補間比率を入力して上記処理手段に
設定する入力手段を備えたことを特徴とする。
【0009】またさらに、請求項4記載の声質制御型音
声合成装置は、請求項1、2又は3記載の声質制御型音
声合成装置において、上記音声スペクトルのデータは、
ケプストラム係数又は対数面積比であることを特徴とす
る。
【0010】
【作用】音声スペクトルを変更することにより、声質を
制御するためには、音声のスペクトル構造及びそのダイ
ナミックスに存在するある種の特徴を適切にモデル化
し、そのモデル化に基づいたスペクトルの制御を行うこ
とが望ましいと考えられる。しかしながら、音声スペク
トルのモデル化を直接に、声門運動や声道形状に基づい
て行った音声合成方式では、ホルマント合成で人手によ
る精密な制御を行った数例を除き、自動的な手段を用い
て高品質な合成音を発声させることはできていない。そ
こで、本発明者は、このような物理的モデルを直接的に
用いる代わりに複数の人数の音声スペクトルそのものを
ノン・パラメトリックな音声スペクトルモデルとみな
し、これをスペクトル制御の拘束条件として用いること
を考えた。新しい音声スペクトルは、以下に詳細後述す
るように、複数の人数の音声スペクトルを線形に内挿す
ることで求める。
【0011】請求項1記載の声質制御型音声合成装置に
おいては、上記処理手段は、上記記憶手段から複数の話
者の音声スペクトルのデータを読み出し、所定の補間比
率を用いて上記複数の話者の音声スペクトルのデータに
対して内挿処理を実行して所定の声質を有する音声スペ
クトルのデータを出力し、次いで、上記音声合成手段
は、上記処理手段から出力される音声スペクトルのデー
タに基づいて音声を合成して出力する。
【0012】また、請求項2記載の声質制御型音声合成
装置においては、請求項1記載の声質制御型音声合成装
置において、さらに、上記特徴抽出手段は、ターゲット
話者の音声に基づいて音声スペクトルのデータを抽出
し、上記演算手段は、上記特徴抽出手段によって抽出さ
れた音声スペクトルのデータが上記処理手段から出力さ
れる音声スペクトルのデータに近似するように上記補間
比率を演算して上記処理手段に設定する。これによっ
て、上記ターゲット話者の音声に近似した音声を上記音
声合成手段によって合成することができる。
【0013】さらに、請求項3記載の声質制御型音声合
成装置においては、請求項1記載の声質制御型音声合成
装置において、さらに、上記入力手段は、上記補間比率
を入力して上記処理手段に設定する。従って、上記補間
比率を変更して種々の声質を有する音声を上記音声合成
手段によって発声させることができる。
【0014】またさらに、請求項4記載の声質制御型音
声合成装置においては、請求項1、2又は3記載の声質
制御型音声合成装置において、上記音声スペクトルのデ
ータは、好ましくは、ケプストラム係数又は対数面積比
である。
【0015】
【実施例】以下、図面を参照して本発明に係る実施例に
ついて説明する。図1は本発明に係る一実施例である声
質制御型音声合成装置のブロック図である。
【0016】本実施例の音声合成装置は、複数の人数の
音声スペクトルを線形に内挿する処理のために、予め音
声情報メモリ10−1乃至10−Mにそれぞれ複数M人
の話者の音声スペクトルのデータを格納し、ターゲット
話者の音声を入力してその音声に近似するように、上記
複数M人の話者の音声スペクトルを内挿混合することに
より、上記ターゲット話者の音声の声質に近い音声を発
声させる一方、上記内挿比率を変更することによって所
定の異なる声質を有する音声を発声させることを特徴と
している。ここで、内挿するためのスペクトル・パラメ
ータとして、比較的良好な補間特性を有するケプストラ
ム係数又は対数面積比を用い、パラメータの内挿比率を
変更することにより、異なる声質を有する音声を合成し
て出力させる。
【0017】ターゲット話者の発声音声はマイクロホン
1に入力されて音声信号に変換された後、特徴抽出部2
に入力される。一方、音声情報メモリ10−1乃至10
−Mにそれぞれ、複数M人の話者の音声スペクトルのデ
ータを格納されている。ここで、音声スペクトルのデー
タは、音声スペクトルの振幅の時系列データ及び例えば
16次のケプストラム係数の時系列データを含む。
【0018】特徴抽出部2は、入力された音声信号をA
/D変換した後、例えばLPC分析を実行し、対数パワ
ー、16次ケプストラム係数、Δ対数パワー及び16次
Δケプストラム係数を含む34次元の特徴パラメータを
抽出する。抽出された特徴パラメータの時系列はバッフ
ァメモリ3を介して時間正規化部4に入力される。時間
正規化部4は、ターゲット話者の発声音声のスペクトル
と、上記音声情報メモリ10−1乃至10−Mに予め記
憶された複数M人の話者のスペクトルとの時間整合を、
距離尺度としてケプストラム距離を用いてDTW(Dyna
mic time warping)法により実行する。すなわち、ター
ゲット話者の発声音声の例えば単語又は文の時間長さは
人及び時々により変化するので、当該ターゲット話者の
発生音声のスペクトルのデータを、その単語又は文と同
一の単語又は文に関する複数M人の話者の音声スペクト
ルの時間長さと同一となるように時間整合処理(時間正
規化処理)を実行し、処理後のターゲット話者の音声ス
ペクトルのデータは補間比率決定部5に出力される。
【0019】音声情報メモリ10−1乃至10−Mから
読み出される複数M人の音声スペクトルのケプストラム
係数データは補間比率決定部5に出力されるとともに、
乗算器11−1乃至11−Mに出力される。乗算器11
−1乃至11−Mはそれぞれ、入力された各人の音声ス
ペクトルのケプストラム係数データと、補間比率決定部
5から出力される補間比率a1,a2,…,aMとを乗算
して加算器12に出力し、加算器12は入力されるデー
タを加算して、加算結果のデータをパラメータ時系列生
成部6に出力する。すなわち、複数M個の乗算器11−
1乃至11−Mと加算器12とによって音声スペクトル
の内挿処理が実行される。
【0020】補間比率決定部5は、ターゲット話者への
声質適応を行う場合、すなわち音声合成後のターゲット
話者の発声音声に近似させる場合、ターゲット話者のス
ペクトルとスペクトルの内挿により生成したスペクトル
との間の距離が最小になるように内挿比率を決定する。
具体的には、最適な補間比率a1,a2,…,aMを次の
数1で示す関数Fの関数値を最小2乗化法により演算し
て決定する。すなわち、ターゲット話者の発声音声のケ
プストラム係数値と、それに時間的に対応する予め格納
された複数M人の音声スペクトルのケプストラム係数値
との差の二乗が最小になるように、補間比率a1,a2
…,aMを求める。
【0021】
【数1】 ここで、
【数2】 yij=a1・x1ij+a2・x2ij+…+aM・xMij ただし、
【数3】 である。
【0022】ここで、Yijとyijはそれぞれ、ターゲッ
ト話者と内挿により得られるスペクトルの第iフレーム
のj次ケプストラム係数を表わす。xkijは予め音声情
報メモリ10−1乃至10−Mに格納されたk番目の話
者の第iフレームのj次ケプストラム係数を表わす。な
お、音声合成後のターゲット話者の発声音声に近似させ
ず、ターゲット話者とは異なる声質の音声を合成する場
合は、補間比率を適宜変更する。この場合、補間比率
は、操作者がキーボード(図示せず。)を用いて補間比
率決定部5に入力するように構成してもよい。
【0023】上記補間比率決定部5の処理の後に、パラ
メータ時系列生成部6は、加算器12から逐次出力され
る16次のケプストラム係数の時系列を取りまとめて、
内蔵のバッファメモリに格納した後、そのデータを係数
変換部7に出力する。係数変換部7は、入力された16
次のケプストラム係数の時系列データに基づいて、その
データを、公知の方法により、音声合成のためのピッ
チ、有声/無声切り換え、振幅及びフィルタ係数のデー
タに変換して、それぞれパルス発生器21とスイッチS
Wと振幅変更型増幅器23とフィルタ24とに出力す
る。
【0024】音声合成部20は、パルス発生器21と雑
音発生器22とスイッチSWと振幅変更型増幅器23と
フィルタ24とから構成される。パルス発生器21は、
有声音の励振音源であって各ピッチ周期の開始時点で単
位大きさのインパルスを発生して、スイッチSWを介し
て振幅変更型増幅器23に出力する。一方、雑音発生器
22は、無声音の励振音源であって、無相関でかつ一様
分布を有する標準偏差1と平均値0のランダム雑音を発
生して、スイッチSWを介して振幅変更型増幅器23に
出力する。従って、スイッチSWは有声音を発生すると
きパルス発生器21側に切り換える一方、無声音を発生
するときは雑音発生器22側に切り換られる。さらに、
振幅変更型増幅器23は、入力される振幅情報に基づい
て入力される信号の振幅を変更しかつ増幅してフィルタ
24に出力する。そして、フィルタ24は、その伝達関
数に対応するフィルタ係数を入力されるフィルタ係数に
設定し、入力された信号を当該設定されたフィルタ係数
でろ波した後、スピーカ30を介して出力する。
【0025】以上実施例において、音声合成後のターゲ
ット話者の発声音声に近似させる場合、このスピーカ3
0からは、ターゲット話者の発声音声に近似した音声信
号が出力される一方、音声合成後のターゲット話者の発
声音声に近似させず、ターゲット話者とは異なる声質の
音声を合成する場合は、設定された補間比率に対応して
声質制御された音声信号を出力させることができる。な
お、後者の場合においては、ターゲット話者の発生音声
に基づかず、補間比率決定部5以降の回路のみで構成し
てもよい。また、音声情報メモリ10−1乃至10−M
に格納される音声スペクトルのデータは予め時間正規化
処理を実行されていることが好ましい。
【0026】以上の実施例において、スペクトル・パラ
メータとして、ケプストラム係数を用いているが、本発
明はこれに限らず、PARCORパラメータkiから誘
導できる等価パラメータ集合を示す次の数4の対数面積
比パラメータgiを用いてもよい。この場合、補間比率
決定部5は、音声合成後のターゲット話者の発声音声に
近似させるとき、好ましくは、数1を用いて演算した補
間比率を初期値として、さらに、非線形降下法を用いて
ケプストラム距離の低減を行う。
【数4】 gi=log[(1−ki)/(1+ki)],1≦i≦p
【0027】本発明者は、本実施例の装置を用いてシミ
ュレーションを実行して、2話者ので間で補間が良好に
行えるかどうかを調べた。音質に関しては、ケプストラ
ム係数と対数面積比のどちらのパラメータを用いた場合
も比較的良好に補間して内挿することができ、補間比率
を変化することにより声質が一方の話者から他方の話者
に安定に徐々に変化していくことを確認した。
【0028】
【発明の効果】以上詳述したように本発明によれば、複
数の話者の音声スペクトルのデータを予め記憶する記憶
手段と、上記記憶手段から複数の話者の音声スペクトル
のデータを読み出し、所定の補間比率を用いて上記複数
の話者の音声スペクトルのデータに対して内挿処理を実
行して所定の声質を有する音声スペクトルのデータを出
力する処理手段と、上記処理手段から出力される音声ス
ペクトルのデータに基づいて音声を合成して出力する音
声合成手段とを備えたので、従来例に比較してより小さ
い記憶容量を有する記憶装置を用い、より簡単な構成の
回路を用いて、より自由度が高い声質の制御が可能にな
り、より多様な声質を有する音声を合成することができ
る。
【0029】さらに、ターゲット話者の音声に基づいて
音声スペクトルのデータを抽出する特徴抽出手段と、上
記特徴抽出手段によって抽出された音声スペクトルのデ
ータが上記処理手段から出力される音声スペクトルのデ
ータに近似するように上記補間比率を演算して上記処理
手段に設定する演算手段とを備えたので、ターゲット話
者が発声した少量の音声を入力として、声質変換のター
ゲットとする話者の声質を近似する音声を発生すること
ができるという特有の利点がある。
【図面の簡単な説明】
【図1】 本発明に係る一実施例である声質制御型音声
合成装置のブロック図である。
【符号の説明】
1…マイクロホン、 2…特徴抽出部、 3…バッファメモリ、 4…時間正規化部、 5…補間比率決定部、 6…パラメータ時系列生成部、 7…係数変換部、 10−1乃至10−M…音声情報メモリ、 11−1乃至11−M…乗算器、 12…加算器、 20…音声合成部、 21…パルス発生器、 22…雑音発生器、 23…利得変更型増幅器、 24…フィルタ、 30…スピーカ、 SW…スイッチ。

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 複数の話者の音声スペクトルのデータを
    予め記憶する記憶手段と、 上記記憶手段から複数の話者の音声スペクトルのデータ
    を読み出し、所定の補間比率を用いて上記複数の話者の
    音声スペクトルのデータに対して内挿処理を実行して所
    定の声質を有する音声スペクトルのデータを出力する処
    理手段と、 上記処理手段から出力される音声スペクトルのデータに
    基づいて音声を合成して出力する音声合成手段とを備え
    たことを特徴とする声質制御型音声合成装置。
  2. 【請求項2】 声質制御型音声合成装置はさらに、 ターゲット話者の音声に基づいて音声スペクトルのデー
    タを抽出する特徴抽出手段と、 上記特徴抽出手段によって抽出された音声スペクトルの
    データが上記処理手段から出力される音声スペクトルの
    データに近似するように上記補間比率を演算して上記処
    理手段に設定する演算手段とを備えたことを特徴とする
    請求項1記載の声質制御型音声合成装置。
  3. 【請求項3】 声質制御型音声合成装置はさらに、 上記補間比率を入力して上記処理手段に設定する入力手
    段を備えたことを特徴とする請求項1記載の声質制御型
    音声合成装置。
  4. 【請求項4】 上記音声スペクトルのデータは、ケプス
    トラム係数又は対数面積比であることを特徴とする請求
    項1、2又は3記載の声質制御型音声合成装置。
JP5247828A 1993-10-04 1993-10-04 声質制御型音声合成装置 Expired - Fee Related JP2951514B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5247828A JP2951514B2 (ja) 1993-10-04 1993-10-04 声質制御型音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5247828A JP2951514B2 (ja) 1993-10-04 1993-10-04 声質制御型音声合成装置

Publications (2)

Publication Number Publication Date
JPH07104791A true JPH07104791A (ja) 1995-04-21
JP2951514B2 JP2951514B2 (ja) 1999-09-20

Family

ID=17169279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5247828A Expired - Fee Related JP2951514B2 (ja) 1993-10-04 1993-10-04 声質制御型音声合成装置

Country Status (1)

Country Link
JP (1) JP2951514B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960042519A (ko) * 1995-05-29 1996-12-21 다까노 야스아끼 음성 합성 장치
JP2001117564A (ja) * 1999-10-21 2001-04-27 Yamaha Corp 楽音処理装置および楽音処理方法
US6591240B1 (en) 1995-09-26 2003-07-08 Nippon Telegraph And Telephone Corporation Speech signal modification and concatenation method by gradually changing speech parameters
WO2005071664A1 (ja) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. 音声合成装置
JP2014038208A (ja) * 2012-08-16 2014-02-27 Toshiba Corp 音声合成装置、方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275102B2 (ja) 2009-03-25 2013-08-28 株式会社東芝 音声合成装置及び音声合成方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01238697A (ja) * 1988-03-18 1989-09-22 Matsushita Electric Ind Co Ltd 音声合成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01238697A (ja) * 1988-03-18 1989-09-22 Matsushita Electric Ind Co Ltd 音声合成装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960042519A (ko) * 1995-05-29 1996-12-21 다까노 야스아끼 음성 합성 장치
US6591240B1 (en) 1995-09-26 2003-07-08 Nippon Telegraph And Telephone Corporation Speech signal modification and concatenation method by gradually changing speech parameters
JP2001117564A (ja) * 1999-10-21 2001-04-27 Yamaha Corp 楽音処理装置および楽音処理方法
WO2005071664A1 (ja) * 2004-01-27 2005-08-04 Matsushita Electric Industrial Co., Ltd. 音声合成装置
US7571099B2 (en) 2004-01-27 2009-08-04 Panasonic Corporation Voice synthesis device
JP2014038208A (ja) * 2012-08-16 2014-02-27 Toshiba Corp 音声合成装置、方法及びプログラム

Also Published As

Publication number Publication date
JP2951514B2 (ja) 1999-09-20

Similar Documents

Publication Publication Date Title
US7792672B2 (en) Method and system for the quick conversion of a voice signal
Erro et al. Voice conversion based on weighted frequency warping
JP5961950B2 (ja) 音声処理装置
JP5039865B2 (ja) 声質変換装置及びその方法
CN110663080A (zh) 通过频谱包络共振峰的频移动态修改语音音色的方法和装置
JP2013242410A (ja) 音声処理装置
Lee MLP-based phone boundary refining for a TTS database
JPH0772900A (ja) 音声合成の感情付与方法
JP2951514B2 (ja) 声質制御型音声合成装置
JP2898568B2 (ja) 声質変換音声合成装置
JP2001034280A (ja) 電子メール受信装置および電子メールシステム
JPH1185194A (ja) 声質変換音声合成装置
Saheer et al. Combining vocal tract length normalization with hierarchical linear transformations
Bazzi et al. An expectation maximization approach for formant tracking using a parameter-free non-linear predictor
Al-Radhi et al. Continuous vocoder applied in deep neural network based voice conversion
JP2912579B2 (ja) 声質変換音声合成装置
Al-Radhi et al. RNN-based speech synthesis using a continuous sinusoidal model
JP5573529B2 (ja) 音声処理装置およびプログラム
US7130799B1 (en) Speech synthesis method
JPH08110796A (ja) 音声強調方法および装置
JPH06214592A (ja) 耐雑音音韻モデルの作成方式
JP2001142477A (ja) 有声音形成装置とそれを用いた音声認識装置
JPH09179576A (ja) 音声合成方法
Picart et al. Perceptual effects of the degree of articulation in hmm-based speech synthesis
JPH01149100A (ja) 音声認識システム

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees