JP2912579B2 - 声質変換音声合成装置 - Google Patents

声質変換音声合成装置

Info

Publication number
JP2912579B2
JP2912579B2 JP8066134A JP6613496A JP2912579B2 JP 2912579 B2 JP2912579 B2 JP 2912579B2 JP 8066134 A JP8066134 A JP 8066134A JP 6613496 A JP6613496 A JP 6613496A JP 2912579 B2 JP2912579 B2 JP 2912579B2
Authority
JP
Japan
Prior art keywords
speaker
codebook
mapping
vector
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP8066134A
Other languages
English (en)
Other versions
JPH09258779A (ja
Inventor
誠 橋本
宜男 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Original Assignee
Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk filed Critical Ei Tei Aaru Onsei Honyaku Tsushin Kenkyusho Kk
Priority to JP8066134A priority Critical patent/JP2912579B2/ja
Publication of JPH09258779A publication Critical patent/JPH09258779A/ja
Application granted granted Critical
Publication of JP2912579B2 publication Critical patent/JP2912579B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、声質変換音声合成
装置に関する。
【0002】
【従来の技術】多様な合成音声を生成することのできる
音声合成システムの実現は、合成音声の高品質化や合成
システム自体の普及のためにも非常に重要である。声質
変換も多様な合成音声生成のために必要な技術であり、
これまでにも種々の研究開発がなされてきた。
【0003】例えば、文献1「松本弘ほか,“教師あり
/教師なしスペクトル写像による声質変換”,日本音響
学会誌,Vol.50,No.7,pp.549−55
5,1994年7月」(以下、第1の従来例という。)
においては、声質変換の精度向上と品質の改善を目的と
して、変換音声のスペクトル系列と目標話者のスペクト
ル系列との2乗誤差を最小とする基準で写像を行って学
習し、未学習の部分を補間法により計算することが開示
されている。
【0004】さらに、図3は、文献2「阿部匡伸ほか,
“ベクトル量子化による声質変換”,日本音響学会講演
論文集,2−6−14,昭和62年10月」(以下、第
2の従来例という。)において開示されたピッチ周波数
の変換コードブックを生成する方法を示す第2の従来例
のブロック図であり、図4は、図3の方法で生成された
ピッチ周波数の変換コードブックと同様の方法で生成さ
れたスペクトルパラメータの変換コードブックとを用い
てベクトル量子化による声質変換法を示すブロック図で
ある。この第2の従来例の方法は、話者毎のコードブッ
ク間の対応づけによって話者間の写像をとり、声質変換
を行う方法を用いている。すなわち、大量の学習データ
を用いて予め話者Aから話者Bへの変換コードブックを
作成しておき、これを用いて声質変換を行うものであ
る。変換コードブックを作成するに当たっては、以下の
手順をとる。 (I)クラスタリングされたコードブック間で対応を取
る。 (II)対応するコード間の頻度を用いて写像を行う。
【0005】以下、話者A,B間のピッチ周波数の変換
コードブックを作成する過程を、図3を参照して説明す
る。 (1)話者A,及び話者Bのそれぞれのピッチ周波数の
サンプルデータ30,40を取り込み、それぞれクラス
タリング31,41を行ってピッチ周波数のコードブッ
ク32,42を作成する。同様に、スペクトルパラメー
タもクラスタリングしコードブックを作成する。 (2)ピッチ周波数のコードブック32,42を用い
て、学習データのピッチ周波数をコード化し、すなわち
スカラー量子化33,43する。同様に、スペクトルパ
ラメータもコード化し、すなわちベクトル量子化する。 (3)コード化されたパラメータを用いて、学習単語毎
にDPマッチング(動的計画法によるマッチング処理)
を行い、時間の対応づけ34を行う。 (4)時間的に対応している話者Aのピッチコードと話
者Bのピッチコードからヒストグラム35を作成する。 (5)話者Aのピッチコードに対し、ヒストグラムが最
大となっている話者Bのピッチコードを対応づけて、話
者Aから話者Bへの変換コードブック36を作成する。
なお、スペクトルパラメータのマッピングは、ヒストグ
ラムによる重み付けを行い、文献3「中村ほか,“ベク
トル量子化を用いたスペクトログラムの正規化”,日本
音響学会音声研究会資料,SP87−17,1987
年」に記載された手順に従って、変換コードブック(図
4の36a)を作成する。
【0006】次いで、上記作成された変換コードブック
を用いた第2の従来例の声質変換法を図4に示す。図4
に示すように、まず、話者Aの音声をLPC分析50
し、スペクトルパラメータとピッチパラメータを求め、
これを話者Aのスペクトルパラメータとピッチ周波数の
コードブック51,61を用いてそれぞれベクトル量子
化52及びスカラー量子化62する。さらに、復号化5
3,63するときには、話者Aのコードブック51,6
1の代わりに、上記作成された変換コードブック36,
36aを用いる。これによって、話者Bの音声へ変換さ
れたことになり、この後、音声合成手段である合成フィ
ルタ54を用いて話者Bの音声信号を発生して出力す
る。
【0007】しかしながら、第1の従来例では、異なる
話者間のスペクトルの差が比較的大きなとき、学習処理
を実行することがきわめて難しい。また、第2の従来例
では、すべての音声データ毎に異なる話者間の変換コー
ドブックを作成する必要があるので、この場合、大量の
学習データを必要とする。すなわち、実用化が難しいと
いう問題点があった。
【0008】以上の問題点を解決するために、本出願人
は、特願平7−51039号の特許出願において、複数
の登録話者の音響特徴パラメータを含む音声データベー
スとそのコードブックを予め記憶する記憶手段と、入力
された目標話者の少なくとも1単語の音声信号に基づい
て、声質変換をすべき目標話者に最も近い話者を、上記
複数の登録話者の中から選択する選択手段と、上記選択
手段によって選択された話者の音響空間と目標話者の音
響空間との間の差分を計算することにより、選択された
話者から上記目標話者への写像コードブックを計算する
生成手段と、入力された音声合成すべき文字列に基づい
て、上記音声データベースに記憶された上記選択された
話者の音声の音響特徴パラメータを上記選択された話者
のコードブックを用いて量子化し、上記選択された話者
のコードブックと上記写像コードブックの対応関係に基
づいて上記文字列に対応する目標話者の音声信号の音響
特徴パラメータを生成する写像処理手段と、上記写像処
理手段によって生成された目標話者の音声信号の音響特
徴パラメータに基づいて、上記文字列に対応する目標話
者の音声信号を発生して出力する音声合成手段とを備え
たことを特徴とする声質変換音声合成装置(以下、第3
の従来例という。)を提案している。
【0009】この第3の従来例によれば、1単語程度の
非常に少ない学習データで登録話者から目標話者への写
像関数を求めることができ、例えばデイジタル計算機を
用いて実用化することができる。また、上記音声データ
ベースとそのコードブックを予め格納することにより、
発話内容に関係なく第1及び第2の従来例に比較してよ
り高い精度で声質を変換することができる。すなわち、
上記音声データベースに格納される単語と、声質変換し
ようとする単語は異なってもよく、本発明を、例えば、
日本語の単語から英語の単語への声質変換、もしくは、
英語の単語から日本語の単語への声質に適用することが
できるという利点を有する。
【0010】
【発明が解決しようとする課題】しかしながら、第3の
従来例においては、上記選択手段によって選択された1
人の選択話者の学習音響空間のみを考慮しているので、
変換先の目標話者の発生音声の特長を十分に捕らえるこ
とができず、さらに、上記選択手段が後処理の写像コー
ドブック生成手段に適さない話者の選択を許すことが生
じ、声質変換の変換精度が目標話者によってばらつくと
いう問題点があった。
【0011】本発明の目的は以上の問題点を解決し、第
3の従来例に比較して高精度で声質変換の音声合成をす
ることができる声質変換音声合成装置を提供することに
ある。
【0012】
【課題を解決するための手段】本発明に係る声質変換話
者選択装置は、第1の記憶手段(10,11)、特徴抽
出手段(3)、写像コードブック生成手段(6)、第2
の記憶手段(12)、第3の記憶手段(13)、スペク
トル写像処理手段(22)、パラメータ系列生成手段
(23)、音声合成手段(24)からなる声質変換音声
合成装置であって、第1の記憶手段(10,11)は、
登録話者毎の音声データベース、登録話者毎のスペクト
ルコードブックを記憶し、音声データベースは、各音素
毎の登録スペクトルパラメータからなり、特徴抽出手段
(3)は、入力される目標話者の音声信号から話者スペ
クトルパラメータを抽出し、写像コードブック生成手段
(6)は、各登録話者毎に第1から第5の処理を行って
各登録話者毎に向きのバラツキを計算し、向きのバラツ
キが最小となる登録話者を選択登録話者として選択し、
選択登録話者の移動写像コードブックを目標写像コード
ブックとして第2の記憶手段(12)に記憶させ、第1
の処理は、スペクトルコードブックを初期写像コードブ
ックとし、第2の処理は、音声データベースのうちの予
め定められた登録スペクトルパラメータである学習音声
スペクトルパラメータを初期写像コードブックを用いて
ベクトル量子化することによりベクトルを求め、第3の
処理は、話者スペクトルパラメータと第2の処理で求め
たベクトルとの間で時間的な対応付けの処理を行った
後、それらの複数の移動ベクトルを決定し、第4の処理
は、複数の移動ベクトルから平均移動ベクトルを計算
し、第5の処理は、スペクトルコードブックを移動ベク
トルを用いて移動させ、移動写像コードブックとして第
3の記憶手段(13)に記憶させると共に、複数の移動
ベクトルと平均移動ベクトルとの距離に基づいて向きの
バラツキを計算し、スペクトル写像処理手段(22)
は、第6から第7の処理を行い、第6の処理は、入力さ
れる文字を音素に変換し、音素に対応する登録スペクト
ルパラメータを選択話者の音声データベースから読み出
し、第7の処理は、第6の処理で読み出した登録スペク
トルパラメータに距離の近いベクトルを選択登録話者の
スペクトルコードブックから求め、そのベクトルに対応
する目標写像コードブック内のベクトルを生成し、パラ
メータ系列生成手段(24)は、第7の処理で生成した
ベクトルに基づいて音響特徴パラメータとピッチ周波数
を含む時系列データを生成し、音声合成手段(24)
は、パラメータ生成手段(24)の生成する時系列デー
タに基づいて、音声信号を発生することを特徴とする。
【0013】
【0014】
【0015】
【発明の実施の形態】以下、図面を参照して本発明に係
る実施形態について説明する。図1は、本発明に係る一
実施形態である写像コードブック生成装置100と声質
変換音声合成装置200のブロック図である。この実施
形態のシステムは、写像コードブック生成装置100に
おいて、写像コードブック生成部6を備えたことを特徴
とし、一方、声質変換音声合成装置200においては、
スペクトル写像処理部22を備えたことを特徴とする。
この実施形態においては、実用的な声質変換システムを
実現するためには学習データを極力少なくするために、
話者選択と移動ベクトル場平滑化法(VFS:Vector F
ield Smoothing)を用いたスペクトル写像による新しい
声質変換法を開示し、この方法は、少ない学習データで
も変換が行えるという特有の効果を有する。
【0016】また、本実施形態においては、写像コード
ブック生成部6は、入力された目標話者の少なくとも1
単語の音声信号と、メモリ10内の上記音声データベー
スとメモリ11内のそのコードブックとに基づいて、上
記移動ベクトル場平滑化法を用いて、上記複数の登録話
者の各音響空間と目標話者の音響空間との間の複数の移
動ベクトルを計算することにより、上記複数の登録話者
から上記目標話者への複数の写像コードブックを計算
し、上記複数の移動ベクトルの平均ベクトルである平均
移動ベクトルと、上記複数の登録話者の各移動ベクトル
との間の距離が最小である登録話者を、声質変換をすべ
き目標話者に最も近い選択話者として選択することを特
徴とする。なお、この明細書においては、予め音声デー
タベースを用意しておく複数の話者を登録話者とし、変
換先の話者を目標話者とし、複数の登録話者から選ばれ
た1人の話者を選択話者と定義する。
【0017】図1に示すように、音声データベースメモ
リ10内の音声データベースと、スペクトルコードブッ
クメモリ11内のスペクトルコードブックとが予め作成
されかつ予め、例えばLBG(Linde Buzo
Gray;例えば、文献4「Linde et a
l.,“An Algorithm for Vect
or Quantizer Design”,IEEE
Transactions,COM−28,No.
1,pp.84−95,1980年」参照。)法などの
所定のクラスタリング法によりクラスタリングされて記
憶される。音声データベースは、複数の登録話者のピッ
チ周波数、ケプストラム係数データ、及びパワーデータ
などの音響特徴パラメータを含み、メモリ11内のスペ
クトルコードブックは、複数の登録話者毎の、フレーム
単位でクラスタリングされたケプストラムデータのベク
トルである。
【0018】目標話者の任意の1単語の発声音声はマイ
クロホン1に入力されてアナログ音声信号に変換され、
A/D変換器2でディジタル音声信号に変換された後、
特徴抽出部3に入力される。このA/D変換器2では、
サンプリング周波数に対応する例えば20ミリ秒である
所定のフレーム間隔でフレーム毎に音声信号データがラ
ベリングされ、以下の処理はフレーム毎に実行される。
特徴抽出部3は、入力された音声信号を例えばケプスト
ラム分析し、30次ケプストラム係数、パワー及びピッ
チ周波数を含む32次元の特徴パラメータを抽出する。
抽出された特徴パラメータの時系列はバッファメモリ4
を介して写像コードブック生成部6に入力される。
【0019】写像コードブック生成部6は、入力された
目標話者の少なくとも1単語の音声信号と、上記音声デ
ータベースとそのコードブックとに基づいて、移動ベク
トル場平滑化法を用いて、上記複数の登録話者の各音響
空間と目標話者の音響空間との間の複数の移動ベクトル
を、上記各登録話者毎に計算し、各登録話者の移動ベク
トルの平均ベクトルである平均移動ベクトルを計算し、
計算された各登録話者の平均移動ベクトルと上記複数の
移動ベクトルとの間の距離が最小である登録話者を、声
質変換をすべき目標話者に最も近い選択話者として選択
する。そして、選択した選択話者の写像コードブックを
メモリ13からメモリ12に書き込む。
【0020】上記第3の従来例においては、学習音声の
みでの目標話者とのスペクトル距離最小規準により、写
像元話者を選択していた。しかしながら、少量の学習デ
ータでの写像を目的としているため、学習音声空間のみ
での比較による話者選択では、話者にロバストな、つま
り話者による写像精度の変動が少ないシステムを構築す
るには不十分であると考えられる。例えば、文献5「宮
沢康永ほか,“移動ベクトル場平滑化話者適応方式にお
ける標準話者選択方式の検討”,日本音響学会講演論文
集,2−5−2,平成4年10月」において、移動ベク
トル場平滑化法における標準話者選択方式として、学習
単語に対する適応前後の出力尤度が最大になるような話
者を標準話者とする方式が提案されている。しかしなが
ら、当該文献5の方式も、学習音声空間のみに着目して
おり、少量学習データの場合における話者ロバスト性を
保証するには十分ではない。移動ベクトル場平滑化法に
おいては、話者間の移動ベクトルを学習で求めることに
より写像を行なうため、話者の音響的構造が類似してい
る程、精度向上が期待できる。また、音響的構造の類似
性が高い程、学習で求まった移動ベクトルの向きのばら
つきが少なくなると考えられる。以上のような観点か
ら、本発明では、学習で求められた全移動ベクトルの向
きのばらつきに着目した写像元話者設定方法を提案して
いる。
【0021】図2は、図1の写像コードブック生成部6
によって実行される写像コードブック生成処理を示すフ
ローチャートである。
【0022】この写像コードブック生成部6では、選択
話者のスペクトルコードブックCsを目標話者の音響空
間に写像して目標話者のスペクトルコードブックCt
変換する。ここで、目標話者の音響空間に写像されたコ
ードブックを、写像コードブックCtと定義する。写像
コードブックCtの生成には移動ベクトル場平滑化法を
用いる。これは、音響空間の話者間の差のベクトルは連
続的に変化するという仮定のもとに、ある話者の音響空
間を他話者の音響空間に写像する方法である。以下に、
その方法の手順を示す。
【0023】まず、ステップS1では、複数の登録話者
のうち任意の1つの登録話者のスペクトルコードブック
sを、スペクトルコードブックメモリ11から選択し
て読み出す。次いで、ステップS2において、読み出さ
れた登録話者のスペクトルコードブックCsを、写像コ
ードブックCtの初期状態とする。さらに、ステップS
3で、読み出された登録話者の学習音声スペクトル時系
列を写像コードブックCtを用いてベクトル量子化し、
このベクトル量子化後のコード列と、入力された目標話
者の音声スペクトル時系列とをDTW(Dynamic time w
arping)法を用いて対応付けの処理を行う。そして、ス
テップS4において、自然数m番目のベクトルCm sと、
これに対応づけられた入力スペクトルxの平均ベクトル
/Cm sとの差分ベクトルVmを次の数1に示すように計
算し、これを移動ベクトルVmとする。なお、この明細
書において、(Cm s)の上線(バー)を記載することが
できないため、/Cm sと記す。なお、数2の右辺の(1
/Nm)の/は分数を示す。
【0024】
【数1】Vm=/Cm s−Cm s
【0025】ここで、
【数2】
【0026】ここで、Nmは選択話者のm番目のベクト
ルCm sに対応付けられた入力スペクトルベクトルの個数
であり、MはベクトルCm sに対応付けられた入力スペク
トル時系列のベクトルの集合である。そして、ステップ
S5では、学習で対応付けが行なわれなかった選択話者
のn番目のベクトルCn sと、その近傍にある対応付けが
行なわれた所定数のコードベクトルの集合の要素Ck s
の間のファジィ級関数μn,kを次の数3を用いて計算す
る。
【0027】
【数3】
【0028】ここで、ma=1/(m−1)である。ま
た、dn,kはベクトルCn SとベクトルCk Sとの間の距離
であり、mは制御パラメータ(ファジネス)であり、K
は対応付けのあったベクトルの集合である。さらに、ス
テップS6では、対応付けされなかったベクトルCn s
移動ベクトルVnを、次の数4を用いて、対応付けが行
なわれたコードベクトルCk sの移動ベクトルVkと上記
ファジィ級関数μn,kを用いて計算し、写像コードブッ
クの初期状態となっているスペクトルコードブックCs
のすべてのベクトルを、次の数5に示すごとく移動ベク
トルVnの集合Vを用いて更新して、更新後の写像コー
ドブックCtを求め、ステップS7に進む。
【0029】
【数4】
【数5】Ct=Cs+V
【0030】ステップS7では、入力された学習したい
目標話者のスペクトル時系列と、メモリ10内の音声デ
ータベースに登録された各登録話者のスペクトル時系列
との互いの継続長が一致するようにDTW(Dynam
ic Time Warping;動的時間整合)法に
より時間整合した後、目標話者のスペクトル時系列と各
登録話者のスペクトル時系列との距離を計算し、2乗誤
差が最小となる基準を用いて収束しているか否かを判断
し、当該距離が収束していなければ、ステップS3へ戻
る。一方、収束していればステップS8に進む。
【0031】ステップS7までの処理では、学習データ
が少ない場合に異話者間の真の対応関係を表せずに移動
ベクトルの誤差が大きくなるという問題が残る。そこ
で、ステップS8においては、移動ベクトルに連続性の
拘束条件を入れ、以下に示す3つのステップSS1乃至
SS3からなる平滑化処理を行なって、誤差を吸収させ
る。 (SS1)写像コードブック内の選択話者のl番目のベ
クトルCl sとその近傍にあるベクトルCk sとの間のファ
ジィ級関数μl,kを計算する。 (SS2)上記ファジィ級関数μl,kを用いて平滑化移
動ベクトルVlを次の数6を用いて計算する。
【0032】
【数6】
【0033】ここで、Nkαは移動ベクトルVkの信頼度
を表し、定数αを持たせた移動ベクトルへの重みとして
いる。ここで、k=lのときファジィ級関数μl,k=1
とする。 (SS3)平滑化された移動ベクトルVlを用いて、写
像コードブックメモリ12内の写像コードブックのすべ
てのベクトルCl sを次の数7に示すごとくベクトルCl t
に更新する。
【0034】
【数7】Cl t=Cl s+Vl
【0035】次いで、ステップS9では、次式で示すご
とく、各移動ベクトルの平均ベクトルTmeanを演算
し、移動ベクトルの向きのばらつきDを演算して、メモ
リ14に各登録話者毎に記憶する。本実施形態では、移
動ベクトルの向きのばらつきDを、全移動ベクトルの平
均ベクトル(以下、平均移動ベクトルという。)と個々
の移動ベクトルとの距離に基づいたものと考え、次式の
ように定義する。
【0036】
【数8】
【数9】
【数10】
【0037】ここで、Cbはメモリ11内の写像コード
ブックのクラスタ数であり、Tiは移動ベクトルVmであ
り、di(Ti,Tmean)は各移動ベクトルTiと数
10で計算される平均移動ベクトルTmeanとの間の
距離である。iはコードブックの中でベクトルを表わす
コードワードのインデックスであり、数8及び数10は
1つの登録話者についてすべてのクラスタにおける各デ
ータ値の平均値をとる。また、jは、特徴パラメータの
次数であって、本実施形態では、スペクトル次数であ
る。すなわち、数9の右辺では、すべてのスペクトル次
数(j=1,2,…,jmax)についての距離の和を計
算している。さらに、ステップS10では、すべての登
録話者についてステップS2からS9までの処理を実行
したか否かが判断され、NOであるときは、ステップS
12でメモリ11から未処理の他の登録話者のスペクト
ルコードブックCsを選択して読み出した後、ステップ
S2からの処理を実行する。
【0038】ステップS10でYESであるときは、ス
テップS11で、最小のばらつきDを有する登録話者を
選択話者として選択して、当該選択話者の写像コードブ
ックを12に書き込み、スペクトル写像処理部22で音
声合成のために使用される。従って、ステップS11で
は、上記複数の移動ベクトルTiの平均ベクトルである
平均移動ベクトルTmeanと、上記複数の登録話者の
各移動ベクトルTiとの間の距離diのクラスタについて
の平均値Dを計算して、複数の登録話者についてメモリ
14に格納し、当該選択話者の尺度である平均値Dが最
小である登録話者を、声質変換をすべき目標話者に最も
近い選択話者として選択している。そして、上記メモリ
12内の複数の登録話者から目標話者への写像コードブ
ックのうち、当該選択話者の写像コードブックが、声質
変換音声合成装置200におけるスペクトル写像処理部
22で用いられる。
【0039】次いで、図1の声質変換音声合成装置20
0の構成と動作について説明する。図1に示すように、
目標話者の音声で音声合成したい文字列をキーボード2
1を用いて入力すると、スペクトル写像処理部22は、
文字列に対応する選択話者の音声スペクトルのデータを
音声データベース10から読み出し、その音声スペクト
ルのベクトル列Xp sを、生成された写像コードブック1
2を用いてベクトル量子化することにより、以下のごと
くスペクトル写像を行って復号化処理を実行する。
【0040】スペクトル写像処理部22では、上記メモ
リ12内の選択話者の音声スペクトルのベクトル列Xp s
と、その近傍にある所定数k個のベクトルCq s(ここ
で、q=1,2,…,k)との間の重み付け関数である
ファジィ級関数μp,qを計算した後、ベクトルCq sに対
応付けられた目標話者のベクトルCq tとファジィ級関数
μp,qとに基づいて、変換後の目標話者のベクトル列Xp
tを計算する。そして、当該ベクトル列Xp tから、選択
話者から目標話者に写像された音声スペクトル時系列を
計算してパラメータ系列生成部23に出力する。
【0041】以上の処理での説明では、写像コードブッ
ク生成装置100及び声質変換音声合成装置200にお
いて、スペクトルに関する処理のみについて説明してい
るが、これにとって代わって、ピッチ周波数の処理につ
いては、これに限らず、目標話者と選択話者の間のピッ
チ周波数の対数値の平均の差を予め計算しておき、選択
話者のピッチ周波数の対数値にその差を加算することに
より、目標話者のピッチ周波数の時系列を計算してもよ
い。
【0042】最後に、パラメータ系列生成部23は、入
力されるスペクトル時系列とピッチ周波数の時系列を取
りまとめて内蔵のバッファメモリに一時的に格納した
後、入力された文字列に対応する音声合成のための時系
列データに変換して音声合成部24に出力する。ここ
で、時系列データは、音声合成のためのピッチ、有声/
無声切り換え、振幅及びフィルタ係数のデータを含む。
さらに、音声合成部24は、パルス発生器と雑音発生器
とスイッチと振幅変更型増幅器とフィルタとから構成さ
れ、入力される時系列データに基づいて、発声音声信号
を合成してスピーカ25に出力することにより、上記入
力された文字列に対応する目標話者の合成音声がスピー
カ25から出力される。
【0043】以上のように構成された実施形態におい
て、A/D変換器2と、特徴抽出部3と、写像コードブ
ック生成部6と、スペクトル写像処理部22と、パラメ
ータ系列生成部23と、音声合成部24とは、例えば、
デジタル計算機で構成され、メモリ10乃至14は例え
ばハードウエアディスクメモリで構成される。
【0044】さらに、本発明者は、以上のように構成さ
れたシステムについて実験を以下のごとく行った。本発
明の話者選択のための尺度の有効性を調べるため、移動
ベクトルのばらつきと写像精度との相関を計算した。比
較のために、第3の従来例学習データのみでの距離を用
いた場合の相関も計算した。写像精度は、学習に使用し
ていない、本出願人所有の音声データベースのバランス
単語50語に対する、スペクトル写像後の音声と目標話
者の音声との平均距離で表わした。つまり、正の相関が
強いほど、話者選択に適した尺度であることを示す。ま
た、学習データ量による影響を観るため、表1に示すよ
うに、1単語、3単語、5単語を学習データとした場合
について、それぞれ相関を求めた。アナウンサー又はナ
レータである男女各4名を目標話者とし、別の男女各4
名を写像元の登録話者とし、各目標話者に対して、8名
の写像元の登録話者からのスペクトル写像を行なった。
さらに、表2に実験条件を示す。
【0045】
【表1】 学習データ ─────────────────────────────────── 1単語:/uchiawase/ 2単語:/boNyari/+/uchiawase/+dekigoto/ 3単語:/boNyari/+/uchiawase/+dekigoto/ +/hyoujou/+/puroguramu/ ───────────────────────────────────
【0046】
【表2】実験条件 ──────────────────────── 音声試料:本出願人が所有する音声データベース ──────────────────────── 分析条件: (a)サンプリング周波数:12kHz (b)分析窓:ブラックマン窓 (c)フレーム周期:5ミリ秒 (d)FFTポイント数:256 ──────────────────────── 写像実験条件: (a)目標話者:男女各4名 (b)写像元話者:目標話者以外の男女各4名 (c)コードブック (c1)作成データ:音素バランス503文 (c2)クラスタ数:512 (c3)特徴量:30次FFTケプストラム (c4)VFSk−近傍数:4 ────────────────────────
【0047】図5に実験結果を示す。図5において、目
標話者を表わす3つの文字のうち1番目の文字Mは男性
を示す一方、文字Fは女性を示す。図5から明らかなよ
うに、(1)学習データのみに着目して写像元話者を選
択するより、学習で求まった全移動ベクトルのばらつき
に着目して写像元話者を選択した方が相関が強く、話者
による変動も少ない。 (2)学習データの違いによる影響が比較的小さい、と
いう現象が見られた。これらは、本発明の尺度が話者や
学習データの違いによる影響を受けにくく、適切な写像
元話者選択に有効であることを示しているといえる。
【0048】以上説明したように、少ない学習データで
声質変換を実現するため、話者選択と移動ベクトル場平
滑化法によって選択話者から目標話者へのスペクトル写
像を行なうことによる声質変換法を開示している。スペ
クトル距離による評価において、1単語のみで学習さ
せ、50単語で評価を行なった結果、変換音声と目標話
者音声とのスペクトル距離は、選択話者音声と目標話者
音声との距離より小さくなる。
【0049】第2の従来例では、音声データの登録話者
から目標話者への写像を行う場合、異なる話者間のコー
ドブックの対応関係を学習によって求めるために、大量
の学習データが必要であったり、合成音声の精度を改善
するために複雑な処理を必要としていた。これに対し
て、本発明に係る本実施形態によれば、1単語程度の非
常に少ない学習データで登録話者から目標話者への写像
関数を求めることができ、例えばデイジタル計算機を用
いて実用化することができる。また、音声データベース
だけを予め格納することにより、発話内容に関係なく従
来例に比較してより高い精度で声質を変換することがで
きる。すなわち、音声データベースに格納される単語
と、声質変換しようとする単語は異なってもよく、本実
施形態を、例えば、日本語の単語から英語の単語への声
質変換、もしくは、英語の単語から日本語の単語への声
質に適用することができる。
【0050】また、当該実施形態においては、複数の登
録話者の移動ベクトルを計算し、すべての登録話者の音
響空間全体を考慮して目標話者に最も近い話者を選択話
者としているので、選択話者から目標話者への写像コー
ドブックを、第3の従来例に比較して声質変換の変換精
度を改善することができ、これにより、より簡単にかつ
精度よく声質変換することができる。
【0051】以上の実施形態においては、スペクトルデ
ータとピッチ周波数について、話者選択、写像コードブ
ック生成、及びスペクトル写像処理を行っているが、同
様に、他の音響特徴パラメータについて処理を行っても
よい。
【0052】以上の実施形態において、マイクロホン1
に入力する単語は少なくとも1つの単語でよい。また、
音声データベースメモリ10に予め記憶する音声データ
ベースは、複数の登録話者の音声データベースのデータ
でよい。
【0053】
【発明の効果】以上詳述したように本発明に係る声質変
換音声合成装置によれば、第1の記憶手段(10,1
1)、特徴抽出手段(3)、写像コードブック生成手段
(6)、第2の記憶手段(12)、第3の記憶手段(1
3)、スペクトル写像処理手段(22)、パラメータ系
列生成手段(23)、音声合成手段(24)からなる声
質変換音声合成装置であって、第1の記憶手段(10,
11)は、登録話者毎の音声データベース、登録話者毎
のスペクトルコードブックを記憶し、音声データベース
は、各音素毎の登録スペクトルパラメータからなり、特
徴抽出手段(3)は、入力される目標話者の音声信号か
ら話者スペクトルパラメータを抽出し、写像コードブッ
ク生成手段(6)は、各登録話者毎に第1から第5の処
理を行って各登録話者毎に向きのバラツキを計算し、向
きのバラツキが最小となる登録話者を選択登録話者とし
て選択し、選択登録話者の移動写像コードブックを目標
写像コードブックとして第2の記憶手段(12)に記憶
させ、第1の処理は、スペクトルコードブックを初期写
像コードブックとし、第2の処理は、音声データベース
のうちの予め定められた登録スペクトルパラメータであ
る学習音声スペクトルパラメータを初期写像コードブッ
クを用いてベクトル量子化することによりベクトルを求
め、第3の処理は、話者スペクトルパラメータと第2の
処理で求めたベクトルとの間で時間的な対応付けの処理
を行った後、それらの複数の移動ベクトルを決定し、第
4の処理は、複数の移動ベクトルから平均移動ベクトル
を計算し、第5の処理は、スペクトルコードブックを移
動ベクトルを用いて移動させ、移動写像コードブックと
して第3の記憶手段(13)に記憶させると共に、複数
の移動ベクトルと平均移動ベクトルとの距離に基づいて
向きのバラツキを計算し、スペクトル写像処理手段(2
2)は、第6から第7の処理を行い、第6の処理は、入
力される文字を音素に変換し、音素に対応する登録スペ
クトルパラメータを選択話者の音声データベースから読
み出し、第7の処理は、第6の処理で読み出した登録ス
ペクトルパラメータに距離の近いベクトルを選択登録話
者のスペクトルコードブックから求め、そのベクトルに
対応する目標写像コードブック内のベクトルを生成し、
パラメータ系列生成手段(24)は、第7の処理で生成
したベクトルに基づいて音響特徴パラメータとピッチ周
波数を含む時系列データを生成し、音声合成手段(2
4)は、パラメータ生成手段(24)の生成する時系列
データに基づいて、音声信号を発生する。
【0054】従って、本発明によれば、複数の登録話者
のすべての音響空間全体を考慮して写像コードブックを
作成し、変換先の目標話者にきわめて近い登録話者を選
択することができる。また、複数の登録話者の移動ベク
トルを計算し、すべての登録話者の音響空間全体を考慮
して目標話者に最も近い話者を選択話者としているの
で、選択話者から目標話者への写像コードブックを、第
3の従来例に比較して声質変換の変換精度を改善するこ
とができ、これにより、より簡単にかつ精度よく声質変
換することができる。
【図面の簡単な説明】
【図1】 本発明に係る一実施形態である写像コードブ
ック生成装置100と声質変換音声合成装置200のブ
ロック図である。
【図2】 図1の写像コードブック生成部6によって実
行される写像コードブック生成処理を示すフローチャー
トである。
【図3】 ピッチ周波数の変換コードブックを生成する
方法を示す第2の従来例のブロック図である。
【図4】 図3の方法で生成されたピッチ周波数の変換
コードブックと同様の方法で生成されたスペクトルパラ
メータの変換コードブックとを用いてベクトル量子化に
よる声質変換法を示すブロック図である。
【図5】 図1の実施形態における実験結果である話者
選択処理における第3の従来例と本実施形態の、変換音
声と目標話者音声との間の距離の相関係数を示すグラフ
である。
【符号の説明】
1…マイクロホン、 2…A/D変換器、 3…特徴抽出部、 4…バッファメモリ、 6…写像コードブック生成部、 10…音声データベースメモリ、 11…スペクトルコードブックメモリ、 12,13…写像コードブックメモリ、 14…移動ベクトルの向きのばらつきDメモリ、 21…キーボード、 22…スペクトル写像処理部、 23…パラメータ系列生成部、 24…音声合成部、 25…スピーカ、 100…写像コードブック生成装置、 200…声質変換音声合成装置。
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平8−167990(JP,A) 特開 平7−319495(JP,A) 特開 平7−219599(JP,A) 特開 平1−237600(JP,A) 特開 平8−248994(JP,A) (58)調査した分野(Int.Cl.6,DB名) G10L 3/02 G10L 3/00 531 G10L 9/18

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 第1の記憶手段(10,11)、特徴抽
    出手段(3)、写像コードブック生成手段(6)、第2
    の記憶手段(12)、第3の記憶手段(13)、スペク
    トル写像処理手段(22)、パラメータ系列生成手段
    (23)、音声合成手段(24)からなる声質変換音声
    合成装置であって、 第1の記憶手段(10,11)は、登録話者毎の音声デ
    ータベース、登録話者毎のスペクトルコードブックを記
    憶し、 音声データベースは、各音素毎の登録スペクトルパラメ
    ータからなり、 特徴抽出手段(3)は、入力される目標話者の音声信号
    から話者スペクトルパラメータを抽出し、 写像コードブック生成手段(6)は、各登録話者毎に第
    1から第5の処理を行って各登録話者毎に向きのバラツ
    キを計算し、向きのバラツキが最小となる登録話者を選
    択登録話者として選択し、選択登録話者の移動写像コー
    ドブックを目標写像コードブックとして第2の記憶手段
    (12)に記憶させ、 第1の処理は、スペクトルコードブックを初期写像コー
    ドブックとし、 第2の処理は、音声データベースのうちの予め定められ
    た登録スペクトルパラメータである学習音声スペクトル
    パラメータを初期写像コードブックを用いてベクトル量
    子化することによりベクトルを求め、 第3の処理は、話者スペクトルパラメータと第2の処理
    で求めたベクトルとの間で時間的な対応付けの処理を行
    った後、それらの複数の移動ベクトルを決定し、 第4の処理は、複数の移動ベクトルから平均移動ベクト
    ルを計算し、 第5の処理は、スペクトルコードブックを移動ベクトル
    を用いて移動させ、移動写像コードブックとして第3の
    記憶手段(13)に記憶させると共に、複数の移動ベク
    トルと平均移動ベクトルとの距離に基づいて向きのバラ
    ツキを計算し、 スペクトル写像処理手段(22)は、第6から第7の処
    理を行い、 第6の処理は、入力される文字を音素に変換し、音素に
    対応する登録スペクトルパラメータを選択話者の音声デ
    ータベースから読み出し、 第7の処理は、第6の処理で読み出した登録スペクトル
    パラメータに距離の近いベクトルを選択登録話者のスペ
    クトルコードブックから求め、そのベクトルに対応する
    目標写像コードブック内のベクトルを生成し、 パラメータ系列生成手段(24)は、第7の処理で生成
    したベクトルに基づいて音響特徴パラメータとピッチ周
    波数を含む時系列データを生成し、 音声合成手段(24)は、パラメータ生成手段(24)
    の生成する時系列データに基づいて、音声信号を発生す
    る声質変換音声合成装置。
JP8066134A 1996-03-22 1996-03-22 声質変換音声合成装置 Expired - Lifetime JP2912579B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8066134A JP2912579B2 (ja) 1996-03-22 1996-03-22 声質変換音声合成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8066134A JP2912579B2 (ja) 1996-03-22 1996-03-22 声質変換音声合成装置

Publications (2)

Publication Number Publication Date
JPH09258779A JPH09258779A (ja) 1997-10-03
JP2912579B2 true JP2912579B2 (ja) 1999-06-28

Family

ID=13307104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8066134A Expired - Lifetime JP2912579B2 (ja) 1996-03-22 1996-03-22 声質変換音声合成装置

Country Status (1)

Country Link
JP (1) JP2912579B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW430778B (en) 1998-06-15 2001-04-21 Yamaha Corp Voice converter with extraction and modification of attribute data
JP3631657B2 (ja) * 2000-04-03 2005-03-23 シャープ株式会社 声質変換装置および声質変換方法、並びに、プログラム記録媒体
JP4025355B2 (ja) * 2004-10-13 2007-12-19 松下電器産業株式会社 音声合成装置及び音声合成方法
JP5457706B2 (ja) * 2009-03-30 2014-04-02 株式会社東芝 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法
JP6433063B2 (ja) * 2014-11-27 2018-12-05 日本放送協会 音声加工装置、及びプログラム
JP6639285B2 (ja) 2016-03-15 2020-02-05 株式会社東芝 声質嗜好学習装置、声質嗜好学習方法及びプログラム

Also Published As

Publication number Publication date
JPH09258779A (ja) 1997-10-03

Similar Documents

Publication Publication Date Title
US7035791B2 (en) Feature-domain concatenative speech synthesis
US5327521A (en) Speech transformation system
JP2691109B2 (ja) 非ユーザ基準データから生成される話者依存的プロトタイプを有する音声コード化装置
US6009391A (en) Line spectral frequencies and energy features in a robust signal recognition system
US5937384A (en) Method and system for speech recognition using continuous density hidden Markov models
JP2733955B2 (ja) 適応型音声認識装置
US7792672B2 (en) Method and system for the quick conversion of a voice signal
US5459815A (en) Speech recognition method using time-frequency masking mechanism
US5890110A (en) Variable dimension vector quantization
KR20000053337A (ko) 음성 처리 시스템
Bharti et al. Real time speaker recognition system using MFCC and vector quantization technique
JP4829477B2 (ja) 声質変換装置および声質変換方法ならびに声質変換プログラム
US6070136A (en) Matrix quantization with vector quantization error compensation for robust speech recognition
US5943647A (en) Speech recognition based on HMMs
JP2898568B2 (ja) 声質変換音声合成装置
Shariah et al. Human computer interaction using isolated-words speech recognition technology
Dalmiya et al. An efficient method for Tamil speech recognition using MFCC and DTW for mobile applications
JP2912579B2 (ja) 声質変換音声合成装置
JP3531342B2 (ja) 音声処理装置および音声処理方法
JPH10254473A (ja) 音声変換方法及び音声変換装置
KR101890303B1 (ko) 가창 음성 생성 방법 및 그에 따른 장치
Nijhawan et al. Real time speaker recognition system for hindi words
JP3029803B2 (ja) 音声認識のための単語モデル生成装置及び音声認識装置
JP2834471B2 (ja) 発音評価法
Bharadwaj et al. Recognition of Speaker Using Vector Quantization and MFCC