JP6523893B2 - 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム - Google Patents

学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム Download PDF

Info

Publication number
JP6523893B2
JP6523893B2 JP2015183092A JP2015183092A JP6523893B2 JP 6523893 B2 JP6523893 B2 JP 6523893B2 JP 2015183092 A JP2015183092 A JP 2015183092A JP 2015183092 A JP2015183092 A JP 2015183092A JP 6523893 B2 JP6523893 B2 JP 6523893B2
Authority
JP
Japan
Prior art keywords
speaker
learning
perceptual
voice
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015183092A
Other languages
English (en)
Other versions
JP2017058513A (ja
Inventor
大和 大谷
大和 大谷
紘一郎 森
紘一郎 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015183092A priority Critical patent/JP6523893B2/ja
Priority to US15/257,247 priority patent/US10540956B2/en
Publication of JP2017058513A publication Critical patent/JP2017058513A/ja
Application granted granted Critical
Publication of JP6523893B2 publication Critical patent/JP6523893B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明の実施形態は、学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラムに関する。
任意のテキストを入力することで、その内容を音声で出力することを目的としたテキスト音声合成技術が従来から知られている。近年の音声合成技術では、音声を合成するために必要な人の話し方及び声色等を表現する音響モデルを、統計的に構築する試みが盛んに行われている。例えば音響モデルとして、隠れマルコフモデル(HMM:Hidden Markov Model)を利用した音声合成技術が知られている。
特開2007−219286号公報
Makoto Tachibana,Takashi Nose,Junichi Yamagishi and Takao Kobayashi,"A technique for controlling voice quality of synthetic speech using multiple regression HSMM,"in Proc. INTERSPEECH2006−ICSLP,p.2438−2441,2006 Kazuhiro Kobayashi,Tomoki Toda,Hironori Doi,Tomoyasu Nakano,Masataka Goto,Graham Neubig,Sakriani Sakti and Satoshi Nakamura,"Voice timbre control based on perceptual age in singing voice conversion,"IEICE Trans.Inf. & Syst.,vol.97−D,no.6,2014 Junichi Yamagishi and Takao Kobayashi,"Average−voice−based speech synthesis using HSMM−based speaker adaptation and adaptive training," IEICE Transactions Information & Systems,vol.E90−D,no.2,pp.533−543,Feb.2007. 山岸順一,田村正統,益子貴史,小林隆夫,徳田恵一,"平均声モデル構築のためのコンテキストクラスタリング手法の検討",電子情報通信学会技術研究報告.SP,音声 102(108),25−30,2002 V.Wan et al.,"Combining multiple high quality corpora for improving HMM−TTS," Proc.INTERSPEECH,Tue.O5d.01,Sept.2012.
しかしながら、従来の技術では、音声を合成する際に行われる話者性の制御を、ユーザの意図した通りに精度良く行うことが難しかった。
実施形態の学習装置は、記憶部と学習部とを備える。記憶部は、複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、を記憶する。学習部は、前記平均声モデルと、前記学習話者情報と、前記知覚表現得点情報と、から、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルを学習する。前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、前記平均声モデルから合成された音声と、の差を示す得点である。
第1実施形態の学習装置の機能構成の例を示す図。 第1実施形態の知覚表現得点情報の例を示す図。 第1実施形態の学習処理の例を示すフローチャート。 第1実施形態の平均ベクトルの抽出・連結処理の例の概要を示す図。 第1実施形態の回帰行列と知覚表現音響モデル104との対応の例を示す図。 第2実施形態の音声合成装置の機能構成の例を示す図。 第2実施形態の音声合成方法の例を示すフローチャート。 第1実施形態の学習装置、及び、第2実施形態の音声合成装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラムの実施形態を詳細に説明する。
(第1実施形態)
図1は第1実施形態の学習装置の機能構成の例を示す図である。第1実施形態の学習装置100は、記憶部1、取得部2及び学習部3を備える。
記憶部1は、基準音響モデル101、学習話者情報102、知覚表現得点情報103及び知覚表現音響モデル104を記憶する。
取得部1は、基準音響モデル101、学習話者情報102及び知覚表現得点情報103を他の装置等から取得する。
ここで基準音響モデル101、学習話者情報102及び知覚表現得点情報103について説明する。
基準音響モデル101は、知覚表現音響モデル104の学習に用いられる。
基準音響モデル101について説明する前に、まず音響モデルの例について説明する。現在広く用いられているHMMに基づく音声合成では、隠れセミマルコフモデル(以下、HSMMという。)で表される音響モデルが用いられている。HSMMでは、出力分布及び継続長分布がそれぞれ正規分布で表現される。
一般に、HSMMで表される音響モデルは以下のようにして構築される。
(1)ある話者の音声波形から、声の高さの時間的な変動を表す韻律パラメータ、並びに、声の音韻及び声色の情報を表す音声パラメータが抽出される。
(2)音声の内容を示すテキストから言語属性を表すコンテキスト情報が抽出される。コンテキスト情報は、HMMのモデルを分類する音声単位として用いられる情報の繋がりを表す情報である。音声単位は、例えば音素、半音素及び音節等である。例えば音声単位として音素を用いる場合、コンテキスト情報として、音素名の系列を用いることができる。
(3)コンテキスト情報に基づき、HSMMの持つ状態毎に、決定木により韻律パラメータ及び音声パラメータがクラスタリングされる。
(4)決定木によるクラスタリングにより得られた各リーフノードの韻律パラメータ及び音声パラメータから、HSMMの出力分布が算出される。
(5)EMアルゴリズムを使用し尤度最大化基準により、HSMMのモデルパラメータ(出力分布)が更新される。
(6)同様に、コンテキスト情報に対応した音声の継続長を示すパラメータについてもクラスタリングが行われ、クラスタリングにより得られた各リーフノードに継続長を示すパラメータの正規分布が保持され、EMアルゴリズムによりモデルパラメータ(継続長分布)が更新される。
HSMMに基づく音声合成では、上記(1)〜(6)の処理により、話者の声色や口調の特徴をモデル化する。これにより、話者の特徴を捉えた合成音声を出力することが可能となる。
基準音響モデル101は、平均声モデルMを表す音響モデルである。平均声モデルMは、複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築される。平均声モデルMのモデルパラメータは、複数の話者から得られる平均的な声の特徴を表す。
ここで、声の特徴は音響的特徴量により表される。音響的特徴量は、人の発話から抽出された韻律に関するパラメータ、並びに、音韻及び声色等を表す音声スペクトルから抽出されたパラメータ等である。
具体的には、韻律に関するパラメータは、声の高さを表す基本周波数の時間系列データである。
また、音韻及び音色等を表すパラメータは、音響データ及び当該音響データの時間変化を表す特徴量である。音響データは、ケプストラム、メルケプストラム、LPC(Linear Predictive Coding)、メルLPC、LSP(line spectral pairs)、メルLSP等の時間系列データ、並びに、音声の周期及び非周期性の割合を表す指標データである。
平均声モデルMは、一般的なHMMに基づく音声合成と同様、コンテキストクラスタリングにより構築された決定木、HMMの各状態の出力分布を表す正規分布、及び、継続長分布を表す正規分布で構成されている。なお平均声モデルMの構築方法の詳細については、非特許文献3に記載されている。
学習話者情報102は、知覚表現音響モデル104の学習に用いられる。学習話者情報102は、音響データ、言語データ及び音響モデルを学習話者毎に関連付けて記憶する。学習話者は、知覚表現音響モデル104の学習対象の話者である。音響データ、言語データ及び音響モデルにより、学習話者の音声が特徴付けられる。例えば学習話者の音響モデルは、学習話者が発する音声の音声認識に利用することができる。
言語データは、発話した音声の文字列情報から得られるものである。具体的には、言語データは、音素、発音方法に関わる情報、句末位置、文長、呼気段落長、呼気段落位置、アクセント句長、アクセント句位置、単語長、単語位置、モーラ長、モーラ位置、音節位置、音節の母音、アクセント型、係り受け情報、文法情報及び音素境界情報等である。音素境界情報は、各言語特徴の先行、先々行、後続及び後々続に関する情報である。なお音素は半音素でもよい。
学習話者情報102の音響モデルは、基準音響モデル101(平均声モデルM)、学習話者の音響データ、及び、学習話者の言語データから構築される。具体的には、学習話者情報102の音響モデルは、非特許文献3に記載されている話者適応技術により、平均声モデルMと同一の構造を有するモデルとして構築される。なお、各学習話者の音声が複数種類の発話様式毎にある場合、発話様式毎に学習話者の音響モデルを構築してもよい。発話様式は、例えば読み上げ調、対話調及び感情音声等である。
知覚表現得点情報103は、知覚表現音響モデル104の学習に用いられる。知覚表現得点情報103は、話者の声質を、音声に関する知覚表現の得点で表した情報である。音声に関する知覚表現は、人の音声を聴いたときに感じる非言語的な声の特徴を表す。知覚表現は、例えば声の明るさ、性別、年齢、太さ及び明瞭さ等である。知覚表現得点は、音声に関する知覚表現の観点により、話者の声の特徴を得点(数値)で表した情報である。
図2は第1実施形態の知覚表現得点情報の例を示す図である。図2の例は、性別、年齢、明るさ、太さ及び明瞭さの知覚表現の観点による得点が、学習話者ID毎に記憶されている場合を示す。知覚表現得点は、通常、1人又は複数の評価者が学習話者の音声を聴いて、その評価者の感覚に基づいて採点を行う。知覚表現得点は評価者の主観に依存するため、評価者によりその傾向が異なると考えられる。そこで、知覚表現得点は基準音響モデルの音声、すなわち平均声モデルMの音声との相対的な差異により表す。
例えば、学習話者IDがM001である話者の知覚表現得点は、性別が+5.3、年齢が+2.4、明るさが−3.4、太さが+1.2、明瞭さが+0.9である。図2の例では、知覚表現の得点は、平均声モデルMから合成される音声の得点を基準(0.0)として表現されている。また得点の数値が大きい程、傾向が強いことを示す。なお性別の知覚表現得点は、プラスの場合、男性の声質の傾向が強いことを示し、マイナスの場合、女性の声質の傾向が強いことを示す。
なお知覚表現得点を付与する際の具体的な方法は適宜定めてよい。
例えば、各評価者に、学習話者の原音又は合成音声と、平均声モデルMから合成された音声と、を別々に採点してもらった後、学習話者の知覚表現得点から平均声モデルMから合成された音声の知覚表現得点を引くことにより、知覚表現得点を付与してもよい。
また例えば、各評価者に学習話者の原音又は合成音声と、平均声モデルMから合成された音声と、を続けて聴いてもらい、学習話者の音声と、平均声モデルMから合成された音声との差を示す知覚表現得点を直接、各評価者に付与してもらってもよい。
知覚表現得点情報103は、各評価者により付与された知覚表現得点の平均を学習話者毎に記憶する。なお記憶部1は、知覚表現得点情報103を、更に発話毎に記憶してもよい。また記憶部1は、知覚表現得点情報103を、更に発話様式毎に記憶してもよい。発話様式は、例えば読み上げ調、対話調及び感情付き発話等である。
知覚表現音響モデル104は、学習部3により学習話者及び知覚表現毎に学習される。学習部3は、例えば学習話者IDがM001である学習話者の知覚表現音響モデル104として、声の性別の観点で性別音響モデルを学習し、声の年齢の観点で年齢音響モデルを学習し、声の明るさの観点で明るさ音響モデルを学習し、声の太さの観点で太さ音響モデルを学習し、声の明瞭さの観点で明瞭さ音響モデルを学習する。
学習部3は、学習話者情報102及び知覚得点情報103により表された学習話者の声質の特徴と、基準音響モデル101(平均声モデルM)と、から学習話者の知覚表現音響モデル104を学習し、当該知覚表現音響モデル104を記憶部1に記憶する。
以下、知覚表現音響モデル104の学習処理の例について具体的に説明する。
図3は第1実施形態の学習処理の例を示すフローチャートである。はじめに、学習部3が、知覚表現音響モデル104の初期モデルを構築する(ステップS1)。
具体的には、初期モデルは、基準音響モデル101(平均声モデルM)、学習話者情報102に含まれる各学習話者の音響モデル、及び、各学習話者の知覚表現得点情報103を用いて構築される。初期モデルは重回帰HSMM型のモデルである。
ここで、重回帰HSMMについて簡単に説明する。なお重回帰HSMMの詳細は、例えば非特許文献1に記載されている。重回帰HSMMは、音響モデルが有するHSMMの出力分布N(μ,Σ)の平均ベクトル、及び、継続長分布N(μ,Σ)の平均ベクトルを、知覚表現得点、回帰行列及びバイアスベクトルにより表現するモデルである。
すなわち、音響モデルに含まれるある正規分布の平均ベクトルは下記式(1)により表される。
Figure 0006523893
ここでEはI行、C列の回帰行列である。Iは学習話者の数を示す。Cは知覚表現の種類を示す。w=[w,w,…,wТは、C個の成分を有する知覚表現得点ベクトルである。C個の成分のそれぞれは、対応する知覚表現の得点を示す。なおTは転置を示す。bはI個の成分を有するバイアスベクトルである。
回帰行列Eに含まれるC個の列ベクトル{e,e,…,e}は、それぞれが知覚表現に対応する要素を表す。以下、回帰行列Eに含まれる列ベクトルを要素ベクトルという。例えば、知覚表現の種類が上述の図2の例の場合、回帰行列Eは、性別に対応する要素ベクトルe、年齢に対応する要素ベクトルe、明るさに対応する要素ベクトルe、太さに対応する要素ベクトルe4、及び、明瞭さに対応する要素ベクトルeを含む。
知覚表現音響モデル104では、各知覚表現音響モデルのパラメータが重回帰HSMMの回帰行列Eの要素ベクトルeに相当するものを保持しているため、回帰行列Eを知覚表現音響モデル104の初期パラメータとして利用できる。ところで、通常、重回帰HSMMは、回帰行列E(要素ベクトル)及びバイアスベクトルを、ある最適化基準、例えば尤度最大化基準及び最小二乗誤差基準等に基づいて、回帰行列E及びバイアスベクトルを求める。このとき得られるバイアスベクトルは、計算時に用いる最適化基準において、計算に用いるデータを最も効率よく表現できる値となる。すなわち、重回帰HSMMではモデル学習に用いる音響データが表現する音響空間の中心となるような値が計算される。
ところで、重回帰HSMMにおける音響空間の中心であるバイアスベクトルは、音声に対する人の知覚を基準として求められていないため、重回帰HSMMが表す音響空間の中心と、音声に対する人の知覚を表す空間の中心が一致する保証がない。一方、知覚表現得点ベクトルは、平均声モデルMから合成した音声と、学習話者の音声と、の間の知覚的な声質の差異を表している。そのため、音声に対する人の知覚を基準とした場合の音響空間の中心は平均声モデルMであるとみなせる。
そこで、平均声モデルMの平均パラメータを重回帰HSMMのバイアスベクトルとして用いることで、知覚空間の中心と音響空間の中心を明に一致させてモデルの構築を行う。
それでは、初期モデルの具体的な構築方法について述べる。ここでは最小二乗誤差基準により初期モデルを構築する場合を例にして説明する。
まず、学習部3は、基準音響モデル101の平均声モデルM、及び、学習話者情報102に含まれる各学習話者の音響モデルから、HSMMの出力分布を表す正規分布、及び、継続長分布を表す正規分布を取得する。そして学習部3は、各正規分布から平均ベクトルを抽出し、当該平均ベクトルを連結する。
図4は第1実施形態の平均ベクトル203の抽出・連結処理の例の概要を示す図である。図4に示されるように決定木201のリーフノードには、あるコンテキスト情報に対応する音響特徴を表す正規分布202が対応付けられている。なおPからP12までの記号は各正規分布202のインデックスを表す。
まず学習部3は、各正規分布202から平均ベクトル203を抽出する。次に学習部3は、各平均ベクトル203を正規分布202のインデックスに従い、インデックスが昇順又は降順になるように平均ベクトル203を連結することにより、連結平均ベクトル204を構築する。
学習部3は、上述の図4の平均ベクトルの抽出・連結処理を、基準音響モデル101の平均声モデルM、及び、学習話者情報102に含まれる各学習話者の音響モデルに対して行う。ここで、平均声モデルM及び各学習話者の音響モデルは、前述の通り、同一の構造を有する。すなわち、音響モデル内の決定木は同じ形状を有するので、このとき得られるすべての連結平均ベクトルの各成分は、各連結平均ベクトル間で音響的に対応がとれたものになる。すなわち、連結平均ベクトルの各成分は、同じコンテキスト情報に関する正規分布に対応する。
次に、連結平均ベクトルを目的変数、知覚表現得点ベクトルを説明変数として、下記式(2)により、最小二乗誤差基準で回帰行列Eを求める。
Figure 0006523893
ここで、sは学習話者情報102に含まれる各学習話者の音響モデルを識別するインデックスを表す。w(s)は、各学習話者の知覚表現得点ベクトルを表す。μ(s)は、各学習話者の音響モデルの連結平均ベクトルを表す。μ(0)は平均声モデルMの連結平均ベクトルを表す。
式(2)により、下記式(3)の回帰行列Eが得られる。
Figure 0006523893
式(3)により得られる各回帰行列Eの各要素ベクトル(列ベクトル)成分は、平均声モデルMの平均ベクトルと、各知覚表現得点により表現される音声と、の音響的な差異を示す。そのため、各要素ベクトル成分を、知覚表現音響モデル104が保持する平均パラメータとみなすことができる。
また、各要素ベクトル成分は、平均声モデルMと同一の構造を持つ学習話者の音響モデルから作られたものであるため、各要素ベクトル成分は、平均声モデルMと同一の構造を保持しているとみなせる。そこで、学習部3は、各要素ベクトル成分を知覚表現音響モデル104の初期値として用いる。
図5は第1実施形態の回帰行列Eと知覚表現音響モデル104との対応の例を示す図である。学習部3は、回帰行列Eの列ベクトル(要素ベクトル{e,e,…,e})を、知覚表現音響モデル104(104a〜104e)へと変換し、各知覚表現音響モデルの初期値とする。
ここで、回帰行列Eの要素ベクトル{e,e,…,e}を、知覚表現音響モデル104(104a〜104e)へ変換する方法について説明する。学習部3は、上述の図4で説明した平均ベクトルの抽出・連結処理と逆の処理を行う。ここで、回帰行列Eの計算に用いられた連結平均ベクトルの各成分は、連結平均ベクトルに含まれる平均ベクトルに対応する正規分布のインデックス番号が同じ順番となるように構築されている。また、回帰行列Eの各要素ベクトルe〜eが有する各成分は、図4に示す連結平均ベクトルと同じ順番になっており、連結平均ベクトルに含まれる各平均ベクトルに対応する各正規分布と対応する。そのため、学習部3は、回帰行列Eの各要素ベクトルe〜eから、平均声モデルMの正規分布のインデックスに対応する成分を抽出し、当該インデックスに対応する平均声モデルMの正規分布の平均ベクトルと入れ替えることにより、知覚表現音響モデル104の初期モデルを与える。
以下、知覚表現音響モデル104をM={M,M,…,M}で表す。ここでCは知覚表現の種類を示す。なお、s番目の学習話者の音響モデルM(s)は、平均声モデルM、知覚表現音響モデル104(M={M,M,…,M})、及び、s番目の学習話者の知覚表現ベクトルw(s)=[w (s),w (s),…,w (s)]を用いると、下記式(4)により表現できる。
Figure 0006523893
図3に戻り、学習部3は、知覚表現音響モデル104のモデルパラメータの更新回数を表す変数lを1に初期化する(ステップS2)。次に、学習部3は、更新対象の知覚表現音響モデル104(M)を識別するインデックスiを1に初期化する(ステップS3)。
次に、学習部3は、コンテキストクラスタリングによるi番目の知覚表現音響モデル104の決定木の構築を行うことにより、モデル構造の最適化を行う(ステップS4)。具体的には、学習部3は、例えば決定木の構築方法として、共有決定木コンテキストクラスタリングを用いる。なお共有決定木コンテキストクラスタリングの詳細は、非特許文献4に記載されている。
ここでは、ステップS4の共有決定木コンテキストクラスタリングの概要と、非特許文献3との差異について述べる。
共有決定木コンテキストクラスタリングは、複数の学習話者のデータを用いた場合に、次の2つの条件を考慮して決定木のノード分割を実行する。
(1)分割後の2つのノードにすべての話者のデータが存在している。
(2)ノード分割において最小記述長(MDL)基準を満たす。
なおMDLとは、情報理論におけるモデル選択基準の一つであり、モデルの対数尤度及びモデルパラメータ数で決定される指標である。HMMに基づく音声合成では、ノード分割によりMDLが増加する場合にノード分割を停止するという条件でクラスタリングを行う。
非特許文献3では、学習話者の尤度として学習話者のデータのみで構築した話者依存の音響モデルに対する学習話者の尤度を用いている。
一方、ステップS4では、学習部3は、学習話者の尤度として、上述の式(4)で与えられる学習話者の音響モデルM(s)に対する学習話者の尤度を用いる。
以上の条件により、学習部3は、i番目の知覚表現音響モデル104の決定木を構築し、i番目の知覚表現音響モデル104が有する分布の数の最適化を行う。なお、ステップS4で得られる知覚表現音響モデルM(i)の決定木の構造(分布の数)は、他の知覚表現音響モデルM(j)(i≠j)が有する分布の数、及び、平均声モデルMが有する分布の数と異なるものとなる。
次に、学習部3は、インデックスiが、C+1(Cは知覚表現の種類)より小さいか否かを判定する(ステップS5)。インデックスiが、C+1より小さい場合(ステップS5、Yes)、学習部3は、iをインクリメントし(ステップS6)、ステップS4に戻る。
インデックスiが、C+1以上の場合(ステップS5、No)、学習部3は、知覚表現音響モデル104のモデルパラメータを更新する(ステップS7)。具体的には、学習部3は、尤度最大化基準を満たす更新アルゴリズムを使用して、知覚表現音響モデル104(M(i)、iはC以下の整数)のモデルパラメータを更新する。尤度最大化基準を満たす更新アルゴリズムは、例えばEMアルゴリズムである。より具体的には、平均声モデルMと、各知覚表現音響モデル(M(i)、iはC以下の整数)が有するモデル構造と、は異なるため、パラメータ更新法として、非特許文献5に記載されている平均パラメータの更新法を適用する。
非特許文献5に記載の平均パラメータの更新法は、クラスタ適応学習に基づく音声合成における各クラスタが持つ平均パラメータを更新する方法である。例えば、i番目の知覚表現音響モデル104(M)において、決定木のn番目のリーフノードM(n)が有する分布のパラメータei,nの更新は、この分布に属する全てのコンテキストの統計量が用いられる。
更新されるパラメータは下記式(5)の通りである。
Figure 0006523893
ここで、Gij (m)、k (m)及びu (m)は、下記式(6)〜(8)により表される。
Figure 0006523893
Figure 0006523893
Figure 0006523893
またO (s)は学習話者sの時刻tの音響データ、γ (s)(m)は時刻tにおける学習話者sのコンテキストmに関する占有確率、μ(m)は平均声モデルMのコンテキストmに対応する平均ベクトル、Σ(m)は平均声モデルMのコンテキストmに対応する共分散行列、e(m)はj番目の知覚表現音響モデル104のコンテキストmに対応する要素ベクトルである。
学習部3は、ステップS7では、各話者の知覚表現得点情報103、及び、平均声モデルMのモデルパラメータの更新は一切行わず、知覚表現のパラメータのみを更新するため、知覚表現の中心とのずれを生じさせることなく、精度よく知覚表現音響モデル104を学習することができる。
次に、学習部3は、尤度変化量Dを計算する(ステップS8)。具体的には、学習部3は、モデルパラメータの更新前後の尤度の変化を求める。まず、学習部3は、モデルパラメータの更新前に、上述の式(4)で表される学習話者の音響モデルM(s)について、対応する学習話者のデータの尤度を学習話者の人数分、計算し、その和を取る。次に、学習部3は、モデルパラメータの更新後に、同様の方法で尤度の和を計算し、更新前の尤度との差Dを計算する。
次に、学習部3は、尤度変化量Dが所定の閾値Thよりも小さいか否かを判定する(ステップS9)。尤度変化量Dが所定の閾値Thより小さい場合(ステップS9、Yes)、処理は終了する。
尤度変化量Dが所定の閾値Th以上の場合(ステップS9、No)、学習部3は、モデルパラメータの更新回数を表す変数lが、更新回数の最大値Lより小さいか否かを判定する(ステップS10)。モデルパラメータの更新回数を表す変数lが、更新回数の最大値L以上の場合(ステップS10、No)、処理は終了する。更新回数の最大値Lより小さい場合(ステップS10、Yes)、学習部3は、lをインクリメントし(ステップS11)、ステップS3に戻る。
図1に戻り、学習部3は、図3に示す学習処理を行うことにより学習された知覚表現音響モデル104を、記憶部1に記憶する。
以上の説明を要約すると、知覚表現音響モデル104は、各学習話者の知覚表現得点ベクトルと、各学習話者のコンテキストに基づいてクラスタリングされた音響データ(継続長情報)と、平均声モデルの出力分布(継続長分布)とから、平均声と、各知覚表現に対応する特徴を表す音響データ(継続長情報)との差分を、知覚表現毎にモデル化したものである。
知覚表現音響モデル104は、従来のHMMに基づく音声合成と同様に、決定木、HMMの各状態の出力分布及び継続長分布を持つ。ただし、知覚表現音響モデル104の出力分布及び継続長分布は平均パラメータのみを持つ。
以上説明したように、第1実施形態の学習装置100では、学習部3が、基準音響モデル101(平均声モデルM)と、学習話者情報102と、知覚表現得点情報103と、から、上述の学習処理により、1以上の知覚表現に対応する1以上の知覚表現音響モデル104を学習する。これにより第1実施形態の学習装置100によれば、音声を合成する際に行われる話者性の制御を、ユーザの意図した通りに精度良く行うことができる知覚表現音響モデル104を学習することができる。
(第2実施形態)
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態の知覚表現音響モデル104を使用して音声合成を行う音声合成装置200について説明する。
図6は第2実施形態の音声合成装置200の機能構成の例を示す図である。第2実施形態の音声合成装置200は、記憶部11、編集部12、入力部13及び合成部14を備える。記憶部11は、知覚表現得点情報103、知覚表現音響モデル104、目標話者音響モデル105及び目標話者音声106を記憶する。
知覚表現得点情報103は、第1実施形態の説明と同様である。第2実施形態の音声合成装置200では、合成音声の話者性を制御する重みを示す情報として、編集部12により利用される。
知覚表現音響モデル104は、第1実施形態の学習装置100により学習された音響モデルの一部又は全部である。
目標話者音響モデル105は、話者性の制御を行う対象となる目標話者の音響モデルである。目標話者音響モデル105は、HMMに基づく音声合成で用いられているモデルと同様の形式を有する。目標話者音響モデル105は任意でよい。目標話者音響モデル105は、例えば知覚表現音響モデル104の学習に利用した学習話者の音響モデルでもよいし、学習に利用していない話者の音響モデルでもよいし、平均声モデルMでもよい。
編集部12は、知覚表現得点情報103及び知覚表現音響モデル104によって表現される話者性を、目標話者音響モデル105に付与することにより、目標話者音響モデル105を編集する。具体的には、編集部12は、上述の式(4)と同様にして、各知覚表現音響モデル104(M={M,M,…,M})に対して、知覚表現得点情報103による重みづけを行い、目標話者音響モデル105との和をとる。これにより話者性が付与された目標話者音響モデル105が得られる。編集部12は、話者性が付与された目標話者音響モデル105を合成部14に入力する。
入力部13は、任意のテキストの入力を受け付け、当該テキストを合成部14に入力する。
合成部14は、編集部12から話者性が付与された目標話者音響モデル105を受け付け、入力部13からテキストを受け付けると、話者性が付与された目標話者音響モデル105を用いて、テキストの音声合成を行う。具体的には、まず、合成部14は、テキストの言語解析を行うことにより、テキストからコンテキスト情報を抽出する。次に、合成部14は、コンテキスト情報に基づいて、話者性が付与された目標話者音響モデル105から、合成に必要なHSMMの出力分布及び継続長分布を選択する。次に、合成部14は、選択されたHSMMの出力分布及び継続長分布を使用して、パラメータの生成を行うことにより、音響データ系列を取得する。次に、合成部14は、音響データ系列からボコーダにより音声波形を合成し、当該音声波形を目標話者音声106として、記憶部11に記憶する。
次に第2実施形態の音声合成方法について説明する。
図7は第2実施形態の音声合成方法の例を示すフローチャートである。はじめに、編集部12が、知覚表現得点情報103及び知覚表現音響モデル104によって表現される話者性を、目標話者音響モデル105に付与することにより、目標話者音響モデル105を編集する(ステップS21)。次に、入力部13が、任意のテキストの入力を受け付ける(ステップS22)。次に、合成部14が、ステップS21の処理により、話者性が付与された目標話者音響モデル105を用いて、ステップS22の処理により、入力を受け付けたテキストの音声合成を行うことにより、目標話者音声106を取得する(ステップS23)。次に、合成部14が、ステップS22の処理により取得された目標話者音声106を記憶部11に記憶する(ステップS24)。
以上説明したように、第2実施形態の音声合成装置200では、編集部12が、知覚表現得点情報103と、知覚表現音響モデル104と、によって表現される話者性を、目標話者音響モデル105に付与することにより、目標話者音響モデル105を編集する。そして合成部14が、編集部12により話者性が付与された目標話者音響モデル105を用いて、テキストの音声合成を行う。これにより第2実施形態の音声合成装置200によれば、音声を合成する際に行われる話者性の制御を、ユーザの意図した通りに精度良く行うことができるので、ユーザが意図した所望の目標話者音声106を取得することができる。
最後に、第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200のハードウェア構成の例について説明する。
図8は第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200のハードウェア構成の例を示す図である。第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及びスピーカー307を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305、通信装置306及びスピーカー307は、バス310を介して接続されている。
制御装置301は補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302はROM及びRAM等のメモリである。補助記憶装置303はメモリカード及びSSD(Solid State Drive)等である。
表示装置304は情報を表示する。表示装置304は、例えば液晶ディスプレイである。入力装置305は、情報の入力を受け付ける。入力装置305は、例えばキーボード及びマウス等である。なお表示装置304及び入力装置305は、表示機能と入力機能とを兼ねる液晶タッチパネル等でもよい。通信装置306は他の装置と通信する。スピーカー307は音声を出力する。
第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータ・プログラム・プロダクトとして提供される。
また第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200が実行するプログラムを、ダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
また第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200で実行されるプログラムは、上述の第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200の機能構成のうち、プログラムにより実現可能な機能を含むモジュール構成となっている。
プログラムにより実現される機能は、制御装置301が補助記憶装置303等の記憶媒体からプログラムを読み出して実行することにより、プログラムにより実現される機能が主記憶装置302にロードされる。すなわちプログラムにより実現される機能は、主記憶装置302上に生成される。
なお第1実施形態の学習装置100、及び、第2実施形態の音声合成装置200の機能の一部又は全部を、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
1 記憶部
2 取得部
3 学習部
100 学習装置
101 基準音響モデル
102 学習話者情報
103 知覚表現得点情報
104 知覚表現音響モデル
104a 性別音響モデル
104b 年齢音響モデル
104c 明るさ音響モデル
104d 太さ音響モデル
104e 明瞭さ音響モデル
105 目標話者音響モデル
106 目標話者音声
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
307 スピーカー
310 バス

Claims (8)

  1. 複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、を記憶する記憶部と、
    前記平均声モデルと、前記学習話者情報と、前記知覚表現得点情報と、から、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルを学習する学習部と、を備え、
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、前記平均声モデルから合成された音声と、の差を示す得点である、
    学習装置。
  2. 前記知覚表現は、声の性別、声の年齢、声の明るさ、声の太さ、及び、声の明瞭さの少なくとも1つを含む、
    請求項1に記載の学習装置。
  3. 前記学習話者情報は、前記学習話者の音声を示す音響データ、前記音響データから抽出された言語データ、及び、前記学習話者の音響モデルを含む、
    請求項1に記載の学習装置。
  4. 話者性の制御を行う対象となる目標話者の目標話者音響モデルと、学習話者の音声の特徴を表す学習話者情報と、学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルと、を記憶する記憶部と、
    前記知覚表現得点情報と、前記知覚表現音響モデルと、によって表現される話者性を、前記目標話者音響モデルに付与することにより、前記目標話者音響モデルを編集する編集部と、
    任意のテキストの入力を受け付ける入力部と、
    前記編集部により話者性が付与された前記目標話者音響モデルを用いて、前記テキストの音声合成を行う合成部と、を備え、
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルから合成された音声と、の差を示す得点である、
    音声合成装置。
  5. 複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、を記憶する記憶部を備える学習装置の学習方法であって、
    学習装置が、前記平均声モデルと、前記学習話者情報と、前記知覚表現得点情報と、から、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルを学習するステップ、を含み、
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、前記平均声モデルから合成された音声と、の差を示す得点である、
    学習方法。
  6. 話者性の制御を行う対象となる目標話者の目標話者音響モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルと、を記憶する記憶部を備える音声合成装置の音声合成方法であって、
    音声合成装置が、前記知覚表現得点情報と、前記知覚表現音響モデルと、によって表現される話者性を、前記目標話者音響モデルに付与することにより、前記目標話者音響モデルを編集するステップと、
    音声合成装置が、任意のテキストの入力を受け付けるステップと、
    合成部が、前記編集するステップにより話者性が付与された前記目標話者音響モデルを用いて、前記テキストの音声合成を行うステップと、を含み、
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルから合成された音声と、の差を示す得点である、
    音声合成方法。
  7. 複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、を記憶する記憶部を備えるコンピュータを、
    前記平均声モデルと、前記学習話者情報と、前記知覚表現得点情報と、から、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルを学習する学習部として機能させ
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、前記平均声モデルから合成された音声と、の差を示す得点である、
    学習プログラム。
  8. 話者性の制御を行う対象となる目標話者の目標話者音響モデルと、学習話者の音声の特徴を表す学習話者情報と、前記学習話者の声質を音声に関する1以上の知覚表現の得点により表した知覚表現得点情報と、前記1以上の知覚表現に対応する1以上の知覚表現音響モデルと、を記憶する記憶部を備える音声合成装置を、
    前記知覚表現得点情報と、前記知覚表現音響モデルと、によって表現される話者性を、前記目標話者音響モデルに付与することにより、前記目標話者音響モデルを編集する編集部と、
    任意のテキストの入力を受け付ける入力部と、
    前記編集部により話者性が付与された前記目標話者音響モデルを用いて、前記テキストの音声合成を行う合成部として機能させ
    前記知覚表現得点情報は、前記学習話者の原音又は合成音声と、複数の種類の話者の音声波形から抽出された音響データ及び言語データを用いて構築された平均声モデルから合成された音声と、の差を示す得点である、
    音声合成プログラム。
JP2015183092A 2015-09-16 2015-09-16 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム Active JP6523893B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015183092A JP6523893B2 (ja) 2015-09-16 2015-09-16 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
US15/257,247 US10540956B2 (en) 2015-09-16 2016-09-06 Training apparatus for speech synthesis, speech synthesis apparatus and training method for training apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015183092A JP6523893B2 (ja) 2015-09-16 2015-09-16 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム

Publications (2)

Publication Number Publication Date
JP2017058513A JP2017058513A (ja) 2017-03-23
JP6523893B2 true JP6523893B2 (ja) 2019-06-05

Family

ID=58237074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015183092A Active JP6523893B2 (ja) 2015-09-16 2015-09-16 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム

Country Status (2)

Country Link
US (1) US10540956B2 (ja)
JP (1) JP6523893B2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6639285B2 (ja) 2016-03-15 2020-02-05 株式会社東芝 声質嗜好学習装置、声質嗜好学習方法及びプログラム
JP6391895B2 (ja) * 2016-05-20 2018-09-19 三菱電機株式会社 音響モデル学習装置、音響モデル学習方法、音声認識装置、および音声認識方法
JP6805037B2 (ja) 2017-03-22 2020-12-23 株式会社東芝 話者検索装置、話者検索方法、および話者検索プログラム
JP7013172B2 (ja) 2017-08-29 2022-01-31 株式会社東芝 音声合成辞書配信装置、音声合成配信システムおよびプログラム
KR102072162B1 (ko) * 2018-01-05 2020-01-31 서울대학교산학협력단 인공 지능 기반 외국어 음성 합성 방법 및 장치
US11238843B2 (en) * 2018-02-09 2022-02-01 Baidu Usa Llc Systems and methods for neural voice cloning with a few samples
CN109036375B (zh) * 2018-07-25 2023-03-24 腾讯科技(深圳)有限公司 语音合成方法、模型训练方法、装置和计算机设备
JP7125608B2 (ja) * 2018-10-05 2022-08-25 日本電信電話株式会社 音響モデル学習装置、音声合成装置、及びプログラム
RU2744032C2 (ru) * 2019-04-15 2021-03-02 Общество С Ограниченной Ответственностью "Яндекс" Способ и система для определения результата выполнения задачи в краудсорсинговой среде
CN110264991B (zh) * 2019-05-20 2023-12-22 平安科技(深圳)有限公司 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质
CN110379407B (zh) * 2019-07-22 2021-10-19 出门问问(苏州)信息科技有限公司 自适应语音合成方法、装置、可读存储介质及计算设备
JP2022544984A (ja) 2019-08-21 2022-10-24 ドルビー ラボラトリーズ ライセンシング コーポレイション ヒト話者の埋め込みを会話合成に適合させるためのシステムおよび方法
US11430431B2 (en) * 2020-02-06 2022-08-30 Tencent America LLC Learning singing from speech
RU2020107002A (ru) 2020-02-14 2021-08-16 Общество С Ограниченной Ответственностью «Яндекс» Способ и система приема метки для цифровой задачи, исполняемой в краудсорсинговой среде
US11942070B2 (en) 2021-01-29 2024-03-26 International Business Machines Corporation Voice cloning transfer for speech synthesis
CN112992162B (zh) * 2021-04-16 2021-08-20 杭州一知智能科技有限公司 一种音色克隆方法、系统、装置及计算机可读存储介质
CN114333847A (zh) * 2021-12-31 2022-04-12 达闼机器人有限公司 语音克隆方法、装置、训练方法、电子设备及存储介质
WO2023157066A1 (ja) * 2022-02-15 2023-08-24 日本電信電話株式会社 音声合成学習方法、音声合成方法、音声合成学習装置、音声合成装置及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215983A (ja) * 2000-02-02 2001-08-10 Victor Co Of Japan Ltd 音声合成装置
JP2002244689A (ja) 2001-02-22 2002-08-30 Rikogaku Shinkokai 平均声の合成方法及び平均声からの任意話者音声の合成方法
JP2003271171A (ja) 2002-03-14 2003-09-25 Matsushita Electric Ind Co Ltd 音声合成方法、音声合成装置および音声合成プログラム
JP2007219286A (ja) * 2006-02-17 2007-08-30 Tokyo Institute Of Technology 音声のスタイル検出装置、その方法およびそのプログラム
JP5414160B2 (ja) 2007-08-09 2014-02-12 株式会社東芝 感性評価装置及び方法
JP5457706B2 (ja) 2009-03-30 2014-04-02 株式会社東芝 音声モデル生成装置、音声合成装置、音声モデル生成プログラム、音声合成プログラム、音声モデル生成方法および音声合成方法
GB0920480D0 (en) * 2009-11-24 2010-01-06 Yu Kai Speech processing and learning
GB2478314B (en) * 2010-03-02 2012-09-12 Toshiba Res Europ Ltd A speech processor, a speech processing method and a method of training a speech processor
GB2501062B (en) * 2012-03-14 2014-08-13 Toshiba Res Europ Ltd A text to speech method and system
TWI471854B (zh) * 2012-10-19 2015-02-01 Ind Tech Res Inst 引導式語者調適語音合成的系統與方法及電腦程式產品
JP2014206875A (ja) 2013-04-12 2014-10-30 キヤノン株式会社 画像処理装置および画像処理方法
US9570065B2 (en) * 2014-09-29 2017-02-14 Nuance Communications, Inc. Systems and methods for multi-style speech synthesis

Also Published As

Publication number Publication date
US10540956B2 (en) 2020-01-21
US20170076715A1 (en) 2017-03-16
JP2017058513A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6523893B2 (ja) 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
US20200211529A1 (en) Systems and methods for multi-style speech synthesis
US10186252B1 (en) Text to speech synthesis using deep neural network with constant unit length spectrogram
US11763797B2 (en) Text-to-speech (TTS) processing
JP6266372B2 (ja) 音声合成辞書生成装置、音声合成辞書生成方法およびプログラム
JP6392012B2 (ja) 音声合成辞書作成装置、音声合成装置、音声合成辞書作成方法及び音声合成辞書作成プログラム
JP4829477B2 (ja) 声質変換装置および声質変換方法ならびに声質変換プログラム
US9798653B1 (en) Methods, apparatus and data structure for cross-language speech adaptation
JP2018146803A (ja) 音声合成装置及びプログラム
Zhao et al. Using phonetic posteriorgram based frame pairing for segmental accent conversion
JP2020034883A (ja) 音声合成装置及びプログラム
US10157608B2 (en) Device for predicting voice conversion model, method of predicting voice conversion model, and computer program product
JP2015041081A (ja) 定量的f0パターン生成装置及び方法、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム
JP2016151736A (ja) 音声加工装置、及びプログラム
Liu et al. Controllable accented text-to-speech synthesis
Chen et al. The USTC System for Voice Conversion Challenge 2016: Neural Network Based Approaches for Spectrum, Aperiodicity and F0 Conversion.
Deka et al. Development of assamese text-to-speech system using deep neural network
Schipor et al. Automatic assessment of pronunciation quality of children within assisted speech therapy
CN116453502A (zh) 基于双说话人嵌入的跨语言语音合成方法及系统
Raghavendra et al. A multilingual screen reader in Indian languages
Cahyaningtyas et al. Synthesized speech quality of Indonesian natural text-to-speech by using HTS and CLUSTERGEN
JP2016142936A (ja) 音声合成用データ作成方法、及び音声合成用データ作成装置
Sun et al. A method for generation of Mandarin F0 contours based on tone nucleus model and superpositional model
JP7357518B2 (ja) 音声合成装置及びプログラム
WO2012032748A1 (ja) 音声合成装置、音声合成方法及び音声合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190426

R151 Written notification of patent or utility model registration

Ref document number: 6523893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350