JP2020060633A - 音響モデル学習装置、音声合成装置、及びプログラム - Google Patents

音響モデル学習装置、音声合成装置、及びプログラム Download PDF

Info

Publication number
JP2020060633A
JP2020060633A JP2018190462A JP2018190462A JP2020060633A JP 2020060633 A JP2020060633 A JP 2020060633A JP 2018190462 A JP2018190462 A JP 2018190462A JP 2018190462 A JP2018190462 A JP 2018190462A JP 2020060633 A JP2020060633 A JP 2020060633A
Authority
JP
Japan
Prior art keywords
model
acoustic
speaker
acoustic feature
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018190462A
Other languages
English (en)
Other versions
JP7125608B2 (ja
Inventor
裕紀 金川
Yuki Kanekawa
裕紀 金川
勇祐 井島
Yusuke Ijima
勇祐 井島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018190462A priority Critical patent/JP7125608B2/ja
Priority to PCT/JP2019/037620 priority patent/WO2020071213A1/ja
Priority to US17/275,268 priority patent/US11545135B2/en
Publication of JP2020060633A publication Critical patent/JP2020060633A/ja
Application granted granted Critical
Publication of JP7125608B2 publication Critical patent/JP7125608B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】高品質な合成音声を生成することが可能な音声合成装置を提供する。【解決手段】音響モデル学習装置は、抑揚のある音声信号を合成するために用いる音響モデルを得るための音響モデル学習装置であって、音声判別モデル及び話者判別モデルを用いて、複数話者の複数の音響特徴量、前記複数の音響特徴量に対応する複数の言語特徴量、及び複数の話者データに基づいて、複数の合成音響特徴量を推定する前記音響モデルを学習する第1の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量が、所定の音響特徴量であることの真偽を判別する前記音声判別モデルを学習する第2の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量の話者が、所定の話者であることの真偽を判別する前記話者判別モデルを学習する第3の学習部と、を備える。【選択図】図1

Description

本発明は、音響モデル学習装置、音声合成装置、及びプログラムに関する。
従来、複数話者の自然音声データから抽出された複数の音響特徴量、複数話者の自然音声データに対応する複数のテキストデータから抽出された複数の言語特徴量、複数の話者データ、などを学習データとして、DNN(Deep Neural Network)による音響モデルを学習し、任意のテキストデータから目標話者の合成音声データを生成する音声合成装置が知られている(図5参照)。例えば、特許文献1には、複数話者の自然音声データを効率的に活用することで、DNN音響モデルを低コストで学習する音声合成装置が開示されている。
上述のDNN音響モデルは、次式(1)に示すように、自然音声データに基づく音響特徴量とDNN音響モデルにより推定される合成音響特徴量との平均二乗誤差(Mean Squared Error; MSE)を、最小化するように構築される。
Figure 2020060633
しかしながら、上述のDNN音響モデルでは、合成音響特徴量が過剰に平滑化されるため、音声合成部により生成された合成音声データの肉声感が損なわれる傾向がある。この対策として、ポストフィルタなどの信号処理的アプローチ(非特許文献1参照)、音声合成時における系列内変動を考慮したパラメータ生成(非特許文献2参照)、などの手法が提案されているが、自然音声データから得られる音響特徴量の再現には、不十分であるといえる。
そこで近年、単一話者の自然音声データから抽出された音響特徴量、単一話者の自然音声データに対応するテキストデータから抽出された言語特徴量、などを学習データとして、敵対的生成ネットワーク(GAN :Generative Adversarial Network)(非特許文献3参照)により、音響モデルと判別モデルとを交互に学習する音声合成装置(非特許文献4参照)の開発が進められている(図6参照)。
敵対的生成ネットワークによる音響モデルは、音響モデルにより推定される合成音響特徴量を、自然音声データに基づく音響特徴量に近づけるように、即ち、次式(2)に示す自然/合成音声判別モデルの損失関数及び次式(3)に示す音響モデルの損失関数を最小化するように、構築される。
Figure 2020060633
Figure 2020060633
特開2017−32839号公報
Takayoshi. Yoshimura, Keiichi. Tokuda, Takashi. Masuko, Takao. Kobayashi, and Tadashi. Kitamura, "Incorporating a mixed excitation model and postfilter into HMM-based text-to-speech synthesis," IEICE Trans. on Information and Systems, vol. J87-D-II, no. 8, pp. 1563-1571, 2004. Tomoki. Toda, Keiichi. Tokuda. A speech parameter generation algorithm considering global variance for HMM-based speech synthesis. IEICE Transactions, Vol. E90-D, No. 5, pp. 816-824, May 2007. Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron, Courville, and Yoshua Bengio, "Generative adversarial nets," Proc. NIPS, pp. 2672-2680, 2014. Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari, "Training algorithm to deceive anti-spoofing verification for DNN-based speech synthesis," Proc. ICASSP, pp. 4900--4904, 2017.
図5に示す複数話者の自然音声データを学習データとする音声合成装置によって学習された音響モデルを用いて生成された合成音声は、抑揚のない所謂機械音声に近い音声である。したがって自然音声のようにユーザに感じさせるためには、当該音声に対してポストフィルタなど別途加工処理を施す必要があるという問題があった。例えば、昨今の自動車向けのナビゲーション等では自然音声に近い音声信号でナビゲーションを行うことは一般的に行われている。自動車に実装された演算装置は高性能ではない場合も多く、ナビゲーションのための音声信号をユーザに向けて放音する毎に上記加工処理を行うことは困難な場合もある。
また、図5に示すような複数話者の自然音声データを学習データとする音声合成装置に、図6に示すような敵対的学習を単純に適用すると、モデル学習部は、話者を判別せずに、音響モデル及び判別モデルを学習してしまう。特に学習話者の中に特徴量の分布形状が大きく異なる話者が存在する場合、自然・合成判別装置だけでは話者情報を考慮できず、その当該データの影響を強く受けてしまい、適切に音響モデルおよび判別モデルを学習できない。不適切な学習が行われた場合、敵対的学習することでかえって合成音声が劣化するという問題があった。
かかる事情に鑑みてなされた本発明の目的は、高品質な合成音声を生成することが可能な音響モデル学習装置、音声合成装置、及びプログラムを提供することにある。
上記課題を解決するため、本発明に係る音響モデル学習装置は、抑揚のある音声信号を合成するために用いる音響モデルを得るための音響モデル学習装置であって、音声判別モデル及び話者判別モデルを用いて、複数話者の複数の音響特徴量、前記複数の音響特徴量に対応する複数の言語特徴量、及び複数の話者データに基づいて、複数の合成音響特徴量を推定する前記音響モデルを学習する第1の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量が、所定の音響特徴量であることの真偽を判別する前記音声判別モデルを学習する第2の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量の話者が、所定の話者であることの真偽を判別する前記話者判別モデルを学習する第3の学習部と、を備えることを特徴とする。
また、上記課題を解決するため、本発明に係る音声合成装置は、所望の話者の特徴を有する音声データを合成する音声合成装置であって、テキストデータと前記所望の話者を示す話者データから、前記テキストデータに対応するかつ前記所望の話者の特徴を有する音声データである合成音声データを合成する合成部を有し、前記合成音声データは、所定の判別器により自然音かつ前記所望の話者が発した音声であると判定されることを特徴とする。
また、上記課題を解決するため、本発明に係る音響モデル学習装置は、抑揚のある音声信号を合成するために用いる音響モデルを得るための音響モデル学習装置であって、音声判別モデル及び感情判別モデルを用いて、複数の音響特徴量、前記複数の音響特徴量に対応する複数の言語特徴量、及び複数の感情データに基づいて、複数の合成音響特徴量を推定する前記音響モデルを学習する第1の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量が、所定の音響特徴量であることの真偽を判別する前記音声判別モデルを学習する第2の学習部と、前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量の感情が、所定の感情を示す音響特徴量であることの真偽を判別する前記感情判別モデルを学習する第3の学習部と、を備えることを特徴とする。
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記音響モデル学習装置として機能させることを特徴とする。
本発明によれば、高品質な合成音声を生成することができる。
本発明の第1実施形態に係る音声合成装置の構成の一例を示すブロック図である。 本発明の第2実施形態に係る音声合成装置の構成の一例を示すブロック図である。 本発明の第3実施形態に係る音声合成装置の構成の一例を示すブロック図である。 本発明の第4実施形態に係る音声合成装置の構成の一例を示すブロック図である。 従来の音声合成装置の構成の一例を示すブロック図である。 従来の音声合成装置の構成の一例を示すブロック図である。
以下、本発明の一実施形態について、図面を参照して詳細に説明する。
<第1実施形態>
図1を参照して、第1実施形態に係る音声合成装置100について説明する。図1は、第1実施形態に係る音声合成装置100の構成の一例を示す図である。
上述した通り話者が判別されない音響モデルを用いると結果と適切な学習が行われず、かえって敵対的学習をしない場合よりも劣化した音声信号が合成される。このため、話者の識別も行うよう学習させた音響モデルと判別モデルのうち、音響モデルを用いることで、学習話者の特徴量分布に大きな差異があったとしても安定して敵対的学習でき、当初の目的通りの肉声感のある音声信号を合成できる。
図1に示すように、音声合成装置100は、モデル学習部10と、音声合成部20と、を備える。モデル学習部10は、複数話者の自然音声データ、複数話者の自然音声データに対応する複数のテキストデータ、複数の話者データ、などを学習データとして、敵対的生成ネットワーク(GAN :Generative Adversarial Network)を用いて、音響モデルと判別モデルとを交互に学習する。音声合成部20は、当該音響モデルを用いて、任意のテキストデータから目標話者(合成音声データの生成対象となる話者)の合成音声データを生成する。
本明細書において、「自然音声」とは、話者が発する自然な音声を意味し、「合成音声」とは、音声合成部20によって生成される人工的な音声を意味するものとする。また、本明細書において、「音響特徴量」とは、自然音声データに基づく音響特徴量を意味し、「合成音響特徴量」とは、音響モデルにより推定される音響特徴量を意味するものとする。
〔モデル学習部の構成〕
まず、モデル学習部10について説明する。モデル学習部10は、音響特徴量計算部11、言語特徴量計算部12、音響モデル学習部(第1の学習部)13、音響特徴量生成部14、自然/合成音声判別モデル学習部(第2の学習部)15、話者判別モデル学習部(第3の学習部)16、データベース(不図示)、などを備える。
音響特徴量計算部11は、複数話者の自然音声データ(学習データ)に基づいて、複数の音響特徴量を計算する。音響特徴量は、ベクトルで表され、例えば、音韻や声色を表すメルケプストラム、声の高さを表す基本周波数、声のかすれ具合を表す非周期性指標、などである。例えば、音響特徴量計算部11は、複数話者の自然音声データから、予め設定されるフレームごとに、音響特徴量を抽出し、データベースに該音響特徴量がいずれの話者に対応するかを示す話者データとともに、当該音響特徴量を格納する。
言語特徴量計算部12は、複数話者の自然音声データに対応する複数のテキストデータ(学習データ)に基づいて、複数の言語特徴量を計算する。言語特徴量は、ベクトルで表され、例えば、音素、アクセント、モーラ長、などである。例えば、言語特徴量計算部12は、複数のテキストデータに、形態素解析などのテキスト解析処理を施して、言語特徴量を抽出し、データベースに当該言語特徴量を格納する。
Figure 2020060633
音響モデル学習部13は、合成音響特徴量を、所定の話者(合成音響特徴量の生成対象となる、例えば上記複数の話者のいずれかの、話者)の音響特徴量に近づけるように、即ち、次式(4)に示す音響モデルの損失関数を最小化するように、音響モデルを学習する。音響モデル学習部13は、判別モデルを詐称するように、音響モデルを学習する。
Figure 2020060633
音響特徴量生成部14は、音響モデルを用いて、データベースに格納される複数の言語特徴量、及びデータベースに格納される複数の話者データに基づいて、複数の合成音響特徴量を生成する。音響特徴量生成部14は、言語特徴量と話者データとを用いて、該言語特徴量と該話者データに対応する音響特徴量を推定する。このとき、より連続性の高い滑らかな音声を生成するための工夫として、音響特徴量を1フレーム分の情報しか持たない静的特徴量から、当該フレームの前後の差分情報を持つ動的特徴量に変更することもできる。実際に音声合成するには、動的特徴量から静的特徴量に変換する必要があるが、その際は動的特徴量に基づく最尤パラメータ生成(MLPG)などのアルゴリズムが利用できる。
自然/合成音声判別モデル学習部15は、データベースに格納される複数の音響特徴量、及びデータベースに格納される複数の合成音響特徴量に基づいて、当該合成音響特徴量が所定の音響特徴量であるとは、例えば、当該合成音響特徴量が自然音データに基づく特徴量の分布に含まれる場合は偽、すなわち自然音声データであると判別することを示す自然/合成音声判別モデルを学習する。
自然/合成音声判別モデル学習部15は、次式(5)に示す自然/合成音声判別モデルの損失関数を最小化するように、自然/合成音声判別モデルを学習する。自然/合成音声判別モデル学習部15は、音響モデルによる詐称を見破るように、自然/合成音声判別モデルを学習する。次式(6)は、自然音声に対する損失関数であり、次式(7)は、合成音声に対する損失関数である。
Figure 2020060633
Figure 2020060633
Figure 2020060633
敵対的生成ネットワークにおいて、モデル学習部10は、合成音響特徴量が自然/合成音声判別モデルに合成音であると判別されてしまわないように音響モデルを学習するため、「真」とは、自然/合成音声判別モデルに判別されないことであり、「偽」とは、自然/合成音声判別モデルに判別されることである。
従って、自然/合成音声判別モデルは、音響特徴量生成部14により生成された合成音響特徴量が、所定の音響特徴量でないことを「真」、音響特徴量生成部14により生成された合成音響特徴量が、所定の音響特徴量であることを「偽」、として、当該合成音響特徴量を判別する。また、自然/合成音声判別モデルは、話者判別モデルと同時に最適化される。
話者判別モデル学習部16は、データベースに格納される複数の音響特徴量、及びデータベースに格納される複数の合成音響特徴量に基づいて、当該合成音響特徴量の話者が所定の話者であることの真偽を判別する話者判別モデルを学習する。なお、データベースに格納される複数の話者データは、話者判別モデル学習部16に入力されなくてもよいが、補助特徴量として入力されても構わない。
話者判別モデル学習部16は、次式(8)に示す話者判別モデルの損失関数を最小化するように、話者判別モデルを学習する。話者判別モデル学習部16は、音響モデルによる詐称を見破るように、話者判別モデルを学習する。次式(9)は音響特徴量の話者が所定の話者であるとして判別されないことに対する損失関数であり、次式(10)は合成音響特徴量の話者が所定の話者であるとして判別されることに対する損失関数である。
Figure 2020060633
Figure 2020060633
Figure 2020060633
敵対的生成ネットワークにおいて、モデル学習部10は、話者判別モデルに判別されてしまわないように音響モデルを学習するため、「真」とは、話者判別モデルに判別されないことであり、「偽」とは、話者判別モデルに判別されることである。
Figure 2020060633
従って、話者判別モデルは、音響特徴量生成部14により生成された合成音響特徴量の話者が、学習データ内の所定の話者に判別されないことを「真」、音響特徴量生成部14により生成された合成音響特徴量の話者が、学習データ内の所定の話者に判別されることを「偽」、として、当該合成音響特徴量の話者を判別する。また、話者判別モデルは、自然/合成音声判別モデルと同時に最適化される。
Figure 2020060633
Figure 2020060633
Figure 2020060633
上述のように、モデル学習部10が、音響モデル学習部13及び自然/合成音声判別モデル学習部15に加えて、話者判別モデル学習部16を備えることで、モデル学習部10は、話者を判別しながら、音響モデル及び判別モデルを学習することができる。この音響モデルを用いて生成された合成音声は、抑揚のある所謂肉声に近い音声であるため、当該音声に対して別途加工処理などを施すことが不要となる。
また、モデル学習部10は、音声判別タスクの敵対的学習において、合成音響特徴量を所定の音響特徴量に近づけることができ、話者判別タスクの敵対的学習において、合成音響特徴量の話者を所定の話者に近づけることができる。これにより、従来のモデル学習部が、音響モデルにより推定された合成音響特徴量を、複数話者の平均的な音響特徴量に近づけるような学習を行っていた(話者を判別せずに学習を行っていた)という問題を回避し、話者性を明確に反映させた学習を行うモデル学習部10を実現できる。
〔音声合成部の構成〕
次に、音声合成部20について説明する。音声合成部20は、言語特徴量計算部21、音響特徴量生成部22、波形生成部23、データベース(不図示)、などを備える。
言語特徴量計算部21は、任意のテキストデータに基づいて、言語特徴量を計算する。言語特徴量は、ベクトルで表され、例えば、音素、アクセント、モーラ長、などである。例えば、言語特徴量計算部21は、任意のテキストデータに、形態素解析などのテキスト解析処理を施して、言語特徴量を抽出し、音声合成部20内のデータベースに当該言語特徴量を格納する。任意のテキストデータは、音声合成装置100を利用する利用者によって任意に設定される。
音響特徴量生成部22は、上述の音響モデルを用いて、音声合成部20内のデータベースに格納される言語特徴量、音声合成部20内のデータベースに格納される目標話者の話者データに基づいて、目標話者の合成音響特徴量を生成する。目標話者(例えば、話者A、話者B、話者C)は、音声合成装置100を利用する利用者によって任意に設定される。
波形生成部23は、目標話者の合成音響特徴量に基づいて、目標話者の合成音声データを生成する。例えば、波形生成部23は、利用者によって設定された目標話者が話者Aである場合、話者Aの合成音声データを生成する。例えば、波形生成部23は、利用者によって設定された目標話者が話者Bである場合、話者Bの合成音声データを生成する。例えば、波形生成部23は、利用者によって設定された目標話者が話者Cである場合、話者Cの合成音声データを生成する。
なお、図1に示す音声合成装置100においては、モデル学習部10と音声合成部20とを分けて記載しているが、モデル学習部10と音声合成部20とは一体的に形成されていてもよい。したがって、音声合成部20が、モデル学習部10が備える各部を備えていてもよい。
第1実施形態に係る音声合成装置100によれば、モデル学習部10が、自然音であるか否かに加え、話者を判別しながら、音響モデル及び判別モデルを学習することで、この音響モデルを用いて生成された目標話者の合成音声データの品質を高めることができる。即ち、高品質な合成音声を生成することが可能な音声合成装置100を実現できる。
また、第1実施形態に係る音声合成装置100によれば、自然/合成音声判別モデルと話者判別モデルとは、同時に最適化されるため、モデル学習部10の学習を安定化させて、学習精度を向上させることができる。
また、第1実施形態に係る音声合成装置100によれば、従来のように、合成音響特徴量の過剰な平滑化を抑制するための、信号処理的アプローチや音声合成時における系列内変動を考慮したパラメータ生成などが不要である。これにより、簡易な構成で音声合成装置100を実現できる。
<第2実施形態>
図2を参照して、第2実施形態に係る音声合成装置200について説明する。図2は、第2実施形態に係る音声合成装置200の構成の一例を示す図である。
第2実施形態に係る音声合成装置200が、第1実施形態に係る音声合成装置100と異なる点は、第1実施形態に係る音声合成装置100におけるモデル学習部10が、自然/合成音声判別モデル学習部15及び話者判別モデル学習部16という2つの判別モデル学習部を備えるのに対して、第2実施形態に係る音声合成装置200におけるモデル学習部10Aは、自然/合成音声判別モデル学習部15と話者判別モデル学習部16とが統合された自然/合成音声判別及び話者判別モデル学習部30という1つの判別モデル学習部を備える点である。なお、その他の構成は、第1実施形態に係る音声合成装置100と同じであるため、重複した説明を省略する。
図2に示すように、モデル学習部10Aは、音響特徴量計算部11、言語特徴量計算部12、音響モデル学習部(第1の学習部)13、音響特徴量生成部14、自然/合成音声判別及び話者判別モデル学習部(第2の学習部)30、などを備える。
自然/合成音声判別及び話者判別モデル学習部30は、データベースに格納される複数の音響特徴量、及びデータベースに格納される複数の合成音響特徴量に基づいて、当該合成音響特徴量が所定の話者の音響特徴量(合成音響特徴量の生成対象となる話者の自然音声データに基づく音響特徴量)であることの真偽を判別する自然/合成音声判別及び話者判別モデルを学習する。なお、データベースに格納される複数の話者データは、自然/合成音声判別及び話者判別モデル学習部30に入力されなくてもよいが、補助特徴量として入力されても構わない。
自然/合成音声判別及び話者判別モデル学習部30は、次式(12)に示す自然/合成音声判別及び話者判別モデルの損失関数を最小化するように、自然/合成音声判別及び話者判別モデルを学習する。自然/合成音声判別及び話者判別モデル学習部30は、音響モデルによる詐称を見破るように、自然/合成音声判別及び話者判別モデルを学習する。
Figure 2020060633
敵対的生成ネットワークにおいて、モデル学習部10は、自然/合成音声判別及び話者判別モデルに判別されてしまわないように音響モデルを学習するため、「真」とは、自然/合成音声判別及び話者判別モデルに判別されないことであり、「偽」とは、自然/合成音声判別及び話者判別モデルに判別されることである。
従って、自然/合成音声判別及び話者判別モデルは、音響特徴量生成部14により生成された合成音響特徴量が、学習データ内の所定の話者の音響特徴量に判別されないことを「真」、音響特徴量生成部14により生成された合成音響特徴量が、学習データ内の所定の話者の音響特徴量に判別されることを「偽」、として、当該合成音響特徴量及び当該合成音響特徴量の話者を判別する。また、自然/合成音声判別及び話者判別モデルにおいて、自然/合成音声判別と話者判別とは同時に最適化される。
例えば、自然/合成音声判別及び話者判別モデルは、出力層を除いて、1つのネットワークで構築されてもよい。例えば、自然/合成音声判別及び話者判別モデルは、1つのネットワークが途中で分岐されて構築されてもよい。
自然/合成音声判別モデルと話者判別モデルとが統合された自然/合成音声判別及び話者判別モデルを音声合成装置200に採用することで、モデル学習部10Aは、両モデルを1つの損失関数により統合的に学習することが可能になる。また、モデル学習部10Aが、複数のタスク(音声判別タスク、話者判別タスク)を同時に学習することで、各タスクに共通の要因を獲得し、各タスクの予測精度を向上させて、学習を安定化させることができる。また、モデル学習部10Aが、複数のタスク(音声判別タスク、話者判別タスク)を同時に学習することで、両モデルのパラメータを共有できるため、推定すべきパラメータ数が減り、過学習に頑健になる等の効果も得られる。
上述のように、モデル学習部10Aが、自然/合成音声判別及び話者判別モデル学習部30を備えることで、モデル学習部10Aは、自然音であるか否かに加え、話者を判別しながら、音響モデル及び判別モデルを学習することができる。この音響モデルを用いて生成された合成音声は、抑揚のある所謂肉声に近い音声であるため、当該音声に対して別途加工処理などを施すことが不要となる。
また、モデル学習部10Aは、音声判別タスクの敵対的学習において、合成音響特徴量を所定の音響特徴量に近づけることができ、話者判別タスクの敵対的学習において、合成音響特徴量の話者を所定の話者に近づけることができる。これにより、従来のモデル学習部が、音響モデルにより推定された合成音響特徴量を、複数話者の平均的な音響特徴量に近づけるような学習を行っていたという問題を回避し、話者性を明確に反映させた学習を行うモデル学習部10Aを実現できる。
第2実施形態に係る音声合成装置200によれば、モデル学習部10Aが、自然/合成音声判別モデルと話者判別モデルとを個別に学習するのではなく、自然/合成音声判別モデルと話者判別モデルとを統合して学習する。モデル学習部10Aが、話者を判別しながら、音響モデル及び自然/合成音声判別及び話者判別モデルを学習することで、この音響モデルを用いて生成された目標話者の合成音声データの品質を高めることができる。即ち、高品質な合成音声を生成することが可能な音声合成装置200を実現できる。
<第3実施形態>
図3を参照して、第3実施形態に係る音声合成装置300について説明する。図3は、第3実施形態に係る音声合成装置300の構成の一例を示す図である。
第3実施形態に係る音声合成装置300が、第1実施形態に係る音声合成装置100と異なる点は、第1実施形態に係る音声合成装置100におけるモデル学習部10が、話者間のデータ量を制御する話者間データ量制御部を備えていないのに対して、第3実施形態に係る音声合成装置300におけるモデル学習部10Bは、話者間のデータ量を制御する話者間データ量制御部40を備える点である。なお、その他の構成は、第1実施形態に係る音声合成装置100と同じであるため、重複した説明を省略する。
図3に示すように、モデル学習部10Bは、音響特徴量計算部11、言語特徴量計算部12、音響モデル学習部13、音響特徴量生成部14、自然/合成音声判別モデル学習部15、話者判別モデル学習部16、話者間データ量制御部(データ量制御部)40、などを備える。
話者間データ量制御部40Aは、例えば、音響特徴量計算部11と自然/合成音声判別モデル学習部15との間に配置される。また、話者間データ量制御部40Bは、例えば、音響特徴量計算部11と話者判別モデル学習部16との間に配置される。また、話者間データ量制御部40Cは、例えば、音響特徴量生成部14と自然/合成音声判別モデル学習部15との間に配置される。また、話者間データ量制御部40Dは、例えば、音響特徴量生成部14と話者判別モデル学習部16との間に配置される。なお、図3では、モデル学習部10Bが、話者間データ量制御部40を4つ備える構成を一例に挙げて説明するが、話者間データ量制御部40の個数は、特に限定されるものではない。
話者間データ量制御部40Aは、例えば、自然/合成音声判別モデル学習部15に入力される複数話者の自然音声データ(学習データ)から抽出された複数の音響特徴量のデータ量を制御する。話者間データ量制御部40Aは、話者間に生じるデータ量の差を均一化するように、各話者に対応する音響特徴量を制御し、自然/合成音声判別モデル学習部15へと出力する。
話者間データ量制御部40Bは、例えば、話者判別モデル学習部16に入力される複数話者の自然音声データ(学習データ)から抽出された複数の音響特徴量のデータ量を制御する。話者間データ量制御部40Bは、話者間に生じるデータ量の差を均一化するように、各話者に対応する音響特徴量を制御し、話者判別モデル学習部16へと出力する。
話者間データ量制御部40Cは、例えば、自然/合成音声判別モデル学習部15に入力される音響特徴量生成部14により生成された複数の合成音響特徴量のデータ量を制御する。話者間データ量制御部40Cは、話者間に生じるデータ量の差を均一化するように、各話者に対応する合成音響特徴量を制御し、自然/合成音声判別モデル学習部15へと出力する。
話者間データ量制御部40Dは、例えば、話者判別モデル学習部16に入力される音響特徴量生成部14により生成された複数の合成音響特徴量のデータ量を制御する。話者間データ量制御部40Dは、話者間に生じるデータ量の差を均一化するように、各話者に対応する合成音響特徴量を制御し、話者判別モデル学習部16へと出力する。
モデル学習部10Bが話者間データ量制御部40を備えることで、モデル学習部10Bは、複数話者の間に生じるデータ量の差が均一化された状態で、音響モデル、自然/合成音声判別モデル、及び話者判別モデルを学習することができる。これにより、複数話者の間に生じるデータ量の差が極端に大きい場合であっても、モデル学習部10Bは、データ量が大きい話者に特化した学習を行うことなく、各話者に対して、均一な学習を行うことができる。従って、モデル学習部10Bの学習を安定化させて、学習精度を向上させることができる。
また、モデル学習部10Bが、音響モデル学習部13及び自然/合成音声判別モデル学習部に加えて、話者判別モデル学習部16を備えることで、モデル学習部10Bは、話者を判別しながら、音響モデル及び判別モデルを学習することができる。この音響モデルを用いて生成された合成音声は、抑揚のある所謂肉声に近い音声であるため、当該音声に対して別途加工処理などを施すことが不要となる。
第3実施形態に係る音声合成装置300によれば、モデル学習部10Bが、自然音であるか否かに加え、話者を判別しながら、音響モデル及び判別モデルを学習することで、この音響モデルを用いて生成された目標話者の合成音声データの品質を高めることができる。即ち、高品質な合成音声を生成することが可能な音声合成装置300を実現できる。
<第4実施形態>
図4を参照して、第4実施形態に係る音声合成装置400について説明する。図4は、第4実施形態に係る音声合成装置400の構成の一例を示す図である。
第4実施形態に係る音声合成装置400が、第1実施形態に係る音声合成装置100と異なる点は、第1実施形態に係る音声合成装置100におけるモデル学習部10が、自然/合成音声判別モデル学習部15及び話者判別モデル学習部16という2つの判別モデル学習部を備えるのに対して、第4実施形態に係る音声合成装置400におけるモデル学習部10Cは、自然/合成音声判別モデル学習部15と感情判別モデル学習部50という2つの判別モデル学習部を備える点である。即ち、第4実施形態に係る音声合成装置400は、第1実施形態に係る音声合成装置100が話者判別モデル学習部16を備える代わりに、感情判別モデル学習部50を備える。なお、その他の構成は、第1実施形態に係る音声合成装置100と同じであるため、重複した説明を省略する。
第4実施形態に係る音声合成装置400が備えるモデル学習部10Cは、感情を判別しながら、音響モデル及び判別モデルを学習する。従って、第4実施形態に係る音声合成装置400は、話者が同一であり、感情表現の異なる複数の自然音声データが学習データとして使用される場合に、特に有用である。
図4に示すように、音声合成装置400は、モデル学習部10Cと、音声合成部20と、を備える。モデル学習部10Cは、複数話者の自然音声データ、複数話者の自然音声データに対応する複数のテキストデータ、複数の感情データ、などを学習データとして、敵対的生成ネットワークを用いて、音響モデルと判別モデルとを交互に学習する。音声合成部20は、音響モデルを用いて、任意のテキストデータから目標とする感情(合成音声データの生成対象となる感情)を示す合成音声データを生成する。
感情データは、ベクトルで表され、例えば、感情コード、などである。感情コードは、ある要素を1、他の要素を0、として表現したJ(J=感情の個数)次元のベクトルで表すことができる。感情の要素としては、例えば、「喜び」、「悲しみ」、「怒り」、「諦め」、「驚き」、「嫌悪」、「恐怖」、などが挙げられる。
〔モデル学習部の構成〕
まず、モデル学習部10Cについて説明する。モデル学習部10Cは、音響特徴量計算部11、言語特徴量計算部12、音響モデル学習部13、音響特徴量生成部14、自然/合成音声判別モデル学習部15、感情判別モデル学習部50、データベース(不図示)、などを備える。
感情判別モデル学習部50は、データベースに格納される複数の音響特徴量、及びデータベースに格納される複数の合成音響特徴量に基づいて、当該合成音響特徴量の感情が所定の感情(合成音響特徴量の生成対象となる話者)であることの真偽を判別する感情判別モデルを学習する。なお、データベースに格納される複数の感情データは、感情判別モデル学習部50に入力されなくてもよいが、補助特徴量として入力されても構わない。
感情判別モデル学習部50は、次式(13)に示す感情判別モデルの損失関数を最小化するように、感情判別モデルを学習する。感情判別モデル学習部50は、音響モデルによる詐称を見破るように、感情判別モデルを学習する。次式(14)は音響特徴量の感情が所定の感情を示すものとして判別されないことに対する損失関数であり、次式(15)は合成音響特徴量の感情が所定の感情を示すものとして判別されることに対する損失関数である。
Figure 2020060633
Figure 2020060633
Figure 2020060633
敵対的生成ネットワークにおいて、モデル学習部10Cは、感情判別モデルに判別されてしまわないように音響モデルを学習するため、「真」とは、感情判別モデルに判別されないことであり、「偽」とは、感情判別モデルに判別されることである。
従って、感情判別モデルは、音響特徴量生成部14により生成された合成音響特徴量の感情が、学習データ内の所定の感情に判別されないことを「真」、音響特徴量生成部14により生成された合成音響特徴量の感情が、学習データ内の所定の感情に判別されることを「偽」、として、当該合成音響特徴量の感情を判別するモデルである。また、感情判別モデルは、自然/合成音声判別モデルと同時に最適化される。
Figure 2020060633
Figure 2020060633
Figure 2020060633
Figure 2020060633
なお、第4実施形態に係る音声合成装置400において、第2実施形態に係る音声合成装置200と同様に、感情判別モデルを、自然/合成音声判別モデルと統合し、モデル学習部10Cが、複数のタスクを同時に学習することも可能である。また、第4実施形態に係る音声合成装置400に係る感情判別モデルを、第1実施形態に係る音声合成装置100が備えるモデル、第2実施形態に係る音声合成装置200が備えるモデル、第3実施形態に係る音声合成装置300が備えるモデルと、適宜組み合わせて、各実施形態のモデルに、更に感情判別モデルを追加することも可能である。
上述のように、モデル学習部10Cが、音響モデル学習部13及び自然/合成音声判別モデル学習部に加えて、感情判別モデル学習部50を備えることで、モデル学習部10Cは、感情を判別しながら、音響モデル及び判別モデルを学習することができる。この音響モデルを用いて生成された合成音声は、抑揚のある所謂肉声に近い音声であるため、当該音声に対して別途加工処理などを施すことが不要となる。
また、モデル学習部10Cは、音声判別タスクの敵対的学習において、合成音響特徴量を所定の音響特徴量に近づけることができ、感情判別タスクの敵対的学習において、合成音響特徴量の感情を所定の感情に近づけることができる。これにより、従来のモデル学習部が、音響モデルにより推定された合成音響特徴量を、感情表現の異なる複数の自然音声データから抽出された平均的な音響特徴量に近づけるような学習を行っていたという問題を回避し、感情表現を明確に反映させた学習を行うモデル学習部10Cを実現できる。
〔音声合成部の構成〕
次に、音声合成部20について説明する。音声合成部20は、言語特徴量計算部21、音響特徴量生成部22、波形生成部23、データベース(不図示)、などを備える。
言語特徴量計算部21は、任意のテキストデータに基づいて、言語特徴量を計算する。言語特徴量は、ベクトルで表され、例えば、音素、アクセント、モーラ長、などである。例えば、言語特徴量計算部21は、任意のテキストデータに、形態素解析などのテキスト解析処理を施して、言語特徴量を抽出し、音声合成部20内のデータベースに当該言語特徴量を格納する。任意のテキストデータは、音声合成装置100を利用する利用者によって任意に設定される。
音響特徴量生成部22は、上述の音響モデルを用いて、音声合成部20内のデータベースに格納される言語特徴量、音声合成部20内のデータベースに格納される目標とする感情を示す感情データに基づいて、目標とする感情を示す合成音響特徴量を生成する。目標とする感情(例えば、「喜び」、「悲しみ」、「怒り」、「諦め」、「驚き」、「嫌悪」、「恐怖」)は、音声合成装置400を利用する利用者によって任意に設定される。
波形生成部23は、目標とする感情を示す合成音響特徴量に基づいて、目標とする感情を示す合成音声データを生成する。例えば、波形生成部23は、利用者によって設定された目標とする感情が「喜び」である場合、「喜び」を示す合成音声データを生成する。例えば、波形生成部23は、利用者によって設定された目標とする感情が「悲しみ」である場合、「悲しみ」を示す合成音声データを生成する。
第4実施形態に係る音声合成装置400によれば、モデル学習部10Cが、自然音であるか否かに加え、感情を判別しながら、音響モデル及び判別モデルを学習することで、この音響モデルを用いて生成された目標とする感情を示す合成音声データの品質を高めることができる。即ち、高品質な合成音声を生成することが可能な音声合成装置400を実現できる。
また、第4実施形態に係る音声合成装置400によれば、感情表現という発話様式が異なるものを混在させて、モデル学習部10Cに学習させても、学習性能が低下することなく、感情表現が明確に反映された合成音声を生成することが可能になる。
<変形例>
本実施形態に係る音声合成装置に適用される判別モデルは、話者判別モデルに限定されるものではない。例えば、話者の年齢に依存して、表現の異なる複数の自然音声データが学習データとして使用される場合を想定した年齢判別モデルを採用することも可能である。例えば、話者の性別に依存して、表現の異なる複数の自然音声データ(男女混合データ)が学習データとして使用される場合を想定した性別判定モデルを採用することも可能である。任意の基準で対象を判別できるモデルであれば、どのようなものであってもよい。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態の構成図に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
10 モデル学習部
11 音響特徴量計算部
12 言語特徴量計算部
13 音響モデル学習部(第1の学習部)
14 音響特徴量生成部
15 自然/合成音声判別モデル学習部(第2の学習部)
16 話者判別モデル学習部(第3の学習部)
20 音声合成部
21 言語特徴量計算部
22 音響特徴量生成部(生成部)
23 波形生成部
30 自然/合成音声判別及び話者判別モデル学習部(第2の学習部)
40A 話者間データ量制御部(データ量制御部)
40B 話者間データ量制御部(データ量制御部)
40C 話者間データ量制御部(データ量制御部)
40D 話者間データ量制御部(データ量制御部)
50 感情判別モデル学習部(第2の学習部)
100 音声合成装置
200 音声合成装置
300 音声合成装置
400 音声合成装置




Claims (7)

  1. 抑揚のある音声信号を合成するために用いる音響モデルを得るための音響モデル学習装置であって、
    音声判別モデル及び話者判別モデルを用いて、複数話者の複数の音響特徴量、前記複数の音響特徴量に対応する複数の言語特徴量、及び複数の話者データに基づいて、複数の合成音響特徴量を推定する前記音響モデルを学習する第1の学習部と、
    前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量が、所定の音響特徴量であることの真偽を判別する前記音声判別モデルを学習する第2の学習部と、
    前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量の話者が、所定の話者であることの真偽を判別する前記話者判別モデルを学習する第3の学習部と、
    を備える音響モデル学習装置。
  2. 前記第1の学習部は、前記音響モデルの損失関数を最小化するように前記音響モデルを学習し、
    前記第2の学習部は、前記音声判別モデルの損失関数を最小化するように前記音声判別モデルを学習し、
    前記第3の学習部は、前記話者判別モデルの損失関数を最小化するように前記話者判別モデルを学習する、
    請求項1に記載の音響モデル学習装置。
  3. 前記音声判別モデルと前記話者判別モデルとは、同時に最適化される、
    請求項1または2に記載の音響モデル学習装置。
  4. 前記複数話者の間に生じるデータ量の差を均一化するデータ量制御部を更に備える、
    請求項1から3のいずれか一項に記載の音響モデル学習装置。
  5. 所望の話者の特徴を有する音声データを合成する音声合成装置であって、
    テキストデータと前記所望の話者を示す話者データから、前記テキストデータに対応するかつ前記所望の話者の特徴を有する音声データである合成音声データを合成する合成部を有し、
    前記合成音声データは、所定の判別器により自然音かつ前記所望の話者が発した音声であると判定される、
    音声合成装置。
  6. 抑揚のある音声信号を合成するために用いる音響モデルを得るための音響モデル学習装置であって、
    音声判別モデル及び感情判別モデルを用いて、複数の音響特徴量、前記複数の音響特徴量に対応する複数の言語特徴量、及び複数の感情データに基づいて、複数の合成音響特徴量を推定する前記音響モデルを学習する第1の学習部と、
    前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量が、所定の音響特徴量であることの真偽を判別する前記音声判別モデルを学習する第2の学習部と、
    前記複数の音響特徴量及び前記複数の合成音響特徴量に基づいて、前記合成音響特徴量の感情が、所定の感情を示す音響特徴量であることの真偽を判別する前記感情判別モデルを学習する第3の学習部と、
    を備える音響モデル学習装置。
  7. コンピュータを、請求項1から4、または6のいずれか一項に記載の音響モデル学習装置として機能させるためのプログラム。




JP2018190462A 2018-10-05 2018-10-05 音響モデル学習装置、音声合成装置、及びプログラム Active JP7125608B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018190462A JP7125608B2 (ja) 2018-10-05 2018-10-05 音響モデル学習装置、音声合成装置、及びプログラム
PCT/JP2019/037620 WO2020071213A1 (ja) 2018-10-05 2019-09-25 音響モデル学習装置、音声合成装置、及びプログラム
US17/275,268 US11545135B2 (en) 2018-10-05 2019-09-25 Acoustic model learning device, voice synthesis device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018190462A JP7125608B2 (ja) 2018-10-05 2018-10-05 音響モデル学習装置、音声合成装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020060633A true JP2020060633A (ja) 2020-04-16
JP7125608B2 JP7125608B2 (ja) 2022-08-25

Family

ID=70055025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018190462A Active JP7125608B2 (ja) 2018-10-05 2018-10-05 音響モデル学習装置、音声合成装置、及びプログラム

Country Status (3)

Country Link
US (1) US11545135B2 (ja)
JP (1) JP7125608B2 (ja)
WO (1) WO2020071213A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157066A1 (ja) * 2022-02-15 2023-08-24 日本電信電話株式会社 音声合成学習方法、音声合成方法、音声合成学習装置、音声合成装置及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741941B2 (en) * 2020-06-12 2023-08-29 SoundHound, Inc Configurable neural speech synthesis

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297199A (ja) * 2001-03-29 2002-10-11 Toshiba Corp 合成音声判別方法と装置及び音声合成装置
JP2006293026A (ja) * 2005-04-11 2006-10-26 Oki Electric Ind Co Ltd 音声合成装置,音声合成方法およびコンピュータプログラム
JP2011215742A (ja) * 2010-03-31 2011-10-27 Nec Corp 対話システム、対話フローの更新方法およびプログラム
JP2012141354A (ja) * 2010-12-28 2012-07-26 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成装置及び音声合成プログラム
JP2017058513A (ja) * 2015-09-16 2017-03-23 株式会社東芝 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
JP2018146803A (ja) * 2017-03-06 2018-09-20 日本放送協会 音声合成装置及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104112444B (zh) * 2014-07-28 2018-11-06 中国科学院自动化研究所 一种基于文本信息的波形拼接语音合成方法
JP6622505B2 (ja) 2015-08-04 2019-12-18 日本電信電話株式会社 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
WO2019044401A1 (ja) * 2017-08-29 2019-03-07 大学共同利用機関法人情報・システム研究機構 Dnn音声合成の教師無し話者適応を実現するコンピュータシステム、そのコンピュータシステムにおいて実行される方法およびプログラム
CN107945786B (zh) * 2017-11-27 2021-05-25 北京百度网讯科技有限公司 语音合成方法和装置
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
KR102127126B1 (ko) * 2018-08-03 2020-06-26 엘지전자 주식회사 음성 판독 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002297199A (ja) * 2001-03-29 2002-10-11 Toshiba Corp 合成音声判別方法と装置及び音声合成装置
JP2006293026A (ja) * 2005-04-11 2006-10-26 Oki Electric Ind Co Ltd 音声合成装置,音声合成方法およびコンピュータプログラム
JP2011215742A (ja) * 2010-03-31 2011-10-27 Nec Corp 対話システム、対話フローの更新方法およびプログラム
JP2012141354A (ja) * 2010-12-28 2012-07-26 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成装置及び音声合成プログラム
JP2017058513A (ja) * 2015-09-16 2017-03-23 株式会社東芝 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
JP2018146803A (ja) * 2017-03-06 2018-09-20 日本放送協会 音声合成装置及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157066A1 (ja) * 2022-02-15 2023-08-24 日本電信電話株式会社 音声合成学習方法、音声合成方法、音声合成学習装置、音声合成装置及びプログラム

Also Published As

Publication number Publication date
WO2020071213A1 (ja) 2020-04-09
US20220051655A1 (en) 2022-02-17
US11545135B2 (en) 2023-01-03
JP7125608B2 (ja) 2022-08-25

Similar Documents

Publication Publication Date Title
JP6622505B2 (ja) 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
US7729914B2 (en) Method for detecting emotions involving subspace specialists
WO2019102884A1 (ja) ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体
JP4220449B2 (ja) インデキシング装置、インデキシング方法およびインデキシングプログラム
US11495235B2 (en) System for creating speaker model based on vocal sounds for a speaker recognition system, computer program product, and controller, using two neural networks
JP6680933B2 (ja) 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム
JP6543820B2 (ja) 声質変換方法および声質変換装置
JP5411845B2 (ja) 音声合成方法、音声合成装置及び音声合成プログラム
JP6553015B2 (ja) 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
KR20040088368A (ko) 스위칭 상태 공간 모델들을 갖는 변분 추론을 사용하는음성 인식 방법
CN113674733A (zh) 用于说话时间估计的方法和设备
WO2020071213A1 (ja) 音響モデル学習装置、音声合成装置、及びプログラム
US10157608B2 (en) Device for predicting voice conversion model, method of predicting voice conversion model, and computer program product
KR20200138993A (ko) 감정 토큰을 이용한 감정 음성 합성 방법 및 장치
JP2009086581A (ja) 音声認識の話者モデルを作成する装置およびプログラム
Al-Radhi et al. Deep Recurrent Neural Networks in speech synthesis using a continuous vocoder
US20090222266A1 (en) Apparatus, method, and recording medium for clustering phoneme models
US20210090551A1 (en) Emotional speech generating method and apparatus for controlling emotional intensity
KR20210035042A (ko) 감정 간의 강도 조절이 가능한 감정 음성 생성 방법 및 장치
CN114387946A (zh) 语音合成模型的训练方法和语音合成方法
KR102626618B1 (ko) 감정 추정 기반의 감정 음성 합성 방법 및 시스템
JP6542823B2 (ja) 音響モデル学習装置、音声合成装置、それらの方法、及びプログラム
KR102277205B1 (ko) 오디오 변환 장치 및 방법
WO2020166359A1 (ja) 推定装置、推定方法、及びプログラム
Jaiswal et al. A generative adversarial network based ensemble technique for automatic evaluation of machine synthesized speech

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7125608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150