JP6733644B2 - 音声合成方法、音声合成システムおよびプログラム - Google Patents

音声合成方法、音声合成システムおよびプログラム Download PDF

Info

Publication number
JP6733644B2
JP6733644B2 JP2017229041A JP2017229041A JP6733644B2 JP 6733644 B2 JP6733644 B2 JP 6733644B2 JP 2017229041 A JP2017229041 A JP 2017229041A JP 2017229041 A JP2017229041 A JP 2017229041A JP 6733644 B2 JP6733644 B2 JP 6733644B2
Authority
JP
Japan
Prior art keywords
learned model
harmonic
harmonic component
time
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017229041A
Other languages
English (en)
Other versions
JP2019101093A (ja
JP2019101093A5 (ja
Inventor
竜之介 大道
竜之介 大道
正宏 清水
正宏 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017229041A priority Critical patent/JP6733644B2/ja
Priority to CN201880077158.5A priority patent/CN111418005B/zh
Priority to PCT/JP2018/043656 priority patent/WO2019107379A1/ja
Priority to EP18883949.2A priority patent/EP3719795B1/en
Publication of JP2019101093A publication Critical patent/JP2019101093A/ja
Publication of JP2019101093A5 publication Critical patent/JP2019101093A5/ja
Priority to US16/885,827 priority patent/US11295723B2/en
Priority to JP2020114265A priority patent/JP6977818B2/ja
Application granted granted Critical
Publication of JP6733644B2 publication Critical patent/JP6733644B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/08Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform
    • G10H7/10Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients
    • G10H7/105Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients using Fourier coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Machine Translation (AREA)

Description

本発明は、音声を合成する技術に関する。
任意の音韻の音声を合成する各種の音声合成技術が従来から提案されている。例えば非特許文献1には、ニューラルネットワークを利用して歌唱音声を合成する技術が開示されている。非特許文献1の技術では、楽曲の音符毎に音高と音韻と発音期間とを指定する制御データをニューラルネットワークに入力することで、調波成分の周波数スペクトルの時系列と非調波成分の周波数スペクトルの時系列とが生成される。調波成分の周波数スペクトルと非調波成分の周波数スペクトルとを合成することで、歌唱音声の波形を表す時間領域の音声信号が生成される。
Merlijn Blaauw, Jordi Bonada, "A NEWRAL PARATETRIC SINGING SYNTHESIZER," arXiv, 2017.4.12
非特許文献1の技術では、歌唱音声の調波成分については聴感的に自然な音声を生成できるものの、気息成分または摩擦音等の非調波成分については聴感的に自然な音声を生成することが困難であるという問題がある。以上の事情を考慮して、本発明は、調波成分および非調波成分の双方について現実の人間の音声に近い自然な音声を生成することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る音声合成方法は、音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成し、前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成し、前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する。
本発明の好適な態様に係るプログラムは、音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成する処理と、前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成する処理と、前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する処理とをコンピュータに実行させる。
本発明の第1実施形態に係る音声合成装置の構成を示すブロック図である。 音声合成装置の機能的な構成を示すブロック図である。 制御データXの模式図である。 音声合成処理のフローチャートである。 第2実施形態における音声合成装置の動作の説明図である。 第3実施形態に係る学習済モデル生成装置の構成を示すブロック図である。 学習済モデル生成装置の機能的な構成を示すブロック図である。 機械学習処理のフローチャートである。
<第1実施形態>
図1は、本発明の第1実施形態に係る音声合成装置100の構成を例示するブロック図である。第1実施形態の音声合成装置100は、歌唱者が楽曲を仮想的に歌唱した音声(以下「合成音声」という)を合成する歌唱合成装置であり、図1に例示される通り、制御装置11と記憶装置12と放音装置13とを具備するコンピュータシステムで実現される。例えば携帯電話機もしくはスマートフォン等の可搬型の情報端末、またはパーソナルコンピュータ等の可搬型または据置型の情報端末が、音声合成装置100として好適に利用され得る。
制御装置11は、例えばCPU(Central Processing Unit)等の処理回路であり、音声合成装置100を構成する各要素を統括的に制御する。第1実施形態の制御装置11は、合成音声の波形を表す時間領域の音声信号Vを生成する。放音装置13(例えばスピーカまたはヘッドホン)は、制御装置11が生成した音声信号Vが表す音声を再生する。なお、制御装置11が生成した音声信号Vをデジタルからアナログに変換するD/A変換器と音声信号Vを増幅する増幅器とについては図示を便宜的に省略した。また、放音装置13を音声合成装置100に搭載した構成を図1では例示したが、音声合成装置100とは別体の放音装置13を音声合成装置100に有線または無線で接続してもよい。
記憶装置12は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成され、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。なお、音声合成装置100とは別体の記憶装置12(例えばクラウドストレージ)を用意し、移動体通信網またはインターネット等の通信網を介して制御装置11が記憶装置12に対する書込および読出を実行してもよい。すなわち、記憶装置12は音声合成装置100から省略され得る。
記憶装置12は、楽曲の内容を表す楽曲データQを記憶する。第1実施形態の楽曲データQは、楽曲を構成する複数の音符の各々について音高と音韻と発音期間とを指定する。音高は、例えばMIDI(Musical Instrument Digital Interface)のノート番号である。音韻は、合成音声による発音内容(すなわち楽曲の歌詞)である。発音期間は、楽曲の各音符が発音される期間であり、例えば音符の始点と終点または継続長とで指定される。また、第1実施形態の楽曲データQは、合成音声の音楽的な表現を指定する。例えば発音強度(例えばフォルテ)、発音強度の増減(例えばクレッシェンド)、歌唱表現(例えばビブラート)または声質(例えば嗄れ声)等の音楽的な表現が楽曲データQにより指定される。
図2は、制御装置11の機能的な構成を例示するブロック図である。図2に例示される通り、制御装置11は、記憶装置12に記憶されたプログラムを実行することで、特定の歌唱者(以下「特定歌唱者」という)の合成音声の波形を表す時間領域の音声信号Vを生成するための複数の機能(第1学習済モデルM1,第2学習済モデルM2および合成処理部50)を実現する。なお、複数の装置の集合(すなわちシステム)で制御装置11の機能を実現してもよいし、制御装置11の機能の一部または全部を専用の電子回路(例えば信号処理回路)で実現してもよい。
第1学習済モデルM1は、特定歌唱者の合成音声のうち調波成分の周波数スペクトル(以下「調波スペクトル」という)Hの時系列を生成する統計的モデルであり、記憶装置12に記憶された複数の係数K1により規定される。調波成分は、基本周波数の基音成分と倍音周波数の複数の倍音成分とで構成される調波構造(倍音構造)を含む周期成分である。第1学習済モデルM1は、調波スペクトルHを第1単位期間(すなわちフレーム)毎に順次に生成する。例えば5ミリ秒毎に調波スペクトルHが生成される。
具体的には、楽曲データQに応じた調波スペクトルHを順次に出力するニューラルネットワーク(典型的にはディープニューラルネットワーク)が第1学習済モデルM1として好適である。具体的には、Dilated Convolutionの手法とResidual Network(ResNet)の手法とを利用して調波スペクトルの受容野を広げた畳込みニューラルネットワーク(CNN)が第1学習済モデルM1として好適に利用される。第1実施形態の第1学習済モデルM1は、第1単位期間毎(フレーム毎)に、楽曲データQから特定される制御データXと、直前の複数の第1単位期間にわたる調波スペクトルHとを入力として、現在の第1単位期間における調波スペクトルHを出力する。制御データXは、合成音声の内容を指定するデータであり、時間軸上の複数の時点(以下「制御時点」という)の各々について生成される。任意の1個の制御データXは、図3に例示される通り、音韻データX1と音高データX2と時間データX3と表現データX4とを含んで構成される。
音韻データX1は、合成音声の音韻に関するデータである。具体的には、音韻データX1は、例えば制御時点に対応する音素の音韻と、当該音素の直前の音素の音韻と、直後の音素の音韻とを指定する。音高データX2は、合成音声の音高に関するデータである。具体的には、音高データX2は、例えば制御時点に対応する音符の音高と、当該音符の直前の音符の音高と、直後の音符の音高とを指定する。時間データX3は、例えば音素内における制御時点の位置を指定する。表現データX4は、制御時点における音楽的な表現である。なお、制御時点に対応する1個の音素の音韻のみを指定する音韻データX1、または、制御時点に対応する1個の音符の音高のみを指定する音高データX2を利用してもよい。
特定歌唱者の第1学習済モデルM1は、制御データXと調波スペクトルHとを対応させた特定歌唱者の複数の教師データL1を利用した機械学習(深層学習)により、制御データXと調波スペクトルHの時間的な変化との間の関係を学習した学習済モデルである。すなわち、第1学習済モデルM1を規定する複数の係数K1が、複数の教師データL1を利用した機械学習により設定されて記憶装置22に記憶される。したがって、特定歌唱者の複数の教師データL1から抽出される傾向(制御データXと調波スペクトルHとの間の関係)のもとで未知の制御データXに対して妥当な調波スペクトルHの時系列が、特定歌唱者の第1学習済モデルM1から出力される。なお、複数の教師データL1を利用した機械学習については後述する。以上の説明から理解される通り、音韻データX1で指定される音韻を、音高データX2で指定される音高および表現データX4で指定される表現で特定歌唱者が仮想的に発音した合成音声の調波成分について、調波スペクトルHの時系列が生成される。なお、調波スペクトルHを生成するニューラルネットワークについては例えば非特許文献1に記載されている。
第2学習済モデルM2は、特定歌唱者の合成音声のうち非調波成分の波形を表す時間領域の音響信号(以下「非調波信号」という)A2を生成する統計的モデルであり、記憶装置12に記憶された複数の係数K2により規定される。非調波成分は、調波成分以外の非周期成分であり、濁声および嗄れ声等の声質の聴感的な印象を特徴付ける音響成分である。非調波信号A2は、非調波成分の時間領域における波形のサンプル(すなわち第2単位期間毎の信号強度を表すサンプル)の時系列で表現される。第2学習済モデルM2は、非調波信号A2の各サンプルを第2単位期間(すなわちサンプル周期)毎に順次に生成する。第2単位期間は第1単位期間と比較して短い。例えば0.05ミリ秒毎に非調波信号A2の各サンプルが生成される。
具体的には、制御データXに応じた非調波信号A2の各サンプルを出力するニューラルネットワーク(典型的にはディープニューラルネットワーク)が第2学習済モデルM2として好適である。具体的には、Dilated Convolutionの手法とResidual Network(ResNet)の手法とを利用して非調波信号A2の受容野を広げた畳込みニューラルネットワーク(CNN)が第2学習済モデルM2として好適に利用される。第1実施形態の第2学習済モデルM2は、第2単位期間毎(サンプル周期毎)に、楽曲データQに応じた前述の制御データXと、第1学習済モデルM1の処理結果に応じた補助データYと、直前の複数の第2単位期間にわたる非調波信号A2のサンプルとを入力として、現在の第2単位期間における非調波信号A2のサンプルの時系列を出力する。なお、時間領域の波形を表す各サンプルを生成するニューラルネットワークについては、例えば"WaveNet: A Generative Model for Raw Audio," Oord et.al., arXiv 2016/09/19に開示されている。
補助データYは、制御データXと同様に制御時点毎に生成される。第1実施形態の補助データYは、第1学習済モデルM1が調波スペクトルHに関連して出力する基本周波数(ピッチ)Y1と、調波スペクトルHに基づいて有声/無声を判定した結果(以下「有声性判定結果」という)Y2とを含んで構成される。有声性判定結果Y2は、調波スペクトルHに明確な調波構造が含まれるか否か(有意な基本周波数Y1を調波スペクトルHから明確に特定できるか否か)を判定した結果である。
特定歌唱者の第2学習済モデルM2は、制御データXおよび補助データYと非調波信号A2(具体的には非調波信号A2のサンプルの時系列)とを対応させた特定歌唱者の複数の教師データL2を利用した機械学習(深層学習)により、制御データXおよび補助データYと非調波信号A2の時間的な変化との間の関係を学習した学習済モデルである。すなわち、第2学習済モデルM2を規定する複数の係数K2が、複数の教師データL2を利用した機械学習により設定されて記憶装置12に記憶される。したがって、複数の教師データL2から抽出される傾向(制御データXおよび補助データYと非調波信号A2との間の関係)のもとで未知の制御データXおよび補助データYに対して妥当な非調波信号A2の各サンプルの時系列が第2学習済モデルM2から出力される。なお、複数の教師データL2を利用した機械学習については後述する。以上の説明から理解される通り、音韻データX1で指定される音韻を、音高データX2で指定される音高および表現データX4で指定される表現で特定歌唱者が仮想的に発音した合成音声の非調波成分について、非調波信号A2が生成される。
第1実施形態では、調波スペクトルHの基本周波数Y1が第2学習済モデルM2に入力されるから、非調波信号A2のサンプルは基本周波数Y1に連動して変化する。例えば、制御データX(および有声性判定結果Y2)が共通する場合でも、基本周波数Y1が相違すれば、相異なる音響特性の非調波信号A2が生成されるてよい。また、有声性判定結果Y2が第2学習済モデルM2に入力されるから、非調波信号A2のサンプルは有声性判定結果Y2に連動して変化する。例えば、制御データX(および基本周波数Y1)が共通する場合でも、有声性判定結果Y2が相違すれば、相異なる音響特性の非調波信号A2が生成されてよい。なお、第2学習済モデルM2は、基本周波数Y1および有声性判定結果Y2の何れか一方のみを入力とし、他方を入力しないモデルでもよい。
図2の合成処理部50は、調波成分と非調波成分とを含む音声信号Vを、第1学習済モデルM1が生成した調波スペクトルHの時系列と第2学習済モデルM2が生成した非調波信号A2とから生成する。第1実施形態の合成処理部50は、図2に例示される通り、波形合成部51と混合処理部52とを含んで構成される。
波形合成部51は、第2単位期間毎(サンプル周期毎)に、第1学習済モデルM1が生成した調波スペクトルHの時系列から時間領域の音響信号(以下「調波信号」という)A1のサンプルを生成する。調波信号A1の生成には例えば公知のボコーダ技術が任意に採用される。混合処理部52は、第2単位期間毎に、波形合成部51が生成した調波信号A1のサンプルと第2学習済モデルM2が生成した非調波信号A2のサンプルとを混合することで、時間領域の音声信号Vのサンプルを生成する。例えば調波信号A1と非調波信号A2とを加算する加算器が混合処理部52として好適である。調波信号A1と非調波信号A2との混合比を例えば利用者からの指示に応じて変更してもよい。以上の説明から理解される通り、楽曲データQで指定される楽曲を、特定歌唱者が仮想的に歌唱した合成音声を表す音声信号Vが生成される。合成処理部50(混合処理部52)が生成した音声信号Vが放音装置13に供給されて音波として再生される。
図4は、制御装置11が音声信号Vを生成する処理(以下「音声合成処理」という)のフローチャートである。音声合成処理は、例えば音声合成装置100の利用者からの指示を契機として開始され、所定の時間毎に反復される。
音声合成処理を開始すると、制御装置11は、制御データXに応じた調波スペクトルHの時系列を、特定歌唱者の第1学習済モデルM1により生成する(Sa1)。また、制御装置11は、制御データXに応じた時間領域の非調波信号A2を、特定歌唱者の第2学習済モデルM2により生成する(Sa2)。なお、第1学習済モデルM1による調波スペクトルHの生成(Sa1)と第2学習済モデルM2による非調波信号A2の生成との順序を逆転してもよい。
波形合成部51は、第1学習済モデルM1により生成した調波スペクトルHの時系列から時間領域の調波信号A1を生成する(Sa3)。なお、調波スペクトルHの生成(Sa1)と非調波信号A2の生成(Sa2)との間に調波信号A1の生成(Sa3)を実行してもよい。混合処理部52は、波形合成部51が生成した調波信号A1と第2学習済モデルM2が生成した非調波信号A2とを混合することで時間領域の音声信号Vを生成する(Sa4)。
以上に説明した通り、第1実施形態では、第1学習済モデルM1により調波スペクトルHの時系列が生成される一方、非調波成分については時間領域の非調波信号A2が第2学習済モデルM2により生成される。したがって、調波成分および非調波成分の双方についてニューラルネットワークにより周波数スペクトルを生成する非特許文献1の技術と比較して、調波成分および非調波成分の双方について聴感的に自然な音声を生成することが可能である。
第1実施形態では、調波スペクトルHが第1単位期間(フレーム)毎に第1学習済モデルM1から出力される一方、非調波信号A2の各サンプルは、第1単位期間よりも短い第2単位期間(サンプル周期)毎に第2学習済モデルM2から出力される。したがって、周波数領域では再現し難い非調波信号A2を時間領域で高音質に生成できる。また、相対的に短い第2単位期間毎に時間領域で生成されるのは、合成音声の非調波信号A2だけであるから、合成音声の全体を生成するWave Net等のニューラルネットワークと比較して必要な学習量および係数が充分に少ない。他方、合成音声の調波信号A1については、第1単位期間毎に周波数領域で効率的に生成される。以上の通り、第1実施形態によれば、高音質な合成音声が効率よく合成される。
第1実施形態では、第1学習済モデルM1が出力する調波スペクトルHに対応する基本周波数Y1が第2学習済モデルM2に入力されるから、調波成分の基本周波数Y1の変化に適切に追随する非調波成分を生成できるという利点がある。また、調波信号A1の有声/無声を判定した結果(有声性判定結果Y2)が第2学習済モデルM2に入力されるから、合成音声の有声/無声の変化に適切に追随する非調波成分を生成できるという利点がある。
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下に例示する各態様において機能または作用が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。第2実施形態は、合成音声の発音区間のなかで、非調波成分のレベルが相対的に高い区間が短いという傾向に着目して、音声合成の演算効率を更に向上させた形態である。
第2実施形態の音声合成装置100は、第1実施形態と同様の構成であるが、第1実施形態とは動作が相違する。図5は、第2実施形態における音声合成装置100の動作の説明図である。図5には、各音符の音韻に対応する音素が図示されている。図5に例示される通り、第1学習済モデルM1は、合成音声の音素の種類(有声音/無声音)に関わらず調波スペクトルHの時系列を継続的に生成する。
図5には、有声区間Zvと無声区間Zuとが時間軸上に図示されている。有声区間Zvは、合成音声が有声音となる区間であり、無声区間Zuは、合成音声が無声音となる区間である。無声音の音素を含む区間および無音の区間が無声区間Zuとして画定される。無声区間Zuでは非調波成分が聴感的に顕著となり、有声区間Zvでは調波成分に対して非調波成分が相対的に低減されるという傾向がある。以上の傾向を考慮して、第2実施形態の第2学習済モデルM2は、図5に例示される通り、無声区間Zuにおいて非調波信号A2の生成を実行する一方、有声区間Zvでは非調波信号A2の生成を停止する。
以上の説明から理解される通り、無声区間Zuでは調波信号A1と非調波信号A2とを含む音声信号Vが生成される。したがって、高音質な無声音が合成音声として生成される。他方、有声区間Zvでは非調波信号A2の生成が停止されるから、非調波信号A2を含まない音声信号Vが生成される。すなわち、有声区間Zvにおいては非調波成分が生成されない。しかし、有声区間Zvでは調波成分が聴感的に顕著に知覚されるから、非調波成分の欠落は受聴者に知覚され難い。そして、有声区間Zvでは第2学習済モデルM2による非調波信号A2の生成が停止されるから、第2実施形態によれば、有声区間Zvおよび無声区間Zuの双方で非調波信号A2が生成される第1実施形態と比較して、音声信号Vの生成に必要な演算量が削減されるという利点がある。
<第3実施形態>
以下に例示する第3実施形態は、第1実施形態または第2実施形態の音声合成装置100で利用される第1学習済モデルM1および第2学習済モデルM2を生成する学習済モデル生成装置200である。図6は、第3実施形態における学習済モデル生成装置200の構成を例示するブロック図である。
第3実施形態の学習済モデル生成装置200は、第1学習済モデルM1を規定する複数の係数K1と第2学習済モデルM2を規定する複数の係数K2とを機械学習により生成する情報処理装置であり、図6に例示される通り、制御装置21と記憶装置22とを具備するコンピュータシステムで実現される。例えばパーソナルコンピュータ等の可搬型または据置型の情報端末が、情報処理装置として好適に利用され得る。
制御装置21は、例えばCPU等の処理回路である。記憶装置22は、例えば磁気記録媒体もしくは半導体記録媒体等の公知の記録媒体、または、複数種の記録媒体の組合せで構成され、制御装置21が実行するプログラムと制御装置21が使用する各種のデータとを記憶する。なお、音声合成装置100とは別体の記憶装置22を用意し、移動体通信網またはインターネット等の通信網を介して制御装置21が記憶装置22に対する書込および読出を実行してもよい。すなわち、記憶装置22は学習済モデル生成装置200から省略され得る。
第3実施形態の記憶装置22は、相異なる楽曲に対応する複数の楽曲データQと、各楽曲を歌唱した音声(以下「参照音声」という)の波形を表す複数の音声信号(以下「参照信号」という)Rとを記憶する。各参照信号Rは、複数のサンプル(すなわち第2単位期間毎の信号強度を表すサンプル)の時系列で構成され、調波成分と非調波成分とを含む参照音声の波形を表す時間領域の信号である。多数の歌唱者が楽曲を歌唱した音声を事前に収録することで、複数の参照信号Rが生成されて記憶装置22に記憶される。なお、記憶装置22に記憶される複数の参照信号Rについて位相を最小位相に変換してもよい。複数の参照信号Rの位相を共通させることで調波スペクトルHの多様性が低下するから、複数の参照信号Rの間で位相が相違する場合と比較して、第1学習処理部64による機械学習が効率化されるという利点がある。なお、多様な状況に対応した音声を合成できるように複数の楽曲データQを利用した場合を例示したが、1個の楽曲データQで必要な状況の全てを網羅できるならば、1個の楽曲データQのみを利用してもよい。
図7は、制御装置21の機能的な構成を例示するブロック図である。図7に例示される通り、制御装置21は、記憶装置22に記憶されたプログラムを実行することで、第1学習済モデルM1および第2学習済モデルM2を生成するための複数の機能(周波数解析部61,波形合成部62,成分抽出部63,第1学習処理部64および第2学習処理部65)を実現する。なお、複数の装置の集合(すなわちシステム)で制御装置21の機能を実現してもよいし、制御装置21の機能の一部または全部を専用の電子回路(例えば信号処理回路)で実現してもよい。
周波数解析部61は、特定歌唱者の複数の楽曲データQに対応する複数の参照信号Rの各々について、各楽曲データQに対応する調波スペクトル(すなわち参照音声のうち調波成分の周波数スペクトル)Hの時系列を算定する。調波スペクトルHの算定には、例えば離散フーリエ変換等の公知の周波数解析が任意に採用される。
波形合成部62は、周波数解析部61が算定した調波スペクトルHの時系列から時間領域の音響信号(以下「調波信号」という)A1を生成する。調波信号A1は、参照信号Rが表す参照音声のうち調波成分の波形を表す時間領域の信号である。成分抽出部63は、その参照信号Rからその調波信号A1を減算することで、参照音声のうち非調波成分の波形を表す時間領域の非調波信号A2を生成する。
図7に例示される通り、各楽曲データQから特定される制御データXと周波数解析部61が当該楽曲データQについて算定した調波スペクトルHの時系列とを含む複数の教師データL1が第1学習処理部64に供給される。各教師データL1は、1個の制御データXと、当該制御データXに対応する参照音声の調波スペクトルHの時系列との組合せである。第1学習処理部64は、複数の教師データL1を利用した機械学習により、特定歌唱者の第1学習済モデルM1を生成する。具体的には、第1学習処理部64は、複数の教師データL1の各々について、当該教師データL1の制御データXと過去の第1単位期間の調波スペクトルHとを入力したときに第1学習済モデルM1が出力する調波スペクトルHと、当該教師データL1の現在の第1単位期間における調波スペクトルH(すなわち正解)との間の誤差を最小化する機械学習により、第1学習済モデルM1を規定する複数の係数K1を設定する。
図7に例示される通り、各楽曲データQから特定される制御データXと、第1学習済モデルM1の処理結果に応じた補助データYと、成分抽出部63が当該楽曲データQについて生成した非調波信号A2とを含む特定歌唱者の複数の教師データL2が第2学習処理部65に供給される。各教師データL2は、1個の制御データXと、当該制御データXに対する第1学習済モデルM1の処理結果を表す補助データYと、当該制御データXに対応する参照音声の非調波信号A2との組合せである。第2学習処理部65は、複数の教師データL2を利用した機械学習により特定歌唱者の第2学習済モデルM2を生成する。補助データYは、第1実施形態と同様に、例えば参照音声の基本周波数Y1と有声性判定結果Y2とを含む。具体的には、第2学習処理部65は、教師データL2の制御データX、補助データY、および過去の第2単位期間の非調波信号A2とを入力したときに第2学習済モデルM2が出力する非調波信号A2と、当該教師データL2に含まれる現在の第2単位期間における非調波信号A2(すなわち正解)との間の誤差を最小化する機械学習により、第2学習済モデルM2を規定する複数の係数K2を設定する。
第1学習処理部64が生成した複数の係数K1(第1学習済モデルM1)と、第2学習処理部65が生成した複数の係数K2(第2学習済モデルM2)とが記憶装置22に記憶される。記憶装置22に記憶された複数の係数K1と複数の係数K2とが学習済モデル生成装置200から音声合成装置100に転送されて記憶装置12に記憶される。すなわち、学習済モデル生成装置200が生成した特定歌唱者の第1学習済モデルM1(複数の係数K1)と第2学習済モデルM2(複数の係数K2)とが、音声合成装置100による音声信号Vの生成に利用される。
図8は、制御装置21が特定歌唱者の第1学習済モデルM1および第2学習済モデルM2を生成する処理(以下「機械学習処理」という)のフローチャートである。機械学習処理は、例えば学習済モデル生成装置200の利用者からの指示を契機として開始され、所定の時間毎に反復される。
機械学習処理を開始すると、周波数解析部61は、複数の楽曲データQに対応する特定歌唱者の複数の参照信号Rの各々について調波スペクトルHの時系列を算定する(Sb1)。また、波形合成部62は、各参照信号Rの調波スペクトルHの時系列から時間領域の調波信号A1を生成し(Sb2)、成分抽出部63は、その参照信号Rからその調波信号A1を減算することで、当該参照信号Rの時間領域の非調波信号A2を生成する(Sb3)。
第1学習処理部64は、各楽曲データQの制御データXと調波スペクトルHの時系列とを含む複数の教師データL1を利用した、複数の楽曲データQに関する機械学習により、第1学習済モデルM1の複数の係数K1を設定する(Sb4)。また、第2学習処理部65は、各楽曲データQの制御データXと補助データYと非調波信号A2とを含む複数の教師データL2を利用した、複数の楽曲データQに関する機械学習により、第2学習済モデルM2の複数の係数K2を設定する(Sb5)。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、調波スペクトルHの時系列を時間領域の調波信号A1に変換して非調波信号A2と混合したが、調波成分と非調波成分とを時間領域で混合する構成は必須ではない。例えば、第2学習済モデルM2が生成した非調波信号A2を周波数スペクトル(以下「非調波スペクトル」という)に変換し、調波スペクトルHと非調波スペクトルとを混合(例えば加算)してから時間領域の音声信号Vに変換してもよい。以上の説明から理解される通り、合成処理部50は、調波成分と非調波成分とを含む音声信号Vを調波スペクトルHの時系列と非調波信号A2とから生成する要素として包括的に表現され、音声信号Vが生成されるまでの各処理が周波数領域および時間領域の何れで実行されるのかは不問である。
(2)前述の各形態では、第1学習済モデルM1の出力と第2学習済モデルM2の出力との間の同期を主要な目的として、第1学習済モデルM1の処理結果に応じた補助データYを第2学習済モデルM2に入力したが、例えば、両者間の同期のためのデータを制御データX煮含めることで、第2学習済モデルM2が補助データYを利用する構成を省略してもよい。また、調波成分の基本周波数Y1および有声性判定結果Y2の一方のみを制御データXとともに第2学習済モデルM2に入力してもよい。
(3)第2実施形態では、第2学習済モデルM2による非調波信号A2の生成を有声区間Zvにおいて停止したが、第2学習済モデルMの動作を有声区間Zvと無声区間Zuとで切替える構成は以上の例示に限定されない。例えば、有声区間Zvで生成される非調波信号A2の各サンプルのビット数を、無声区間Zuで生成される非調波信号A2の各サンプルのビット数よりも少なくしてもよい。すなわち、有声区間Zvでは無声区間Zuと比較して非調波信号A2のサンプルの分解能を低下させてもよい。
(4)前述の各形態では、特定歌唱者が仮想的に歌唱した合成音声を合成したが、複数の歌唱者の何れかが歌唱した合成音声を選択的に合成してもよい。具体的には、複数の歌唱者の各々について、第1学習済モデルM1と第2学習済モデルM2とが記憶装置12に記憶される。制御装置11は、複数の歌唱者のうち例えば利用者が選択した歌唱者について記憶装置12に記憶された第1学習済モデルM1と第2学習済モデルM2とを利用して、前述の各形態と同様の方法で音声信号Vを生成する。すなわち、利用者が複数の候補から選択した歌唱者が仮想的に歌唱した合成音声を表す音声信号Vが生成される。
(5)第1実施形態および第2実施形態で例示した音声合成装置100の機能と、第3実施形態で例示した学習済モデル生成装置200の機能とを、単体の装置で実現してもよい。
(6)前述の各形態に係る音声合成装置100および学習済モデル生成装置200は、各形態での例示の通り、コンピュータ(具体的には制御装置11または制御装置21)とプログラムとの協働により実現される。前述の各形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を含み得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。また、プログラムの実行主体はCPUに限定されず、Tensor Processing UnitおよびNeural Engine等のニューラルネットワーク用のプロセッサ、または、信号処理用のDSP(Digital Signal Processor)がプログラムを実行してもよい。また、以上の例示から選択された複数種の主体が協働してプログラムを実行してもよい。
(7)学習済モデル(第1学習済モデルM1および第2学習済モデルM2)は、制御装置(コンピュータの例示)により実現される統計的モデル(例えばニューラルネットワーク)であり、入力Aに応じた出力Bを生成する。具体的には、学習済モデルは、入力Aから出力Bを特定する演算を制御装置に実行させるプログラム(例えば人工知能ソフトウェアを構成するプログラムモジュール)と、当該演算に適用される複数の係数との組合せで実現される。学習済モデルの複数の係数は、入力Aと出力Bとを対応させた複数の教師データを利用した事前の機械学習(深層学習)により最適化されている。すなわち、学習済モデルは、入力Aと出力Bとの間の関係を学習した統計的モデルである。制御装置は、学習済の複数の係数と所定の応答関数とを適用した演算を未知の入力Aに対して実行することで、複数の教師データから抽出される傾向(入力Aと出力Bとの間の関係)のもとで入力Aに対して妥当な出力Bを生成する。
(8)以上に例示した形態から、例えば以下の構成が把握される。
本発明の好適な態様(第1態様)に係る音声合成方法は、コンピュータにより実現される方法であって、音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成し、前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成し、前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する。以上の態様では、第1学習済モデルにより調波成分の周波数スペクトルの時系列が生成される一方、非調波成分については時間領域の音響信号が第2学習済モデルにより生成される。したがって、調波成分および非調波成分の双方についてニューラルネットワークにより周波数スペクトルを生成する非特許文献1の技術と比較して、調波成分および非調波成分の双方について聴感的に自然な音声を生成することが可能である。
第1態様の好適例(第2態様)において、前記第1学習済モデルは、前記調波成分の周波数スペクトルを第1単位期間毎に出力するニューラルネットワークであり、前記第2学習済モデルは、非調波成分の時間領域におけるサンプルを、前記第1単位期間よりも短い第2単位期間毎に出力するニューラルネットワークである。以上の態様では、調波成分の周波数スペクトルが第1学習済モデルにより第1単位期間毎に出力される一方、非調波成分のサンプルは、第1単位期間よりも短い第2単位期間毎に第2学習済モデルにより出力される。したがって、第1単位期間と同等以上の時間毎に非調波成分のサンプルを生成する構成と比較して、高音質な非調波成分を生成できるという利点がある。
第1態様または第2態様の好適例(第3態様)において、前記第1学習済モデルは、時間軸上の各時点における前記調波成分の周波数スペクトルを、前記制御データと当該第1学習済モデルが過去に生成した前記調波成分の周波数スペクトルの時系列とに基づいて生成する。また、第1態様から第3態様の何れかの好適例(第4態様)において、前記第2学習済モデルは、時間軸上の各時点における前記非調波成分の時間領域におけるサンプルを、前記制御データと当該第2学習済モデルが過去に生成した前記非調波成分の複数のサンプルとに基づいて生成する。
第1態様から第4態様の好適例(第5態様)において、前記第2学習済モデルは、前記第1学習済モデルが出力する周波数スペクトルに対応する基本周波数を入力として含む。以上の態様では、第1学習済モデルが出力する調波成分の周波数スペクトルに対応する基本周波数が第2学習済モデルに入力される。したがって、調波成分の基本周波数の変化に適切に追随する非調波成分を生成できるという利点がある。
第1態様から第5態様の何れかの好適例(第6態様)において、前記第1学習済モデルが出力する複数の周波数スペクトルの時系列から有声/無声を判定し、前記第2学習済モデルは、前記有声/無声の判定結果を入力として含む。以上の態様では、調波成分の有声/無声を判定した結果が第2学習済モデルに入力されるから、有声/無声の変化に適切に追随する非調波成分を生成できるという利点がある。
本発明の好適な態様(第5態様)に係るプログラムは、音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成する処理と、前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成する処理と、前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する処理とをコンピュータに実行させる。以上の態様では、第1学習済モデルにより調波成分の周波数スペクトルの時系列が生成される一方、非調波成分については時間領域の音響信号が第2学習済モデルにより生成される。したがって、調波成分および非調波成分の双方についてニューラルネットワークにより周波数スペクトルを生成する非特許文献1の技術と比較して、調波成分および非調波成分の双方について聴感的に自然な音声を生成することが可能である。
100…音声合成装置、200…学習済モデル生成装置、11,21…制御装置、12,22…記憶装置、13…放音装置13、50…合成処理部、51…波形合成部、52…混合処理部、61…周波数解析部、62…波形合成部、63…成分抽出部、64…第1学習処理部、65…第2学習処理部、M1…第1学習済モデル、M2…第2学習済モデル。

Claims (13)

  1. 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成し、
    前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成し、
    前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する、
    コンピュータにより実現される音声合成方法。
  2. 前記第1学習済モデルは、前記調波成分の周波数スペクトルを第1単位期間毎に出力するニューラルネットワークであり、
    前記第2学習済モデルは、前記非調波成分の時間領域におけるサンプルを、前記第1単位期間よりも短い第2単位期間毎に出力するニューラルネットワークである
    請求項1の音声合成方法。
  3. 前記第1学習済モデルは、時間軸上の各時点における前記調波成分の周波数スペクトルを、前記制御データと当該第1学習済モデルが過去に生成した前記調波成分の周波数スペクトルの時系列とに基づいて生成する
    請求項1または請求項2の音声合成方法。
  4. 前記第2学習済モデルは、時間軸上の各時点における前記非調波成分の時間領域におけるサンプルを、前記制御データと当該第2学習済モデルが過去に生成した前記非調波成分の複数のサンプルとに基づいて生成する
    請求項1から請求項3の何れかの音声合成方法。
  5. 前記第2学習済モデルは、前記第1学習済モデルが出力する周波数スペクトルに対応する基本周波数入力される
    請求項1から請求項4の何れかの音声合成方法。
  6. 前記第1学習済モデルが出力する複数の周波数スペクトルの時系列から有声/無声を判定し、
    前記第2学習済モデルは、前記有声/無声の判定結果入力される
    請求項1から請求項5の何れかの音声合成方法。
  7. 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を生成する第1学習済モデルと、
    前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を生成する第2学習済モデルと、
    前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する合成処理部と
    を具備する音声合成システム。
  8. 前記第1学習済モデルは、前記調波成分の周波数スペクトルを第1単位期間毎に出力するニューラルネットワークであり、
    前記第2学習済モデルは、前記非調波成分の時間領域におけるサンプルを、前記第1単位期間よりも短い第2単位期間毎に出力するニューラルネットワークである
    請求項7の音声合成システム。
  9. 前記第1学習済モデルは、時間軸上の各時点における前記調波成分の周波数スペクトルを、前記制御データと当該第1学習済モデルが過去に生成した前記調波成分の周波数スペクトルの時系列とに基づいて生成する
    請求項7または請求項8の音声合成システム。
  10. 前記第2学習済モデルは、時間軸上の各時点における前記非調波成分の時間領域におけるサンプルを、前記制御データと当該第2学習済モデルが過去に生成した前記非調波成分の複数のサンプルとに基づいて生成する
    請求項7から請求項9の何れかの音声合成システム。
  11. 前記第2学習済モデルには、前記第1学習済モデルが出力する周波数スペクトルに対応する基本周波数が入力される
    請求項7から請求項10の何れかの音声合成システム。
  12. 前記第1学習済モデルが出力する複数の周波数スペクトルの時系列から有声/無声を判定した結果が、前記第2学習済モデルに入力される
    請求項7から請求項11の何れかの音声合成システム。
  13. 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を生成する第1学習済モデル
    前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を生成する第2学習済モデル、および、
    前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する合成処理部
    としてコンピュータを機能させるプログラム。
JP2017229041A 2017-11-29 2017-11-29 音声合成方法、音声合成システムおよびプログラム Active JP6733644B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017229041A JP6733644B2 (ja) 2017-11-29 2017-11-29 音声合成方法、音声合成システムおよびプログラム
CN201880077158.5A CN111418005B (zh) 2017-11-29 2018-11-28 声音合成方法、声音合成装置及存储介质
PCT/JP2018/043656 WO2019107379A1 (ja) 2017-11-29 2018-11-28 音声合成方法、音声合成装置およびプログラム
EP18883949.2A EP3719795B1 (en) 2017-11-29 2018-11-28 Voice synthesizing method, voice synthesizing apparatus, and computer program
US16/885,827 US11295723B2 (en) 2017-11-29 2020-05-28 Voice synthesis method, voice synthesis apparatus, and recording medium
JP2020114265A JP6977818B2 (ja) 2017-11-29 2020-07-01 音声合成方法、音声合成システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017229041A JP6733644B2 (ja) 2017-11-29 2017-11-29 音声合成方法、音声合成システムおよびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020114265A Division JP6977818B2 (ja) 2017-11-29 2020-07-01 音声合成方法、音声合成システムおよびプログラム

Publications (3)

Publication Number Publication Date
JP2019101093A JP2019101093A (ja) 2019-06-24
JP2019101093A5 JP2019101093A5 (ja) 2020-05-07
JP6733644B2 true JP6733644B2 (ja) 2020-08-05

Family

ID=66663974

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017229041A Active JP6733644B2 (ja) 2017-11-29 2017-11-29 音声合成方法、音声合成システムおよびプログラム

Country Status (5)

Country Link
US (1) US11295723B2 (ja)
EP (1) EP3719795B1 (ja)
JP (1) JP6733644B2 (ja)
CN (1) CN111418005B (ja)
WO (1) WO2019107379A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7331588B2 (ja) * 2019-09-26 2023-08-23 ヤマハ株式会社 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム
CN112037760B (zh) 2020-08-24 2022-01-07 北京百度网讯科技有限公司 语音频谱生成模型的训练方法、装置及电子设备
JP7468495B2 (ja) * 2021-03-18 2024-04-16 カシオ計算機株式会社 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム
CN113362836B (zh) * 2021-06-02 2024-06-11 腾讯音乐娱乐科技(深圳)有限公司 训练声码器方法、终端及存储介质
CN113889073B (zh) * 2021-09-27 2022-10-18 北京百度网讯科技有限公司 语音处理方法、装置、电子设备和存储介质
CN113938749B (zh) * 2021-11-30 2023-05-05 北京百度网讯科技有限公司 音频数据处理方法、装置、电子设备和存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5029509A (en) * 1989-05-10 1991-07-09 Board Of Trustees Of The Leland Stanford Junior University Musical synthesizer combining deterministic and stochastic waveforms
WO1999010719A1 (en) * 1997-08-29 1999-03-04 The Regents Of The University Of California Method and apparatus for hybrid coding of speech at 4kbps
JP4067762B2 (ja) * 2000-12-28 2008-03-26 ヤマハ株式会社 歌唱合成装置
EP1280138A1 (de) * 2001-07-24 2003-01-29 Empire Interactive Europe Ltd. Verfahren zur Analyse von Audiosignalen
US20060069567A1 (en) * 2001-12-10 2006-03-30 Tischer Steven N Methods, systems, and products for translating text to speech
JP2006084967A (ja) * 2004-09-17 2006-03-30 Advanced Telecommunication Research Institute International 予測モデルの作成方法およびコンピュータプログラム
ES2374008B1 (es) * 2009-12-21 2012-12-28 Telefónica, S.A. Codificación, modificación y síntesis de segmentos de voz.
JP6024191B2 (ja) * 2011-05-30 2016-11-09 ヤマハ株式会社 音声合成装置および音声合成方法
KR101402805B1 (ko) * 2012-03-27 2014-06-03 광주과학기술원 음성분석장치, 음성합성장치, 및 음성분석합성시스템
CN102664003B (zh) * 2012-04-24 2013-12-04 南京邮电大学 基于谐波加噪声模型的残差激励信号合成及语音转换方法
CN103531205B (zh) * 2013-10-09 2016-08-31 常州工学院 基于深层神经网络特征映射的非对称语音转换方法

Also Published As

Publication number Publication date
JP2019101093A (ja) 2019-06-24
CN111418005B (zh) 2023-08-11
WO2019107379A1 (ja) 2019-06-06
US20200294486A1 (en) 2020-09-17
EP3719795A4 (en) 2021-08-11
CN111418005A (zh) 2020-07-14
EP3719795A1 (en) 2020-10-07
US11295723B2 (en) 2022-04-05
EP3719795B1 (en) 2022-10-19

Similar Documents

Publication Publication Date Title
JP6733644B2 (ja) 音声合成方法、音声合成システムおよびプログラム
JP6724932B2 (ja) 音声合成方法、音声合成システムおよびプログラム
JP7067669B2 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
US20230034572A1 (en) Voice synthesis method, voice synthesis apparatus, and recording medium
JP2019061135A (ja) 電子楽器、電子楽器の楽音発生方法、及びプログラム
JP6821970B2 (ja) 音声合成装置および音声合成方法
US20210366454A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
WO2020095951A1 (ja) 音響処理方法および音響処理システム
JP6977818B2 (ja) 音声合成方法、音声合成システムおよびプログラム
US20210350783A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
JP3966074B2 (ja) ピッチ変換装置、ピッチ変換方法及びプログラム
JP6578544B1 (ja) 音声処理装置、および音声処理方法
JP2022065554A (ja) 音声合成方法およびプログラム
JP2022065566A (ja) 音声合成方法およびプログラム
JP2020204755A (ja) 音声処理装置、および音声処理方法
US11756558B2 (en) Sound signal generation method, generative model training method, sound signal generation system, and recording medium
US20230260493A1 (en) Sound synthesizing method and program
RU2591640C1 (ru) Способ модификации голоса и устройство для его осуществления (варианты)
JP2020166298A (ja) 音声合成方法
JP2020184092A (ja) 情報処理方法
JP2000020100A (ja) 音声変換装置及び音声変換方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R151 Written notification of patent or utility model registration

Ref document number: 6733644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151