JP7331588B2 - 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム - Google Patents

情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム Download PDF

Info

Publication number
JP7331588B2
JP7331588B2 JP2019175436A JP2019175436A JP7331588B2 JP 7331588 B2 JP7331588 B2 JP 7331588B2 JP 2019175436 A JP2019175436 A JP 2019175436A JP 2019175436 A JP2019175436 A JP 2019175436A JP 7331588 B2 JP7331588 B2 JP 7331588B2
Authority
JP
Japan
Prior art keywords
sound
time
control data
estimation model
varying component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019175436A
Other languages
English (en)
Other versions
JP2021051251A (ja
Inventor
竜之介 大道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019175436A priority Critical patent/JP7331588B2/ja
Priority to CN202080064952.3A priority patent/CN114402382A/zh
Priority to PCT/JP2020/036355 priority patent/WO2021060493A1/ja
Publication of JP2021051251A publication Critical patent/JP2021051251A/ja
Priority to US17/698,601 priority patent/US11875777B2/en
Application granted granted Critical
Publication of JP7331588B2 publication Critical patent/JP7331588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/006Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof using two or more algorithms of different types to generate tones, e.g. according to tone color or to processor workload
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • G10L13/0335Pitch control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/161Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments, also rapid repetition of the same note onset, e.g. on a piano, guitar, e.g. rasgueado, drum roll
    • G10H2210/165Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation

Description

本開示は、音声または楽音等の音に関する特徴量の時系列を生成する技術に関する。
歌唱音声または楽器の演奏音等の任意の音を合成する音合成技術が従来から提案されている。例えば非特許文献1には、合成音における音高の時系列をニューラルネットワークにより生成する技術が開示されている。音高の時系列を含む複数の訓練データを利用した機械学習により、音高を推定するための推定モデルが構築される。
Merlijn Blaauw, Jordi Bonada, "A Neural Parametric Singing Synthesizer Modeling Timbre and Expression from Natural Songs," Applied Sciences 7(12):1313, 2017
複数の訓練データの各々における音高の時系列には時間的に変動する動的成分(以下「時間変動成分」という)が含まれる。しかし、複数の訓練データを利用して構築される推定モデルにおいては、時間変動成分が抑制された音高の時系列が生成される傾向がある。したがって、時間変動成分を充分に含む高音質な合成音を生成するには限界がある。なお、以上の説明では音高の時系列を生成する場合に着目したが、音高以外の特徴量の時系列を生成する場面でも同様の課題が想定される。以上の事情を考慮して、本開示のひとつの態様は、特徴量の時系列が時間変動成分を適切に含む高音質な合成音を生成することを目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る情報処理方法は、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成し、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する。また、本開示のひとつの態様に係る推定モデル構築方法は、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築し、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する。
本開示のひとつの態様に係る情報処理装置は、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部と、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部とを具備する。本開示のひとつの態様に係る推定モデル構築装置は、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部とを具備する。
本開示のひとつの態様に係るプログラムは、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部、および、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部としてコンピュータを機能させる。本開示のひとつの態様に係るプログラムは、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部、および、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部としてコンピュータを機能させる。
音合成装置の構成を例示するブロック図である。 記憶装置の模式図である。 合成処理部の構成を例示するブロック図である。 合成処理の具体的な手順を例示するフローチャートである。 学習処理部の構成を例示するブロック図である。 学習処理の具体的な手順を例示するフローチャートである。 第2実施形態における合成処理部の構成を例示するブロック図である。 第3実施形態における合成処理部の構成を例示するブロック図である。 変形例における合成処理部の構成を例示するブロック図である。 変形例における学習処理部の構成を例示するブロック図である。
A:第1実施形態
図1は、本開示の第1実施形態に係る音合成装置100の構成を例示するブロック図である。音合成装置100は、合成の目標となる任意の音響(以下「目標音」という)を生成する情報処理装置である。目標音は、例えば、歌唱者が楽曲を仮想的に歌唱することで発音される歌唱音声、または、演奏者が楽器により楽曲を仮想的に演奏することで発音される楽音である。目標音は、「合成されるべき音」の一例である。
音合成装置100は、制御装置11と記憶装置12と放音装置13とを具備するコンピュータシステムで実現される。例えば携帯電話機、スマートフォンまたはパーソナルコンピュータ等の情報端末が、音合成装置100として利用される。なお、相互に別体で構成された複数の装置の集合(すなわちシステム)により音合成装置100を実現してもよい。
制御装置11は、音合成装置100の各要素を制御する単数または複数のプロセッサで構成される。例えば、制御装置11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。具体的には、制御装置11は、目標音の波形を表す時間領域の音響信号Vを生成する。
放音装置13は、制御装置11が生成した音響信号Vが表す目標音を放音する。放音装置13は、例えばスピーカまたはヘッドホンである。なお、音響信号Vをデジタルからアナログに変換するD/A変換器と、音響信号Vを増幅する増幅器とについては、図示が便宜的に省略されている。また、図1では、放音装置13を音合成装置100に搭載した構成を例示したが、音合成装置100とは別体の放音装置13を有線または無線により音合成装置100に接続してもよい。
記憶装置12は、図2に例示される通り、制御装置11が実行するプログラム(例えば音合成プログラムG1および機械学習プログラムG2)と制御装置11が使用する各種のデータ(例えば楽曲データDおよび参照データQ)とを記憶する単数または複数のメモリである。記憶装置12は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成される。なお、複数種の記録媒体の組合せにより記憶装置12を構成してもよい。また、音合成装置100に着脱可能な可搬型の記録媒体、または、音合成装置100が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。
楽曲データDは、楽曲を構成する音符の時系列(すなわち楽譜)を指定する。例えば、楽曲データDは、発音単位毎に音高と発音期間とを指定する時系列データである。発音単位は、例えば1個の音符である。ただし、1個の音符を複数の発音単位に区分してもよい。なお、歌唱音声の合成に利用される楽曲データDにおいては、発音単位毎に音韻(例えば発音文字)が指定される。
A1:合成処理部20
制御装置11は、音合成プログラムG1を実行することで図3の合成処理部20として機能する。合成処理部20は、楽曲データDに応じた音響信号Vを生成する。合成処理部20は、第1生成部21と第2生成部22と第3生成部23と制御データ生成部24と信号合成部25とを具備する。
制御データ生成部24は、第1制御データC1と第2制御データC2と第3制御データC3とを楽曲データDから生成する。各制御データC(C1,C2,C3)は、目標音に関する条件を指定するデータである。制御データ生成部24は、時間軸上の単位期間(例えば所定長のフレーム)毎に各制御データCを生成する。各単位期間の制御データCは、例えば当該単位期間における音符の音高と、発音期間の開始または終了と、相前後する音符との関係(例えば音高差等のコンテキスト)とを指定する。制御データ生成部24は、楽曲データDと各制御データCとの関係を機械学習により学習した深層ニューラルネットワーク等の推定モデルより構成される。
第1生成部21は、第1制御データC1に応じた時間変動成分Xを生成する。時間変動成分Xは単位期間毎に順次に生成される。すなわち、第1生成部21は、第1制御データC1の時系列から時間変動成分Xの時系列を生成する。第1制御データC1は、時間変動成分Xの条件を指定するデータとも換言される。
時間変動成分Xは、目標音の音高(基本周波数)Yの時系列において時間的に変動する動的成分である。音高Yの時系列において時間的な変動が緩慢である定常成分を想定すると、定常成分以外の動的成分が時間変動成分Xに相当する。例えば、時間変動成分Xは、音高Yの時系列において所定の周波数を上回る高域成分である。また、第1生成部21は、音高Yの時系列に関する時間的な微分値を時間変動成分Xとして生成してもよい。時間変動成分Xの時系列は、例えばビブラート等の音楽表現としての変動と、歌唱音声または楽音に確率的に発生する変動(揺らぎ成分)との双方を含む。
第1生成部21による時間変動成分Xの生成には第1推定モデルM1が利用される。第1推定モデルM1は、第1制御データC1を入力として時間変動成分Xを出力する統計的モデルである。すなわち、第1推定モデルM1は、第1制御データC1と時間変動成分Xとの関係を学習した学習済モデルである。
第1推定モデルM1は、例えば深層ニューラルネットワークで構成される。具体的には、第1推定モデルM1は、各単位期間について生成した時間変動成分Xを、直後の単位期間における時間変動成分Xの生成のために入力層に回帰させる再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)である。ただし、畳込ニューラルネットワーク(CNN:Convolutional Neural Network)等の任意の種類のニューラルネットワークを第1推定モデルM1として利用してもよい。第1推定モデルM1は、長短期記憶(LSTM:Long Short-Term Memory)等の付加的な要素を具備してもよい。なお、第1推定モデルM1の出力段には、時間変動成分Xの確率分布を規定する出力層と、当該確率分布に従う乱数を時間変動成分Xとして生成(サンプリング)する抽出部とが設置される。
第1推定モデルM1は、第1制御データC1から時間変動成分Xを生成する演算を制御装置11に実行させる人工知能プログラムA1と、当該演算に適用される複数の変数W1(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA1と複数の変数W1とは記憶装置12に記憶される。複数の変数W1の各々の数値は、機械学習により設定されている。
第2生成部22は、第2制御データC2と時間変動成分Xとに応じた音高Yを生成する。音高Yは単位期間毎に順次に生成される。すなわち、第2生成部22は、第2制御データC2の時系列と時間変動成分Xの時系列とから音高Yの時系列を生成する。音高Yの時系列は、時間軸上で動的に変動する時間変動成分Xと、時間変動成分Xと比較して時間的な変動が緩慢である定常成分とを含むピッチカーブである。第2制御データC2は、音高Yの条件を指定するデータとも換言される。
第2生成部22による音高Yの生成には第2推定モデルM2が利用される。第2推定モデルM2は、第2制御データC2と時間変動成分Xとを入力として音高Yを出力する統計的モデルである。すなわち、第2推定モデルM2は、第2制御データC2および時間変動成分Xの組合せと音高Yとの関係を学習した学習済モデルである。
第2推定モデルM2は、例えば深層ニューラルネットワークで構成される。具体的には、第2推定モデルM2は、例えば畳込ニューラルネットワーク、再帰型ニューラルネットワーク等の何れかの種類のニューラルネットワークにより構成される。第2推定モデルM2は、長短期記憶等の付加的な要素を具備してもよい。なお、第2推定モデルM2の出力段には、音高Yの確率分布を規定する出力層と、当該確率分布に従う乱数を音高Yとして生成(サンプリング)する抽出部とが設置される。
第2推定モデルM2は、第2制御データC2と時間変動成分Xとから音高Yを生成する演算を制御装置11に実行させる人工知能プログラムA2と、当該演算に適用される複数の変数W2(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA2と複数の変数W2とは記憶装置12に記憶される。複数の変数W2の各々の数値は、機械学習により設定されている。
第3生成部23は、第3制御データC3と音高Yとに応じた周波数特性Zを生成する。周波数特性Zは単位期間毎に順次に生成される。すなわち、第3生成部23は、第3制御データC3の時系列と音高Yの時系列とから周波数特性Zの時系列を生成する。第1実施形態における周波数特性Zは、例えば目標音の振幅スペクトルである。第3制御データC3は、周波数特性Zの条件を指定するデータとも換言される。
第3生成部23による周波数特性Zの生成には第3推定モデルM3が利用される。第3推定モデルM3は、第3制御データC3と音高Yとに応じた周波数特性Zを生成する統計的モデルである。すなわち、第3推定モデルM3は、第3制御データC3および音高Yの組合せと周波数特性Zとの関係を学習した学習済モデルである。
第3推定モデルM3は、例えば深層ニューラルネットワークで構成される。具体的には、第3推定モデルM3は、例えば畳込ニューラルネットワーク、再帰型ニューラルネットワーク等の何れかの種類のニューラルネットワークにより構成される。第3推定モデルM3は、長短期記憶等の付加的な要素を具備してもよい。なお、第3推定モデルM3の出力段には、周波数特性Zを表す各成分(周波数ビン)の確率分布を規定する出力層と、当該確率分布に従う乱数を周波数特性Zとして生成(サンプリング)する抽出部とが設置される。
第3推定モデルM3は、第3制御データC3と音高Yとから周波数特性Zを生成する演算を制御装置11に実行させる人工知能プログラムA3と、当該演算に適用される複数の変数W3(具体的には加重値およびバイアス)との組合せで実現される。人工知能プログラムA3と複数の変数W3とは記憶装置12に記憶される。複数の変数W3の各々の数値は、機械学習により設定されている。
信号合成部25は、第3生成部23が生成する周波数特性Zの時系列から音響信号Vを生成する。具体的には、信号合成部25は、例えば離散逆フーリエ変換を含む演算により周波数特性Zを時間波形に変換し、複数の単位期間にわたり時間波形を連結することで音響信号Vを生成する。音響信号Vは放音装置13に供給される。
図4は、制御装置11(合成処理部20)が音響信号Vを生成する処理(以下「合成処理」という)Saの具体的な手順を例示するフローチャートである。例えば音合成装置100に対する利用者からの指示を契機として合成処理Saが開始される。合成処理Saは単位期間毎に実行される。
制御データ生成部24は、楽曲データDから制御データC(C1,C2,C3)を生成する(Sa1)。第1生成部21は、第1制御データC1を第1推定モデルM1に入力することで時間変動成分Xを生成する(Sa2)。第2生成部22は、第2制御データC2と時間変動成分Xとを第2推定モデルM2に入力することで音高Yを生成する(Sa3)。第3生成部23は、第3制御データC3と音高Yとを第3推定モデルM3に入力することで周波数特性Zを生成する(Sa4)。信号合成部25は、周波数特性Zから音響信号Vを生成する(Sa5)。
以上に説明した通り、第1実施形態においては、第1推定モデルM1により第1制御データC1に応じた時間変動成分Xが生成され、第2推定モデルM2により第2制御データC2と時間変動成分Xとに応じた音高Yが生成される。したがって、目標音を指定する制御データと音高Yとの関係を学習した単体の推定モデルを利用して制御データに応じた音高Yを生成する構成(以下「対比例」という)と比較して、時間変動成分Xを豊富に含む音高Yの時系列を生成できる。以上の構成によれば、聴感的に自然な時間変動成分Xを豊富に含む目標音を生成できる。
A2:学習処理部30
制御装置11は、機械学習プログラムG2を実行することで図5の学習処理部30として機能する。学習処理部30は、第1推定モデルM1と第2推定モデルM2と第3推定モデルM3とを機械学習により構築する。具体的には、学習処理部30は、第1推定モデルM1における複数の変数W1の各々の数値と、第2推定モデルM2における複数の変数W2の各々の数値と、第3推定モデルM3における複数の変数W3の各々の数値とを設定する。
記憶装置12は、複数の参照データQを記憶する。複数の参照データQの各々は、楽曲データDと参照信号Rとを相互に対応させたデータである。楽曲データDは、楽曲を構成する音符の時系列を指定する。各参照データQの参照信号Rは、当該参照データQの楽曲データDが表す楽曲の歌唱または演奏により発音される音の波形を表す。特定の歌唱者が歌唱した音声または特定の演奏者が演奏した楽音が事前に収録され、当該音声または当該楽音を表す参照信号Rが楽曲データDとともに記憶装置12に記憶される。なお、多数の歌唱者の音声または多数の演奏者の楽音から参照信号Rを生成してもよい。
学習処理部30は、第1訓練部31と第2訓練部32と第3訓練部33と訓練データ準備部34とを具備する。訓練データ準備部34は、複数の第1訓練データT1と複数の第2訓練データT2と複数の第3訓練データT3とを準備する。複数の第1訓練データT1の各々は、第1制御データC1と時間変動成分Xとを相互に対応させた既知データである。複数の第2訓練データT2の各々は、第2制御データC2および時間変動成分Xaの組合せと音高Yとを相互に対応させた既知データである。時間変動成分Xaは、時間変動成分Xに対して雑音成分を付加した成分である。複数の第3訓練データT3の各々は、第3制御データC3および音高Yの組合せと周波数特性Zとを相互に対応させた既知データである。
訓練データ準備部34は、制御データ生成部341と周波数解析部342と変動抽出部343と雑音付与部344とを具備する。制御データ生成部341は、各参照データQの楽曲データDから単位期間毎に制御データC(C1,C2,C3)を生成する。制御データ生成部341の構成および動作は、前述の制御データ生成部24と同様である。
周波数解析部342は、各参照データQの参照信号Rから音高Yと周波数特性Zとを生成する。単位期間毎に音高Yと周波数特性Zとが生成される。すなわち、周波数解析部342は、参照信号Rの音高Yの時系列と周波数特性Zの時系列とを生成する。参照信号Rの音高Yおよび周波数特性Zの生成には、離散フーリエ変換等の公知の解析技術が任意に採用される。
変動抽出部343は、音高Yから時間変動成分Xを生成する。単位期間毎に時間変動成分Xが生成される。すなわち、変動抽出部343は、音高Yの時系列から時間変動成分Xの時系列を生成する。具体的には、変動抽出部343は、音高Yの時系列における微分値を時間変動成分Xとして算定する。なお、所定の周波数を上回る高域成分を時間変動成分Xとして抽出するフィルタ(高域通過フィルタ)を変動抽出部343として採用してもよい。
雑音付与部344は、時間変動成分Xの時系列に対して雑音成分を付与することで時間変動成分Xaを生成する。具体的には、雑音付与部344は、例えば正規分布等の所定の確率分布に従う乱数を雑音成分として時間変動成分Xの時系列に付与する。なお、時間変動成分Xの時系列に雑音成分を付与しない構成では、各参照信号Rにおける音高Yの変動成分を過剰に反映した時間変動成分Xが第1推定モデルM1により推定されるという傾向がある。第1実施形態においては、時間変動成分Xに雑音成分が付与(すなわち正則化)されるから、参照信号Rにおける音高Yの変動成分の傾向を適度に反映した時間変動成分Xを第1推定モデルM1により推定できるという利点がある。ただし、参照信号Rの過度な反映が特段の問題とならない場合には、雑音付与部344を省略してもよい。
第1制御データC1と時間変動成分X(正解値)とを対応させた第1訓練データT1が第1訓練部31に供給される。第2制御データC2および時間変動成分Xの組合せと音高Y(正解値)とを対応させた第2訓練データT2が第2訓練部32に供給される。第3制御データC3および音高Yの組合せと周波数特性Z(正解値)とを対応させた第3訓練データT3が第3訓練部33に供給される。
第1訓練部31は、複数の第1訓練データT1を利用した教師あり機械学習により第1推定モデルM1を構築する。具体的には、第1訓練部31は、各第1訓練データT1の第1制御データC1を供給した場合に暫定的な第1推定モデルM1が生成する時間変動成分Xと、当該第1訓練データT1の時間変動成分Xとの誤差が低減されるように、第1推定モデルM1に関する複数の変数W1の更新を反復する。したがって、第1推定モデルM1は、複数の第1訓練データT1における第1制御データC1と時間変動成分Xとの間に潜在する関係を学習する。すなわち、第1訓練部31による訓練後の第1推定モデルM1は、未知の第1制御データC1に対して当該関係のもとで統計的に妥当な時間変動成分Xを出力する。
第2訓練部32は、複数の第2訓練データT2を利用した教師あり機械学習により第2推定モデルM2を構築する。具体的には、第2訓練部32は、各第2訓練データT2の第2制御データC2および時間変動成分Xを供給した場合に暫定的な第2推定モデルM2が生成する音高Yと、当該第2訓練データT2の音高Yとの誤差が低減されるように、第2推定モデルM2に関する複数の変数W2の更新を反復する。したがって、第2推定モデルM2は、複数の第2訓練データT2における第2制御データC2および時間変動成分Xの組合せと音高Yとの間に潜在する関係を学習する。すなわち、第2訓練部32による訓練後の第2推定モデルM2は、未知の第2制御データC2および時間変動成分Xの組合せに対して当該関係のもとで統計的に妥当な音高Yを出力する。
第3訓練部33は、複数の第3訓練データT3を利用した教師あり機械学習により第3推定モデルM3を構築する。具体的には、第3訓練部33は、各第3訓練データT3の第3制御データC3および音高Yを供給した場合に暫定的な第3推定モデルM3が生成する周波数特性Zと、当該第3訓練データT3の周波数特性Zとの誤差が低減されるように、第3推定モデルM3に関する複数の変数W3の更新を反復する。したがって、第3推定モデルM3は、複数の第3訓練データT3における第3制御データC3および音高Yの組合せと周波数特性Zとの間に潜在する関係を学習する。すなわち、第3訓練部33による訓練後の第3推定モデルM3は、未知の第3制御データC3および音高Yの組合せに対して当該関係のもとで統計的に妥当な周波数特性Zを出力する。
図6は、制御装置11(学習処理部30)が推定モデルM(M1,M2,M3)を訓練する処理(以下「学習処理」という)Sbの具体的な手順を例示するフローチャートである。例えば音合成装置100に対する利用者からの指示を契機として学習処理Sbが開始される。学習処理Sbは単位期間毎に実行される。
訓練データ準備部34は、第1訓練データT1と第2訓練データT2と第3訓練データT3とを参照データQから生成する(Sb1)。具体的には、制御データ生成部341は、第1制御データC1と第2制御データC2と第3制御データC3とを楽曲データDから生成する(Sb11)。周波数解析部342は、参照信号Rから音高Yと周波数特性Zとを生成する(Sb12)。変動抽出部343は、音高Yの時系列から時間変動成分Xを生成する(Sb13)。雑音付与部344は、時間変動成分Xに雑音成分を付与することで時間変動成分Xaを生成する(Sb14)。以上の処理により、第1訓練データT1と第2訓練データT2と第3訓練データT3とが生成される。なお、各制御データCの生成(Sb11)と参照信号Rに関する処理(Sb12-Sb14)との順番を逆転してもよい。
第1訓練部31は、第1訓練データT1を利用した機械学習により第1推定モデルM1の複数の変数W1を更新する(Sb2)。第2訓練部32は、第2訓練データT2を利用した機械学習により第2推定モデルM2の複数の変数W2を更新する(Sb3)。第3訓練部33は、第3訓練データT3を利用した機械学習により第3推定モデルM3の複数の変数W3を更新する(Sb4)。以上に説明した学習処理Sbが反復されることで、第1推定モデルM1と第2推定モデルM2と第3推定モデルM3とが構築される。
ところで、目標音の条件を指定する制御データと音高Yとの関係を学習した単体の推定モデルを利用する前述の対比例においては、制御データと参照信号Rの音高Yとを対応させた訓練データを利用した機械学習により当該推定モデルが構築される。各参照信号Rにおける変動成分の位相は相違するから、対比例においては、複数の参照信号Rにわたり変動成分が平均化された音高Yが学習される。したがって、例えば1個の音符の発音期間内においては音高Yが定常的に推移するという傾向がある。以上の説明から理解される通り、対比例においては、例えばビブラート等の音楽表現または確率的な揺らぎ成分等の動的な変動成分を豊富に含む目標音を生成すことは困難である。
以上に説明した対比例とは対照的に、第1実施形態においては、第1制御データC1と時間変動成分Xとを含む第1訓練データT1により第1推定モデルM1が構築され、第2制御データC2および時間変動成分Xの組合せと音高Yとを含む第2訓練データT2により第2推定モデルM2が構築される。以上の構成によれば、時間変動成分Xの傾向と音高Yの傾向とが別個の推定モデルに反映されるから、各参照信号Rにおける動的な変動成分の傾向を適切に反映した時間変動成分Xが第1推定モデルM1により生成される。したがって、対比例と比較して、時間変動成分Xを豊富に含む音高Yの時系列を生成できる。すなわち、聴感的に自然な時間変動成分Xを豊富に含む目標音を生成できる。
B:第2実施形態
第2実施形態について説明する。なお、以下に例示する各形態において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図7は、第2実施形態における合成処理部20の構成を例示するブロック図である。第2実施形態の合成処理部20においては、第2生成部22が生成した音高Yの時系列が信号合成部25に供給される。また、第2実施形態における周波数特性Zは、振幅スペクトルの概形を表す振幅スペクトル包絡である。振幅スペクトル包絡は、例えばメルスペクトルまたはメルケプストラムにより表現される。信号合成部25は、周波数特性Zの時系列と音高Yの時系列とから音響信号Vを生成する。具体的には、信号合成部25は、第1に、音高Yに対応する基音成分と複数の倍音成分とを含む調波構造のスペクトルを生成する。第2に、信号合成部25は、当該スペクトルの基音成分および各倍音成分のピークの強度を、周波数特性Zが表すスペクトル包絡に整合するように調整する。第3に、信号合成部25は、調整後のスペクトルを時間波形に変換し、複数の単位期間にわたり時間波形を連結することで音響信号Vを生成する。
信号合成部25以外の要素に関する構成および動作は第1実施形態と同様である。したがって、第2実施形態においても第1実施形態と同様の効果が実現される。
C:第3実施形態
図8は、第3実施形態における合成処理部20の構成を例示するブロック図である。第3実施形態の合成処理部20においては、第1実施形態における第3生成部23および信号合成部25が音源部26に置換される。
音源部26は、第3制御データC3と音高Yとに応じた音響信号Vを生成する音源である。音源部26が音響信号Vの生成に適用する各種の音源パラメータPは記憶装置12に記憶される。音源部26は、音源パラメータPを適用した音源処理により、第3制御データC3と音高Yとに応じた音響信号Vを生成する。例えばFM(Frequency Modulation)音源等の各種の音源が音源部26として利用される。米国特許第7626113号または特許第4218624号に記載された音源が音源部26として利用される。なお、音源部26は、制御装置11がプログラムを実行することで実現されるほか、音響信号Vの生成に専用される電子回路でも実現される。
第1生成部21および第2生成部22の構成および動作は第1実施形態と同様である。第1推定モデルM1および第2推定モデルM2の構成および動作も第1実施形態と同様である。したがって、第3実施形態においても第1実施形態と同様の効果が実現される。第3実施形態の例示から理解される通り、第1実施形態または第2実施形態における第3生成部23および第3推定モデルM3は省略され得る。
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)前述の各形態では、第1制御データC1と第2制御データC2と第3制御データC3とを個別のデータとして例示したが、第1制御データC1と第2制御データC2と第3制御データC3とは共通のデータでもよい。また、第1制御データC1と第2制御データC2と第3制御データC3とのうちの2つを共通のデータとしてもよい。
例えば、図9に例示される通り、制御データ生成部24が生成した制御データCを、第1生成部21に第1制御データC1として供給し、第2生成部22に第2制御データC2として供給し、第3生成部23に第3制御データC3として供給してもよい。なお、図9においては第1実施形態を基礎とした変形例が図示されているが、第1制御データC1と第2制御データC2と第3制御データC3とを共通させる構成は、第2実施形態または第3実施形態においても同様に適用される。
また、図10に例示される通り、制御データ生成部341が生成した制御データCを、第1訓練部31に第1制御データC1として供給し、第2訓練部32に第2制御データC2として供給し、第3訓練部33に第3制御データC3として供給してもよい。
(2)前述の各形態では、第2推定モデルM2が音高Yを生成したが、第2推定モデルM2が生成する特徴量は音高Yに限定されない。例えば、第2推定モデルM2が目標音の音量を生成し、当該音量の時系列における時間変動成分Xを第1推定モデルM1が生成してもよい。第2訓練データT2および第3訓練データT3には、前述の各形態における音高Yに代えて参照信号Rの音量が含まれ、第1訓練データT1には、音量に関する時間変動成分Xが含まれる。
また、例えば第2推定モデルM2が目標音の音色を表す特徴量(例えばメルケプストラム)を生成し、当該特徴量の時系列における時間変動成分Xを第1推定モデルM1が生成してもよい。第2訓練データT2および第3訓練データT3には、前述の各形態における音高Yに代えて音色の特徴量が含まれ、第1訓練データT1には、音色の特徴量に関する時間変動成分Xが含まれる。以上の説明から理解される通り、特徴量は、音響の特徴を表す任意の種類の物理量として包括的に表現され、音高Yと音量と音色とは特徴量の例示である。
(3)前述の各形態においては、音高Yの時間変動成分Xから当該音高Yを生成したが、第1生成部21が生成する時間変動成分Xが表す特徴量と、第2生成部22が生成する特徴量とは別種の特徴量でもよい。例えば、目標音における音高Yの時間変動成分は、当該目標音の音量の時間変動成分に相関するという傾向が想定される。以上の傾向を考慮すると、第1生成部21が第1推定モデルM1により生成する時間変動成分Xは、音量の時間変動成分でもよい。第2生成部22は、第2制御データC2と音量の時間変動成分Xとを第1推定モデルM1に入力することで音高Yの時系列を生成する。第1訓練データT1は、第1制御データC1と音量の時間変動成分Xとを含む。第2訓練データT2は、第2制御データC2および音量の時間変動成分Xaの組合せと音高Yとを相互に対応させた既知データである。以上の例示から理解される通り、第1生成部21は、第1制御データC1を入力として時間変動成分Xを出力するように訓練された第1推定モデルM1に、目標音の第1制御データC1を入力する要素として包括的に表現され、時間変動成分Xが表す特徴量は、第2生成部22が生成する特徴量に相関する任意の種類の特徴量である。
(4)前述の各形態においては、合成処理部20および学習処理部30の双方を具備する音合成装置100を例示したが、音合成装置100から学習処理部30を省略してもよい。また、学習処理部30を具備する推定モデル構築装置としても本開示は特定される。推定モデル構築装置は、機械学習により推定モデルを構築する機械学習装置とも換言される。推定モデル構築装置において合成処理部20の有無は不問であり、音合成装置100において学習処理部30の有無は不問である。
(5)携帯電話機またはスマートフォン等の端末装置との間で通信するサーバ装置により音合成装置100を実現してもよい。例えば、音合成装置100は、端末装置から受信した楽曲データDに応じた音響信号Vを生成し、当該音響信号Vを端末装置に送信する。端末装置から制御データC(C1,C2,C3)が送信される構成では、音合成装置100から制御データ生成部24が省略される。
(6)以上に例示した音合成装置100の機能は、前述の通り、制御装置11を構成する単数または複数のプロセッサと記憶装置12に記憶されたプログラム(例えば音合成プログラムG1および機械学習プログラムG2)との協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置が、前述の非一過性の記録媒体に相当する。
(7)推定モデルM(M1,M2,M3)を実現するための人工知能ソフトウェアの実行主体はCPUに限定されない。例えば、Tensor Processing UnitもしくはNeural Engine等のニューラルネットワーク専用の処理回路、または、人工知能に専用されるDSP(Digital Signal Processor)が、人工知能ソフトウェアを実行してもよい。また、以上の例示から選択された複数種の処理回路が協働して人工知能ソフトウェアを実行してもよい。
<付記>
以上に例示した形態から、例えば以下の構成が把握される。
本開示のひとつの態様(態様1)に係る情報処理方法は、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成し、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する。以上の態様では、第1推定モデルを利用して第1制御データに応じた時間変動成分が生成され、第2推定モデルを利用して第2制御データと時間変動成分とに応じた特徴量が生成される。したがって、制御データと特徴量との関係を学習した単体の推定モデルを利用する場合と比較して、時間変動成分を豊富に含む特徴量の時系列を生成できる。
なお、「時間変動成分」は、合成されるべき音において時間的に変動する動的成分である。特徴量の時系列において時間的に変動する成分が「時間変動成分」に相当するが、当該特徴量とは別種の特徴量の時系列において時間的に変動する成分も「時間変動成分」の概念に包含される。
例えば、特徴量の時系列において時間的な変動が緩慢である定常成分を想定すると、定常成分以外の動的成分が時間変動成分に相当する。第1制御データと第2制御データとの異同は不問である。
態様1の具体例(態様2)において、前記時間変動成分の生成においては、前記合成されるべき音の特徴量に関する時間変動成分を生成する。以上の態様では、第1推定モデルにより生成される時間変動成分が表す特徴量と第2推定モデルにより生成される特徴量とが同種の特徴量であるから、第2推定モデルにより生成される特徴量とは別種の特徴量の時間変動成分を第1推定モデルにより生成する場合と比較して、聴感的に自然に変動する特徴量の時系列を生成できる。
態様2の具体例(態様3)において、前記時間変動成分は、前記特徴量の時系列に関する微分値である。態様2の他の具体例(態様4)において、前記時間変動成分は、前記特徴量の時系列において所定の周波数を上回る成分である。
態様1から態様3の何れかの具体例(態様5)において、第3制御データと特徴量とを入力として周波数特性を出力するように訓練された第3推定モデルに、合成されるべき音の第3制御データと前記生成された特徴量とを入力することで、当該音の周波数特性を生成する。第3制御データと第1制御データまたは第2制御データとの異同は不問である。
本開示のひとつの態様(態様6)に係る推定モデル構築方法は、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築し、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する。以上の態様においては、第1制御データを入力として時間変動成分を出力する第1推定モデルと、第2制御データと当該時間変動成分とを入力として特徴量を出力する第2推定モデルとが構築される。したがって、制御データと特徴量との関係を学習した単体の推定モデルを構築する場合と比較して、時間変動成分を豊富に含む特徴量の時系列を生成できる。
態様7に係る情報処理装置は、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部と、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部とを具備する。
態様8に係る推定モデル構築装置は、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部とを具備する。
態様9に係るプログラムは、第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部、および、第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部としてコンピュータを機能させる。
態様10に係るプログラムは、合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部、および、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部としてコンピュータを機能させる。
100…音合成装置、11…制御装置、12…記憶装置、13…放音装置、20…合成処理部、21…第1生成部、22…第2生成部、23…第3生成部、24…制御データ生成部、25…信号合成部、26…音源部、30…学習処理部、31…第1訓練部、32…第2訓練部、33…第3訓練部、34…訓練データ準備部、341…制御データ生成部、342…周波数解析部、343…変動抽出部、344…雑音付与部、M1…第1推定モデル、M2…第2推定モデル、M3…第3推定モデル。

Claims (10)

  1. 第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成し、
    第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する
    コンピュータにより実現される情報処理方法。
  2. 前記時間変動成分の生成においては、前記合成されるべき音の特徴量に関する時間変動成分を生成する
    請求項1の情報処理方法。
  3. 前記時間変動成分は、前記特徴量の時系列に関する微分値である
    請求項2の情報処理方法。
  4. 前記時間変動成分は、前記特徴量の時系列において所定の周波数を上回る成分である
    請求項2の情報処理方法。
  5. 第3制御データと特徴量とを入力として周波数特性を出力するように訓練された第3推定モデルに、合成されるべき音の第3制御データと前記生成された特徴量とを入力することで、当該音の周波数特性を生成する
    請求項1から請求項4の何れかの情報処理方法。
  6. 合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築し、
    前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する
    コンピュータにより実現される推定モデル構築方法。
  7. 第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部と、
    第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部と
    を具備する情報処理装置。
  8. 合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部と、
    前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部と
    を具備する推定モデル構築装置。
  9. 第1制御データを入力として時間変動成分を出力するように訓練された第1推定モデルに、合成されるべき音の第1制御データを入力することで、当該音の時間変動成分を生成する第1生成部、および、
    第2制御データと時間変動成分とを入力として特徴量を出力するように訓練された第2推定モデルに、前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力することで、当該音の特徴量を生成する第2生成部
    としてコンピュータを機能させるプログラム。
  10. 合成されるべき音の第1制御データを入力として当該音の時間変動成分を出力する第1推定モデルを機械学習により構築する第1訓練部、および、
    前記合成されるべき音の第2制御データと前記生成された時間変動成分とを入力として当該音の特徴量を出力する第2推定モデルを機械学習により構築する第2訓練部
    としてコンピュータを機能させるプログラム。
JP2019175436A 2019-09-26 2019-09-26 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム Active JP7331588B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019175436A JP7331588B2 (ja) 2019-09-26 2019-09-26 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム
CN202080064952.3A CN114402382A (zh) 2019-09-26 2020-09-25 信息处理方法、推定模型构建方法、信息处理装置及推定模型构建装置
PCT/JP2020/036355 WO2021060493A1 (ja) 2019-09-26 2020-09-25 情報処理方法、推定モデル構築方法、情報処理装置、および推定モデル構築装置
US17/698,601 US11875777B2 (en) 2019-09-26 2022-03-18 Information processing method, estimation model construction method, information processing device, and estimation model constructing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175436A JP7331588B2 (ja) 2019-09-26 2019-09-26 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2021051251A JP2021051251A (ja) 2021-04-01
JP7331588B2 true JP7331588B2 (ja) 2023-08-23

Family

ID=75157740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175436A Active JP7331588B2 (ja) 2019-09-26 2019-09-26 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム

Country Status (4)

Country Link
US (1) US11875777B2 (ja)
JP (1) JP7331588B2 (ja)
CN (1) CN114402382A (ja)
WO (1) WO2021060493A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7452162B2 (ja) * 2020-03-25 2024-03-19 ヤマハ株式会社 音信号生成方法、推定モデル訓練方法、音信号生成システム、およびプログラム
WO2022244818A1 (ja) * 2021-05-18 2022-11-24 ヤマハ株式会社 機械学習モデルを用いた音生成方法および音生成装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164609A (ja) 2013-04-15 2013-08-22 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
WO2019107378A1 (ja) 2017-11-29 2019-06-06 ヤマハ株式会社 音声合成方法、音声合成装置およびプログラム
JP2019101093A (ja) 2017-11-29 2019-06-24 ヤマハ株式会社 音声合成方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4218624A (en) 1977-05-31 1980-08-19 Schiavone Edward L Electrical vehicle and method
WO2004068098A1 (ja) * 2003-01-30 2004-08-12 Fujitsu Limited 音声パケット消失隠蔽装置,音声パケット消失隠蔽方法,受信端末および音声通信システム
JP4218624B2 (ja) 2004-10-18 2009-02-04 ヤマハ株式会社 楽音データ生成方法及び装置
JP4124247B2 (ja) * 2006-07-05 2008-07-23 ヤマハ株式会社 楽曲練習支援装置、制御方法及びプログラム
JP5834449B2 (ja) * 2010-04-22 2015-12-24 富士通株式会社 発話状態検出装置、発話状態検出プログラムおよび発話状態検出方法
JP6268916B2 (ja) * 2013-10-24 2018-01-31 富士通株式会社 異常会話検出装置、異常会話検出方法及び異常会話検出用コンピュータプログラム
JP6798484B2 (ja) * 2015-05-07 2020-12-09 ソニー株式会社 情報処理システム、制御方法、およびプログラム
CN106571146B (zh) * 2015-10-13 2019-10-15 阿里巴巴集团控股有限公司 噪音信号确定方法、语音去噪方法及装置
KR20200116654A (ko) * 2019-04-02 2020-10-13 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11361021B2 (en) * 2019-08-01 2022-06-14 Meta Platform, Inc. Systems and methods for music related interactions and interfaces

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164609A (ja) 2013-04-15 2013-08-22 Yamaha Corp 歌唱合成用データベース生成装置、およびピッチカーブ生成装置
WO2019107378A1 (ja) 2017-11-29 2019-06-06 ヤマハ株式会社 音声合成方法、音声合成装置およびプログラム
JP2019101093A (ja) 2017-11-29 2019-06-24 ヤマハ株式会社 音声合成方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAKAMURA, K., et al.,Singing voice synthesis based on convolutional neural networks,arXiv preprint,arXiv:1904.06868v2,[オンライン],2019年06月25日,インターネット:<URL:https://arxiv.org/pdf/1904.06868.pdf>,[検索日 2020.10.14]

Also Published As

Publication number Publication date
CN114402382A (zh) 2022-04-26
WO2021060493A1 (ja) 2021-04-01
JP2021051251A (ja) 2021-04-01
US11875777B2 (en) 2024-01-16
US20220208175A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
CN111542875B (zh) 声音合成方法、声音合成装置及存储介质
CN109559718B (zh) 电子乐器、电子乐器的乐音产生方法以及存储介质
WO2020171033A1 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
JP6733644B2 (ja) 音声合成方法、音声合成システムおよびプログラム
US11875777B2 (en) Information processing method, estimation model construction method, information processing device, and estimation model constructing device
JP6821970B2 (ja) 音声合成装置および音声合成方法
WO2020095950A1 (ja) 情報処理方法および情報処理システム
US20210366454A1 (en) Sound signal synthesis method, neural network training method, and sound synthesizer
JP7147211B2 (ja) 情報処理方法および情報処理装置
JP6737320B2 (ja) 音響処理方法、音響処理システムおよびプログラム
WO2020241641A1 (ja) 生成モデル確立方法、生成モデル確立システム、プログラムおよび訓練データ準備方法
WO2020158891A1 (ja) 音信号合成方法およびニューラルネットワークの訓練方法
JP7107427B2 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム
US11756558B2 (en) Sound signal generation method, generative model training method, sound signal generation system, and recording medium
WO2020171035A1 (ja) 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R151 Written notification of patent or utility model registration

Ref document number: 7331588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151