JP7469698B2 - 音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム - Google Patents
音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム Download PDFInfo
- Publication number
- JP7469698B2 JP7469698B2 JP2022522103A JP2022522103A JP7469698B2 JP 7469698 B2 JP7469698 B2 JP 7469698B2 JP 2022522103 A JP2022522103 A JP 2022522103A JP 2022522103 A JP2022522103 A JP 2022522103A JP 7469698 B2 JP7469698 B2 JP 7469698B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- sequence
- speech feature
- training
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 393
- 238000006243 chemical reaction Methods 0.000 title claims description 315
- 230000005236 sound signal Effects 0.000 title claims description 69
- 230000008569 process Effects 0.000 claims description 377
- 238000012549 training Methods 0.000 claims description 189
- 230000006870 function Effects 0.000 claims description 115
- 239000011159 matrix material Substances 0.000 claims description 107
- 238000010801 machine learning Methods 0.000 claims description 29
- 230000009466 transformation Effects 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 9
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 238000002474 experimental method Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 27
- 230000015654 memory Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000006403 short-term memory Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 241000665848 Isca Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000014759 maintenance of location Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000000867 larynx Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000272186 Falco columbarius Species 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000945 filler Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
図1及び図2を用いて、第1実施形態の音声信号変換システム100の概要を説明する。図1は、第1実施形態の音声信号変換システム100の概要を説明する説明図である。音声信号変換システム100は、変換対象の音声信号(以下「変換対象音声信号」という。)を変換する。以下、変換後の変換対象音声信号を被変換音声信号という。例えば変換対象音声信号は実際に人が発した音声の信号である。例えば被変換音声信号は、動画配信で用いるキャラクターの音声の信号である。
ここで順方向注意行列AX→Yについて説明する。
図3は、第1実施形態における順方向注意行列AX→Yを説明する説明図である。図3の横軸は順方向注意行列AX→Yの行番号を表し、図3の縦軸は順方向注意行列AX→Yの列番号を表す。順方向注意行列AX→Yにおけるi行j列の要素の値は、データ点kiとデータ点qjとの類似の度合の期待値を表す。順方向注意行列AX→Yの各要素の値は以下の第1確率分布条件と第2確率分布条件と満たす。第1確率分布条件は、説明変数を確率変数qjとし目的変数を順方向注意行列AX→Yのi行j列目の要素の値とする関数は確率変数をqjとする確率分布を表すという条件である。第2確率分布条件は、説明変数を確率変数kiとし目的変数を順方向注意行列AX→Yのi行j列目の要素の値とする関数は確率変数をkiとする確率分布を表すという条件である。このように、順方向注意行列AX→Yは2つの音声特徴量時系列の時刻間の類似の度合の期待値を示す情報である。
変換対象取得部201が、入力部21又はインタフェース部22に入力された変換対象音声信号を取得する(ステップS201)。次に系列エンコード部202が変換対象音声信号に対して時系列変換処理を実行し、変換対象特徴量時系列を取得する(ステップS202)。次に変換部203が、音声信号変換モデルを用い、変換対象特徴量時系列を被変換特徴量時系列に変換する(ステップS203)。次に系列デコード部204が、信号化処理の実行により、ステップS203で取得された被変換特徴量時系列を被変換音声信号に変換する(ステップS204)。次に、音声信号出力制御部205が、インタフェース部22の動作を制御することでインタフェース部22に被変換音声信号を出力させる(ステップS205)。
図10及び図11を用いて、第2実施形態の音声信号変換システム100aの概要を説明する。図10は、第2実施形態の音声信号変換システム100aの概要を説明する説明図である。図11は、後述する循環注意損失項を説明する説明図である。音声信号変換システム100aは、音声信号変換モデル学習装置1に代えて音声信号変換モデル学習装置1aを備える点で音声信号変換システム100と異なる。以下、音声信号変換システム100が備える機能部と同様の機能を有するものについては図1と同じ符号を付すことで説明を省略する。
図14は、第3実施形態の音声信号変換システム100bを説明する説明図である。音声信号変換システム100bは、音声信号変換モデル学習装置1aに代えて音声信号変換モデル学習装置1bを備える点で音声信号変換システム100aと異なる。以下、音声信号変換システム100aが備える機能部と同様の機能を有するものについては図10と同じ符号を付すことで説明を省略する。
注意考慮型コントラスティブ損失項の説明にあたり注意行列Aについてこれまでと異なる観点から説明する。注意行列Aは、上述したように、2つの音声特徴量時系列の時刻間の類似の度合の期待値を示す。そのため、j番目の列における最大値は2つの音声特徴量時系列が類似していることを示す。またこのことは、j番目の列における最大値を与える行をi行として、j番目の列におけるi行以外の行は類似度が低いことを意味する。そのため、注意行列Aは以下の局在条件を満たすことが望ましい。局在条件は、注意行列Aの各列の最大要素以外の要素(以下「非最大要素」という。)の値が0に略同一であるという条件である。次に注意考慮型コントラスティブ損失項が奏する効果について説明する。
なお、音声信号変換システム100、音声信号変換システム100a及び音声信号変換システム100bは、音声信号変換モデルを得るための学習に際して必ずしも話者情報を用いる必要は無い。たとえ話者情報を用いなくとも、学習において用いる複数の特徴対データの入力話者と目標話者とが特徴対データに依らず同一である場合には、話者情報を用いても用いなくても同様の音声信号変換モデルが得られる。また、学習において用いる複数の特徴対データの1つが他の特徴対データと異なる入力話者及び目標話者の場合であっても、話者情報を用いない場合よりは変換の精度が下がるが音声信号を目標とする音声信号に近づける音声信号変換モデルを得ることはできる。
なお、第1損失関数、第2損失関数、第3損失関数は、注意行列損失項を含んでもよい。注意逆損失項は、順方向注意行列AX→Yと対角行列との違いを表す。注意行列損失項は、例えば以下の式(21)で表される。式(21)の左辺は、注意行列損失項を表す。
第2損失関数は、基本損失項と循環注意損失項とにくわえて、さらに文脈損失項を含んでもよい。第2損失関数は、基本損失項と循環注意損失項とにくわえて、さらに注意考慮型コントラスティブ損失項を含んでもよい。第2損失関数は、基本損失項と循環注意損失項とにくわえて、さらに文脈損失項及び注意考慮型コントラスティブ損失項を含んでもよい。基本損失項、循環注意損失項、注意行列損失項、文脈損失項及び注意考慮型コントラスティブ損失項を含む第2損失関数は、例えば以下の式(22)で表される統合損失関数である。式(22)の左辺が、統合損失関数を表す。
以下、図16及び図17を用いて第2損失関数が統合損失関数である第2実施形態の音声信号変換システム100aを用いた音声変換の第1実験の結果を示す。
以下、図18及び図19を用いて第2損失関数が統合損失関数である第2実施形態の音声信号変換システム100aを用いた音声変換の第2実験の結果を示す。第2実験は、自己や病気により生体を含む喉頭摘出をし、通常発声が困難になった人に音声信号変換システム100aを適用した結果を示す。このような人は、電気式人工喉頭と呼ばれる外部音源を用いて音声(電気音声信号)を発生する。第2実験では、音声信号変換システム100aが、このような電気音声信号から健常者の音声を予測する。電気音声信号は、電気式人工喉頭と呼ばれる外部音源を用いて発生された音声である。
なお、音声信号変換装置2は、順方向注意行列AX→Yに代えて予め記憶部23に記録された対角行列を用いて音声の変換を行ってもよい。上述したように順方向注意行列AX→Yのi行j列の要素はデータ点kiとデータ点qjとの類似の度合の期待値を表す。そのため、順方向注意行列AX→Yを用いて音声の変換を行う場合、変換対象音声信号の全てが音声信号変換装置2に入力されてからでないと音声信号変換装置2は音声変換を実行することができない。一方、予め用意された対角行列を用いる場合、変換対象音声信号の一部が音声信号変換装置2に入力されていれば音声変換を実行することができる。そのため、予め用意された対角行列を用いる場合、音声信号変換装置2は、変換対象音声信号が全て入力されるまで待機する必要がなく、音声変換のリアルタイム性を向上させることができる。
なお、音声信号変換モデル学習装置1、1a及び1bは、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。音声信号変換モデル学習装置1、1a及び1bが備える各機能部は、複数の情報処理装置に分散して実装されてもよい。なお、音声信号変換装置2は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。音声信号変換モデル学習装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
Claims (19)
- 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、
音声特徴量時系列に対してエンコード処理を実行するエンコード部と、
一対の音声特徴量時系列の一方を、系列の長さが他方の系列の長さに一致するように変換する系列長調整処理を実行する系列長調整部と、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、
前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、
前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列が前記エンコード部によってエンコードされた時系列に対して入力側デコード処理を実行する入力側デコード部と、
文脈損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、
前記文脈損失項は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果である第2目標側推定系列と前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列との間の違いと、前記学習用入力音声特徴量系列に対して前記エンコード処理及び前記入力側デコード処理をこの順に実行した結果である入力側推定系列と前記学習用入力音声特徴量系列との間の違いと、を表し、
前記基本損失項は、前記学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコード部、前記系列長調整部、前記第1目標側デコード部、前記第2目標側デコード部及び前記入力側デコード部は前記損失関数の値に基づいて学習し、
前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表す循環注意損失項、をさらに含む、
音声信号変換モデル学習装置。 - 前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列の各列の最大値を与える要素を最大要素として、前記注意行列の要素のうち最大要素以外の各要素の値について0との違いを表す、注意考慮型コントラスティブ損失項をさらに含む、
請求項1に記載の音声信号変換モデル学習装置。 - 前記損失関数は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と対角行列との違いを表す注意逆損失項をさらに含む、
請求項1又は2のいずれか一項に記載の音声信号変換モデル学習装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、
音声特徴量時系列に対してエンコード処理を実行するエンコード部と、
一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整部と、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、
前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、
循環注意損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、
前記循環注意損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表し、
前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコード部、前記系列長調整部、前記第1目標側デコード部及び前記第2目標側デコード部は前記損失関数の値に基づいて学習する、
音声信号変換モデル学習装置。 - 前記学習用入力音声特徴量系列が前記エンコード部によってエンコードされた時系列に対して入力側デコード処理を実行する入力側デコード部、
を備え、
前記損失関数は、前記第2目標側推定系列と前記学習用目標音声特徴量系列との間の違いと、前記学習用入力音声特徴量系列に対して前記エンコード処理及び前記入力側デコード処理をこの順に実行した結果である入力側推定系列と前記学習用入力音声特徴量系列との間の違いとを表す文脈損失項、をさらに含む、
請求項4に記載の音声信号変換モデル学習装置。 - 前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列の各列の最大値を与える要素を最大要素として、前記注意行列の要素のうち最大要素以外の各要素の値について0との違いを表す、注意考慮型コントラスティブ損失項をさらに含む、
請求項4又は5に記載の音声信号変換モデル学習装置。 - 前記損失関数は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と対角行列との違いを表す注意逆損失項をさらに含む、
請求項4から6のいずれか一項に記載の音声信号変換モデル学習装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、
音声特徴量時系列に対してエンコード処理を実行するエンコード部と、
一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整部と、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、
前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、
注意考慮型コントラスティブ損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、
前記注意考慮型コントラスティブ損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との各注意行列の各列の最大値を与える要素を最大要素として、各前記注意行列の要素のうち最大要素以外の各要素の値について0との違いを表し、
前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコード部、前記系列長調整部、前記第1目標側デコード部及び前記第2目標側デコード部は前記損失関数の値に基づいて学習する、
音声信号変換モデル学習装置。 - 前記学習用入力音声特徴量系列が前記エンコード部によってエンコードされた時系列に対して入力側デコード処理を実行する入力側デコード部、
を備え、
前記損失関数は、前記第2目標側推定系列と前記学習用目標音声特徴量系列との間の違いと、前記学習用入力音声特徴量系列に対して前記エンコード処理及び前記入力側デコード処理をこの順に実行した結果である入力側推定系列と前記学習用入力音声特徴量系列との間の違いとを表す文脈損失項、をさらに含む、
請求項8に記載の音声信号変換モデル学習装置。 - 前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表す循環注意損失項、をさらに含む、
請求項8又は9に記載の音声信号変換モデル学習装置。 - 前記損失関数は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と対角行列との違いを表す注意逆損失項をさらに含む、
請求項8から10のいずれか一項に記載の音声信号変換モデル学習装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、音声特徴量時系列に対してエンコード処理を実行するエンコード部と、一対の音声特徴量時系列の一方を、系列の長さが他方の系列の長さに一致するように変換する系列長調整処理を実行する系列長調整部と、前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列が前記エンコード部によってエンコードされた時系列に対して入力側デコード処理を実行する入力側デコード部と、文脈損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、前記文脈損失項は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果である第2目標側推定系列と前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列との間の違いと、前記学習用入力音声特徴量系列に対して前記エンコード処理及び前記入力側デコード処理をこの順に実行した結果である入力側推定系列と前記学習用入力音声特徴量系列との間の違いと、を表し、前記基本損失項は、前記学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、前記エンコード部、前記系列長調整部、前記第1目標側デコード部、前記第2目標側デコード部及び前記入力側デコード部は前記損失関数の値に基づいて学習し、前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表す循環注意損失項、をさらに含む、音声信号変換モデル学習装置、が得た学習済みモデルを用いて入力された音声信号を変換する変換部、
を備える音声信号変換装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、音声特徴量時系列に対してエンコード処理を実行するエンコード部と、一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整部と、前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、循環注意損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、前記循環注意損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表し、前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、前記エンコード部、前記系列長調整部、前記第1目標側デコード部及び前記第2目標側デコード部は前記損失関数の値に基づいて学習する音声信号変換モデル学習装置、が得た学習済みモデルを用いて入力された音声信号を変換する変換部、
を備える音声信号変換装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習装置であって、音声特徴量時系列に対してエンコード処理を実行するエンコード部と、一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整部と、前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコード部と、前記系列長調整部により系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコード部と、注意考慮型コントラスティブ損失項及び基本損失項を含む損失関数の値を取得する損失取得部と、を備え、前記注意考慮型コントラスティブ損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との各注意行列の各列の最大値を与える要素を最大要素として、各前記注意行列の要素のうち最大要素以外の各要素の値について0との違いを表し、前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、前記エンコード部、前記系列長調整部、前記第1目標側デコード部及び前記第2目標側デコード部は前記損失関数の値に基づいて学習する音声信号変換モデル学習装置、が得た学習済みモデルを用いて入力された音声信号を変換する変換部、
を備える音声信号変換装置。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習方法であって、
音声特徴量時系列に対してエンコード処理を実行するエンコードステップと、
一対の音声特徴量時系列の一方を、系列の長さが他方の系列の長さに一致するように変換する系列長調整処理を実行する系列長調整ステップと、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコードステップと、
前記系列長調整ステップにより系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコードステップと、
前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列が前記エンコードステップによってエンコードされた時系列に対して入力側デコード処理を実行する入力側デコードステップと、
文脈損失項及び基本損失項を含む損失関数の値を取得する損失取得ステップと、を有し、
前記文脈損失項は、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果である第2目標側推定系列と前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列との間の違いと、前記学習用入力音声特徴量系列に対して前記エンコード処理及び前記入力側デコード処理をこの順に実行した結果である入力側推定系列と前記学習用入力音声特徴量系列との間の違いと、を表し、
前記基本損失項は、前記学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコードステップ、前記系列長調整ステップ、前記第1目標側デコードステップ、前記第2目標側デコードステップ及び前記入力側デコードステップは前記損失関数の値に基づいて学習し、
前記損失関数は、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表す循環注意損失項、をさらに含む、
音声信号変換モデル学習方法。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習方法であって、
音声特徴量時系列に対してエンコード処理を実行するエンコードステップと、
一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整ステップと、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコードステップと、
前記系列長調整ステップにより系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコードステップと、
循環注意損失項及び基本損失項を含む損失関数の値を取得する損失取得ステップと、を有し、
前記循環注意損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との行列の積と単位行列との違いを表し、
前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコードステップ、前記系列長調整ステップ、前記第1目標側デコードステップ及び前記第2目標側デコードステップは前記損失関数の値に基づいて学習する、
音声信号変換モデル学習方法。 - 音声信号から得られる情報のうち所定の条件を満たす情報である音声特徴量時系列を用いて音声信号を変換する機械学習のモデルを学習する音声信号変換モデル学習方法であって、
音声特徴量時系列に対してエンコード処理を実行するエンコードステップと、
一対の音声特徴量時系列の一方を他方に一致させる系列長調整処理を実行する系列長調整ステップと、
前記他方の音声特徴量時系列に対して第1目標側デコード処理を実行する第1目標側デコードステップと、
前記系列長調整ステップにより系列の長さが調整された前記一方の音声特徴量時系列に対して第2目標側デコード処理を実行する第2目標側デコードステップと、
注意考慮型コントラスティブ損失項及び基本損失項を含む損失関数の値を取得する損失取得ステップと、を有し、
前記注意考慮型コントラスティブ損失項は、前記モデルを得る際の説明変数として用いられる学習用入力音声特徴量系列に対して前記エンコード処理と、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した結果を第2目標側推定系列として、前記第2目標側推定系列に対して前記エンコード処理と、前記学習用入力音声特徴量系列に対する前記系列長調整処理と、前記第1目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列と、前記学習用入力音声特徴量系列に対して前記エンコード処理と、前記学習用目標音声特徴量系列に対して前記エンコード処理を実行した結果に対する前記系列長調整処理と、前記第2目標側デコード処理と、をこの順に実行した際の前記系列長調整処理における変換を表す注意行列との各注意行列の各列の最大値を与える要素を最大要素として、各前記注意行列の要素のうち最大要素以外の各要素の値について0との違いを表し、
前記基本損失項は、前記モデルを得る際の目的変数として用いられる学習用目標音声特徴量系列に対して前記エンコード処理及び前記第1目標側デコード処理をこの順に実行した結果である第1目標側推定系列と前記学習用目標音声特徴量系列との間の違いを表し、
前記エンコードステップ、前記系列長調整ステップ、前記第1目標側デコードステップ及び前記第2目標側デコードステップは前記損失関数の値に基づいて学習する、
音声信号変換モデル学習方法。 - 請求項1から11のいずれか一項に記載の音声信号変換モデル学習装置としてコンピュータを機能させるためのプログラム。
- 請求項12から14のいずれか一項に記載の音声信号変換装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/018828 WO2021229643A1 (ja) | 2020-05-11 | 2020-05-11 | 音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021229643A1 JPWO2021229643A1 (ja) | 2021-11-18 |
JP7469698B2 true JP7469698B2 (ja) | 2024-04-17 |
Family
ID=78525434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022522103A Active JP7469698B2 (ja) | 2020-05-11 | 2020-05-11 | 音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7469698B2 (ja) |
WO (1) | WO2021229643A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2023132018A1 (ja) * | 2022-01-05 | 2023-07-13 | ||
CN115620748B (zh) * | 2022-12-06 | 2023-03-28 | 北京远鉴信息技术有限公司 | 一种语音合成与鉴伪评价的综合训练方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144402A (ja) | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
-
2020
- 2020-05-11 JP JP2022522103A patent/JP7469698B2/ja active Active
- 2020-05-11 WO PCT/JP2020/018828 patent/WO2021229643A1/ja active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144402A (ja) | 2018-02-20 | 2019-08-29 | 日本電信電話株式会社 | 音声変換学習装置、音声変換装置、方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
TANAKA, Kou et al.,AttS2S-VC: Sequence-to-Sequence Voice Conversion with Attention and Context Preservation Mechanisms,arXiv,2018年11月09日,DOI: 10.48550/arXiv.1811.04076 |
Also Published As
Publication number | Publication date |
---|---|
WO2021229643A1 (ja) | 2021-11-18 |
JPWO2021229643A1 (ja) | 2021-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11837216B2 (en) | Speech recognition using unspoken text and speech synthesis | |
Chou et al. | One-shot voice conversion by separating speaker and content representations with instance normalization | |
Valle et al. | Flowtron: an autoregressive flow-based generative network for text-to-speech synthesis | |
Liu et al. | Recent progress in the CUHK dysarthric speech recognition system | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
CN111837178A (zh) | 语音处理系统和处理语音信号的方法 | |
CN112712813B (zh) | 语音处理方法、装置、设备及存储介质 | |
CN107408384A (zh) | 部署的端对端语音识别 | |
CN109903750B (zh) | 一种语音识别方法及装置 | |
CN107077842A (zh) | 用于语音转录的系统和方法 | |
Kameoka et al. | Many-to-many voice transformer network | |
Hashimoto et al. | Trajectory training considering global variance for speech synthesis based on neural networks | |
CN110060657B (zh) | 基于sn的多对多说话人转换方法 | |
JP2020034883A (ja) | 音声合成装置及びプログラム | |
JP2015187684A (ja) | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム | |
JP7469698B2 (ja) | 音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム | |
CN114550703A (zh) | 语音识别系统的训练方法和装置、语音识别方法和装置 | |
JP2022548574A (ja) | シーケンス-シーケンス・ニューラル・モデルにおける構造保持注意機構 | |
Himawan et al. | Speaker adaptation of a multilingual acoustic model for cross-language synthesis | |
Ling et al. | Minimum Kullback–Leibler divergence parameter generation for HMM-based speech synthesis | |
Choi et al. | SNAC: Speaker-normalized affine coupling layer in flow-based architecture for zero-shot multi-speaker text-to-speech | |
Effendi et al. | End-to-end image-to-speech generation for untranscribed unknown languages | |
CN116092475B (zh) | 一种基于上下文感知扩散模型的口吃语音编辑方法和系统 | |
Arisaputra et al. | Indonesian Automatic Speech Recognition with XLSR-53 | |
Kameoka et al. | VoiceGrad: Non-Parallel Any-to-Many Voice Conversion With Annealed Langevin Dynamics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A801 Effective date: 20221014 |
|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7469698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |