JP2019105681A - 推定装置、推定方法および推定プログラム - Google Patents

推定装置、推定方法および推定プログラム Download PDF

Info

Publication number
JP2019105681A
JP2019105681A JP2017236811A JP2017236811A JP2019105681A JP 2019105681 A JP2019105681 A JP 2019105681A JP 2017236811 A JP2017236811 A JP 2017236811A JP 2017236811 A JP2017236811 A JP 2017236811A JP 2019105681 A JP2019105681 A JP 2019105681A
Authority
JP
Japan
Prior art keywords
sound source
signal
target sound
observation
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017236811A
Other languages
English (en)
Other versions
JP6930408B2 (ja
Inventor
卓哉 樋口
Takuya Higuchi
卓哉 樋口
慶介 木下
Keisuke Kinoshita
慶介 木下
マーク デルクロア
Marc Delcroix
マーク デルクロア
中谷 智広
Tomohiro Nakatani
智広 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017236811A priority Critical patent/JP6930408B2/ja
Publication of JP2019105681A publication Critical patent/JP2019105681A/ja
Application granted granted Critical
Publication of JP6930408B2 publication Critical patent/JP6930408B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】混合音と目的音源とが対になったトレーニングデータを用いずに学習して音源分離を行う。【解決手段】時間周波数分析部21が、複数のマイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの観測信号で構成される観測ベクトルを生成する。特徴量抽出部22が、生成された観測ベクトルから所定の音響特徴量を抽出する。目的音源推定部23が、音響特徴量を用いて目的音源の音響信号の推定値を出力する分離器24を学習により作成する際に、入力された目的音源の音響信号が真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器11に入力した場合に、この識別器11が真の目的音源の音響信号と識別するように、推定値を学習する。【選択図】図2

Description

本発明は、推定装置、推定方法および推定プログラムに関する。
従来、音声認識を行ったり観測した音を人間の聞き取り易い音に変換したりするため、目的音源の音響信号を背景雑音と分離する音源分離の技術が開示されている。このような従来の技術において、混合音と正解値としての目的音源の音響信号とが対になったトレーニングデータを用いた学習により、目的音源の音響信号の推定値が求められ音源分離が行われていた(非特許文献1,2参照)。なお、非特許文献3には、雑音を抑制して音声を強調するビームフォーミングの技術が開示されている。
Felix Weninger, Hakan Erdogan, Shinji Watanabe, Emmanuel Vincent, Jonathan Le Roux, John R.Hershey, Bjorn Schuller,"Speech enhancement with LSTM recurrent neural networks and its application to noise-robust ASR", International Conference on Latent Variable Analysis and Signal Separation, Springer, 2015年, pp.91-99 Santiago Pascual, Antonio Bonafonte, Joan Serra, "SEGAN:Speech Enhancement Generative Adversarial Network", arXiv preprint arXiv:1703.09452v3, 2017年 T.Higuchi, N.Ito, S.Araki, T.Yoshioka, M.Delcroix, T.Nakatani, "Online MVDR Beamformer Based on Complex Gaussian Mixture Model With Spatial Prior for Noise Robust ASR", IEEE/ACM Transactions on Audio, Speech, and Language Processing, val.25, No.4, 2017年, pp.780-793
しかしながら、実際に録音されたデータには、対になる正解値としての目的音源のデータが得られない場合が多く、シミュレーションを用いて人工的に作成されたデータをトレーニングデータとして用いて学習せざるを得なかった。
本発明は、上記に鑑みてなされたものであって、混合音と目的音源とが対になったトレーニングデータを用いずに学習して音源分離を行うことを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る推定装置は、マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析部と、生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出部と、前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習部と、を備えることを特徴とする。
本発明によれば、混合音と目的音源とが対になったトレーニングデータを用いずに学習して音源分離を行うことが可能となる。
図1は、従来の推定装置の概略構成を示す模式図である。 図2は、本実施形態に係る推定システムの概略構成を示す模式図である。 図3は、本実施形態に係る推定装置の概略構成を示す模式図である。 図4は、本実施形態の推定処理手順を示すフローチャートである。 図5は、他の実施形態に係る推定装置の概略構成を示す模式図である。 図6は、推定プログラムを実行するコンピュータの一例を示す図である。
以下、図面を参照して、本発明の一実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
[従来の推定処理]
まず、図1を参照して、従来の音源分離を行う推定処理について説明する。図1は、従来の推定装置の概略構成を示す模式図である。従来、音源分離を行う推定装置200は、図1に示すように、時間周波数分析部201、特徴量抽出部202、目的音源推定部203を備える。まず、時間周波数分析部201が、N個の目的音源に対応する音響信号が混在する状況において、1つのマイクで収録された観測信号に短時間信号分析を適用し、時間周波数点ごとの観測音響信号を抽出する。
次に、特徴量抽出部202が、観測音響信号から音響特徴量を抽出する。また、目的音源推定部203は、音響特徴量を入力として、あらかじめ学習され保持されている分離器204を用いて非線形変換を繰り返すことにより、時間周波数点ごとにN個の目的音源を推定する。この分離器204はニューラルネットワークで実現され、あらかじめ混合音とそれに含まれる目的音源とが対になったトレーニングデータを用いて学習されたものであり、後述するように、この点が本実施形態の推定装置と異なる。
ここで、短時間フーリエ変換等の短時間信号分析を用いて得られる観測音響信号をyf,tと表す。ただし、tは1〜Tの整数で表される時間の番号であり、fは0〜Fの整数で表される周波数の番号である。n個の音源信号が混合されて観測された場合に、各時間周波数点における観測音響信号yf,tは、次式(1)のようにモデル化できる。
Figure 2019105681
上記式(1)に示すように、n個の目的音源の音響信号が混合された観測信号から、ニューラルネットワークを用いて、それぞれの目的音源の音響信号が推定される。まず、特徴量抽出処理により、観測音響信号から次式(2)に示す音響特徴量の集合が得られる。
Figure 2019105681
次に、ニューラルネットワークによる変換f(・)を用いて、次式(3)に示す目的音源の音響信号の推定値の集合が、次式(4)に示すように得られる。
Figure 2019105681
Figure 2019105681
ニューラルネットワークのパラメータは、混合音とそれぞれの目的音源とが対になったトレーニングデータを用いて、次式(5)に示す目的関数を最小化することにより、事前に得られる。
Figure 2019105681
このように、目的音源推定部203が、混合音から推定された目的音源の音響信号の推定値と、混合音を構成する目的音源の正解値との間の距離を最小化することにより、ニューラルネットワークのパラメータを学習して、分離器204を作成する。
なお、目的音源の音響信号の推定値は、直接ニューラルネットワークの出力として得ることが可能である。あるいは、ニューラルネットワークで混合音に対する目的音源の割合を表す0〜1の間の値をとるマスクが得られる場合には、マスクを観測音響信号に掛け合わせることにより、目的音源の音響信号の推定値が得られる(非特許文献1参照)。
[推定システムの構成]
次に、図2を参照して、本実施形態に係る推定システム1について説明する。図2は、本実施形態に係る推定システム1の概略構成を示す模式図である。図2に示すように、推定システム1は、識別装置10と推定装置20とを含む。
この推定システム1において、識別装置10は、識別器11を備え、識別器11の学習を行う。識別器11は、入力された目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する。また、推定装置20は、分離器24を用いて、入力された観測信号から目的音源の音響信号を分離し、その推定値を出力する。また、推定装置20は、識別器11が、分離器24によって推定された目的音源の音響信号が入力された場合に真の目的音源の音響信号と誤って識別するように、分離器24の学習を行う。
[識別装置の構成]
本実施形態に係る識別装置10は、ワークステーションやパソコン等の汎用コンピュータで実現され、CPU(Central Processing Unit)等を用いて実現される制御部が、メモリに記憶された処理プログラムを実行することにより、図2に示すように、識別学習部12および識別部13として機能する。また、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される記憶部に、識別器11が保持される。
識別器11は、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する。
識別学習部12は、識別器11を学習により作成する。具体的には、識別学習部12は、後述するように、推定装置20が出力した目的音源の音響信号の推定値を識別器11に入力した場合に、識別器11が推定された目的音源の音響信号と識別するように学習する。
本実施形態において、識別器11は、ニューラルネットワークの1種であるBLSTM(Bi-directional Long Short-Term Memory)で実現される。また、識別器11は、目的音源用と背景雑音用とが別々に用意される。各識別器11は、入力された音響信号が目的音源または背景雑音のみの場合、すなわち、真の目的音源または背景雑音の音響信号の場合に1を出力するように学習される。また、各識別器11は、後述する推定装置20の分離器24によって推定された目的音源または背景雑音の音響信号の場合に0を出力するように学習される。
すなわち、識別学習部12は、推定装置20から出力された目的音源または背景雑音の音響信号の推定値が入力された場合に識別器11が出力する識別値が0に近くなるように、識別器11のパラメータを最適化する。また、識別学習部12は、目的音源のデータセットに含まれる真の目的音源の音響データが入力された場合に識別器11が出力する識別値が1に近くなるように、識別器11のパラメータを最適化する。識別学習部12は、学習の際には、RMSpropと呼ばれる最適化アルゴリズムを用いてパラメータを求め、記憶部に保持する。
また、識別部13は、識別器11を用いて、入力された音響信号が真の目的音源の音響信号か推定された目的音源の音響信号かを識別する。すなわち、識別部13は、出力される識別値が1に近い場合に、真の目的音源の音響信号であることを示すラベル1を付与する。また、識別部13は、出力される識別値が0に近い場合に、推定された偽の目的音源の音響信号であることを示すラベル0を付与する。
[推定装置の構成]
次に、図3を参照して、推定装置20について説明する。図3は、本実施形態に係る推定装置20の概略構成を示す模式図である。図3に示すように、推定装置20は、ワークステーションやパソコン等の汎用コンピュータで実現され、CPU等を用いて実現される制御部が、メモリに記憶された処理プログラムを実行することにより、図3に示すように、時間周波数分析部21、特徴量抽出部22、目的音源推定部23として機能する。また、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される記憶部に、分離器24が保持される。なお、記憶部に予め学習された上記の識別器11が保持されてもよい。
時間周波数分析部21は、マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの観測信号で構成される観測ベクトルを生成する。
以下の説明において、1個の目的音源の音響信号を、背景雑音下でM個(M≧1)のマイクロホンで収録するものとする。ここで、マイクロホンmで収録された観測信号をym,τとする。この場合に、次式(6)に示すように、観測信号をym,τは、N個(N>0)の各目的音源に由来する音響信号xm,τ (n)(n=1,…,N)の和で表される。
Figure 2019105681
具体的には、まず、時間周波数分析部21は、すべてのマイクロホンで収録された上記式(6)で表される観測信号の入力を受け付けて、各観測信号ym,τごとに短時間信号分析を適用して時間周波数ごとの信号特徴量Ym,f,tを算出する。その際、短時間信号分析は特に限定されず、例えば、短時間離散フーリエ変換、短時間離散コサイン変換等が適用される。
次に、時間周波数分析部21は、各時間周波数点で得られた信号Y(m)(f,t)を全てのマイクロホンに関してまとめ、次式(7)に示すM次元縦ベクトルである観測ベクトルyf,tを構成する。
Figure 2019105681
特徴量抽出部22は、生成された観測ベクトルから所定の音響特徴量を抽出する。具体的には、特徴量抽出部22は、観測ベクトルのうち、あらかじめ決められた1つのマイクロホンで録音された成分である1つの要素の絶対値の対数をとり、音響特徴量とする。
目的音源推定部23は、推定学習部として、音響特徴量を用いて目的音源の音響信号の推定値を出力する分離器24を学習により作成する。その際に、目的音源推定部23は、推定学習部として、分離器24が出力した目的音源の音響信号の推定値を学習する手段であって、上記の識別器11に入力した場合に、この識別器11が真の目的音源の音響信号と識別するように、推定値を学習する。
具体的には、推定学習部としての目的音源推定部23は、音響特徴量を分離器24に入力することで、時間周波数点ごとに目的音源と背景雑音とのそれぞれに対して、混合音に対する割合を表す0から1の間の値で表されるマスクを得る。この分離器24は、識別器11と同様に、BLSTMで実現される。
目的音源推定部23は、推定学習部として、以下に説明するように、学習により分離器24を作成する。なお、目的音源推定部23は、分離器24によって推定されたマスクを時間周波数ごとの信号特徴量に掛け合わせることで、目的音源と背景雑音との音響信号の推定値を得る。
また、推定学習部としての目的音源推定部23は、得られた目的音源または背景雑音の音響信号の推定値を識別器11に入力した場合に、識別器11が真の目的音源または背景雑音の音響信号と誤って識別して1を出力するように、分離器24の学習を行う。すなわち、目的音源推定部23は、得られた推定値を識別器11に入力した場合に、識別器11の出力が1に近くなるように、分離器24のパラメータを最適化する。目的音源推定部23は、学習の際に、RMSpropを用いて分離器24のパラメータを求め、記憶部に保持する。
このように、推定システム1において、識別器11と分離器24との学習を交互に競わせるように行うことにより、分離器24は、目的音源または背景雑音の音響信号と区別がつかないほどに近い音響信号を推定することが可能となる。
また、推定システム1において、混合音のデータセットと目的音源のデータセットとが対になっている必要はなく、混合音のデータセットとして実録音データを用いることも可能である。
また、目的音源推定部23は、分離器24を用いて、入力された観測信号に含まれる目的音源の音響信号の推定値を出力する。目的音源の音響信号の推定値は、例えば、分離器24で得られたマスクを観測ベクトルに掛け合わせることにより得られる。また、目的音源の音響信号の推定値は、直接、分離器24の出力として得ることも可能である。
あるいは、目的音源の音響信号の推定値は、分離器24から得られたマスクと観測ベクトルから推定した空間相関行列を用いたビームフォーミングにより得ることも可能である(非特許文献3参照)。すなわち、目的音源推定部23は、分離器24から得られたマスクを観測ベクトルの外積に掛けた後に重み付き和をとることにより、n番目の目的音源の空間相関行列と、n番目の目的音源の干渉音の空間相関行列とを算出し、ビームフォーマを設計する。各目的音源の音響信号の推定値は、各周波数において、観測ベクトルにビームフォーマを掛け合わせることにより得られる。
[推定処理]
次に、図4を参照して、推定システム1の推定処理について説明する。図4は、本実施形態の推定処理手順を示すフローチャートである。図4のフローチャートは、例えば、処理の開始を指示する操作入力があったタイミングで開始される。
まず、時間周波数分析部21が、マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付ける(ステップS1)。また、時間周波数分析部21が短時間信号分析を行って、観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの観測信号で構成される観測ベクトルを生成する(ステップS2)。また、特徴量抽出部22が、生成された観測ベクトルから所定の音響特徴量を抽出する(ステップS3)。
次に、目的音源推定部23が、音響特徴量を用いて、目的音源の音響信号の推定値を出力する分離器24を学習により作成する。その際に、目的音源推定部23は、推定学習部として、分離器24が出力した目的音源の音響信号の推定値を識別器11に入力した場合に、識別器11が真の目的音源の音響信号と識別するように、推定値を学習する(ステップS4)。
また、目的音源推定部23は、分離器24を用いて、入力された観測信号に含まれる目的音源の音響信号の推定値を出力する。これにより、一連の推定処理が終了する。
以上、説明したように、本実施形態の推定装置20では、時間周波数分析部21が、マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの観測信号で構成される観測ベクトルを生成する。また、特徴量抽出部22が、生成された観測ベクトルから所定の音響特徴量を抽出する。また、目的音源推定部23は、音響特徴量を用いて目的音源の音響信号の推定値を出力する分離器24を学習により作成する。その際に、目的音源推定部23は、分離器24が出力した目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器11に入力した場合に、この識別器11が真の目的音源の音響信号と識別するように、推定値を学習する。
これにより、推定装置20は、混合音と目的音源とが対になったデータセットを用いる代わりに、実録音データを用いて分離器24を学習することにより音源分離を行うことが可能となる。このように、本実施形態の推定装置20は、混合音と目的音源とが対になったトレーニングデータを用いずに学習して音源分離を行うことができる。
また、推定システム1は、識別器11を学習により作成する識別装置10を備える。識別装置10では、識別学習部12が、分離器24すなわち目的音源推定部23が出力した目的音源の音響信号の推定値を識別器11に入力した場合に、識別器11が推定された目的音源の音響信号と識別するように学習する。このように、識別器11と分離器24との学習を交互に競わせるように行うことにより、分離器24は、より高精度に音響信号を推定することが可能となる。
なお、図5は、他の実施形態に係る推定装置20の概略構成を示す模式図である。図5に示すように、上記実施形態の識別装置10は、推定装置20と同一のハードウェアに実装されてもよい。この場合に、図5に示すように、推定装置20は、上記実施形態の識別装置10に相当する識別機能部100を備える。識別機能部100に含まれる各機能部および推定装置20の他の機能部は、図2を参照して説明した上記実施形態と同一であるので、説明を省略する。
[実施例]
上記実施形態に係る推定システム1を用いて、バスの中やカフェ等の背景雑音が存在する環境において、一人の話者がタブレットに向かって文章を読み上げる音声を、タブレットに装着されたM=6個のマイクで収録した場合に、音声認識性能を確認する実験を行った。ここで、RMSPropの学習率は1×10−3とした。また、学習時のバッチサイズは40とした。
この場合に、推定システム1を用いずに音声認識を行った場合の単語認識誤差率は15.6%であった。これに対し、推定システム1を用いてビームフォーミングにより音声強調を行った場合の単語認識誤差率は7.58%であった。このように、本実施形態の推定システム1による推定処理の効果が確認できた。
[プログラム]
上記実施形態に係る推定システム1の識別装置10および推定装置20が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。一実施形態として、識別装置10および推定装置20は、パッケージソフトウェアやオンラインソフトウェアとして上記の推定処理を実行する推定プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の推定プログラムを情報処理装置に実行させることにより、情報処理装置を識別装置10または推定装置20として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)などの移動体通信端末、さらには、PDA(Personal Digital Assistants)などのスレート端末などがその範疇に含まれる。また、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の推定処理に関するサービスを提供するサーバ装置として実装することもできる。例えば、推定装置20は、観測信号を入力とし、推定値を出力する推定処理サービスを提供するサーバ装置として実装される。この場合、推定装置20は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の推定処理に関するサービスを提供するクラウドとして実装することとしてもかまわない。以下に、識別装置10または推定装置20と同様の機能を実現する推定プログラムを実行するコンピュータの一例を説明する。
図6は、推定プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。
ここで、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。処理に使用される各テーブルは、例えばハードディスクドライブ1031やメモリ1010に記憶される。
また、推定プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュール1093として、ハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明した識別装置10または推定装置20が実行する各処理が記述されたプログラムモジュール1093が、ハードディスクドライブ1031に記憶される。
また、推定プログラムによる情報処理に用いられるデータは、プログラムデータ1094として、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、推定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、推定プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
以上、本発明者によってなされた発明を適用した実施形態について説明したが、本実施形態による本発明の開示の一部をなす記述および図面により本発明は限定されることはない。すなわち、本実施形態に基づいて当業者等によりなされる他の実施形態、実施例および運用技術等は全て本発明の範疇に含まれる。
1 推定システム
10 識別装置
11 識別器
12 識別学習部
13 識別部
20,200 推定装置
21,201 時間周波数分析部
22,202 特徴量抽出部
23,203 目的音源推定部
24,204 分離器
100 識別機能部

Claims (8)

  1. マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析部と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習部と、
    を備えることを特徴とする推定装置。
  2. マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析部と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習部と、
    前記識別器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を前記識別器に入力した場合に、前記識別器が推定された目的音源の音響信号と識別するように学習する識別学習部と、
    を備えることを特徴とする推定装置。
  3. マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析部と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習部と、
    前記分離器を用いて、入力された前記観測信号に含まれる前記目的音源の音響信号の推定値を出力する目的音源推定部と、
    を備えることを特徴とする推定装置。
  4. マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析部と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出部と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する手段であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習部と、
    前記分離器を用いて、入力された前記観測信号に含まれる前記目的音源の音響信号の推定値を出力する目的音源推定部と、
    前記識別器を学習により作成する際に、前記目的音源推定部が出力した前記目的音源の音響信号の推定値を前記識別器に入力した場合に、前記識別器が推定された目的音源の音響信号と識別するように学習する識別学習部と、
    前記識別器を用いて、入力された音響信号が真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別部と、
    を備えることを特徴とする推定装置。
  5. 推定装置で実行される推定方法であって、
    マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析工程と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出工程と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する工程であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習工程と、
    を含んだことを特徴とする推定方法。
  6. 推定装置で実行される推定方法であって、
    マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析工程と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出工程と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する工程であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習工程と、
    前記識別器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を前記識別器に入力した場合に、前記識別器が推定された目的音源の音響信号と識別するように学習する識別学習工程と、
    を含んだことを特徴とする推定方法。
  7. 推定装置で実行される推定方法であって、
    マイクで収録された目的音源の音響信号を含む混合音の観測信号の入力を受け付けて、該観測信号から時間周波数点ごとの観測信号を抽出し、抽出した時間周波数点ごとの前記観測信号で構成される観測ベクトルを生成する時間周波数分析工程と、
    生成された前記観測ベクトルから所定の音響特徴量を抽出する特徴量抽出工程と、
    前記音響特徴量を用いて前記目的音源の音響信号の推定値を出力する分離器を学習により作成する際に、前記分離器が出力した前記目的音源の音響信号の推定値を学習する工程であって、真の目的音源の音響信号または推定された目的音源の音響信号の入力を受け付けて、該目的音源の音響信号が、真の目的音源の音響信号か推定された目的音源の音響信号かを識別する識別器に入力した場合に、前記識別器が真の目的音源の音響信号と識別するように、前記推定値を学習する推定学習工程と、
    前記分離器を用いて、入力された前記観測信号に含まれる前記目的音源の音響信号の推定値を出力する目的音源推定工程と、
    を含んだことを特徴とする推定方法。
  8. コンピュータを請求項1〜4のいずれか1項に記載の推定装置として機能させるための推定プログラム。
JP2017236811A 2017-12-11 2017-12-11 推定装置、推定方法および推定プログラム Active JP6930408B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017236811A JP6930408B2 (ja) 2017-12-11 2017-12-11 推定装置、推定方法および推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236811A JP6930408B2 (ja) 2017-12-11 2017-12-11 推定装置、推定方法および推定プログラム

Publications (2)

Publication Number Publication Date
JP2019105681A true JP2019105681A (ja) 2019-06-27
JP6930408B2 JP6930408B2 (ja) 2021-09-01

Family

ID=67062408

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236811A Active JP6930408B2 (ja) 2017-12-11 2017-12-11 推定装置、推定方法および推定プログラム

Country Status (1)

Country Link
JP (1) JP6930408B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580288A (zh) * 2019-08-23 2019-12-17 腾讯科技(深圳)有限公司 基于人工智能的文本分类方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DANIEL MICHELSANTI, ZHENG-HUA TAN: "Conditional Generative Adversarial Networks for Speech Enhancement and Noise-Robust Speaker Verifica", PROC. INTERSPEECH 2017, JPN6020038506, August 2017 (2017-08-01), pages 2008 - 2012, ISSN: 0004457764 *
SANTIAGO PASCUAL, 外2名: "SEGAN: Speech Enhancement Generative Adversarial Network", PROC. INTERSPEECH 2017, JPN6020038507, August 2017 (2017-08-01), pages 3642 - 3646, ISSN: 0004457765 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580288A (zh) * 2019-08-23 2019-12-17 腾讯科技(深圳)有限公司 基于人工智能的文本分类方法和装置

Also Published As

Publication number Publication date
JP6930408B2 (ja) 2021-09-01

Similar Documents

Publication Publication Date Title
CN110600017B (zh) 语音处理模型的训练方法、语音识别方法、系统及装置
JP6434657B2 (ja) 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
JPWO2019017403A1 (ja) マスク計算装置、クラスタ重み学習装置、マスク計算ニューラルネットワーク学習装置、マスク計算方法、クラスタ重み学習方法及びマスク計算ニューラルネットワーク学習方法
JP6517760B2 (ja) マスク推定用パラメータ推定装置、マスク推定用パラメータ推定方法およびマスク推定用パラメータ推定プログラム
US11355097B2 (en) Sample-efficient adaptive text-to-speech
JP2020034624A (ja) 信号生成装置、信号生成システム、信号生成方法およびプログラム
CN108922543B (zh) 模型库建立方法、语音识别方法、装置、设备及介质
WO2020045313A1 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
KR20180025634A (ko) 음성 인식 장치 및 방법
JP2020071482A (ja) 語音分離方法、語音分離モデル訓練方法及びコンピュータ可読媒体
JP6538624B2 (ja) 信号処理装置、信号処理方法および信号処理プログラム
JP2019144467A (ja) マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム
Jiang et al. An improved unsupervised single-channel speech separation algorithm for processing speech sensor signals
JP6711765B2 (ja) 形成装置、形成方法および形成プログラム
JP6930408B2 (ja) 推定装置、推定方法および推定プログラム
JP7329393B2 (ja) 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、学習装置、学習方法及び学習プログラム
Girin et al. Audio source separation into the wild
JP5726790B2 (ja) 音源分離装置、音源分離方法、およびプログラム
JP6636973B2 (ja) マスク推定装置、マスク推定方法およびマスク推定プログラム
JP7112348B2 (ja) 信号処理装置、信号処理方法及び信号処理プログラム
JP2020135485A (ja) 拡張装置、拡張方法及び拡張プログラム
JPWO2017037830A1 (ja) 音声認識装置および音声認識処理方法
JP6734237B2 (ja) 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム
JP6285855B2 (ja) フィルタ係数算出装置、音声再生装置、フィルタ係数算出方法及びプログラム
JP2018028620A (ja) 音源分離方法、装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6930408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150