JP6434657B2 - 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム - Google Patents

空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム Download PDF

Info

Publication number
JP6434657B2
JP6434657B2 JP2017554190A JP2017554190A JP6434657B2 JP 6434657 B2 JP6434657 B2 JP 6434657B2 JP 2017554190 A JP2017554190 A JP 2017554190A JP 2017554190 A JP2017554190 A JP 2017554190A JP 6434657 B2 JP6434657 B2 JP 6434657B2
Authority
JP
Japan
Prior art keywords
spatial correlation
correlation matrix
mask
matrix
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017554190A
Other languages
English (en)
Other versions
JPWO2017094862A1 (ja
Inventor
中谷 智広
智広 中谷
信貴 伊藤
信貴 伊藤
卓哉 樋口
卓哉 樋口
荒木 章子
章子 荒木
拓也 吉岡
拓也 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2017094862A1 publication Critical patent/JPWO2017094862A1/ja
Application granted granted Critical
Publication of JP6434657B2 publication Critical patent/JP6434657B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラムに関する。
従来、目的音源から出た音響信号と背景雑音による音響信号とが混在する状況において、複数のマイクロホンで収音された観測信号から、各目的音源のみが観測信号に含まれている場合の空間相関行列を推定する方法が提案されている。また、空間相関行列を推定する際には、各音響信号が観測された音響信号に含まれる割合であるマスクが用いられる場合がある。
なお、空間相関行列とは、マイクロホン間の信号の自己相関、および相互相関を表す行列であり、例えば目的音源の位置を推定することや、観測信号から目的音源のみを取り出すビームフォーマを設計することに用いられる。
ここで、図6を用いて、従来の空間相関行列推定装置について説明する。図6は、従来の空間相関行列推定装置の構成を示す図である。図6に示すように、まず、時間周波数分析部10aは、観測信号から抽出した時間周波数点ごとの観測特徴量ベクトルを計算する。次に、マスク推定部20aは、観測特徴量ベクトルを基に目的音源および背景雑音に対応するマスクを推定する。また、観測特徴量行列計算部30aは、観測特徴量ベクトルと当該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する。
そして、目的音特徴量行列時間平均計算部40aは、観測特徴量行列に目的音源に対応するマスクを乗じて得られた行列の時間平均である平均目的音特徴量行列を計算する。また、雑音特徴量行列時間平均計算部50aは、観測特徴量行列に背景雑音に対応するマスクを乗じて得られた行列の時間平均である平均雑音特徴量行列を計算する。最後に、目的音特徴量雑音除去部60aは、平均目的音特徴量行列から平均雑音特徴量行列を減じることで目的音源の空間相関行列を推定する。
Mehrez Souden, Shoko Araki, Keisuke Kinoshita, Tomohiro Nakatani, Hiroshi Sawada、"A multichannel MMSE-based framework for speech source separation and noise reduction," IEEE Trans. Audio, Speech, and Language Processing, vol. 21, no. 9,pp. 1913-1928, 2013. Ozgur Yilmaz, and Scott Rickard, "Blind separation of speech mixture via time-frequency masking," IEEE Trans. Signal Processing, vol. 52, no. 7, pp. 1830-1847, 2004. Dang Hai Tran Vu and Reinhold Haeb-Umbach, "Blind speech separation employing directional statistics in an expectation maximization framework," Proc.IEEE Int. Conf. Acoust., Speech, Signal Process. (ICASSP-2010), pp. 241-244, 2010. Tomohiro Nakatani, Shoko Araki, Takuya Yoshioka, Marc Delcroix, and Masakiyo Fujimoto, "Dominance based integration of spatial and spectral features for speech enhancement," IEEE Transactions on Audio, Speech, and Language Processing, vol. 21, no. 12, pp. 2516-2531, Dec. 2013.
しかしながら、従来の空間相関行列の推定方法には、背景雑音の影響を観測信号から正確に取り除くことができないため、目的音源の空間相関行列を精度良く推定できない場合があるという問題があった。
例えば、従来の空間相関行列の推定方法では、平均目的音特徴量行列から平均雑音特徴量行列を減じた結果を目的音源の空間相関行列として推定しているが、これは経験的に得られた方法であり、平均目的音特徴量行列に含まれる雑音の影響の量が平均雑音特徴量行列に一致するとは限らないため、雑音の影響がキャンセルされる保証はない。そのため、従来の空間相関行列の推定方法では、目的音源の空間相関行列を精度良く推定できない場合がある。
本発明の空間相関行列推定装置は、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定装置であって、前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去部を有することを特徴とする。
また、本発明の空間相関行列推定方法は、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定方法であって、前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去工程を含んだことを特徴とする。
本発明によれば、背景雑音の影響を観測信号から正確に取り除き、目的音源の空間相関行列を精度良く推定できる。
図1は、第1の実施形態に係る空間相関行列推定装置の構成の一例を示す図である。 図2は、第1の実施形態に係る空間相関行列推定装置のマスク推定部の構成の一例を示す図である。 図3は、第1の実施形態に係る空間相関行列推定装置の処理の一例を示す図である。 図4は、第1の実施形態に係る空間相関行列推定装置のマスク推定処理の一例を示す図である。 図5は、プログラムが実行されることにより空間相関行列推定装置が実現されるコンピュータの一例を示す図である。 図6は、従来の空間相関行列推定装置の構成を示す図である。
以下に、本願に係る空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本発明が限定されるものではない。
[第1の実施形態]
まず、第1の実施形態に係る空間相関行列推定装置の構成、処理の流れおよび効果を説明する。なお、第1の実施形態においては、N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号が空間相関行列推定装置に入力されるものとする。
[第1の実施形態の構成]
図1を用いて、第1の実施形態の構成について説明する。図1は、第1の実施形態に係る空間相関行列推定装置の構成の一例を示す図である。図1に示すように、空間相関行列推定装置1は、時間周波数分析部10、マスク推定部20、観測特徴量行列計算部30、雑音下目的音空間相関行列推定部40、雑音空間相関行列推定部50および目的音空間相関行列雑音除去部60を有する。
まず、空間相関行列推定装置1の各部の概要について説明する。時間周波数分析部10は、入力された観測特徴量に基づいて観測特徴量ベクトルを計算する。具体的には、時間周波数分析部10は、各観測信号y(m)(τ)に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルx(t、f)を時間周波数点ごとに計算する。
また、マスク推定部20は、時間周波数点ごとの、第1の音響信号が観測信号の特徴量に含まれる割合である第1のマスクφ(t,f)と、時間周波数点ごとの、第2の音響信号が観測信号の特徴量に含まれる割合である第2のマスクφ(t,f)と、を推定する。そして、観測特徴量行列計算部30は、観測特徴量ベクトルに基づいて、時間周波数点ごとに、観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列Rxx(t,f)を計算する。
雑音下目的音空間相関行列推定部40は、観測信号および第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列を計算する。具体的には、雑音下目的音空間相関行列推定部40は、目的音源のそれぞれについて、時間周波数点ごとに観測特徴量行列と第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列R´n+v(t,f)として計算し、第1の特徴量行列に第1の係数αを乗じた結果を第1の空間相関行列Rn+v(t,f)とする。
雑音空間相関行列推定部50は、観測信号および第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列を計算する。具体的には、背景雑音について、時間周波数点ごとに観測特徴量行列と第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列R´(t,f)として計算し、第2の特徴量行列に第2の係数βを乗じた結果を第2の空間相関行列R(t,f)とする。
雑音除去部として機能する目的音空間相関行列雑音除去部60は、第1の空間相関行列および第2の空間相関行列に基づいて目的音源の空間相関行列を推定する。具体的には、目的音空間相関行列雑音除去部60は、第1の空間相関行列から第2の空間相関行列を減じた結果を目的音源の空間相関行列R(t,f)とする。なお、第1の係数と第2の係数との比率は、例えば、第1のマスクの時間平均値の逆数と第2のマスクの時間平均値の逆数との比率に等しい。
次に、空間相関行列推定装置1の各部の詳細について説明する。目的音源はスパース性を有し、各時間周波数点において高々1つの目的音源だけが存在すると仮定される。また、背景雑音はすべての時間周波数点に存在すると仮定される。これより、時間周波数分析部10が、入力された観測特徴量から短時間フーリエ変換等の短時間信号分析を用いて計算される観測特徴量ベクトルは、式(1)および式(2)のどちらかに一致することになる。
Figure 0006434657
Figure 0006434657
なお、式(1)および式(2)のtとfは、それぞれ時間と周波数の番号であり、tは1〜Tの整数、fは0〜Fの整数をとることとする。ここで、式(1)は当該時間周波数点において目的音源のうちn番目の音源だけが存在する場合、式(2)は目的音源が一つも存在しない場合を表し、s(t,f)とv(t,f)は、観測特徴量ベクトルを目的音源nの成分と背景雑音に対応する成分の和に分解したものである。
マスク推定部20は、既知のマスク推定技術を用いて、マスクを推定する。マスク推定部20がn番目の目的音源に関して推定したマスクをφ(t,f)、背景雑音に関して推定したマスクをφ(t,f)とする。以下、添え字nはどの目的音源に対応するかを示す番号として、添え字vは雑音に対応することを表す記号とする。
雑音下目的音空間相関行列推定部40は、式(3)によりn番目の目的音源に対応する第1の特徴量行列、すなわち平均目的音特徴量行列R´n+v(f)を計算する。
Figure 0006434657
また、雑音空間相関行列推定部50は、式(4)により背景雑音に対応する第2の特徴量行列、すなわち平均雑音特徴量行列R´(f)を計算する。
Figure 0006434657
ただし、観測特徴量行列Rxx(t,f)は、式(5)のように表される。なお、式(5)のHは行列のエルミート転置を表す。
Figure 0006434657
式(1)および式(2)に示したように、背景雑音は、すべての時間周波数点に含まれているので、R´n+v(f)にも、雑音の影響は必ず含まれてしまう。R´n+v(f)の添え字n+vは、R´n+v(f)に目的音源nと雑音の両方の影響が含まれていることを表している。
ここで、式(1)に対応する時間周波数点だけを集めて空間相関行列を求めることができれば、その空間相関行列は目的音源nと背景雑音の影響だけを受けたものになる。一方、背景雑音の空間相関行列は、式(2)に対応する時間周波数点だけを集めて空間相関行列を求めることで得ることができる。
そこで、従来の空間相関行列推定方法においては、式(6)のように、それぞれ求めた空間相関行列の差を求めることで、目的音源の空間相関行列を求めていた。
Figure 0006434657
一方、本発明の第1の実施形態においては、さらにこれらの空間相関行列に重み付けをしたうえで差を求める。ここで、各目的音源および背景雑音が無相関であると仮定すると、Rxx(t,f)は式(7)により表される。
Figure 0006434657
式(7)で、背景雑音由来の成分はv(t,f)v(t,f)であることと、式(3)および式(4)を考慮すると、式(6)に残存する背景雑音由来の成分は式(8)により表される。
Figure 0006434657
これより、式(8)の値が0になる場合に、目的音源の空間相関行列の推定値に残存する背景雑音の影響が0になるといえる。そこで、目的音空間相関行列雑音除去部60は、式(9)のように、第1の係数αによって重み付けされた第1の空間相関行列、すなわち平均目的音特徴量行列R´n+v(f)、および第2の係数βによって重み付けされた第2の空間相関行列、すなわち平均雑音特徴量行列R´(t,f)を用いて目的音源の空間相関行列を計算する。
Figure 0006434657
なお、R´n+v(f)を第1の係数αで重み付けしたRn+v(f)は雑音下目的音空間相関行列推定部40によって計算され、R´(f)を第2の係数βで重み付けしたR(f)は雑音空間相関行列推定部50によって計算される。
このとき、式()の目的音源の空間相関行列推定値に残存する背景雑音由来の成分は式(10)により表される。
Figure 0006434657
式(10)の値が0に一致するための必要十分条件は、式(11)が成立することである。
Figure 0006434657
式(11)のΣφ(t,f)v(t,f)v(t,f)/Σφ(t,f)とΣφ(t,f)v(t,f)v(t,f)/Σφ(t,f)は、雑音特徴量行列v(t,f)v(t,f)の重み付き時間平均を、異なる重みを用いて計算したものである。いま、背景雑音の空間相関行列は、時間的に大きく変化しないと仮定すると、これら2つの重み付き時間平均値は近似的に一致するといえる。その結果、式(11)はさらに式(12)のように書き換えられる。
Figure 0006434657
そして、式(12)および式(9)より、式(13)が得られる。
Figure 0006434657
式(13)で、T/Σφ(t,f)は、目的音源nに対応するマスクの時間平均の逆数、T/Σφ(t,f)は、背景雑音に対応するマスクの時間平均の逆数であり、cはスカラー定数とする。cは、どの時間区間で目的音源の空間相関行列を求めるかで決まる定数で、全時間区間の場合はc=Σφ(t,f)/Tとし、主に目的音源nが存在する時間区間で求める場合はc=1とすればよい。
c=Σφ(t,f)/Tとした場合は、式(9)中で、α=1とした場合に相当し、式(6)に対し、R´(f)のゲインだけを変えて、目的音源に関する空間相関行列のゲインを変えずに雑音の影響を取り除く場合に相当する。
式(13)を、さらに、式(3)、式(4)とともに整理すると、式(14)〜(16)が得られる。
Figure 0006434657
Figure 0006434657
Figure 0006434657
例えば、c=1の場合、式(16)は、式(17)のように表される。このように、背景雑音の空間相関行列は時間的に大きく変化しないとの仮定のもと、適切な係数を乗じたうえで差を求めることで、n番目の目的音源に関して背景雑音の影響を正確に取り除いた空間相関行列を推定することができる。
Figure 0006434657
式(14)は、雑音下目的音空間相関行列推定部40が雑音下目的音空間相関行列Rn+v(f)を推定する処理に相当する。また、式(15)は、雑音空間相関行列推定部50が雑音空間相関行列R(f)を推定する処理に相当する。また、式(16)は、目的音空間相関行列雑音除去部60が目的音の空間相関行列R(f)を推定する処理に相当する。
また、音源数N=1であるときに、cを式(18)のように定めた場合には、目的音源の空間相関行列は、式(19)〜(21)によって計算されてもよい。
Figure 0006434657
Figure 0006434657
Figure 0006434657
Figure 0006434657
式(19)〜(21)では目的音源のマスクφ(t,f)が使用されていないことから、目的音源のマスクを推定することなく目的音源の空間相関行列を推定することが可能であるといえる。この場合、式(19)に示すように、雑音下目的音空間相関行列は、N=1である場合、観測特徴量行列の周波数ごとの時間平均である。
マスク推定部20は、観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータを要素にもつ正定値エルミート行列との積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化する。そして、マスク推定部20は、混合分布が観測特徴量ベクトルの分布に近くなるように混合分布のパラメータを推定することで得られる要素分布のそれぞれの事後確率を、第1のマスクおよび第2のマスクとする。
これにより、マスク推定部20は、観測特徴量ベクトルの分布の形状が、超球面上の円状では正確に近似できない場合でも、分布の形状を正確に近似し、正確なマスク推定を行う。
目的音源nが存在する時間周波数点の観測特徴量ベクトルの確率密度関数に対応する要素分布をp(x(t,f);Θ)、雑音のみが存在する時間周波数点の観測特徴量ベクトルの確率密度関数に対応する要素分布をp(x(t,f);Θ)とすると、マスク推定部20は、それぞれの要素分布を、式(22)および式(23)のようにモデル化する。
Figure 0006434657
Figure 0006434657
ここで、N(x;μ,Σ)は、平均ベクトルμ,共分散行列ΣのM次元複素ガウス分布である。式(22)および式(23)の要素分布の式中で、r(t,f)、r(t,f)は、各音響信号の大きさに対応するスカラーパラメータであり、時間周波数点ごとに異なる値を取ることができるように設定されている。
一方、B(f)とB(f)は、音響信号が空間的にどの方向から到来するかを表現する行列であり、時不変のパラメータを要素に持つ行列として規定されている。B(f)とB(f)は、要素分布の形状を決定するパラメータであり、上記のモデルでは、特段の制約を設けていない。このため、各要素分布は、M次元複素ガウス分布が表しうるあらゆる形状を持つことができ、超球面上の円状の分布に限定されない。
また、Θ={r(t,f),r(t,f),B(f),B(f),λ(f),λ(f)}は、上記の複素ガウス分布を要素分布として構成される混合分布のモデルパラメータの集合を表す。λn(f)、λv(f)は、それぞれ目的音源nの存在する時間周波数点に対応する要素分布の混合比、背景雑音のみが存在する時間周波数点に対応する要素分布の混合比であり、Σλ(f)+λ(f)=1、1>λ(f)>0、1>λ(f)>0を満たす。また、上記の要素分布からなる混合分布は式(24)のように表される。
Figure 0006434657
マスク推定部20は、上記混合モデルを用いて、すべての時間周波数点における観測特徴量ベクトルをモデル化し、上記の混合分布が観測特徴量ベクトルの確率分布に近くなるように各モデルパラメータを推定する。
マスク推定部20は、モデルパラメータが推定されたのちに、目的音源n,背景雑音のそれぞれに対応するマスクを、各要素分布の事後確率分布として式(25)または式(26)によって推定する。
Figure 0006434657
Figure 0006434657
各要素分布は、M次元複素ガウス分布の範囲であらゆる形状を持つことができるため、各要素分布は観測特徴量ベクトルの分布の形状が、超球面上の円では正確に近似できない場合でも、その形状を正確に近似することが可能になる。
ところで、一般に各目的音源nに対応する音響信号は、マイクロホン位置から見て音源のある方向(音源方向)から主に到来するという性質を持つ。このため、目的音源nに対応する要素分布の正定値エルミート行列は、音源方向に対応する部分空間に最大の固有値を持ち、それ以外の部分空間の固有値は比較的小さな値を持つという性質を持つ。
一方、背景雑音は、通常、あらゆる方向から音が到来するため、背景雑音に対応する要素分布の正定値エルミート行列は、全ての方向に対応する部分空間に行列の成分が分散する。このため、固有値が特定の部分空間に偏るようなことは生じにくい。
そこで、マスク推定部20はさらに、要素分布のうち、時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を背景雑音に対応する第2のマスクとする。これにより、マスク推定部20は、推定したマスクのうち、どれが背景雑音に対応するものであるかを自動的に推定することができる。
(実施例1)
第1の実施形態について、具体例を用いて説明する。まず、N=1の場合、空間相関行列推定装置1は、例えば背景雑音下でM=2以上のマイクで収録された、1人の人が話している声について、雑音の影響を除いた空間相関行列を推定する。また、N>1の場合、空間相関行列推定装置1は、例えばM>1個のマイクロホンで収録された、N人による会話について、雑音の影響を除いた空間相関行列を話者ごとに推定する。
ここで、マイクロホンmで収録された観測信号は、y(m)(τ)と書くことにする。y(m)(τ)は、各音源信号nに由来する音響信号z (m)(τ)と背景雑音に由来する音響信号u(m)(τ)の和で構成されていることから、式(27)のようにモデル化される。
Figure 0006434657
時間周波数分析部10は、すべてのマイクロホンで収録された上記観測信号を受け取り、各観測信号y(m)(τ)ごとに短時間信号分析を適用して時間周波数ごとの信号特徴量x(m)(t,f)を求める。短時間信号分析としては、短時間離散フーリエ変換や短時間離散コサイン変換等の様々な方法を用いることができる。
時間周波数分析部10は、さらに、各時間周波数で得られた信号特徴量x(m)(t,f)をすべてのマイクロホンに関してまとめたベクトルとして、式(28)に示すような、観測特徴量ベクトルx(t,f)を構成する。
Figure 0006434657
次に、観測特徴量行列計算部30は、観測特徴量ベクトルx(t,f)を受け取り、時間周波数点ごとに、観測特徴量行列Rxx(t,f)を式(29)によって求める。
Figure 0006434657
また、マスク推定部20は、観測特徴量ベクトルx(t,f)を受け取り、時間周波数点ごとに、各目的音源と背景雑音がどのような割合で混ざっているかをマスクの値として推定する。なお、式(30)に示すように、時間周波数点で、全目的音源と背景雑音に関するマスクの総和は1になると仮定する。
Figure 0006434657
雑音下目的音空間相関行列推定部40は、各目的音源に関するマスクの推定値φ(t,f)と観測特徴量行列Rxx(t,f)を受け取り、各目的音源nに対し、周波数fごとに、雑音下目的音空間相関行列Rn+v(f)を式(31)のように求める。
Figure 0006434657
雑音空間相関行列推定部50は、背景雑音に関するマスクの推定値φ(t,f)と観測特徴量行列Rxx(t,f)を受け取り、周波数fごとに、雑音空間相関行列R(f)を式(32)のように求める。
Figure 0006434657
目的音空間相関行列雑音除去部60は、雑音下目的音空間相関行列の推定値Rn+v(f)と雑音空間相関行列の推定値Rv(f)を受け取り、各目的音源nに対し、周波数fごとに、目的音の空間相関行列Rn(f)を式(33)により求める。
Figure 0006434657
求めた空間相関行列は様々な用途に利用できる。例えば、目的音源nの空間相関行列の最大固有値に対応する固有ベクトルは、目的音源nからマイクロホンまでの空間伝達特性を表すステアリングベクトルと一致する。さらに、このようにして推定されたステアリングベクトルh(f)と、式(34)に示す観測信号自身の空間相関行列R(f)とから、最小分散無歪応答(MVDR:Minimum Variance Distortionless Response)フィルタw(f)を式(35)のように求めることができる。
Figure 0006434657
Figure 0006434657
このMVDRフィルタを観測特徴量ベクトルx(t,f)に適用することで、目的音源n以外の音源や背景雑音の成分を抑圧し、式(36)に示すように、目的音源nに対応する信号特徴量の推定値s(t,f)を得ることができる。
Figure 0006434657
また、目的音源nの空間相関行列R(f)と観測信号の空間相関行列R(f)が求められているとき、多チャンネルウィナフィルタW(f)を式(37)のように構成することができる。
Figure 0006434657
この多チャンネルウィナフィルタW(f)を観測特徴量ベクトルx(t,f)に適用することで、目的音源n以外の音源や背景雑音の成分を抑圧し、式(38)に示すように、目的音源nに対応する特徴量ベクトルの推定値s(t,f)を得ることができる。
Figure 0006434657
(実施例2)
次に、マスク推定部20の具体例について図2を用いて説明する。図2は、第1の実施形態に係る空間相関行列推定装置のマスク推定部の構成の一例を示す図である。マスク推定部20は、観測特徴量ベクトルの確率分布を、混合複素ガウス分布を用いてモデル化することで、マスクを推定する。
まず、マスク推定部20は、各周波数fにおける観測信号x(t,f)の生成分布について、混合複素ガウス分布を用いて式(39)のようにモデル化を行う。
Figure 0006434657
ここでΘ={λ(f),λ(f),r(t,f),r(t,f),B(f),B(f)}は、混合複素ガウス分布のパラメータ集合である。λ(f)とλ(f)は、n番目の音源と背景雑音にそれぞれ対応する複素ガウス分布の混合重みを表すパラメータであり、式(40)を満たす。r(t,f)とr(t,f)は、それぞれn番目の音源と背景雑音の、時間周波数点(t,f)におけるパワーの期待値を表すスカラーパラメータである。
Figure 0006434657
(f)とB(f)はそれぞれパワーで正規化されたn番目の音源と背景雑音の時不変な空間相関行列である。ここでB(f)とB(f)は観測特徴量ベクトルの分布を決定するパラメータとなるが、このパラメータをフルランクの行列として求めることで、超球面上の円状では正確に近似できない場合においても、観測特徴量ベクトルの分布をより正確に近似することができる。
事後確率推定部201は、式(39)の確率分布に基づき、観測信号x(t,f)がそれぞれの要素分布から生起された確率を求めることで、マスクの推定を行う。まず、パラメータ初期化部203は、各パラメータの初期値を設定し、設定した初期値をパラメータ保持部204に保持しておく。パラメータ初期化部203は、例えば乱数によりパラメータの初期値を決定する。
次に、事後確率推定部201は、入力データ(観測信号)と現在の分布パラメータを用いて、それぞれの要素分布に関する事後確率を式(41)および式(42)のように計算する。ここで計算された事後確率が各周波数点のマスクに相当する。
Figure 0006434657
Figure 0006434657
次に、パラメータ更新部202は、EMアルゴリズムに基づいて分布パラメータを更新する。このとき、パラメータ更新部202は、最尤推定のためのコスト関数を式(43)のように設定する。
Figure 0006434657
また、パラメータ更新部202は、事後確率推定部201で推定した事後確率を用いて、Q関数を式(44)のように設定する。
Figure 0006434657
ここで、Θは、t回目の反復更新で得られたパラメータを示す。また、φ(t,f)とφ(t,f)は、式(36)および式(37)で与えられる。パラメータ更新部202は、式(45)に示す条件下で、式(44)のQ関数をそれぞれのパラメータで偏微分したものを0と置くことで、式(46)〜式(48)に示すパラメータ更新則を導く。
Figure 0006434657
Figure 0006434657
Figure 0006434657
Figure 0006434657
これにより、パラメータ更新部202は、分布パラメータΘを更新する。なお、Θに対して適切な事前分布を設定することで、既知の方法を用い、より精度良いマスク推定を実現することもできる。
また、パラメータ更新部202は、分布パラメータの更新をオンラインで実施してもよい。この場合、パラメータ更新部202は、式(47)で与えられる更新則を、時刻t´において、1つ前の時刻t´−1における推定値B(t´−1,f)を用いて式(49)のように表す。
Figure 0006434657
また、パラメータ更新部202は、式(48)で与えられる更新則を、同様に式(50)のように表す。
Figure 0006434657
次に、パラメータ更新部202は、更新則を用いて更新した新たなパラメータを、パラメータ保持部204にコピーする。そして、マスク推定部20は、事後確率推定部201、パラメータ更新部202、パラメータ保持部204の処理が決められた回数(例えば30回)実行されるまで、もしくは計算結果が収束するまで反復する。
(実施例3)
実施例3では、実施例2のマスク推定方法で発生するパーミュテーション問題の解決方法について説明する。実施例2において、マスク推定部20は、周波数fごとに、マスクφ(t,f)とφ(t,f)を求めていた。しかし、各周波数で推定されたマスクにおいて、雑音に対応するマスクが目的音源のマスクと入れ替わっていたり、異なる周波数間で、同じ目的音源に対応するマスクが、異なる目的音源番号に対応付けられたりすることが起きる。
このため、目的音源ごとに空間相関行列を正しく推定するためには、マスク推定部20は、背景雑音に対応するマスクがどれであるかを正しく定め、また、異なる周波数間において同じ目的音源を同じ音源番号に対応付ける必要がある。ここでは、この問題をパーミュテーション問題と呼ぶ。
パーミュテーション問題を解決するためには、マスク推定部20は、以下の(1)および(2)の操作を行うことが必要である。
(1)各周波数において、どのマスクが背景雑音に対応するかを定める。
(2)異なる周波数間で、同じ目的音源に対応するマスクが、同じ音源番号に関連付けられるようにする。
まず、(1)の操作について説明する。いま、実施例2の方法に従い、各周波数fにおいて、N個のB(f)と1個のB(f)が求められているとする。以下、説明を簡単にするため、B(f)=B(f)と表記する。ここで、マスク推定部20は、N+1個のB(f)(N≧n≧0)のうち、どのB(f)が背景雑音に対応するかを以下の(1−1)〜(1−3)により決定する。
(1−1)
各nに対し、B(f)のM個の固有値を求め、それらを値の大きいものから順に並べてできるベクトルγ(f)を式(51)のように構成する。
Figure 0006434657
(1−2)
γ(f)の分布の平坦さの度合いを評価する関数E(・)を用意し、その値が最も大きいnに対応する番号nを、式(52)により求める。
Figure 0006434657
(1−3)
に対応するマスクを、背景雑音に対応するマスクとして定める。E(・)の定め方としては、例えば、式(53)に示すような、ベクトルの要素を足して1になるように正規化したγ(f)のエントロピーを求める関数として、式(54)のように定めることが可能である。
Figure 0006434657
Figure 0006434657
ここで、H(・)は、要素を足して1になるベクトルu=[u,u,…,u]のエントロピーを求める関数で、式(55)のように定義される。
Figure 0006434657
次に、(2)の操作について説明する。まず、マスク推定部20は、推定されたN個のマスクについて、全ての周波数において、同一の目的音源nに対応するマスクφ(t,f)が、同一の目的音源の番号nに関連付ける必要がある。具体的な手段としては、下記の(2−1)〜(2−4)が考えられる。
(2−1)
会話への参加人数Nが既知であるとし、マスク推定部20は、実施例2の方法で推定されたマスクのうち、背景雑音のマスクを除いたN個のマスクをφ(t,f)(n=1,…,N)とする。
ここで、マスクは、当該目的信号が、各時間周波数点にどの程度含まれているかの割合を表すものであるため、ある1つの音源のマスクの時系列は全ての周波数で同期する傾向がある。この性質を用いて、マスク推定部20は、得られたマスクの全てのnおよびfでの時系列φ(t,f)(t=1,・・・,T)をN個のクラスタにクラスタリングすることで、パーミュテーション問題を解決する。クラスタリングには、例えばk−means法を用いたり、参考文献1(H. Sawada, S. Araki, S. Makino, “Underdetermined Convolutive Blind Source Separation via Frequency Bin-Wise Clustering and Permutation Alignment,” IEEE Trans. Audio, Speech, and Language Processing, vol.19, no.3, pp.516-527, March 2011.)に記載された方法を用いることができる。
(2−2)
マスク推定部20は、式(41)および式(42)によるマスクの推定において、B(f)を、話者の位置ごとにあらかじめ学習した空間相関行列B trained(f)に固定する。B trained(f)は、例えば、学習データとして話者の位置ごとの観測信号をあらかじめ用意し、その学習データにて実施例2の方法でマスクを推定し、式(47)の結果として得られたB(f)である。
この手段は、椅子の位置がほぼ固定されている会議室等での会話に有効であり、各席に対応する話者を目的音源nとして、それに対応するマスクφ(t,f)を推定できる。
(2−3)
手段(2−3)において、マスク推定部20は、手段(2−2)において、B(f)の初期値をB trained(f)とし、実施例2の方法でマスクを推定する。手段(2−2)は、椅子の位置がほぼ固定されているが、椅子にキャスターがついていること等により話者の位置が会話中に少しずつ変動するような場合に有効である。
(2−4)
手段(2−4)において、マスク推定部20は、B trained(f)をB(f)の事前情報として用いながらマスクの推定を行う。具体的に、マスク推定部20は、式(47)の推定を、η(0〜1までの間の実数)を重みとして、式(56)により行う。
Figure 0006434657
手段(2−3)は、手段(2−2)と同様に、椅子の位置がほぼ固定されているが、椅子にキャスターがついていること等により話者の位置が会話中に少しずつ変動するような場合に有効である。
(実施例4)
実施例4として、空間相関行列推定装置1によって得られた目的音源の空間相関行列を用いて、方向推定を行なう場合について説明する。まず、実施例1と同様の手順で、音源nに関するステアリングベクトルが式(57)のように得られているとする。
Figure 0006434657
次に、参考文献2(S. Araki, H. Sawada, R. Mukai and S. Makino,“DOA estimation for multiple sparse sourceswith normalized observation vector clustering,”, ICASSP2006, Vol. 5, pp.33-36, 2006.)のように、M個のマイク配置が既知でマイクmの3次元座標をdとし、マイクアレイから見た音源nの方位角をθ、仰角をψとすると、q=[cos(θ)cos(ψ),cos(θ)sin(ψ),sin(ψ)]は、式(58)により計算できる。
Figure 0006434657
ここで、cは音速、fバーは周波数インデックスfに対応する周波数(Hz)、ξn(f)=[arg(hn1/hnJ),…,arg(hnM/hnJ)] D=[d-d,…,d-d、Jは基準マイクのインデックス(1〜Mから任意に選択)であり、+は一般化逆行列を示す。
そして、式(58)によって得られた到来方向q(f)について、空間的エリアシングが発生しない周波数範囲のq(f)の平均値をもって、音源nの到来方向qとする。またqではなく、方位角、仰角等の平均値を計算しても良い。
[第1の実施形態の処理]
図3を用いて、第1の実施形態の空間相関行列推定装置1の処理について説明する。図3は、第1の実施形態に係る空間相関行列推定装置の処理の一例を示す図である。まず、図3に示すように、時間周波数分析部10は、観測信号を取得し(ステップS10)、短時間フーリエ変換等の短時間信号分析を用いて時間周波数点ごとの信号特徴量を計算し(ステップS11)、観測特徴量ベクトルを構成する(ステップS12)。
次に、観測特徴量行列計算部30は、観測特徴量ベクトルを基に、時間周波数点ごとの観測特徴量行列を計算する(ステップS13)。そして、マスク推定部20は、観測特徴量ベクトルを基に、マスクを推定する(ステップS14)。
雑音下目的音空間相関行列推定部40は、観測特徴量行列に目的音に対応するマスクを適用し、所定の係数で重み付けすることで、雑音下目的音空間相関行列を推定する(ステップS15)。また、雑音空間相関行列推定部50は、観測特徴量行列に背景雑音に対応するマスクを適用し、所定の係数で重み付けすることで、雑音空間相関行列を推定する(ステップS16)。
このとき、雑音下目的音空間相関行列の推定に用いられる係数と、雑音空間相関行列の推定に用いられる係数との比は、例えば、目的音に対応するマスクの時間平均の逆数と、背景雑音に対応するマスクの時間平均の逆数との比に等しい。
最後に、目的音空間相関行列雑音除去部60は、例えば雑音下目的音空間相関行列から雑音空間相関行列を減じることにより、目的音の空間相関行列を推定する(ステップS17)。
また、図3のステップS14のマスク推定処理の例を、図4を用いて説明する。図4は、第1の実施形態に係る空間相関行列推定装置のマスク推定処理の一例を示す図である。まず、マスク推定部20は、観測信号の生成分布を、混合複素ガウス分布を用いてモデル化する(ステップS141)。
パラメータ初期化部203は、乱数等によりモデルのパラメータの初期値を設定する(ステップS142)。次に、事後確率推定部201は、観測信号とパラメータを用いて各要素分布に関する事後確率を計算する(ステップS143)。ここで、事後確率の計算が30回行われていない場合(ステップS144、No)は、パラメータ更新部202は、計算した事後確率を用いてパラメータを更新する(ステップS145)。さらに、マスク推定部20は、ステップS143に戻り処理を繰り返す。
そして、事後確率の計算が30回行われた場合は(ステップS144、Yes)、パラメータ更新部202は、最後のパラメータ更新を行う。最後に、マスク推定部20は、計算した事後確率をマスクとして推定する(ステップS146)。
[第1の実施形態の効果]
本発明の効果を確認するために、従来の方法および第1の実施形態を用いた確認実験について説明する。
(確認実験1)
確認実験1では、バスの中、カフェ等の背景雑音の存在する環境下において、1人の話者(N=1)がタブレットに向かって文章を読み上げている状況で、タブレットに装着されたM=6個のマイクで信号を収録した。このとき、収録した信号に対して、各方法を用いて音声認識を行った場合の音声認識精度は下記の通りであった。下記の結果より、第1の実施形態を適用することで、音声認識精度が向上することが確認できた。
(1)そのまま音声認識をした場合:87.11(%)
(2)Watson分布でマスク推定をした後、MVDRを適応した場合(従来の方法):89.40(%)
(3)第1の実施形態を適用し、オフラインでマスク推定した後、MVDRを適応した場合(実施例1、オフライン):91.54(%)
(4)第1の実施形態を適用し、事前学習したパラメータを初期値として、オンラインでマスク推定した後、MVDRを適応した場合(実施例1、オンライン):91.80(%)
(確認実験2)
確認実験2では、通常の会議室において、4人の話者(N=4)が直径1.2mの円卓を囲んで自由に会話している状況で、円卓中央のM=8個のマイクで信号を収録した。このとき、収録した信号に対して、各方法を用いて音声認識を行った場合の音声認識精度は下記の通りであった。下記の結果より、第1の実施形態を適用することで、音声認識精度が向上することが確認できた。
(1)そのまま音声認識をした場合:20.9(%)
(2)第1の実施形態を適用し、オフラインでマスク推定した後、MVDRを適応した場合(実施例1、オフライン):54.0(%)
(3)第1の実施形態を適用し、オンラインでマスク推定した後、MVDRを適応した場合(実施例1、オンライン):52.0(%)
時間周波数分析部10は、入力された観測特徴量に基づいて観測特徴量ベクトルを計算する。また、マスク推定部20は、時間周波数点ごとの、第1の音響信号が観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、第2の音響信号が観測信号の特徴量に含まれる割合である第2のマスクと、を推定する。そして、観測特徴量行列計算部30は、観測特徴量ベクトルに基づいて、時間周波数点ごとに、観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する。
雑音下目的音空間相関行列推定部40は、観測信号および第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列を計算する。また、雑音空間相関行列推定部50は、観測信号および第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列を計算する。そして、目的音空間相関行列雑音除去部60は、第1の空間相関行列および第2の空間相関行列に基づいて目的音源の空間相関行列を推定する。
このように、第1の実施形態によれば、第1の係数および第2の係数による適切な重み付けが行われているため、第1の特徴量行列および第2の特徴量行列をそのまま用いる場合と比較して、背景雑音の影響を観測信号から正確に取り除き、目的音源の空間相関行列を精度良く推定できる。
また、第1の係数と第2の係数との比率は、例えば、第1のマスクの時間平均値の逆数と第2のマスクの時間平均値の逆数との比率に等しいこととしてもよい。これにより、推定される目的音源の空間相関行列に、背景雑音の空間相関行列が時間的に大きく変化しないことが盛り込まれ、推定精度が向上する。
また、マスク推定部20は、観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータとを要素にもつ正定値エルミート行列の積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化する。
そして、マスク推定部20は、混合分布が観測特徴量ベクトルの分布に近くなるように混合分布のパラメータを推定することで得られる要素分布のそれぞれの事後確率を、第1のマスクおよび第2のマスクとする。これにより、観測特徴量ベクトルの分布の形状が、超球面上の円状では正確に近似できない場合でも、正確にマスクを推定することができる。
マスク推定部20はさらに、要素分布のうち、時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を背景雑音に対応する第2のマスクとする。これにより、マスク推定部が推定したマスクのうち、どれが背景雑音に対応するものであるかを自動的に推定することができる。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPU(Central Processing Unit)および当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
一実施形態として、空間相関行列推定装置は、パッケージソフトウェアやオンラインソフトウェアとして上記の空間相関行列推定を実行する空間相関行列推定プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の空間相関行列推定プログラムを情報処理装置に実行させることにより、情報処理装置を空間相関行列推定装置として機能させることができる。ここで言う情報処理装置には、デスクトップ型またはノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
また、空間相関行列推定装置は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の空間相関行列推定に関するサービスを提供するサーバ装置として実装することもできる。例えば、空間相関行列推定装置は、観測信号を入力とし、目的音源の空間相関行列を出力とする空間相関行列推定サービスを提供するサーバ装置として実装される。この場合、空間相関行列推定装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の空間相関行列推定に関するサービスを提供するクラウドとして実装することとしてもかまわない。
図5は、プログラムが実行されることにより空間相関行列推定装置が実現されるコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM(Random Access Memory)1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、空間相関行列推定装置1の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、空間相関行列推定装置1における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSD(Solid State Drive)により代替されてもよい。
また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して実行する。
なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093およびプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093およびプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
1 空間相関行列推定装置
10 時間周波数分析部
20 マスク推定部
30 観測特徴量行列計算部
40 雑音下目的音空間相関行列推定部
50 雑音空間相関行列推定部
60 目的音空間相関行列雑音除去部
201 事後確率推定部
202 パラメータ更新部
203 パラメータ初期化部
204 パラメータ保持部

Claims (12)

  1. N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定装置であって、
    前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去部を有することを特徴とする空間相関行列推定装置。
  2. 前記雑音除去部は、背景雑音の空間相関行列が時間的に変化しないとの条件下において、前記目的音源の空間相関行列の推定値に含まれる背景雑音由来の成分が0となるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項1に記載の空間相関行列推定装置。
  3. 前記雑音除去部は、前記第1の係数と前記第2の係数との比率が、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しくなるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項1または2に記載の空間相関行列推定装置。
  4. 前記第1の空間相関行列は、N=1である場合、前記観測特徴量ベクトルに基づいて計算された観測特徴量行列の周波数ごとの時間平均であることを特徴とする請求項1から3のいずれか1項に記載の空間相関行列推定装置。
  5. 前記観測信号に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、前記信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルを時間周波数点ごとに計算する時間周波数分析部と、
    前記観測特徴量ベクトルに基づいて、時間周波数点ごとに、前記観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する観測特徴量行列計算部と、
    前記目的音源のそれぞれについて、時間周波数点ごとに前記観測特徴量行列と前記第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列として計算し、前記第1の特徴量行列に前記第1の係数を乗じることで前記第1の空間相関行列を推定する雑音下目的音空間相関行列推定部と、
    前記背景雑音について、時間周波数点ごとに前記観測特徴量行列と前記第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列として計算し、前記第2の特徴量行列に前記第2の係数を乗じることで前記第2の空間相関行列を推定する雑音空間相関行列推定部と、
    をさらに有し、
    前記雑音除去部は、前記第1の空間相関行列から前記第2の空間相関行列を減じることで前記目的音源の空間相関行列を推定し、
    前記第1の係数と前記第2の係数との比率は、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しいことを特徴とする請求項1に記載の空間相関行列推定装置。
  6. 前記観測特徴量ベクトルの確率分布を、共分散行列が時刻ごとに異なる値を取るスカラーパラメータと時不変のパラメータとを要素にもつ正定値エルミート行列の積で表される、平均0のM次元複素ガウス分布であるN+1個の要素分布からなる混合分布で周波数ごとにモデル化し、前記混合分布が前記観測特徴量ベクトルの分布に近くなるように前記混合分布のパラメータを推定することで得られる前記要素分布のそれぞれの事後確率を、前記第1のマスクおよび前記第2のマスクとするマスク推定部をさらに有することを特徴とする請求項1から5のいずれか1項に記載の空間相関行列推定装置。
  7. 前記マスク推定部は、前記要素分布のうち、前記時不変のパラメータを要素に持つ正定値エルミート行列の固有値の分布の形状が最も平坦である要素分布の事後確率を前記第2のマスクとすることを特徴とする請求項6に記載の空間相関行列推定装置。
  8. N個の目的音源(ただし、Nは1以上の整数)に対応するN個の第1の音響信号と、背景雑音に対応する第2の音響信号とが混在する状況において、それぞれ異なる位置で収録されたM個(ただし、Mは2以上の整数)の観測信号に基づいて計算される観測特徴量ベクトルに基づいて、時間周波数点ごとの、前記第1の音響信号が前記観測信号の特徴量に含まれる割合である第1のマスクと、時間周波数点ごとの、前記第2の音響信号が前記観測信号の特徴量に含まれる割合である第2のマスクと、を推定し、前記第1のマスクおよび前記第2のマスクに基づいて前記目的音源の空間相関行列を推定する空間相関行列推定方法であって、
    前記観測信号および前記第1のマスクに基づいて計算された第1の特徴量行列を第1の係数で重み付けした第1の空間相関行列と、前記観測信号および前記第2のマスクに基づいて計算された第2の特徴量行列を第2の係数で重み付けした第2の空間相関行列と、に基づいて前記目的音源の空間相関行列を推定する雑音除去工程を含んだことを特徴とする空間相関行列推定方法。
  9. 前記雑音除去工程は、背景雑音の空間相関行列が時間的に変化しないとの条件下において、前記目的音源の空間相関行列の推定値に含まれる背景雑音由来の成分が0となるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項8に記載の空間相関行列推定方法。
  10. 前記雑音除去工程は、前記第1の係数と前記第2の係数との比率が、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しくなるように、前記第1の係数及び前記第2の係数を計算することを特徴とする請求項8または9に記載の空間相関行列推定方法。
  11. 前記観測信号に短時間信号分析を適用し、時間周波数点ごとの信号特徴量を抽出し、前記信号特徴量を成分とするM次元縦ベクトルである観測特徴量ベクトルを時間周波数点ごとに計算する時間周波数分析工程と、
    前記観測特徴量ベクトルに基づいて、時間周波数点ごとに、前記観測特徴量ベクトルと該観測特徴量ベクトルのエルミート転置とを乗じて観測特徴量行列を計算する観測特徴量行列計算工程と、
    前記目的音源のそれぞれについて、時間周波数点ごとに前記観測特徴量行列と前記第1のマスクを乗じて得られる行列の周波数ごとの時間平均を第1の特徴量行列として計算し、前記第1の特徴量行列に前記第1の係数を乗じることで前記第1の空間相関行列を推定する雑音下目的音空間相関行列推定工程と、
    前記背景雑音について、時間周波数点ごとに前記観測特徴量行列と前記第2のマスクを乗じて得られる行列の周波数ごとの時間平均を第2の特徴量行列として計算し、前記第2の特徴量行列に前記第2の係数を乗じることで前記第2の空間相関行列を推定する雑音空間相関行列推定工程と、
    をさらに含み、
    前記雑音除去工程は、前記第1の空間相関行列から前記第2の空間相関行列を減じることで前記目的音源の空間相関行列を推定し、
    前記第1の係数と前記第2の係数との比率は、前記第1のマスクの時間平均値の逆数と前記第2のマスクの時間平均値の逆数との比率に等しいことを特徴とする請求項8に記載の空間相関行列推定方法。
  12. コンピュータに、請求項8から11のいずれか1項に記載の空間相関行列推定方法を実行させるための空間相関行列推定プログラム。
JP2017554190A 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム Active JP6434657B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015236158 2015-12-02
JP2015236158 2015-12-02
PCT/JP2016/085821 WO2017094862A1 (ja) 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム

Publications (2)

Publication Number Publication Date
JPWO2017094862A1 JPWO2017094862A1 (ja) 2018-04-05
JP6434657B2 true JP6434657B2 (ja) 2018-12-05

Family

ID=58797513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017554190A Active JP6434657B2 (ja) 2015-12-02 2016-12-01 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム

Country Status (4)

Country Link
US (1) US10643633B2 (ja)
JP (1) JP6434657B2 (ja)
CN (1) CN108292508B (ja)
WO (1) WO2017094862A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11346917B2 (en) 2016-08-23 2022-05-31 Sony Corporation Information processing apparatus and information processing method
JP6711789B2 (ja) * 2017-08-30 2020-06-17 日本電信電話株式会社 目的音声抽出方法、目的音声抽出装置及び目的音声抽出プログラム
DE112017007800T5 (de) * 2017-09-07 2020-06-25 Mitsubishi Electric Corporation Störgeräuscheliminierungseinrichtung und Störgeräuscheliminierungsverfahren
KR102088222B1 (ko) * 2018-01-25 2020-03-16 서강대학교 산학협력단 분산도 마스크를 이용한 음원 국지화 방법 및 음원 국지화 장치
JP6915579B2 (ja) * 2018-04-06 2021-08-04 日本電信電話株式会社 信号分析装置、信号分析方法および信号分析プログラム
JP6992709B2 (ja) * 2018-08-31 2022-01-13 日本電信電話株式会社 マスク推定装置、マスク推定方法及びマスク推定プログラム
US10929503B2 (en) * 2018-12-21 2021-02-23 Intel Corporation Apparatus and method for a masked multiply instruction to support neural network pruning operations
CN109859769B (zh) * 2019-01-30 2021-09-17 西安讯飞超脑信息科技有限公司 一种掩码估计方法及装置
CN110097872B (zh) * 2019-04-30 2021-07-30 维沃移动通信有限公司 一种音频处理方法及电子设备
CN110148422B (zh) * 2019-06-11 2021-04-16 南京地平线集成电路有限公司 基于传声器阵列确定声源信息的方法、装置及电子设备
JP7191793B2 (ja) * 2019-08-30 2022-12-19 株式会社東芝 信号処理装置、信号処理方法、及びプログラム
CN111009256B (zh) * 2019-12-17 2022-12-27 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质
CN111009257B (zh) * 2019-12-17 2022-12-27 北京小米智能科技有限公司 一种音频信号处理方法、装置、终端及存储介质
CN113779805B (zh) * 2021-09-16 2023-11-14 北京中安智能信息科技有限公司 海洋噪声相关性仿真方法和装置、设备及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084182A1 (en) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition of voiced speech for celp speech coding
US7415392B2 (en) * 2004-03-12 2008-08-19 Mitsubishi Electric Research Laboratories, Inc. System for separating multiple sound sources from monophonic input with non-negative matrix factor deconvolution
CN1832633A (zh) * 2005-03-07 2006-09-13 华为技术有限公司 一种声源定位方法
JP2006337851A (ja) * 2005-06-03 2006-12-14 Sony Corp 音声信号分離装置及び方法
US8015003B2 (en) * 2007-11-19 2011-09-06 Mitsubishi Electric Research Laboratories, Inc. Denoising acoustic signals using constrained non-negative matrix factorization
JP5124014B2 (ja) * 2008-03-06 2013-01-23 日本電信電話株式会社 信号強調装置、その方法、プログラム及び記録媒体
CN102473412B (zh) * 2009-07-21 2014-06-11 日本电信电话株式会社 语音信号区间估计装置与方法
CN103038823B (zh) * 2010-01-29 2017-09-12 马里兰大学派克分院 用于语音提取的系统和方法
BR112012031656A2 (pt) * 2010-08-25 2016-11-08 Asahi Chemical Ind dispositivo, e método de separação de fontes sonoras, e, programa
US8874441B2 (en) * 2011-01-19 2014-10-28 Broadcom Corporation Noise suppression using multiple sensors of a communication device
CN102231280B (zh) * 2011-05-06 2013-04-03 山东大学 卷积语音信号的频域盲分离排序算法
CN102890936A (zh) * 2011-07-19 2013-01-23 联想(北京)有限公司 一种音频处理方法、终端设备及系统
EP3462452A1 (en) * 2012-08-24 2019-04-03 Oticon A/s Noise estimation for use with noise reduction and echo cancellation in personal communication
JP5997007B2 (ja) 2012-10-31 2016-09-21 日本電信電話株式会社 音源位置推定装置
EP2877993B1 (en) * 2012-11-21 2016-06-08 Huawei Technologies Co., Ltd. Method and device for reconstructing a target signal from a noisy input signal
JP2014215544A (ja) 2013-04-26 2014-11-17 ヤマハ株式会社 音響処理装置
US20160314800A1 (en) * 2013-12-23 2016-10-27 Analog Devices, Inc. Computationally efficient method for filtering noise
EP3113508B1 (en) * 2014-02-28 2020-11-11 Nippon Telegraph and Telephone Corporation Signal-processing device, method, and program
CN105741849B (zh) * 2016-03-06 2019-03-22 北京工业大学 数字助听器中融合相位估计与人耳听觉特性的语音增强方法

Also Published As

Publication number Publication date
CN108292508A (zh) 2018-07-17
WO2017094862A1 (ja) 2017-06-08
CN108292508B (zh) 2021-11-23
US20180366135A1 (en) 2018-12-20
JPWO2017094862A1 (ja) 2018-04-05
US10643633B2 (en) 2020-05-05

Similar Documents

Publication Publication Date Title
JP6434657B2 (ja) 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム
US11763834B2 (en) Mask calculation device, cluster weight learning device, mask calculation neural network learning device, mask calculation method, cluster weight learning method, and mask calculation neural network learning method
CN107919133B (zh) 针对目标对象的语音增强系统及语音增强方法
JP6535112B2 (ja) マスク推定装置、マスク推定方法及びマスク推定プログラム
US11456003B2 (en) Estimation device, learning device, estimation method, learning method, and recording medium
JP6652519B2 (ja) ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム
JP6517760B2 (ja) マスク推定用パラメータ推定装置、マスク推定用パラメータ推定方法およびマスク推定用パラメータ推定プログラム
JP6538624B2 (ja) 信号処理装置、信号処理方法および信号処理プログラム
JP6711765B2 (ja) 形成装置、形成方法および形成プログラム
JP5726790B2 (ja) 音源分離装置、音源分離方法、およびプログラム
JP6910609B2 (ja) 信号解析装置、方法、及びプログラム
JP6973254B2 (ja) 信号分析装置、信号分析方法および信号分析プログラム
JP6636973B2 (ja) マスク推定装置、マスク推定方法およびマスク推定プログラム
JP6581054B2 (ja) 音源分離装置、音源分離方法及び音源分離プログラム
JP6930408B2 (ja) 推定装置、推定方法および推定プログラム
JP6734237B2 (ja) 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム
JP6915579B2 (ja) 信号分析装置、信号分析方法および信号分析プログラム
Rafique et al. Speech source separation using the IVA algorithm with multivariate mixed super gaussian student's t source prior in real room environment
Chung et al. A supervised multi-channel speech enhancement algorithm based on bayesian nmf model
JP2023039288A (ja) 音源分離モデル学習装置、音源分離装置、音源分離モデル学習方法、音源分離方法及びプログラム
JP2021167850A (ja) 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181108

R150 Certificate of patent or registration of utility model

Ref document number: 6434657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150