JP2013186383A - 音源分離装置、音源分離方法、およびプログラム - Google Patents
音源分離装置、音源分離方法、およびプログラム Download PDFInfo
- Publication number
- JP2013186383A JP2013186383A JP2012052852A JP2012052852A JP2013186383A JP 2013186383 A JP2013186383 A JP 2013186383A JP 2012052852 A JP2012052852 A JP 2012052852A JP 2012052852 A JP2012052852 A JP 2012052852A JP 2013186383 A JP2013186383 A JP 2013186383A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- microphones
- signal
- complex spectrum
- phase difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Circuit For Audible Band Transducer (AREA)
Abstract
【解決手段】2個のマイクロホンで観測された観測信号の複素スペクトルを得、観測信号の複素スペクトルのマイクロホン間位相差を各時間周波数について計算する。1個のマイクロホンで観測された観測信号から得られた観測信号の複素スペクトル、特徴量作成部で得られたマイクロホン間位相差、および音源信号の複素スペクトルの分布を表す事前情報を用い、各時間周波数での各音源に対応する観測信号の複素スペクトルおよびマイクロホン間位相差の分布を表す確率モデルのパラメタを推定する。推定されたパラメタから得られる各時間周波数での各音源の観測信号の複素スペクトルおよびマイクロホン間位相差に対する寄与率を用い、各時間周波数での当該寄与率および観測信号の複素スペクトルから、分離信号の複素スペクトルを抽出し、それを時間領域の分離信号に変換する。
【選択図】図4
Description
まず、周波数領域変換部101において、たとえば短時間フーリエ変換等により、時間領域の観測信号xL(t)を所定の時間区間である時間フレームごとに周波数領域表現し、観測信号の複素スペクトルXn,f,Lを生成する。複素スペクトルXn,f,Lが以下のように表されると仮定する。
ここで、nは各時間フレームをそれぞれ代表する離散的な時刻(たとえば、各時間フレームの中心時刻)に対応する整数のインデックス、fは離散的な各周波数(0,fs・(1/Nf),...,fs・(Nf−1)/Nf)に対応する整数のインデックス、Nfは周波数fの個数(Nfは1以上の整数、例えばNf≧2)、fsはサンプリング周波数、Lは各マイクロホンにそれぞれ対応するインデックス(L=1,2)、mは各音源にそれぞれ対応するインデックス(m=1,...,Ns)を表す。Hf,L,mは音源mからマイクロホンLまでの周波数fでの周波数応答を表す。Sn,f,mは、音源mから発せられた音源信号の、時刻nおよび周波数fでの複素スペクトルを表す。「音源m」はインデックスmに対応する音源、「時刻n」はインデックスnに対応する時刻、「周波数f」はインデックスfに対応する周波数、「マイクロホンL」はインデックスLに対応するマイクロホンを意味する。時刻nおよび周波数fからなる組(時間周波数スロット(n,f))を「時間周波数(n,f)」と表現する。「・」は乗算演算子を表す。
ここでSn,f,mは、時間周波数(n,f)で支配的な音源信号を表す。
ただし、eは自然対数の底、jは虚数単位、μmは音源mから発せられた音源信号がマイクロホン1,2に到達するまでの時間差である。
ここで、式(2)と(3)より、音源mが支配的な時間周波数(n,f)では以下のようになることに注意。
ただし、arg[α]はαの偏角を表す。
Yn,f,m=Xn,f,1・Mn,f,m (5)
の関係を満たす
として、−πからπの範囲に丸められてしまうことに起因する。ここでkは、μmの値が既知であれば一意に決まる整数である。これを「空間的エイリアジング」という。空間的エイリアジングは、2つのマイクロホン間隔が広いためにマイクロホン間時間差μmが大きい場合や周波数fが高い場合に、2π・f・μmの絶対値が大きくなり生じる。
時間領域の観測信号xL(t)(L=1,2)は周波数領域変換部11に入力される。周波数領域変換部11は、観測信号xL(t)(L=1,2)を、時間フレーム(所定の時間区間)ごとに周波数領域表現し、観測信号の複素スペクトルXn,f,L(L=1,2)を生成して出力する。例えば周波数領域変換部11は、観測信号xL(t)(L=1,2)を、短時間フーリエ変換により、周波数毎の時系列信号である複素スペクトルXn,f,L(L=1,2)に変換して出力する。
複素スペクトルXn,f,L(L=1,2)は特徴量作成部12に入力される。特徴量作成部12は、任意の1個のマイクロホン(本形態の例ではマイクロホン1)で観測された観測信号から得られた複素スペクトルXn,f,1を複素スペクトルXn,fとして出力する。また特徴量作成部12は、各時間周波数(n,f)について、複素スペクトルXn,f,L(L=1,2)のマイクロホン間位相差An,fを式(4−1)に従って計算して出力する。
本形態では、上記の複素スペクトルXn,fとマイクロホン間位相差An,fを、(モデル)パラメタθ(後述)による確率モデルで表し、この確率モデルのパラメタθと各時間周波数(n,f)で各音源mから発せられる音源信号の存在確率p(m|Xn,f,An,f,θ)とを推定することで音源分離を行なう。そのため、次にパラメタ推定部13において、パラメタθの推定を行なう。以降、パラメタ推定部13で用いる確率モデルを説明し、その後、パラメタ推定部13の各構成部の処理を説明する。
[観測信号の生成モデル]
確率モデルのパラメタをまとめてθと表現し(詳しくは後述)、全ての時間周波数(n,f)におけるXn,fおよびAn,fの集合をそれぞれ{Xn,f}および{An,f}とすると、全ての時間周波数(n,f)での各音源mに対応する観測信号の複素スペクトルXn,fおよびマイクロホン間位相差An,fの分布を表す確率モデルは以下のようになる。
ここで、Mはモデル数であり、ここでは既知の音源数Nsをモデル数Mとする(M=Ns)。p(θ)は、モデルパラメタの事前分布であり、p(m)は各音源mが観測信号中にそれぞれどんな割合で含まれているかを示す混合重みである(Σm=1 Mp(m)=1)。
p(Xn,f,An,f|m,θX,θA)=p(Xn,f|m,θX)・p(An,f|m,θA) (8)
ここでp(Xn,f|m,θX)とp(An,f|m,θA)はそれぞれ、観測信号の複素スペクトルの確率モデルとマイクロホン間位相差の確率モデルであり、それぞれ以下のように定義する。
支配的な音源mについて、式(6)における整数kが既知であると仮定すると、マイクロホン間位相差An,fは、平均がμm、分散がσm 2の以下の正規分布Nでモデル化できる。
すなわちマイクロホン間位相差の確率モデルのパラメタは、全ての音源mにおけるμm,σm 2の集合θA={μm,σm 2}である。
ここで、p(k)は各kに対応する定数である。kは0を含む所定範囲内(−K≦k≦K)に含まれる各整数である。Kはkの絶対値の最大値であり、周波数fによって異なる値をとりうる。Kの例は以下の通りである。
はαよりも大きなαに最も近い整数、Dはマイクロホン間隔、cは音速を表す。また全ての周波数fで同じKを用いても良い。ただし、この場合のKは十分大きな値(例えば、サンプリング周波数fsの1/2の値をfとして式(9−3)から得られるKなど)であることが望ましい。
本形態でも音源のスパース性(式(2))を仮定する。ただし本形態では、式(2)においてHf,L,m=1を仮定する。この仮定はスパース性の一般性を損なわない。この仮定の下では、スパース性とは、ある時間周波数(n,f)において、m番目の音源の音源信号のみが観測され(当該時間周波数(n,f)での複素スペクトルSn,f,mをXn,f,mと表す)、その他の音源m’の音源信号は0として観測される(すなわち、Sn,f,m’=0,m’≠m,m’∈{1,...,M})、と解釈できる。これより、観測信号の複素スペクトルの確率モデルp(Xn,f|m,θX)を、以下のようにモデル化する。
ここでp(Sn,f,m)は、音源信号mの複素スペクトルSn,f,mの確率モデルである。本形態では、平均0、分散γn,f,m 2の以下の複素正規分布Ncでp(Sn,f,m)をモデル化する。
p(sn,f,m) = Nc(sn,f,m; 0, γn,f,m 2) (11)
ここで、分散γn,f,m 2は、各音源信号の複素スペクトルSn,f,mのパワーの期待値E[|sn,f,m|2]に相当する。
ρn,f,m=log(γn,f,m 2) (12)
ただし、「log」は自然対数を表す。
ここで、Iは上記の混合正規分布に用いられる正規分布の個数であり、i(m)は音源mのスペクトルベクトルρ→ n,mの混合正規分布に含まれる各正規分布を表すインデックスである。ν→ i(m)=[ν1,i(m),...,νNf,i(m)]T、Vi(m)、およびp(i(m))は、それぞれ、当該GMMの平均、共分散行列(対角要素がυf,i(m)の対角行列)、および混合重みである。これらのパラメタは、学習用データを用いた事前学習によって得られる(学習法は後述)。
パラメタ推定部13(図4)は、パラメタθ={θA,p(m),θX}={μm,σm 2,p(m),ρn,f,m}を繰り返し演算によって求める。以下θt={μm t,(σm 2)t,pt(m),ρn,f,m t}をt回目の反復更新で得られたパラメタとし、θA t={μm t,(σm 2)t}およびθX t={ρn,f,m t}とする。
次にステップS2(Eステップ)において、Eステップ計算部131の事後確率推定部131aが、入力された複素スペクトルXn,fおよびマイクロホン間位相差An,f、スペクトル事前分布情報保持部133に保存されているパラメタ{νf,i(m),υf,i(m),p(i(m))}、ならびに一時メモリ(図示せず)に保存されているパラメタθt−1={μm t−1,(σm 2)t−1,pt−1(m),ρt−1 n,f,m}を用い、p(Xn,f|m,θX t−1)(式(10)参照)、p(An,f|m,k,θA t−1)(式(9−1)参照)、p(ρ→ n,m t)およびp(ρ→ n,m t|i(m))・p(i(m))(式(13)(14)参照)を計算した上で、以下の事後確率を計算する。
次にステップS3(Mステップ)において、Mステップ計算部132が、入力された複素スペクトルXn,fおよびマイクロホン間位相差An,f、ステップS2で得られた事後確率gn,f,m,k t,zn,i(m) t、ならびにスペクトル事前分布情報保持部133に保存されている事前分布p(ρ→ n,m)のパラメタ{νf,i(m),υf,i(m),p(i(m))}を用い、以下のようにパラメタθt={μm t,(σm 2)t,pt(m),ρn,f,m t}を得て出力する(更新式の導出は後述)。
平均パラメタ推定部132aは、マイクロホン間位相差An,fおよび式(16)で得られた事後確率gn,f,m,k tを入力とし、以下のように平均μm t(各音源mに対応するマイクロホン間位相差An,fの平均)を計算して出力する。
すなわち、平均μm tはマイクロホン間位相差An,fに2πkを加算して得られる値の集合と複素スペクトルXn,fとから得られる値である。
分散パラメタ推定部132bは、マイクロホン間位相差An,f、式(16)で得られた事後確率gn,f,m,k t、および式(18)で得られた平均μm tを入力とし、以下のように分散(σm 2)t(各音源mに対応するマイクロホン間位相差An,fの分散)を計算して出力する。
すなわち、分散(σm 2)tはマイクロホン間位相差An,fに2πkを加算して得られる値の集合と複素スペクトルXn,fとから得られる値である。
スペクトルパラメタ推定部132dは、複素スペクトルXn,f、式(15)で得られた寄与率Gn,f,m t、式(17)で得られた事後確率zn,i(m) t、およびスペクトル事前分布情報保持部133に保存されているパラメタνf,i(m),υf,i(m)を用い、以下の式(20)を満たすスペクトルパラメタρn,f,m t(各音源mに対応する複素スペクトルXn,fの分散を表すスペクトルパラメタ)を計算して出力する。
ただし、式(20)はρn,f,m tについて解析的に解けないため、ニュートン法などを用いて、この式を満たすρn,f,m tを計算する(具体的な方法は後述)。
重みパラメタ推定部132cは、式(15)で得られた寄与率Gn,f,m tを用い、以下のように混合分布の重みpt(m)を計算して出力する。
判定部134は、t=Tとなるか、もしくは、以下の収束条件|Q(θ|θt)−Q(θ|θt−1)|<Δを満たすかを判定する(ステップS4)。
ただし、Q(θ|θt)は、t回目の反復更新で得られた事後確率gn,f,m,k t,zn,i(m) tおよびパラメタθt={μm t,(σm 2)t,pt(m),ρn,f,m t}を用いて計算した以下のQ関数を表す。
Q(θ|θt−1)は、t−1回目の反復更新で得られた事後確率gn,f,m,k t−1,zn,i(m) t−1およびパラメタθt−1={μm t−1,(σm 2)t−1,pt−1(m),ρn,f,m t−1}を用いて計算したQ関数である。すなわち、収束条件|Q(θ|θt)−Q(θ|θt−1)|<Δは、t回目の反復更新で得られた事後確率gn,f,m,k t,zn,i(m) tおよびパラメタθt={μm t,(σm 2)t,pt(m),ρn,f,m t}から得られるQ(θ|θt)と、t−1回目の反復更新で得られた事後確率gn,f,m,k t−1,zn,i(m) t−1およびパラメタθt−1={μm t−1,(σm 2)t−1,pt−1(m),ρn,f,m t−1}から得られるQ(θ|θt−1)との差がΔ未満であるかの条件である。Σ{i(m)}α(i(m))は、Σ{i(1)}α(i(1))・Σ{i(2)}α(i(2))…・Σ{i(M)}α(i(M))を表す。
Yn,f,m=Gn,f,m・Xn,f,1(22)
ここでは、Mステップ計算部132(ステップS3)が計算する各パラメタの導出法について述べる。本形態では、観測信号の複素スペクトルXn,fとマイクロホン間位相差An,fについてのパラメタθ={μm,σm 2,p(m),ρn,f,m}、MAP推定により推定する。{αn,f}を全ての時間周波数(n,f)におけるαn,fの集合、{αm}を全ての音源mにおけるαmの集合とすると、コスト関数は、次のように与えられる。
ここでp(Xn,f,An,f|m,k,θ)は式(8)、gn,f,m,kとzn,i(m)はそれぞれ(16)、(17)で与えられ、Q関数の最後の項のp(ρ→ n,m|i(m))・p(i(m))はp(i(m))・ΠfN(ρn,f,m;νf,i(m),υf,i(m))である(式(14))。
の拘束のもとで解くことで得られる(導出終)
スペクトルパラメタ推定部132dでは、式(20)を満たすスペクトルパラメタρn,f,mを計算するが、この式は、ρn,f,mについて解析的に解けないため、ここではニュートン法を用いてρn,f,mを計算する方法を示す。
ここで、a,b,cはそれぞれ以下である。
となる。
の計算を数回(5回程度)反復して行なう。ただし、「α←β」は、βを新たなαとすることを意味し、F’(Y)は関数F(Y)をYについて微分することを意味する。これにより得た解Yを用いて、
ρn,f,m=log(b/a)-Y (26)
を計算し、スペクトルパラメタρn,f,mを得る。
本形態の効果を説明する。実験条件としては、2個または3個の音源が同時に鳴っている環境において2つのマイクロホンで収録を行い、従来法および提案法で音源分離を行なった。サンプリング周波数は16kHz、マイク間隔は20cmであり、850Hz以上で空間的エイリアジングが起こる条件である。
12 特徴量作成部
13 パラメタ推定部
14 音源分離部
131 Eステップ計算部
131a 事後確率推定部
132a 平均パラメタ推定部
132b 分散パラメタ推定部
132c 重みパラメタ推定部
132d スペクトルパラメタ推定部
133 スペクトル事前分布情報保持部
Claims (7)
- 複数の音源が発した音源信号が混合され、2個のマイクロホンで観測される状況で、上記音源信号それぞれの推定信号である分離信号を分離抽出する音源分離装置であって、
2個のマイクロホンで観測された観測信号を、所定の時間区間ごとに周波数領域表現し、観測信号の複素スペクトルを得る周波数領域変換部と、
上記観測信号の複素スペクトルのマイクロホン間位相差を各時間周波数について計算する特徴量作成部と、
任意の1個のマイクロホンで観測された観測信号から得られた上記観測信号の複素スペクトル、上記特徴量作成部で得られた上記マイクロホン間位相差、および上記音源信号の複素スペクトルの分布を表す事前情報を用い、上記各音源に対応する観測信号の複素スペクトルおよびマイクロホン間位相差の分布を表す確率モデルのパラメタを推定するパラメタ推定部と、
上記パラメタから得られる各時間周波数での上記各音源の上記観測信号の複素スペクトルに対する寄与率を用い、各時間周波数での当該寄与率および上記観測信号の複素スペクトルから、分離信号の複素スペクトルを抽出する音源分離部と、
上記分離信号の複素スペクトルを時間領域の分離信号に変換する時間領域変換部と、
を有する音源分離装置。 - 請求項1に記載の音源分離装置であって、
上記パラメタ推定部が、
上記各音源に対応する上記マイクロホン間位相差の平均を全ての音源について計算する平均パラメタ推定部と、
上記各音源に対応する上記マイクロホン間位相差の分散を全ての音源について計算する分散パラメタ推定部と、
上記各音源に対応する上記観測信号の複素スペクトルの分散を表すスペクトルパラメタを全ての音源について計算するスペクトルパラメタ推定部と、
上記音源信号の複素スペクトルの分布を表す事前情報を保持しているスペクトル事前分布情報保持部と、
混合分布の重みを計算する重みパラメタ推定部と、を有し、
上記確率モデルは、混合分布モデルであり、
上記パラメタは、上記マイクロホン間位相差の平均、上記マイクロホン間位相差の分散、上記スペクトルパラメタ、および上記混合分布の重みを含み、
上記マイクロホン間位相差の平均、上記マイクロホン間位相差の分散、および上記混合分布の重みは、上記観測信号の複素スペクトルと上記マイクロホン間位相差とから得られる値であり、
上記観測信号の複素スペクトルの分散は、上記観測信号の複素スペクトルと上記マイクロホン間位相差と上記音源信号の複素スペクトルの分布を表す事前情報とから得られる値である、
ことを特徴とする音源分離装置。 - 請求項2に記載の音源分離装置であって、
上記マイクロホン間位相差の平均、および上記マイクロホン間位相差の分散は、上記マイクロホン間位相差に2πkを加算して得られる値の集合と上記観測信号の複素スペクトルとから得られる値であり、kは0を含む所定範囲内に含まれる各整数である、
ことを特徴とする音源分離装置。 - 複数の音源が発した音源信号が混合され、2個のマイクロホンで観測される状況で、上記音源信号それぞれの推定信号である分離信号を分離抽出する音源分離方法であって、
2個のマイクロホンで観測された観測信号を、所定の時間区間ごとに周波数領域表現し、観測信号の複素スペクトルを得る周波数領域変換ステップと、
上記観測信号の複素スペクトルのマイクロホン間位相差を各時間周波数について計算する特徴量作成ステップと、
任意の1個のマイクロホンで観測された観測信号から得られた上記観測信号の複素スペクトル、上記特徴量作成部で得られた上記マイクロホン間位相差、および上記音源信号の複素スペクトルの分布を表す事前情報を用い、上記各音源に対応する観測信号の複素スペクトルおよびマイクロホン間位相差の分布を表す確率モデルのパラメタを推定するパラメタ推定ステップと、
上記パラメタから得られる各時間周波数での上記各音源の上記観測信号の複素スペクトルに対する寄与率を用い、各時間周波数での当該寄与率および上記観測信号の複素スペクトルから、分離信号の複素スペクトルを抽出する音源分離ステップと、
上記分離信号の複素スペクトルを時間領域の分離信号に変換する時間領域変換ステップと、
を有する音源分離方法。 - 請求項4に記載の音源分離方法であって、
上記パラメタ推定ステップが、
上記各音源に対応する上記マイクロホン間位相差の平均を全ての音源について計算する平均パラメタ推定ステップと、
上記各音源に対応する上記マイクロホン間位相差の分散を全ての音源について計算する分散パラメタ推定ステップと、
上記各音源に対応する上記観測信号の複素スペクトルの分散を全ての音源について表すスペクトルパラメタを計算するスペクトルパラメタ推定ステップと、
上記音源信号の複素スペクトルの分布を表す事前情報を保持しているスペクトル事前分布情報保持ステップと、
混合分布の重みを計算する重みパラメタ推定ステップと、を有し、
上記確率モデルは、混合分布モデルであり、
上記パラメタは、上記マイクロホン間位相差の平均、上記マイクロホン間位相差の分散、上記スペクトルパラメタ、および上記混合分布の重みを含み、
上記マイクロホン間位相差の平均、上記マイクロホン間位相差の分散、および上記混合分布の重みは、上記観測信号の複素スペクトルと上記マイクロホン間位相差とから得られる値であり、
上記観測信号の複素スペクトルの分散は、上記観測信号の複素スペクトルと上記マイクロホン間位相差と上記音源信号の複素スペクトルの分布を表す事前情報とから得られる値である、
ことを特徴とする音源分離方法。 - 請求項5に記載の音源分離方法であって、
上記マイクロホン間位相差の平均、および上記マイクロホン間位相差の分散は、上記マイクロホン間位相差に2πkを加算して得られる値の集合と上記観測信号の複素スペクトルとから得られる値であり、kは0を含む所定範囲内に含まれる各整数である、
ことを特徴とする音源分離方法。 - 請求項1から3の何れかの音源分離装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012052852A JP5726790B2 (ja) | 2012-03-09 | 2012-03-09 | 音源分離装置、音源分離方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012052852A JP5726790B2 (ja) | 2012-03-09 | 2012-03-09 | 音源分離装置、音源分離方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013186383A true JP2013186383A (ja) | 2013-09-19 |
JP5726790B2 JP5726790B2 (ja) | 2015-06-03 |
Family
ID=49387835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012052852A Active JP5726790B2 (ja) | 2012-03-09 | 2012-03-09 | 音源分離装置、音源分離方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5726790B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017516131A (ja) * | 2014-04-09 | 2017-06-15 | カオニックス ラブス リミテッド ライアビリティ カンパニー | 源信号分離における改良された測定、エンティティ及びパラメータ推定、及び経路伝播効果測定及び軽減のための方法及びシステム |
JP2019035862A (ja) * | 2017-08-17 | 2019-03-07 | 日本電信電話株式会社 | 入力音マスク処理学習装置、入力データ処理関数学習装置、入力音マスク処理学習方法、入力データ処理関数学習方法、プログラム |
US10629222B2 (en) | 2015-10-09 | 2020-04-21 | Hitachi, Ltd. | Sound signal procession method and device |
CN113660578A (zh) * | 2021-08-16 | 2021-11-16 | 世邦通信股份有限公司 | 拾音角度范围可调的双麦克风定向拾音方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3949150B2 (ja) * | 2003-09-02 | 2007-07-25 | 日本電信電話株式会社 | 信号分離方法、信号分離装置、信号分離プログラム及び記録媒体 |
JP2007306373A (ja) * | 2006-05-12 | 2007-11-22 | Nippon Telegr & Teleph Corp <Ntt> | 信号分離装置、信号分離方法、信号分離プログラム及び記録媒体 |
JP2010187066A (ja) * | 2009-02-10 | 2010-08-26 | Nippon Telegr & Teleph Corp <Ntt> | パラメタ推定装置、音源分離装置、方向推定装置、それらの方法、プログラム |
-
2012
- 2012-03-09 JP JP2012052852A patent/JP5726790B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3949150B2 (ja) * | 2003-09-02 | 2007-07-25 | 日本電信電話株式会社 | 信号分離方法、信号分離装置、信号分離プログラム及び記録媒体 |
JP2007306373A (ja) * | 2006-05-12 | 2007-11-22 | Nippon Telegr & Teleph Corp <Ntt> | 信号分離装置、信号分離方法、信号分離プログラム及び記録媒体 |
JP2010187066A (ja) * | 2009-02-10 | 2010-08-26 | Nippon Telegr & Teleph Corp <Ntt> | パラメタ推定装置、音源分離装置、方向推定装置、それらの方法、プログラム |
Non-Patent Citations (5)
Title |
---|
CSNJ201010092249; 荒木 章子: 'ディリクレ事前分布を用いた音声のスパース性に基づく音源数推定と音源分離' 日本音響学会2009年秋季研究発表会講演論文集CD-ROM , 20090917, pp.647-650, 日本音響学会 * |
CSNJ201110010380; 荒木 章子: 'マイク間位相差とスペクトル包絡の同時クラスタリングに基づくスパース音源分離' 日本音響学会2010年春季研究発表会講演論文集 , 20100310, pp.799-802, 日本音響学会 * |
JPN6014036802; 荒木 章子: 'マイク間位相差とスペクトル包絡の同時クラスタリングに基づくスパース音源分離' 日本音響学会2010年春季研究発表会講演論文集 , 20100310, pp.799-802, 日本音響学会 * |
JPN6014036803; 荒木 章子: 'ディリクレ事前分布を用いた音声のスパース性に基づく音源数推定と音源分離' 日本音響学会2009年秋季研究発表会講演論文集CD-ROM , 20090917, pp.647-650, 日本音響学会 * |
JPN6014036805; Shoko Araki, et al.: 'Stereo Source Separation and Source Counting with MAP Estimation with Dirichlet Prior Considering Sp' Independent Component Analysis and Signal Separation , 2009, pp. 742-750, Springer * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017516131A (ja) * | 2014-04-09 | 2017-06-15 | カオニックス ラブス リミテッド ライアビリティ カンパニー | 源信号分離における改良された測定、エンティティ及びパラメータ推定、及び経路伝播効果測定及び軽減のための方法及びシステム |
US10629222B2 (en) | 2015-10-09 | 2020-04-21 | Hitachi, Ltd. | Sound signal procession method and device |
JP2019035862A (ja) * | 2017-08-17 | 2019-03-07 | 日本電信電話株式会社 | 入力音マスク処理学習装置、入力データ処理関数学習装置、入力音マスク処理学習方法、入力データ処理関数学習方法、プログラム |
CN113660578A (zh) * | 2021-08-16 | 2021-11-16 | 世邦通信股份有限公司 | 拾音角度范围可调的双麦克风定向拾音方法和装置 |
CN113660578B (zh) * | 2021-08-16 | 2023-11-28 | 世邦通信股份有限公司 | 拾音角度范围可调的双麦克风定向拾音方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5726790B2 (ja) | 2015-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6434657B2 (ja) | 空間相関行列推定装置、空間相関行列推定方法および空間相関行列推定プログラム | |
JP2019074625A (ja) | 音源分離方法および音源分離装置 | |
WO2017141542A1 (ja) | マスク推定装置、マスク推定方法及びマスク推定プログラム | |
JP6195548B2 (ja) | 信号解析装置、方法、及びプログラム | |
Adiloğlu et al. | Variational Bayesian inference for source separation and robust feature extraction | |
JP6348427B2 (ja) | 雑音除去装置及び雑音除去プログラム | |
JP2008158035A (ja) | 多音源有音区間判定装置、方法、プログラム及びその記録媒体 | |
WO2015129760A1 (ja) | 信号処理装置、方法及びプログラム | |
JP5726790B2 (ja) | 音源分離装置、音源分離方法、およびプログラム | |
JP6538624B2 (ja) | 信号処理装置、信号処理方法および信号処理プログラム | |
Duong et al. | Gaussian modeling-based multichannel audio source separation exploiting generic source spectral model | |
JP5994639B2 (ja) | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム | |
JP4960933B2 (ja) | 音響信号強調装置とその方法と、プログラムと記録媒体 | |
JP5974901B2 (ja) | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム | |
JP6711765B2 (ja) | 形成装置、形成方法および形成プログラム | |
JP6290803B2 (ja) | モデル推定装置、目的音強調装置、モデル推定方法及びモデル推定プログラム | |
WO2019194300A1 (ja) | 信号分析装置、信号分析方法および信号分析プログラム | |
JP6724290B2 (ja) | 音響処理装置、音響処理方法、及び、プログラム | |
JP6581054B2 (ja) | 音源分離装置、音源分離方法及び音源分離プログラム | |
JP6734237B2 (ja) | 目的音源推定装置、目的音源推定方法及び目的音源推定プログラム | |
JP6930408B2 (ja) | 推定装置、推定方法および推定プログラム | |
JP7159928B2 (ja) | 雑音空間共分散行列推定装置、雑音空間共分散行列推定方法、およびプログラム | |
WO2016092837A1 (ja) | 音声処理装置、雑音抑圧装置、音声処理方法および記録媒体 | |
JP5134477B2 (ja) | 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体 | |
JP4787777B2 (ja) | 信号分離装置、信号分離方法、信号分離プログラム、記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140902 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5726790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |