JP2010176105A - 雑音抑制装置、雑音抑制方法、及び、プログラム - Google Patents
雑音抑制装置、雑音抑制方法、及び、プログラム Download PDFInfo
- Publication number
- JP2010176105A JP2010176105A JP2009022039A JP2009022039A JP2010176105A JP 2010176105 A JP2010176105 A JP 2010176105A JP 2009022039 A JP2009022039 A JP 2009022039A JP 2009022039 A JP2009022039 A JP 2009022039A JP 2010176105 A JP2010176105 A JP 2010176105A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound source
- noise suppression
- phase difference
- center value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【解決手段】独立成分分析部303は、2つ以上のマイクロホンが受信した音の音源を分離する音源分離フィルタを求め、話者音(目的音)同定部306は、分離した音源のうち、目的音の音源方向を推定し、位相検出部308は、目的音の音源方向を用いてマイクロホン間の位相差を検出し、中心値更新処理部309は、検出された位相差を用いて、位相差の中心値を更新し、フィルタリング部311は、更新された中心値を用いて生成された雑音抑制フィルタを用いて、マイクロホンが受信した音の雑音を抑制し出力する。
【選択図】図3
Description
図14は車室内に設置したマイクロホンアレイの一例を示す図であり、図15はマイクロホンアレイのマイクロホン配置から求めた目的音の位相差の理論値と実値の一例を示す図である。図14に示す複数のマイクロホン1005からなるマイクロホンアレイ1001のマイク配置から目的音のマイク間位相差の理論値を推定し、推定した位相差の理論値との差が小さい周波数成分を目的音と推定する。図15において、位相差の理論値は点線で、実値は実線で示される。図15に示すように、実値は、理論値と異なり周波数成分ごとにかなり振幅がある。これは、車室内の音の反響等の影響である。例えば、図15に示すG点は、実際は目的音であるのにかかわらず、理論値に基づく判定だと理論値との差が大きいため、目的音ではなく、雑音として判定されてしまうこととなる。
このように、反響などの大きい車室内等の環境では、マイク配置を基に求めた位相差の理論値を基準にしての判定では目的音の音源分離の精度が低くなってしまうという問題が生じる。
ここで、中心値算出処理手段は、目的音とそれ以外の音のパワーを推定し、その時間相関を求め、求められた時間相関が所定値以上である場合に、位相差の中心値を更新する。
図1は、本発明の実施形態に係る雑音抑制装置のハードウェア構成を示す図である。図2は雑音抑制装置の適用の一例を示す図である。なお、以下の実施形態の説明では、図2に示すような車3における車室内での雑音抑制装置の適用を例に説明する。
中央演算装置23の遅延バッファ部302は、送信されるデジタル音圧データXm(t)を所定の時間分だけ蓄積する。所定の時間とは例えば数秒であり、遅延バッファ部302は、時間分のデジタル音圧データXm(t)が蓄積すると、そのデータを独立成分分析部303に送信する。
ここで、フィルタ適応部310、フィルタリング部311による処理Aは、波形取り込み部301によって取り込まれたデジタル音圧データXm(t)に対してほぼリアルタイムに雑音か目的音かを判定し、目的音を取り出す処理である。
また、遅延バッファ部302、独立成分分析部303、音源定位部304、ステアリングベクトル生成部305、話者音(目的音)同定部306、位相差検出部308、中心値更新処理部309による処理Bは、車室内の反響や残響等を考慮した目的音の抽出処理であり、遅延バッファ部302にデジタル音圧データXm(t)を保持するバッファ長分の時間毎に行われ、中心値が正しく更新された場合に、フィルタ適応部310は更新された中心値を考慮したフィルタを用いて雑音抑制処理を行う。
図4において、T1、T2、T3、…は、遅延バッファ部302が入力波形であるデジタル音圧データXm(t)を蓄積する時間であり、例えば数秒である。
フィルタ適応部310、フィルタリング部311による処理Aは、波形取り込み部301によって取り込まれた入力波形に対して、雑音抑制処理が開始された時間T1から、例えば数十[ms]といった時間刻みtframeごとに(T1、T2、T3はtframeより大きい)、ほぼリアルタイムにフィルタを作成し、雑音抑制処理を行う。
図5は、フィルタ適応部310の機能ブロック構成を示す図である。フィルタ適応部310は、離散フーリエ変換部402、音源方向推定部403、目的音適応部404、雑音適応部405、フィルタ適応部406から構成される。離散フーリエ変換部402は、波形取り込み部301によって取り込まれた入力波形信号の直流成分をカットし、例えば数十[ms]といった時間刻みtframeの窓関数を重畳して、短時間フーリエ変換を実行し、マイクロホン素子31ごとの時間周波数領域信号Xm(f,τ)を得る。窓関数としては、ハミング窓、ハニング窓、ブラックマン窓などがある。マイクロホン素子31ごとの時間周波数領域信号Xm(f,τ)は(式1)で定義される。
音源方向推定部403は周波数fごとに処理を行い、処理Bによって求めた中心値ベクトルC(f)を用いて目的音が含まれる周波数成分を同定する。中心値ベクトルC(f)は、目的音の方向ベクトルであり、中心値更新処理部309によって更新された位相差の中心値am(f)を用いて(式2)で表される。ここで、Tは転置行列を示す。位相差の中心値am(f)の算出方法については、後に詳細に述べる。
目的音適応部404は、目的音であると判定された時間周波数領域信号Xm(f,τ)を用いて、(式4)によりステアリングベクトルの推定値a(f)を更新する。
フィルタ適応部406は、(式4)、(式5)で求められた周波数fにおけるa(f)、Rn(f)を用いて、周波数fごとに雑音抑制フィルタW(f)を求める。
フィルタリング部311は、(式7)により(式6)のフィルタW(f)を用いて時間周波数領域信号Xm(f,τ)をフィルタリング処理し、雑音抑制信号ym(f,τ)を求める。
次に、中心値を更新する処理Bについて説明する。
遅延バッファ部302に時刻tslengthから所定の時間Tn分の蓄積されたデジタル音圧データXm(t)は、独立成分分析部303に送信される。独立成分分析303は、デジタル音圧データXm(t)を時間刻みtframeごとに短時間フーリエ変換して時間周波数領域信号X(f,τ)を求め、周波数fごとに図6に示す処理を行う。ここで、τは、τ=tslength+i×tframe(i=1,…,length)とされ、i=lengthの時のτはτ=tslength+Tnとなる。
次に、フィルタWicaが十分収束していない場合(ステップS501で「No」)、ステップS502で、独立成分分析部303はiを初期化し、バッファ長時間Tnの開始時のデータから処理を行う。また、ステップS502で、後記するRica(f)をゼロにするなどして初期化する。
ステップS507が終了したら、ステップS501に戻り、Wicaの収束判定を行う。
更新されたWicaを用いて(式8)で求められた音源ごとの音源分離信号yica(f,τ)は音源定位部304に送られる。音源分離信号yica(f,τ)は、各音源の時間τ、周波数fの分離信号を要素に持つベクトルである。
図7は、音源定位部による音源方向の推定処理の手順を示すフローチャートである。
ステップS601で、音源定位部304は、周波数fを初期化して0[Hz]として処理を開始する。以下に述べる処理は、周波数範囲0≦f≦fmaxの周波数fについて行われる。ステップS602で、周波数fがfmax以下であるかどうかの判定を行い、周波数fがfmaxを超えた場合(ステップS602で「No」)は処理を終了する。
V = |Af(θ)・Z(f)| ・・(式12)
ここで、Af(θ)は音源方向θに存在する周波数fの音がマイクロホン素子31のそれぞれに到達するまでの位相の遅延量を要素に持つベクトルであり、(式13)によって定義される。
また、マイクロホン素子31が直線上に配置され、音源がマイクロホン素子31間の距離に比べて十分大きい場合は、位相の遅延量Tm,f(θ)は(式15)として近似することが可能となる。
Tm,f(θ)は、マイクロホン素子31の配置による幾何学計算よって求められる。マイクロホン素子31の配置は不揮発性メモリ24に記憶される。
また、(式12)において、Z(f)はステアリングベクトルである。i番目の音源のステアリングベクトルZ(f)は、図6に示す処理で求められたフィルタWica(f)の逆行列Wica −1(f)の第i列に相当する。
こうして求めた中心値am(f)を(式2)に適用し、中心値ベクトルC(f)を求める。前記の処理に従って、フィルタリング部311は中心値が更新された雑音抑制音y(f,τ)を(式7)により求め、雑音抑制音y(f,τ)を離散逆フーリエ変換することによって、時間領域の雑音抑制信号を得る。
本実施の形態では、マイクロホン素子31が音を受信し、遅延バッファ部302に取り込まれると、前記のように、フィルタWicaはバッファ長ごとに更新され、更新されたフィルタWicaを用いて音源を分離し、目的音の音源方向を推定し、中心値を更新し、その更新した中心値を用いて雑音抑制信号を求める。雑音の到来方向が次々変化した場合であっても、目的音と雑音を考慮し、時間に追随して更新されたフィルタWicaを用いて音源分離を行い、目的音の音源方向を推定し、目的音の雑音抑制信号を得ることが可能である。
図10は、中心値更新処理部309によって行われる判定処理の流れを示すフローチャートである。ステップS801では、話者音(目的音)と同定されるステアリングベクトルys(f)、即ち、これは独立成分分析部303で求められたWicaの逆行列のs列目の音源成分であるys(f)であるが、その音源成分を逆短時間フーリエ変換することによって求めたYs(t)を使って、目的音のパワーPs(t)を推定する。ここで、パワーPs(t)は(式18)で定義される。
ここで、Σsは目的音と判定された信号に対して和を取るものとする。
同様に、ステップS802における話者音同定の結果、雑音と判定された成分のパワーPn(t)を推定する。これは、(式19)で定義される。
Pn(t)=Σn|Yn(t)|2・・(式19)
Yn(t)は独立成分分析で分離して取り出したn番目の時間領域の雑音信号とする。またΣnは雑音と判定された信号に対して和を取るものとする。
CORp= E[(Ps(t)-E[Ps(t)])(Pn(t)-E[Pn(t)]]・・(式20)
ここで、E[・]は期待値計算を行うオペレータとする。
図11は、雑音抑制装置1により算出した目的音の推定値と実測値とを示す図である。図15に示す理論値と比べてもわかるように、雑音抑制装置1による目的音の推定値は実測値によく一致していることがわかる。従って、本雑音抑制装置1を用いれば、取得した音が目的音であるか、雑音であるかの判定は、マイクロホン素子の配置から求めた位相差の理論値を基準とした判定の場合よりも高い精度で行うことができる。
尚、以上説明した本実施の形態の(式3)で定義したコスト関数を、(式21)で定義される別のコスト関数Cost2m(f,τ)を用いてもよい。
また、定数Th2m(f)は、(式22)で定義するようにΔθ=|θmax-θmin|から決めてもよい。
図13は、目的音の中心値ベクトルC(f)を非運転中に決定する雑音抑制処理の流れを示すフローチャートである。
ステップS901で、車内設置スピーカ(図示せず)から「発話してください」などといった発話促進ガイダンスが行われ、目的音の音源、例えば運転手などの発話を促す。
ステップS902で、多チャンネルA/D変換機22は、マイクロホンアレイ21が受信した音声(発話)のアナログ音波形をデジタル音波形に変換し、中央演算装置23に送信する。
ステップS904で、音源のインデックスを示すiと音源ごとのパワー最大値Pmaxを「0」とし、初期化する。
ステップS905で、インデックスiが音源の最大個数M以下であるかどうかを判定する(ソース判定)。
ステップS907で、音源定位部304は、求めた音源方向が予め設定する目的音方向であるかどうかを判定する。ステップS907で、求めた音源方向が予め設定する目的音方向でない場合、ステップS905のソース判定処理に戻る。
ステップS910で、計算されたパワーPiがパワー最大値Pmaxより大きいかどうかを判定し、大きい場合(ステップS910で「Yes」)は、ステップS911でimax=i、Pmax=Piとして、パワーが最大となる音源インデックスimaxとパワー最大値Pmaxを更新する。ステップS910で「No」のときは、ステップS905のソース判定に戻る。
図13に示す処理では、目的音方向にいくつかの音源があるとされた場合、パワーPiを計算し、パワーが最大となる音源が最も目的音の音源に近いと判定するものである。
21………マイクロホンアレイ
22………多チャンネルA/D変換機
23………中央演算装置
24………不揮発性メモリ
25………揮発性メモリ
31、31−1、31−2、…、31−M………マイクロホン素子
301………波形取り込み部
302………遅延バッファ部
303………独立成分分析部
304………音源定位部
305………ステアリングベクトル生成部
306………話者音(目的音)同定部
308………位相差検出部
309………中心値更新処理部
310………フィルタ適応部
311………フィルタリング部
Claims (12)
- 音を受信する複数の音声受信手段と、
前記音声受信手段によって受信された音から目的音を分離する音源分離手段と、
前記音源分離手段によって分離された目的音の音源方向を推定する音源方向推定手段と、
前記音源方向推定手段によって推定された音源の方向に基づき、前記複数の音声受信手段によって受信された音の位相差を検出する位相差検出手段と、
前記位相差検出手段により検出された前記位相差の中心値を算出する中心値算出処理手段と、
前記中心値算出処理手段で算出された中心値を用いて雑音を抑制する雑音抑制フィルタ特性を設定するフィルタ作成手段と、
前記フィルタ作成手段によって特性が設定された前記雑音抑制フィルタを用いて、前記目的音の雑音抑制処理を行う雑音抑制処理手段と、
を有することを特徴とする雑音抑制装置。 - 前記音源分離手段は、
前記受信された音を周波数変換することにより得られる周波数領域信号を生成する周波数領域信号生成手段と、
前記雑音抑制フィルタと前記周波数領域信号とから算出される音源分離信号を生成する音源分離信号生成手段と、
前記音源分離信号を用いて共分散行列を生成する共分散行列生成手段と、
を有し、
前記生成された共分散行列を用いて前記目的音の音源を分離することを特徴とする請求項1に記載の雑音抑制装置。 - 前記音源方向推定手段は、
前記音源分離手段によって分離された前記目的音のステアリングベクトルを算出するステアリングベクトル算出手段と、
前記位相差検出手段によって取得された前記位相差を遅延量の大きさとして持つ前記音声受信手段間のベクトルを算出する受信手段間ベクトル算出手段と、
前記ステアリングベクトルと前記音声受信手段間のベクトルとの内積を算出する内積算出手段と、
を有し、
前記内積を大きさに持つ目的音の中心値ベクトルを用いて、前記目的音の音源方向を推定することを特徴とする請求項1に記載の雑音抑制装置。 - 前記中心値算出処理手段は、
前記音源のパワーを推定するパワー推定手段と、
前記パワー推定手段により、目的音とそれ以外の音のパワーを推定し、その時間相関を求める時間相関検出手段と、
前記時間相関検出手段によって求められた前記時間相関が所定値以上である場合に、前記位相差の中心値を更新する中心値更新手段と、
を有することを特徴とする請求項1に記載の雑音抑制装置。 - 複数の音声受信手段によって音を受信する音声受信ステップと、
前記音声受信手段によって受信された音から目的音を分離する音源分離ステップと、
前記分離された目的音の音源方向を推定する音源方向推定ステップと、
前記推定された音源方向に基づき、前記複数の音声受信手段によって受信された音の位相差を検出する位相差検出ステップと、
前記検出された位相差の中心値を算出する中心値算出ステップと、
前記算出された中心値を用いて雑音を抑制する雑音抑制フィルタ特性を設定するフィルタ作成ステップと、
前記フィルタ作成ステップにおいて特性が設定された前記雑音抑制フィルタを用いて、前記目的音の雑音抑制処理を行う雑音抑制ステップと、
を有することを特徴とする雑音抑制方法。 - 前記音源分離ステップは、
前記受信された音を周波数変換することにより得られる周波数領域信号を生成する周波数領域信号生成ステップと、
前記雑音抑制フィルタと前記周波数領域信号とから算出される音源分離信号を生成する音源分離信号生成ステップと、
前記音源分離信号を用いて共分散行列を生成する共分散行列生成ステップと、
を有し、
前記生成された共分散行列を用いて前記目的音の音源を分離することを特徴とする請求項5に記載の雑音抑制方法。 - 前記音源方向推定ステップは、
前記音源分離ステップによって分離された前記目的音のステアリングベクトルを算出するステアリングベクトル算出ステップと、
前記位相差検出ステップによって取得された前記位相差を遅延量の大きさとして持つ前記音声受信手段間のベクトルを算出する受信手段間ベクトル算出ステップと、
前記ステアリングベクトルと前記音声受信手段間のベクトルとの内積を算出する内積算出ステップと、
を有し、
前記内積を大きさに持つ目的音の中心値ベクトルを用いて、前記目的音の音源方向を推定することを特徴とする請求項5に記載の雑音抑制方法。 - 前記中心値算出ステップは、
前記音源のパワーを推定するパワー推定ステップと、
前記パワー推定ステップにおいて目的音とそれ以外の音のパワーを推定し、その時間相関を求める時間相関検出ステップと、
前記時間相関検出ステップにおいて求められた前記時間相関が所定値以上である場合に、前記位相差の中心値を更新する中心値更新ステップと、
を有することを特徴とする請求項5に記載の雑音抑制方法。 - コンピュータを、
音を受信する複数の音声受信手段と、
前記音声受信手段によって受信された音から目的音を分離する音源分離手段と、
前記音源分離手段によって分離された目的音の音源方向を推定する音源方向推定手段と、
前記音源方向推定手段によって推定された音源の方向に基づき、前記複数の音声受信手段によって受信された音の位相差を検出する位相差検出手段と、
前記位相差検出手段により検出された前記位相差の中心値を算出する中心値算出処理手段と、
前記中心値算出処理手段で算出された中心値を用いて雑音を抑制する雑音抑制フィルタ特性を設定するフィルタ作成手段と、
前記フィルタ作成手段によって特性が設定された前記雑音抑制フィルタを用いて、前記目的音の雑音抑制処理を行う雑音抑制処理手段と、
して動作させることを特徴とするプログラム。 - 前記音源分離手段は、
前記受信された音を周波数変換することにより得られる周波数領域信号を生成する周波数領域信号生成手段と、
前記雑音抑制フィルタと前記周波数領域信号とから算出される音源分離信号を生成する音源分離信号生成手段と、
前記音源分離信号を用いて共分散行列を生成する共分散行列生成手段と、
を有し、
前記生成された共分散行列を用いて前記目的音の音源を分離することを特徴とする請求項9に記載のプログラム。 - 前記音源方向推定手段は、
前記音源分離手段によって分離された前記目的音のステアリングベクトルを算出するステアリングベクトル算出手段と、
前記位相差検出手段によって取得された前記位相差を遅延量の大きさとして持つ前記音声受信手段間のベクトルを算出する受信手段間ベクトル算出手段と、
前記ステアリングベクトルと前記音声受信手段間のベクトルとの内積を算出する内積算出手段と、
を有し、
前記内積を大きさに持つ目的音の中心値ベクトルを用いて、前記目的音の音源方向を推定することを特徴とする請求項9に記載のプログラム。 - 前記中心値算出処理手段は、
前記音源のパワーを推定するパワー推定手段と、
前記パワー推定手段により、目的音とそれ以外の音のパワーを推定し、その時間相関を求める時間相関検出手段と、
前記時間相関検出手段によって求められた前記時間相関が所定値以上である場合に、前記位相差の中心値を更新する中心値更新手段と、
を有することを特徴とする請求項9に記載のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022039A JP5255467B2 (ja) | 2009-02-02 | 2009-02-02 | 雑音抑制装置、雑音抑制方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009022039A JP5255467B2 (ja) | 2009-02-02 | 2009-02-02 | 雑音抑制装置、雑音抑制方法、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010176105A true JP2010176105A (ja) | 2010-08-12 |
JP5255467B2 JP5255467B2 (ja) | 2013-08-07 |
Family
ID=42707101
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009022039A Active JP5255467B2 (ja) | 2009-02-02 | 2009-02-02 | 雑音抑制装置、雑音抑制方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5255467B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2755204A1 (en) | 2013-01-15 | 2014-07-16 | Fujitsu Limited | Noise suppression device and method |
US8886499B2 (en) | 2011-12-27 | 2014-11-11 | Fujitsu Limited | Voice processing apparatus and voice processing method |
EP2851898A1 (en) | 2013-09-20 | 2015-03-25 | Fujitsu Limited | Voice processing apparatus, voice processing method and corresponding computer program |
JP2018141922A (ja) * | 2017-02-28 | 2018-09-13 | 日本電信電話株式会社 | ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム |
JP2019010436A (ja) * | 2017-06-30 | 2019-01-24 | ヤマハ株式会社 | 生体センサおよび生体センサの信号取得方法 |
CN110379439A (zh) * | 2019-07-23 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种音频处理的方法以及相关装置 |
US12015901B2 (en) | 2019-12-20 | 2024-06-18 | Mitsubishi Electric Corporation | Information processing device, and calculation method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007103037A2 (en) * | 2006-03-01 | 2007-09-13 | Softmax, Inc. | System and method for generating a separated signal |
-
2009
- 2009-02-02 JP JP2009022039A patent/JP5255467B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007103037A2 (en) * | 2006-03-01 | 2007-09-13 | Softmax, Inc. | System and method for generating a separated signal |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8886499B2 (en) | 2011-12-27 | 2014-11-11 | Fujitsu Limited | Voice processing apparatus and voice processing method |
EP2755204A1 (en) | 2013-01-15 | 2014-07-16 | Fujitsu Limited | Noise suppression device and method |
US9236060B2 (en) | 2013-01-15 | 2016-01-12 | Fujitsu Limited | Noise suppression device and method |
EP2851898A1 (en) | 2013-09-20 | 2015-03-25 | Fujitsu Limited | Voice processing apparatus, voice processing method and corresponding computer program |
US9842599B2 (en) | 2013-09-20 | 2017-12-12 | Fujitsu Limited | Voice processing apparatus and voice processing method |
JP2018141922A (ja) * | 2017-02-28 | 2018-09-13 | 日本電信電話株式会社 | ステアリングベクトル推定装置、ステアリングベクトル推定方法およびステアリングベクトル推定プログラム |
JP2019010436A (ja) * | 2017-06-30 | 2019-01-24 | ヤマハ株式会社 | 生体センサおよび生体センサの信号取得方法 |
CN110379439A (zh) * | 2019-07-23 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 一种音频处理的方法以及相关装置 |
CN110379439B (zh) * | 2019-07-23 | 2024-05-17 | 腾讯科技(深圳)有限公司 | 一种音频处理的方法以及相关装置 |
US12015901B2 (en) | 2019-12-20 | 2024-06-18 | Mitsubishi Electric Corporation | Information processing device, and calculation method |
Also Published As
Publication number | Publication date |
---|---|
JP5255467B2 (ja) | 2013-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5255467B2 (ja) | 雑音抑制装置、雑音抑制方法、及び、プログラム | |
JP6584930B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
CN111370014B (zh) | 多流目标-语音检测和信道融合的系统和方法 | |
EP2893532B1 (en) | Apparatus and method for providing an informed multichannel speech presence probability estimation | |
US9881631B2 (en) | Method for enhancing audio signal using phase information | |
EP3387648B1 (en) | Localization algorithm for sound sources with known statistics | |
EP2058797B1 (en) | Discrimination between foreground speech and background noise | |
JP5154363B2 (ja) | 車室内音声対話装置 | |
JP6603919B2 (ja) | 音声認識装置、および音声認識方法 | |
CN111899756B (zh) | 一种单通道语音分离方法和装置 | |
CN108630222B (zh) | 信号处理系统以及信号处理方法 | |
KR101720514B1 (ko) | Dcica를 이용한 dnn 기반 특징향상을 수행하는 음성인식장치 및 방법 | |
US9549274B2 (en) | Sound processing apparatus, sound processing method, and sound processing program | |
JP2008236077A (ja) | 目的音抽出装置,目的音抽出プログラム | |
US20040128127A1 (en) | Method for processing speech using absolute loudness | |
JP2017067879A (ja) | 音声処理装置及び音声処理方法 | |
KR101529647B1 (ko) | 빔포밍 기술을 이용한 음원 분리 방법 및 시스템 | |
JP5451562B2 (ja) | 音響処理システム及びこれを用いた機械 | |
KR101658001B1 (ko) | 강인한 음성 인식을 위한 실시간 타겟 음성 분리 방법 | |
KR101184394B1 (ko) | 윈도우 분리 직교 모델을 이용한 잡음신호 분리방법 | |
JP6439174B2 (ja) | 音声強調装置、および音声強調方法 | |
WO2018029071A1 (en) | Audio signature for speech command spotting | |
EP3669356B1 (en) | Low complexity detection of voiced speech and pitch estimation | |
JP2007178590A (ja) | 目的信号抽出装置、目的信号抽出方法、及び、プログラム | |
JP2016080767A (ja) | 周波数成分抽出装置、周波数成分抽出方法及び周波数成分抽出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20110711 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5255467 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160426 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |