JP2005249816A - 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム - Google Patents

信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム Download PDF

Info

Publication number
JP2005249816A
JP2005249816A JP2004055812A JP2004055812A JP2005249816A JP 2005249816 A JP2005249816 A JP 2005249816A JP 2004055812 A JP2004055812 A JP 2004055812A JP 2004055812 A JP2004055812 A JP 2004055812A JP 2005249816 A JP2005249816 A JP 2005249816A
Authority
JP
Japan
Prior art keywords
signal
filter coefficient
noise
filter
coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004055812A
Other languages
English (en)
Inventor
Tetsuya Takiguchi
哲也 滝口
Masafumi Nishimura
雅史 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2004055812A priority Critical patent/JP2005249816A/ja
Priority to US11/067,809 priority patent/US7533015B2/en
Publication of JP2005249816A publication Critical patent/JP2005249816A/ja
Priority to US12/126,971 priority patent/US7895038B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Abstract

【課題】雑音区間が存在しない突発性雑音や、未知の突発性雑音に対しても有効な音声強調技術を提供する。
【解決手段】目的信号及び雑音信号を含む入力信号から、所定の参照信号をスペクトル減算により差し引くスペクトル減算手段13a,13b,15と、参照信号に対して適用される適応フィルタ14と、入力信号における雑音信号の成分を減少させるべく、適応フィルタのフィルタ係数を制御する係数制御手段とを備えた信号強調装置において、目的信号についての所定の特徴量を所定の統計モデルで表した信号モデルのデータベース16を設け、スペクトル減算手段の出力信号に対する前記信号モデルの尤度に基づいて前記フィルタ係数の制御を行うようにする。
【選択図】図1

Description

本発明は、雑音信号が重畳された目的信号から雑音信号に類似する参照信号をスペクトル減算により差し引くとともに、参照信号に適用される適応フィルタのフィルタ係数を制御して雑音信号を抑圧することにより、目的信号を強調するようにした信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラムに関する。
従来、マイクロホンを経て入力される音声信号から雑音成分を除去する技術として、複数のマイクロホン及び適応フィルタを用いた適応マイクロホンアレーによる信号処理技術が知られている。主な適応マイクロホンアレーとしては、従来、グリフィス−ジム(Griffiths-Jim)形アレー(非特許文献1参照)や、適応形雑音抑圧マイクロホンアレー(AMNOR;非特許文献2参照)等が知られている。いずれの場合においても、適応フィルタの設計には、観測信号における雑音区間での信号が用いられる。また、グリフィス−ジム形アレーを周波数領域において実現し、音声及び雑音の各区間における検出精度を改善したものも知られている(非特許文献3参照)。
このような適応マイクロホンアレー処理においては、一般に、使用するマイクロホンの数を増やすことにより、雑音抑圧性能を高めることができる。一方、パソコン等の情報端末機器などにおいては、コストやハードウェア上の制約により、音声入力に使用できるマイクロホンの数は制限される。上述の非特許文献3の技術によれば、2チャンネルのマイクロホンアレーを用い、スペクトルサブトラクションにより、雑音に頑健な適応マイクロホンアレー処理を実現することができる。
図8は2チャンネルのビームフォーマによる従来の音声強調システムを示すブロック図である。このシステムは、音波信号を電気信号に変換するための2つのマイクロホン81a及び81b、マイクロホン81a及び81bからの入力信号を加算する加算器82a、マイクロホン81aからの入力信号に対し、マイクロホン81bからの入力信号を反転して加算する加算器82b、加算器82a及び82bの出力信号に対し、それぞれ所定のフレーム長及びフレーム周期で高速フーリエ変換を施す高速フーリエ変換器83a及び83b、高速フーリエ変換器83bの出力側に設けられた適応フィルタ84、並びに、高速フーリエ変換器83aの出力信号に対し、適応フィルタ84の出力信号を反転して加算する加算器85を有する。
強調の対象となる目的音声を発する目的音声源1sが各マイクロホン81a及び81bから等距離で、かつ正面方向に位置し、雑音源1nが他の方向に位置するとき、時刻tにおける各マイクロホン81a及び81bからの入力信号m1(t)及びm2(t)は数1式で表すことができる。ただし、s(t)は目的音声に基づく成分である目的音声信号、n(t)及びn(t−d)は雑音源1nからの雑音に基づく成分である雑音信号、dは雑音源1nから各マイクロホン81a及び81bまでの距離が異なることに起因する遅延時間である。
Figure 2005249816
このとき、加算器82bにより、入力信号m1(t)に対し、入力信号m2(t)を反転させて加算すると、入力信号m1(t)及びm2(t)は相互に逆位相の状態で加算されることになるため、目的音声信号s(t)が相殺され、雑音源1nからの雑音と相関のある成分のみが残る。この成分を参照入力r(t)とすると、r(t)は次式で表すことができる。
Figure 2005249816
一方、加算手段82aにより入力信号m1(t)及びm2(t)を加算して得られる信号を主入力p(t)とすると、主入力p(t)は、次式で表すことができる。
Figure 2005249816
したがって、周波数領域において、加算手段85により主入力から参照入力を差し引くとともに、参照入力に対して適応フィルタ84を適用し、そのフィルタ係数を調整することにより、雑音信号が抑圧され、目的音声信号が強調された出力信号Yを得ることができる。フレーム番号nにおける周波数ωでの出力信号y(ω;n)は、次式により与えられる。
Figure 2005249816
ここで、w(ω)は適応フィルタ84の周波数ωにおけるフィルタ係数であり、p(ω;n)はフレーム番号nにおける周波数ωでの主入力である。r(ω;n)はフレーム番号nにおける周波数ωでの参照入力であり、フィルタ係数w(ω)により振幅の調整が行われる。
フィルタ係数w(ω)の調整は、雑音区間における入力信号m1(t)及びm2(t)を用い、次式で示される誤差eの2乗が最小となるように行われる。なお、雑音区間とは雑音のみに基づく入力信号が発生している時間的区間を意味する。これに対し、目的音声信号s(t)が入力信号に含まれている時間的区間を音声発生区間という。
Figure 2005249816
雑音区間での入力信号を用いるようにしたのは、主入力p(ω;n)に目的音声信号の成分が含まれていると、フィルタ係数の学習が妨げられるからである。このため、完全に目的音声信号に重畳し、音声発生区間においてのみしか存在しない、継続時間の短い突発性雑音に関しては、これを除去するためのフィルタ係数w(ω)を推定するのは困難である。したがって、講演や会議などの書き起しに際しての音声認識や、車内での音声認識等においては、物がぶつかる音、ページをめくる際の紙をさわる音、ドアを閉める音等の突発的な雑音が、認識精度を劣化させる要因の一つとなっている。
これに対し、突発性雑音下での音声認識手法として、音声データの音韻隠れマルコフモデル及び雑音データの隠れマルコフモデルを合成したモデルと、入力音声の特徴量とのマッチングを行い、その結果に基づいて入力音声の認識を行うようにした技術が提案されている(特許文献1参照)。この技術によれば、対象となる突発性雑音の種類は既知のものである必要がある。しかし、実環境下では多くの雑音が存在するため、発生し得る雑音の種類を予測してモデル化しておくことは困難な場合がある。
特開2003−280686号公報 L. J. Griffiths and C. W. Jim, "An alternative approach to linearlyconstrained adaptive beamforming," IEEE Trans. AP, Vol. 30, no. 1, pp. 27-34,Jan. 1982 Y. Kaneda and J. Ohga, "Adaptive microphone-array system for noisereduction," IEEE Trans. ASSP, vol. 34, no.6 pp.1391-1400, Dec. 1986 永田・藤岡・安部,「話者方向に基づくSSの制御を用いた話者追尾2chマイクロホンアレーに関する検討」,日本音響学会秋季講演論文集,1999年,p.477−478
上述のように、2チャンネルのマイクロホンアレーを用いた適応マイクロホンアレー処理として有効なものは、グリフィス−ジム形のものである。これによれば、適応フィルタの設計は、雑音区間の入力信号に基づき、雑音成分のパワーが最小となるようにフィルタ係数を決定することによって行われる。しかしながら実際の音声認識への応用場面では、種々の突発性雑音が音声認識の妨害となっている。突発性雑音の場合、雑音区間が存在しないときがある。つまり、突発性雑音の成分を含む入力信号としては、音声発生区間におけるものしか得ることができない場合がある。その場合、雑音区間の信号に基づいてフィルタ係数を決定する従来のグリフィス−ジム形のアレー処理によれば、突発性雑音に対しては対処することができない。
また、上述の、音声及び雑音の双方の隠れマルコフモデルを合成したものと、入力信号の特徴量とのマッチングによる音声認識技術によれば、発生し得る突発性雑音の種類を予測し、予めモデル化しておく必要があるので、未知の突発性雑音に対処することはできない。
本発明の目的は、このような従来技術の問題点に鑑み、雑音区間が存在しない突発性雑音や、未知の突発性雑音に対しても有効な音声強調技術を提供することにある。
上記目的を達成するため、本発明に係る信号強調装置は、目的信号及び雑音信号を含む主入力信号から、所定の参照信号をスペクトル減算により差し引くスペクトル減算手段と、参照信号に対して適用される適応フィルタと、主入力信号における雑音信号の成分を減少させるべく、適応フィルタのフィルタ係数を制御する係数制御手段とを備えた信号強調装置において、目的信号に関する所定の特徴量を所定の統計モデルで表した信号モデルのデータベースを備え、係数制御手段は、スペクトル減算手段の出力信号に対する前記信号モデルの尤度に基づいて適応フィルタのフィルタ係数の制御を行うものであること特徴とする。
また、本発明の信号強調方法は、目的信号及び雑音信号を含む主入力信号から、所定の参照信号をスペクトル減算により差し引いて強調出力信号とするスペクトル減算手順と、参照信号に対して適応フィルタを適用する手順と、前記主入力信号における雑音信号の成分を減少させるべく、適応フィルタのフィルタ係数を制御する係数制御手順とを備えた信号強調方法において、係数制御手順では、目的信号についての、所定の特徴量を所定の統計モデルで表した信号モデルを参照し、前記強調出力信号に対する該信号モデルの尤度に基づいて前記フィルタ係数の制御を行うこと特徴とする。
ここで、目的信号としてはたとえば、発話による音声に基づくものが該当する。雑音信号としてはたとえば、定常的な雑音や突発的な雑音に基づくものが該当する。主入力信号としてはたとえば、マイクロホンを介して入力されるものが該当する。適応フィルタとしては、たとえば、FIRフィルタを用いたものが該当する。統計モデルとしては、たとえば状態遷移におけるスペクトルパターンの出現確率をガウス分布で表したHMM(Hidden Markov Model)が該当する。フィルタ係数の制御は、たとえばEM(Expectation Maximization)アルゴリズムを用いて行われる。
この構成において、目的信号の強調が行われる際、適応フィルタを通過した参照信号が主入力信号からスペクトル減算により差し引かれるとともに、スペクトル減算の結果として得られる強調出力信号において雑音信号成分が抑圧されるように適応フィルタのフィルタ係数が制御される。この制御に際し、従来は、主入力信号に目的信号が含まれていない雑音区間における強調出力信号に基づき、その強調出力信号の2乗が最小となるようにフィルタ係数を変更するようにしていたため、主入力信号に目的信号が含まれている目的信号区間において目的信号に対し突発的に重畳される未知の雑音信号を有効に抑圧することはできなかった。これに対し、本発明によれば、強調出力信号に対する信号モデルの尤度に基づいて適応フィルタのフィルタ係数の制御を行うようにしたため、目的信号区間において突発的に発生する未知の雑音に対しても、雑音抑圧効果を発揮することができる。
本発明の好ましい態様においては、音波信号を電気信号に変換する第1及び第2の信号変換手段の各出力信号を、それぞれに含まれる目的信号が同相で加算されるように加算することによって前記主入力信号を取得すとともに、第1及び第2信号変換手段の各出力信号を、それぞれに含まれる目的信号が逆相で加算されるように加算することによって参照信号を取得する。信号変換手段としては、たとえばマイクロホンが該当する。
また、目的信号についての信号モデルが隠れマルコフモデルによるものである場合、強調出力信号に対する信号モデルの尤度を最大化するフィルタ係数をEMアルゴリズムによって求め、求めた値によってフィルタ係数を更新することによりフィルタ係数の制御を行うようにしてもよい。この場合、主入力信号及び参照信号を所定のフレーム長及びフレーム周期でフーリエ変換した結果に基づいてスペクトル減算を行うとすれば、所定のフレーム数毎、例えば発話毎に、フィルタ係数の更新を行うことができる。
また、本発明の信号強調装置及び信号強調方法はたとえば、音声認識装置や音声認識方法に適用することができる。その場合、信号強調装置又は信号強調方法により強調された音声信号に基づいて音声認識が行われる。また、信号強調装置及び信号強調方法における各手段や手順はコンピュータを用い、コンピュータプログラムにより実現することができる。
本発明によれば、雑音信号区間では発生せず、目的信号区間においてのみ突発的に発生するような未知の雑音信号に対しても、雑音抑圧効果を発揮することができる。
図1は本発明の一実施形態に係る音声強調装置の構成を示す。この装置は、音波信号をそれぞれ電気信号m1(t)及びm2(t)に変換するための2つのマイクロホン11a及び11b、入力信号m1(t)及びm2(t)を加算する加算器12a、入力信号m1(t)に対し入力信号m2(t)を反転して加算する加算器12b、加算器12a及び12bの出力に対して高速フーリエ変換を施す高速フーリエ変換器13a及び13b、高速フーリエ変換器13bの出力側に設けられた適応フィルタ14、高速フーリエ変換器13aの出力に対し、適応フィルタ14の出力を反転して加算する加算器15、音響モデルλのデータベース16、並びに、加算器15の出力及び音響モデルλを参照し、適応フィルタ14のフィルタ係数を更新するフィルタ係数更新手段17を備える。
この構成において、入力信号m1(t)及びm2(t)には、マイクロホン11a及び11bから等距離に位置する目的音声源1sからの発話等の目的音声に基づく成分である目的音声信号、並びに目的音声源とは異なる方向に位置する雑音源1nからの突発性雑音や白色雑音に基づく成分である雑音信号が含まれ得る。入力信号m1(t)及びm2(t)は加算器12aにより加算され、さらに、高速フーリエ変換器13aによって所定のフレーム長及びフレーム周期で高速フーリエ変換が施され、スペクトルの時系列に変換される。入力信号m1(t)及びm2(t)は、また、加算手段12bによって逆位相で加算され、高速フーリエ変換器13bにより同様にして周波数成分のデータに変換される。
高速フーリエ変換器13bの出力は、適応フィルタ14によって振幅が調整され、加算器15に出力される。加算器15は、上述数4式のように、高速フーリエ変換器13aの出力から適応フィルタ14の出力を減算し、この結果を出力信号Yとして出力する。
フィルタ係数更新手段17は、発話毎に、出力信号Yに基づき、出力信号Yの音響モデルλに対する尤度が最大となる適応フィルタ14のフィルタ係数を求め、フィルタ係数の更新を行う。各発話について更新されるフィルタ係数により得られる出力信号Yが、その発話に基づく音声信号が強調された信号Eとして出力される。
このように、フィルタ係数更新手段17は、出力信号Yが音響モデルλに合致するように、適応フィルタ14のフィルタ係数を発話毎に更新するが、その際、新たなフィルタ係数w’は、次のフィルタ更新式により決定される。
Figure 2005249816
このフィルタ更新式は、音響モデルλを用いたEM(Expectation-Maximization)アルゴリズムにより解くことができる。音響モデルλとしては、HMM(Hidden
Markov Model)等の統計モデルに従ったものを使用することができる。EMアルゴリズムでは、モデルのパラメータを仮定し、観測データに対するモデルの状態の遷移回数を計算し(以下、「Eステップ」という。)、その計算結果に基づいて最尤推定を行い(以下、「Mステップ」という。)、モデルのパラメータの更新を行う。
すなわちまず、Eステップ(Expectation step)において、数7式により対数尤度の期待値を計算する。
Figure 2005249816
この式は例えば「“A maximum-likelihood approach to stochastic matching for robust
speech recognition,” A. Sankar, C.-H. Lee, IEEE Trans. On Speech and Audio
Processing, pp. 190-202, Vol. 4, No. 3, 1996.」のセクションIII、193頁の式(14)及び式(20)に相当する。なお、nは1発話中のフレーム番号である。
次に、Mステップ(Maximization step)において、数7式の値を最大にする重みwを求める。求まったwが新たなフィルタ係数となる。数7式の値を最大にするwは、次式により求めることができる。
Figure 2005249816
一般的な導出は、以上のとおりである。音響モデルλにおいて使用する出現確率を表す分布としては、ガウス分布(正規分布)、t−分布、対数正規分布等の任意の分布を使用することができる。次に、多次元ガウス分布を用いた場合の例を示す。HMMとしては複数の状態を有するモデルを用いることが可能であるが、ここでは、次式で示すような1状態の混合モデルを用いている。なお、複数状態のモデルへの拡張は容易に行うことができる。
Figure 2005249816
ここで、N(μ,V)は、平均ベクトルμ、分散Vのk番目の多次元ガウス分布であり、cはk番目の多次元ガウス分布に対する重み係数である。また、Sは音声の特徴量である。したがってこの場合、音響モデルλに関するパラメータは、出力確率分布(多次元ガウス分布)の平均値μ、分散V、及び混合重み係数cの3つとなる。この重み係数cと多次元ガウス分布N(μ,V)は、学習用の音声データを用い、EMアルゴリズムにより学習することができる。EMアルゴリズムによる学習法は、音声認識で広く使われているモデル学習法であり、多くの文献で見ることができる。かかる文献として例えば「X.D.Huang, Y. Ariki, and M.A.Jack, “Hidden Markov models for speech
recognition”, Edinburgh University Press, 1990, ISBN:0748601627」を挙げることができる。この文献においては、上記パラメータの更新式は、第182〜183頁の式(6.3.17)、(6,3.20)及び(6.3.21)として記述されている。
音響モデルλがこのような音響モデルである場合、アレー出力信号Yに対する音響モデルλの尤度が最大となるように、すなわち尤度最大化基準に基づいて、フィルタ係数w’の推定を行うために、数6式をEMアルゴリズムで解くには、まず、Eステップにおいて次式で示される対数尤度の期待値を計算する。
Figure 2005249816
ただしここでは、求めたいフィルタ係数wに関連する項のみを記述しており、状態遷移確率などに関しては必要ないので省略している。数9式より、次式が成立する。
Figure 2005249816
ここで、Dは多次元ガウス分布の次元数であり、Tは転置行列であることを表す。γ(n)の値は次式により求める。
Figure 2005249816
このγ(n)の計算については、例えば上述の文献“Hidden Markov models for speech recognition”における第182頁の式(6.3.16)を参照することができる。次に、Mステップにおいて、次式に示すように、上記Q関数Q(w’|w)を最大にするw’を求める。
Figure 2005249816
w’は、次式により求めることができる。
Figure 2005249816
したがって、周波数サブバンドにおけるi次元目の重みwi は、次式により求めることができる。iは上述数4式におけるωに対応する。
Figure 2005249816
ここで、σ2 k,iはk番目の分布におけるi次元目の分散である。新たなw'iが求まると、これを適応フィルタ14における新たなフィルタ係数として用いて、アレー出力信号Yiを求める。このように、出力信号Yに基づいて新たなフィルタ係数を求め、新たなフィルタ係数に基づいて再度出力信号Yを取得するという処理を、尤度が収束するまで繰り返す。尤度が収束したか否かは、Q関数Q(w’|w)の値の変化が所定値以下になったかどうかにより判定することができる。尤度が収束した場合、そのときの新たなフィルタ係数が、更新されたフィルタ係数となる。
図2は図1の音声強調装置を実現するコンピュータの構成を示す。このコンピュータは、プログラムに基づくデータ処理や各部の制御を行う中央処理装置21、中央処理装置21が実行中のプログラムや関連するデータを高速にアクセスできるように記憶する主記憶装置22、プログラムやデータを記憶する補助記憶装置23、データや指令を入力するための入力装置24、中央処理装置21による処理結果の出力や、入力装置24との協働によるGUI機能を行うための出力装置25等を備える。
図中の実線はデータの流れ、破線は制御信号の流れを示している。このコンピュータには、図1の音声強調装置における各要素12a、12b、13a、13b、14、15及び17としてコンピュータを機能させる音声強調プログラムがインストールされている。また、入力装置24には、図1におけるマイクロホン11a及び11bが含まれる。補助記憶装置23には、音響モデルλのデータベース16が設けられている。
図3は音声強調プログラムによるシステム構成を示す。このシステムは、図1の加算手段12a及び12bとして機能する信号合成部31、高速フーリエ変換器13a及び13bとして機能するFFT部32、適応フィルタ14として機能する適応フィルタ部33、加算器15として機能するスペクトル減算部34、及びフィルタ係数更新手段17として機能するフィルタ係数更新部35を備える。図中の36は音響モデルλのデータベースである。
信号合成部31は、上記数3式のように、目的音声信号s(t)が同位相で加算されるように、マクロホン11a及び11bからの入力信号m1及びm2を加算し、主入力信号p(t)として出力する。信号合成部31はまた、上記数2式のように、目的音声信号s(t)が相殺されるように、入力信号m1に対し、入力信号m2を反転して加算し、参照信号r(t)として出力する。FFT部32は主入力信号p(t)及び参照信号r(t)をそれぞれ所定のフレーム周期及びフレーム長で周波数スペクトル信号p(ω,n)及びr(ω,n)に変換する。適応フィルタ部33は、フィルタ係数w(ω)に応じ、参照信号r(ω,n)の振幅を調整する。スペクトル減算部34は、主入力信号p(ω,n)から適応フィルタ部33の出力w(ω)r(ω,n)を減算する。フィルタ係数更新部35は、発話毎に、スペクトル減算部34の出力y(ω,n)及び音響モデルλに基づき、上述数6式によりEMアルゴリズムを用いてフィルタ係数w’を求め、適応フィルタ部33におけるフィルタ係数を更新する。そして、スペクトル減算部34は、発話毎に、更新されたフィルタ係数を用い、1発話分の主入力信号p(ω,n)及び参照信号r(ω,n)に基づいて生成されるy(ω,n)を、目的音声信号が強調された信号Eとして出力する。
図4はこの音声強調プログラムによる1発話分の主入力信号p(ω;n)及び参照信号r(ω;n)についての処理を示す。FFT部32により高速フーリエ変換が施された1発話分の主音声信号p(ω;n)及び参照信号r(ω;n)がメモリ上に保持されているものとする。以下の各ステップの処理は1発話分のデータについて行われる。
処理を開始すると、まずステップ41において、適応フィルタのフィルタ係数w(ω)の初期値を、たとえば1.0に設定する。次に、ステップ42において、主音声信号p(ω;n)から、適応フィルタによって振幅が調整された参照信号w(ω)r(ω;n)を減算し、出力信号y(ω;n)を取得する。ただしこの段階では、出力信号y(ω;n)は、目的信号が強調された信号Eとして出力されることはない。次に、ステップ43において、上述のEMアルゴリズムに従い、Eステップ及びMステップを経て、新たなフィルタ係数w’(ω)を求める。
次に、ステップ44において、出力信号yに対する音響モデルλの尤度が収束したか否かを判定する。この判定は、数10式のQ関数Q(w’|w)についての前回の値に対する今回の値の増加が所定値以下であるか否かに基づいて行うことができる。尤度が収束していないと判定した場合は、ステップ45において適応フィルタのフィルタ係数を新たなフィルタ係数w’に変更し、ステップ42に戻る。
ステップ44において、尤度が収束したと判定した場合は、ステップ43において求めた新たなフィルタ係数w’が出力信号Yに対する音響モデルλの尤度を最大にするフィルタ係数であるので、ステップ46へ進み、その新たなフィルタ係数w’に置き換えることにより、適応フィルタのフィルタ係数を更新する。そして、ステップ47において、更新されたフィルタ係数w’により調整された参照信号w’(ω)r(ω;n)を主音声信号p(ω;n)から減算し、得られる信号を、目的音声信が強調された出力信号Eとして出力する。これにより、1発話分の音声強調処理が完了する。
図5は本発明の一実施形態に係る音声認識装置の構成を示すブロック図である。同図に示すように、この装置は、雑音が重畳された目的音声に基づき、マイクロホン11a及び11bを介して入力される入力信号について音声強調処理を行い、音声強調がなされた信号Eを出力する音声強調部51、強調信号Eについて所定の特徴量の抽出を行う特徴量抽出部52、抽出された特徴量に基づき音声認識を行う音声認識部53を備える。音声強調部51、特徴量抽出部52及び音声認識部53は図2と同様のコンピュータ及びソフトウェアによって実現することができる。音声強調部51は、図1又は図3の音声強調装置により構成される。
この音声認識装置による音声認識の実施例として、予めエンジンが停止している車内で収録した音声を対象として音声認識を行い、誤り率を測定した。
すなわちまず、適応フィルタのフィルタ係数の推定に使用するガウス混合モデル(GMM;Gaussian mixture model)の混合数、すなわち多次元ガウス分布の数を256とし、男性話者95名分の音声データを使用してGMMについての学習を行うことにより、不特定話者HMMを作成した。
次に、予め車内で収録した男性37人のテスト話者による5〜11桁の連続数字についての411発話分の発話データ、及び予め測定したスウィープ音に対するマイクロホン11a及び11bのインパルス応答を用いて入力信号m1(t)及びm2(t)を作成し、この入力信号に基づいて音声認識を行い、誤り率を測定した。ただし、マイクロホン11a及び11bの間隔は30[cm]とし、目的話者の方向は正面、すなわち90度方向とした。25[dB]のアイドリング雑音を20度方向から全区間において付与した。また、発話区間にのみしか存在しない雑音として、図6に示すような窓をノックする突発性雑音を140度方向から付与するとともに、音楽CDの再生音を40度方向から付与した。誤り率の測定は、0[dB]のノック音を付与した場合、5[dB]のノック音を付与した場合、0[dB]のノック音と0[dB]のCD音を付与した場合、5[dB]のノック音と5[dB]のCD音を付与した場合のそれぞれについて行った。誤り率の測定結果を図7の表における実施例の欄に示す。
比較のため、1チャンネルの入力信号を用い、かつ雑音抑圧処理を行わないこと以外は上述実施例の場合と同様にして音声認識を行い、同様の場合について誤り率を測定した。測定結果を、図7の表における比較例1の欄に示す。
また、音声強調部51として図8の従来の構成による音声強調装置を用い、従来の2チャンネルスペクトルサブトラクションによるパワー最小化基準に基づいて適応フィルタのフィルタ係数の推定を行うことにより音声強調を行った以外は、上述実施例の場合と同様にして音声認識を行い、同様の場合について誤り率を測定した。ただし、フィルタ係数の推定は、発話区間の直前1秒間における入力信号に基づいて行った。測定結果を、図7の表における比較例2の欄に示す。
図7の表から、実施例によれば、比較例1や2に比較し、認識率がかなり改善されていることがわかる。すなわち、音声強調部51において、音声区間のみでしか存在しない未知の突発性雑音に対しても、効果的に雑音抑圧機能を発揮していることがわかる。
なお、本発明は上述実施形態に限定されることなく、適宜変形して実施することができる。例えば、上述実施形態においては、2つのマイクロホンから等距離の位置にある目的音源に基づく各入力信号m1及びm2をそのまま加算することにより各入力信号m1及びm2が同相で加算されるようにしているが、この代わりに、遅延手段により入力信号m1及びm2の同相化を図るようにしてもよい。
また、上述実施形態においては、2つのマイクロホン有するマイクロホンアレーを用いているが、この代わりに、3以上のマイクロホンを有するマイクロホンアレーを用いるようにしてもよい。例えば、3チャネルのマイクロホンアレーを用いる場合、正面の目的音源に基づく時刻tにおける各マイクロホンからの入力信号をm1(t)、m2(t)、m3(t)とすれば、主入力p(t)をp(t)=1/3(m1(t)+m2(t)+m3(t))とし、参照信号r1(t)をr1(t)=m1(t)−m2(t)、r2(t)=m2(t)−m3(t)とし、そして、p(n)−{w1*r1(n)+w2*r2(n)}をEMアルゴリズムにおけるQ関数に適用し、各参照信号r1(n)及びr2(n)についての各適応フィルタのフィルタ係数w1とw2を求めるようにすればよい。なお、目的音源がマイクロホンの正面に位置していない場合には、各マイクロホンへの目的音の到達時間差を遅延手段によって調整すればよい。
また、上述実施形態においては、参照信号を、入力信号m1から入力信号m2を減算することによって取得しているが、この代わりに、主音声信号に含まれる雑音信号に類似した信号、たとえば雑音源の近傍に配置したマイクロホンにより取得したほぼ雑音のみを含む信号を参照信号として使用するようにしてもよい。
また、上述実施形態においては、1発話毎にフィルタ係数を更新し、更新したフィルタ係数により目的音声信号の強調を行うようにしているが、この代わりに、1フレーム毎、又は複数フレーム毎にフィルタ係数を更新して目的音声信号の強調を行うようにしてもよい。
本発明の一実施形態に係る音声強調装置の構成を示すブロック図である。 図1の音声強調装置を実現するコンピュータの構成を示すブロック図である。 図2のコンピュータにおける音声強調プログラムによるシステム構成を示すブロック図である。 図3の音声強調プラグラムによる処理を示すフローチャートである。 本発明の一実施形態に係る音声認識装置の構成を示すブロック図である。 図6の音声認識装置による音声認識の実施例に適用された窓をノックする突発性雑音を示すグラフである。 図6の音声認識装置による音声認識の結果を示す表の図である。 2チャンネルのビームフォーマによる従来の音声強調システムを示すブロック図である。
符号の説明
11a,11b,81a,81b:マイクロホン、12a,12b,15,82a,82b,85:加算器、13a,13b,83a,83b:高速フーリエ変換器、14,84:適応フィルタ、16:音響モデルλのデータベース、17:フィルタ係数更新手段、21:中央処理装置、22:主記憶装置、23:補助記憶装置、24:入力装置、25:出力装置、31:信号合成部、32:FFT部、33:適応フィルタ部、34:スペクトル減算部、35:フィルタ係数更新部、36:音響モデル、51:音声強調部、52:特徴量抽出部、53:音声認識部。

Claims (12)

  1. 目的信号及び雑音信号を含む主入力信号から、所定の参照信号をスペクトル減算により差し引くスペクトル減算手段と、前記参照信号に対して適用される適応フィルタと、前記主入力信号における雑音信号の成分を減少させるべく、前記適応フィルタのフィルタ係数を制御する係数制御手段とを備えた信号強調装置において、
    前記目的信号についての、所定の特徴量を所定の統計モデルで表した信号モデルのデータベースを備え、前記係数制御手段は、前記スペクトル減算手段の出力信号に対する前記信号モデルの尤度に基づいて前記フィルタ係数の制御を行うものであること特徴とする信号強調装置。
  2. 音波信号を電気信号に変換する第1及び第2の信号変換手段を備え、前記主入力信号は前記第1及び第2信号変換手段の各出力信号を、それぞれに含まれる前記目的信号が同相で加算されるように加算することによって得られるものであり、前記参照信号は前記第1及び第2信号変換手段の各出力信号を、それぞれに含まれる前記目的信号が逆相で加算されるように加算することによって得られるものであることを特徴とする請求項1に記載の信号強調装置。
  3. 前記統計モデルは隠れマルコフモデルによるものであり、前記係数制御手段はEMアルゴリズムを用いて前記尤度を最大化する前記フィルタ係数を求め、これに置き換えることによって前記フィルタ係数を更新するものであることを特徴とする請求項1に記載の信号強調装置。
  4. 前記スペクトル減算手段は、前記主入力信号及び参照信号を所定のフレーム長及びフレーム周期でフーリエ変換する手段を有し、前記係数制御手段は、所定のフレーム数毎に前記フィルタ係数の更新を行うものであることを特徴とする請求項3に記載の信号強調装置。
  5. 請求項1の信号強調装置を備え、該装置により強調された音声信号に基づいて音声認識を行う手段を具備することを特徴とする音声認識装置。
  6. 目的信号及び雑音信号を含む主入力信号から、所定の参照信号をスペクトル減算により差し引いて強調出力信号とするスペクトル減算手順と、前記参照信号に対して適応フィルタを適用する手順と、前記主入力信号における雑音信号の成分を減少させるべく、前記適応フィルタのフィルタ係数を制御する係数制御手順とを備えた信号強調方法において、
    前記係数制御手順では、前記目的信号についての、所定の特徴量を所定の統計モデルで表した信号モデルを参照し、前記強調出力信号に対する該信号モデルの尤度に基づいて前記フィルタ係数の制御を行うこと特徴とする信号強調方法。
  7. 第1及び第2の信号変換手段により音波信号を電気信号に変換する手順と、前記第1及び第2信号変換手段の各出力信号を、それぞれに含まれる前記目的信号が同相で加算されるように加算することによって前記主入力信号を取得する手順と、前記第1及び第2信号変換手段の各出力信号を、それぞれに含まれる前記目的信号が逆相で加算されるように加算することによって前記参照信号を取得する手順とを有することを特徴とする請求項6に記載の信号強調方法。
  8. 前記統計モデルは隠れマルコフモデルによるものであり、前記係数制御手順では、EMアルゴリズムを用いて前記尤度を最大化する前記フィルタ係数を求め、これに置き換えることによって前記フィルタ係数を更新することを特徴とする請求項6に記載の信号強調方法。
  9. 前記スペクトル減算手順では、前記主入力信号及び参照信号を所定のフレーム長及びフレーム周期でフーリエ変換する手順を有し、前記係数制御手順では、所定のフレーム数毎に前記フィルタ係数の更新を行うものであることを特徴とする請求項8に記載の信号強調方法。
  10. 請求項6の信号強調方法により音声信号を強調する手順と、強調された音声信号に基づいて音声認識を行う手順とを具備することを特徴とする音声認識方法。
  11. コンピュータに、請求項6の各手順を実行させることを特徴とする信号強調プログラム。
  12. コンピュータに、請求項10の各手順を実行させることを特徴とする音声認識プログラム。
JP2004055812A 2004-03-01 2004-03-01 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム Pending JP2005249816A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004055812A JP2005249816A (ja) 2004-03-01 2004-03-01 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム
US11/067,809 US7533015B2 (en) 2004-03-01 2005-02-28 Signal enhancement via noise reduction for speech recognition
US12/126,971 US7895038B2 (en) 2004-03-01 2008-05-26 Signal enhancement via noise reduction for speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004055812A JP2005249816A (ja) 2004-03-01 2004-03-01 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2005249816A true JP2005249816A (ja) 2005-09-15

Family

ID=35030383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004055812A Pending JP2005249816A (ja) 2004-03-01 2004-03-01 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム

Country Status (2)

Country Link
US (2) US7533015B2 (ja)
JP (1) JP2005249816A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2426166A (en) * 2005-05-09 2006-11-15 Toshiba Res Europ Ltd Voice activity detector
WO2007123052A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
WO2007123048A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及びこれを利用した適応アレイ処理装置、方法、プログラム
WO2007123051A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
WO2007123047A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及びこれを利用した適応アレイ処理装置、方法、プログラム
WO2009110574A1 (ja) * 2008-03-06 2009-09-11 日本電信電話株式会社 信号強調装置、その方法、プログラム及び記録媒体
WO2011086922A1 (ja) * 2010-01-14 2011-07-21 パナソニック株式会社 中継装置、指標算出装置および指標算出方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7472041B2 (en) * 2005-08-26 2008-12-30 Step Communications Corporation Method and apparatus for accommodating device and/or signal mismatch in a sensor array
US7813923B2 (en) * 2005-10-14 2010-10-12 Microsoft Corporation Calibration based beamforming, non-linear adaptive filtering, and multi-sensor headset
FR2898209B1 (fr) * 2006-03-01 2008-12-12 Parrot Sa Procede de debruitage d'un signal audio
JP4469882B2 (ja) * 2007-08-16 2010-06-02 株式会社東芝 音響信号処理方法及び装置
JP5089295B2 (ja) * 2007-08-31 2012-12-05 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声処理システム、方法及びプログラム
US9795181B2 (en) * 2007-10-23 2017-10-24 Nike, Inc. Articles and methods of manufacture of articles
DE602007014382D1 (de) * 2007-11-12 2011-06-16 Harman Becker Automotive Sys Unterscheidung zwischen Vordergrundsprache und Hintergrundgeräuschen
US8249867B2 (en) * 2007-12-11 2012-08-21 Electronics And Telecommunications Research Institute Microphone array based speech recognition system and target speech extracting method of the system
US8325909B2 (en) * 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
FR2948484B1 (fr) * 2009-07-23 2011-07-29 Parrot Procede de filtrage des bruits lateraux non-stationnaires pour un dispositif audio multi-microphone, notamment un dispositif telephonique "mains libres" pour vehicule automobile
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US8219394B2 (en) * 2010-01-20 2012-07-10 Microsoft Corporation Adaptive ambient sound suppression and speech tracking
US8798290B1 (en) 2010-04-21 2014-08-05 Audience, Inc. Systems and methods for adaptive signal equalization
US9558755B1 (en) * 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
JP5561195B2 (ja) * 2011-02-07 2014-07-30 株式会社Jvcケンウッド ノイズ除去装置およびノイズ除去方法
CA2835104C (en) * 2011-05-06 2021-08-17 Duquesne University Of The Holy Spirit Authorship technologies
US8856004B2 (en) 2011-05-13 2014-10-07 Nuance Communications, Inc. Text processing using natural language understanding
FR2976111B1 (fr) * 2011-06-01 2013-07-05 Parrot Equipement audio comprenant des moyens de debruitage d'un signal de parole par filtrage a delai fractionnaire, notamment pour un systeme de telephonie "mains libres"
TWI442384B (zh) 2011-07-26 2014-06-21 Ind Tech Res Inst 以麥克風陣列為基礎之語音辨識系統與方法
TWI459381B (zh) 2011-09-14 2014-11-01 Ind Tech Res Inst 語音增強方法
US9881616B2 (en) * 2012-06-06 2018-01-30 Qualcomm Incorporated Method and systems having improved speech recognition
US9779731B1 (en) * 2012-08-20 2017-10-03 Amazon Technologies, Inc. Echo cancellation based on shared reference signals
US9640194B1 (en) 2012-10-04 2017-05-02 Knowles Electronics, Llc Noise suppression for speech processing based on machine-learning mask estimation
US10147441B1 (en) 2013-12-19 2018-12-04 Amazon Technologies, Inc. Voice controlled system
DE112015003945T5 (de) 2014-08-28 2017-05-11 Knowles Electronics, Llc Mehrquellen-Rauschunterdrückung
US9978388B2 (en) 2014-09-12 2018-05-22 Knowles Electronics, Llc Systems and methods for restoration of speech components
US9881631B2 (en) 2014-10-21 2018-01-30 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing audio signal using phase information
KR101610161B1 (ko) * 2014-11-26 2016-04-08 현대자동차 주식회사 음성인식 시스템 및 그 방법
CN107210824A (zh) 2015-01-30 2017-09-26 美商楼氏电子有限公司 麦克风的环境切换
DE102019111512B4 (de) * 2019-05-03 2022-09-01 Mekra Lang Gmbh & Co. Kg Sichtsystem und Spiegelersatzsystem für ein Fahrzeug
KR102327441B1 (ko) * 2019-09-20 2021-11-17 엘지전자 주식회사 인공지능 장치

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1121496B (it) * 1979-12-14 1986-04-02 Cselt Centro Studi Lab Telecom Procedimento e dispositivo per l effettuazione di misure oggettive di qualita su apparecchiature di trasmissione di segnali fonici
DE3174569D1 (en) * 1980-09-29 1986-06-12 Hitachi Ltd Rotation detecting means for a rotating body
JPS61150497A (ja) 1984-12-24 1986-07-09 Fujitsu Ltd ノイズキヤンセル方式
JP3271076B2 (ja) 1992-01-21 2002-04-02 ソニー株式会社 適応処理装置
US5473684A (en) * 1994-04-21 1995-12-05 At&T Corp. Noise-canceling differential microphone assembly
US5666429A (en) * 1994-07-18 1997-09-09 Motorola, Inc. Energy estimator and method therefor
US5708704A (en) 1995-04-07 1998-01-13 Texas Instruments Incorporated Speech recognition method and system with improved voice-activated prompt interrupt capability
US5706392A (en) * 1995-06-01 1998-01-06 Rutgers, The State University Of New Jersey Perceptual speech coder and method
JP3452443B2 (ja) * 1996-03-25 2003-09-29 三菱電機株式会社 騒音下音声認識装置及び騒音下音声認識方法
JPH10161692A (ja) * 1996-12-03 1998-06-19 Canon Inc 音声認識装置及び音声認識方法
US6151399A (en) * 1996-12-31 2000-11-21 Etymotic Research, Inc. Directional microphone system providing for ease of assembly and disassembly
US5878147A (en) * 1996-12-31 1999-03-02 Etymotic Research, Inc. Directional microphone assembly
JP2930101B2 (ja) * 1997-01-29 1999-08-03 日本電気株式会社 雑音消去装置
US5933495A (en) * 1997-02-07 1999-08-03 Texas Instruments Incorporated Subband acoustic noise suppression
GB9706174D0 (en) 1997-03-25 1997-11-19 Secr Defence Recognition system
FR2766604B1 (fr) 1997-07-22 1999-10-01 France Telecom Procede et dispositif d'egalisation aveugle des effets d'un canal de transmission sur un signal de parole numerique
US6920421B2 (en) * 1999-12-28 2005-07-19 Sony Corporation Model adaptive apparatus for performing adaptation of a model used in pattern recognition considering recentness of a received pattern data
JP2003271191A (ja) 2002-03-15 2003-09-25 Toshiba Corp 音声認識用雑音抑圧装置及び方法、音声認識装置及び方法並びにプログラム
US7117148B2 (en) * 2002-04-05 2006-10-03 Microsoft Corporation Method of noise reduction using correction vectors based on dynamic aspects of speech and noise normalization
US7047047B2 (en) * 2002-09-06 2006-05-16 Microsoft Corporation Non-linear observation model for removing noise from corrupted signals

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596496B2 (en) 2005-05-09 2009-09-29 Kabuhsiki Kaisha Toshiba Voice activity detection apparatus and method
GB2426166B (en) * 2005-05-09 2007-10-17 Toshiba Res Europ Ltd Voice activity detection apparatus and method
GB2426166A (en) * 2005-05-09 2006-11-15 Toshiba Res Europ Ltd Voice activity detector
JP4973656B2 (ja) * 2006-04-20 2012-07-11 日本電気株式会社 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
WO2007123051A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
WO2007123047A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及びこれを利用した適応アレイ処理装置、方法、プログラム
WO2007123048A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及びこれを利用した適応アレイ処理装置、方法、プログラム
US8014230B2 (en) 2006-04-20 2011-09-06 Nec Corporation Adaptive array control device, method and program, and adaptive array processing device, method and program using the same
US8106827B2 (en) 2006-04-20 2012-01-31 Nec Corporation Adaptive array control device, method and program, and adaptive array processing device, method and program
US8174935B2 (en) 2006-04-20 2012-05-08 Nec Corporation Adaptive array control device, method and program, and adaptive array processing device, method and program using the same
WO2007123052A1 (ja) * 2006-04-20 2007-11-01 Nec Corporation 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
JP4973657B2 (ja) * 2006-04-20 2012-07-11 日本電気株式会社 適応アレイ制御装置、方法、プログラム、及び適応アレイ処理装置、方法、プログラム
WO2009110574A1 (ja) * 2008-03-06 2009-09-11 日本電信電話株式会社 信号強調装置、その方法、プログラム及び記録媒体
JP5124014B2 (ja) * 2008-03-06 2013-01-23 日本電信電話株式会社 信号強調装置、その方法、プログラム及び記録媒体
US8848933B2 (en) 2008-03-06 2014-09-30 Nippon Telegraph And Telephone Corporation Signal enhancement device, method thereof, program, and recording medium
WO2011086922A1 (ja) * 2010-01-14 2011-07-21 パナソニック株式会社 中継装置、指標算出装置および指標算出方法

Also Published As

Publication number Publication date
US20080294432A1 (en) 2008-11-27
US7533015B2 (en) 2009-05-12
US7895038B2 (en) 2011-02-22
US20060122832A1 (en) 2006-06-08

Similar Documents

Publication Publication Date Title
JP2005249816A (ja) 信号強調装置、方法及びプログラム、並びに音声認識装置、方法及びプログラム
US9741360B1 (en) Speech enhancement for target speakers
US10123113B2 (en) Selective audio source enhancement
JP4195267B2 (ja) 音声認識装置、その音声認識方法及びプログラム
EP0886263B1 (en) Environmentally compensated speech processing
CN103354937B (zh) 包括噪声抑制增益的中值滤波的后处理
JP4896449B2 (ja) 音響信号処理方法、装置及びプログラム
JP5124014B2 (ja) 信号強調装置、その方法、プログラム及び記録媒体
JP5738020B2 (ja) 音声認識装置及び音声認識方法
JP4880036B2 (ja) 音源と室内音響の確率モデルに基づく音声残響除去のための方法及び装置
JP6169910B2 (ja) 音声処理装置
US20110058676A1 (en) Systems, methods, apparatus, and computer-readable media for dereverberation of multichannel signal
CN108172231B (zh) 一种基于卡尔曼滤波的去混响方法及系统
EP2562752A1 (en) Sound source separator device, sound source separator method, and program
JPWO2007100137A1 (ja) 残響除去装置、残響除去方法、残響除去プログラム及び記録媒体
JP4457221B2 (ja) 音源分離方法およびそのシステム、並びに音声認識方法およびそのシステム
Nakajima et al. An easily-configurable robot audition system using histogram-based recursive level estimation
CN110998723A (zh) 使用神经网络的信号处理装置、使用神经网络的信号处理方法以及信号处理程序
Zhang et al. Distant-talking speaker identification by generalized spectral subtraction-based dereverberation and its efficient computation
KR102316627B1 (ko) 심화신경망 기반의 가상 채널 확장을 이용한 wpe 기반 잔향 제거 장치
Kamarudin et al. Acoustic echo cancellation using adaptive filtering algorithms for Quranic accents (Qiraat) identification
JP4464797B2 (ja) 音声認識方法、この方法を実施する装置、プログラムおよびその記録媒体
JP2022544065A (ja) 信号認識または修正のために音声データから抽出した特徴を正規化するための方法および装置
WO2022190615A1 (ja) 信号処理装置および方法、並びにプログラム
Liu et al. A Hybrid Reverberation Model and Its Application to Joint Speech Dereverberation and Separation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070326

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080730

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20081021