JP2006201287A - 雑音抑圧装置及び音声認識システム - Google Patents

雑音抑圧装置及び音声認識システム Download PDF

Info

Publication number
JP2006201287A
JP2006201287A JP2005010639A JP2005010639A JP2006201287A JP 2006201287 A JP2006201287 A JP 2006201287A JP 2005010639 A JP2005010639 A JP 2005010639A JP 2005010639 A JP2005010639 A JP 2005010639A JP 2006201287 A JP2006201287 A JP 2006201287A
Authority
JP
Japan
Prior art keywords
noise
speech
parameter
frame
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005010639A
Other languages
English (en)
Other versions
JP2006201287A5 (ja
JP4512848B2 (ja
Inventor
Masakiyo Fujimoto
雅清 藤本
Satoru Nakamura
哲 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005010639A priority Critical patent/JP4512848B2/ja
Publication of JP2006201287A publication Critical patent/JP2006201287A/ja
Publication of JP2006201287A5 publication Critical patent/JP2006201287A5/ja
Application granted granted Critical
Publication of JP4512848B2 publication Critical patent/JP4512848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 非定常雑音下での音声認識性能を改善し、かつ雑音の抑圧を短時間で行なうことができる雑音抑圧装置を提供する。
【解決手段】 雑音抑圧部114は、クリーン音声と雑音とが重畳した雑音重畳音声について所定周期ごとにフレーム化された所定時間長のフレームよりそれぞれ抽出される特徴量124を受けて、雑音重畳音声に関する所定の状態空間モデルと、目的音声に関するクリーン音声HMMとを基に、パーティクルフィルタを用いて、雑音の推定パラメータ206をフレームごとに逐次生成するための雑音確率分布推定部200と、雑音重畳音声の特徴量124と、雑音の推定パラメータ206と、クリーン音声HMM130とを用いて、フレームごとに目的音声の推定特徴量126を算出するためのパラメータ生成部202及びクリーン音声推定部204とを含む。
【選択図】 図4

Description

本発明は、雑音下での音声認識技術に関し、特に、非定常雑音下での音声認識精度を改善するための雑音抑圧装置及びそれを使用した音声認識システムに関する。
人間にとって容易かつ自然なヒューマンマシンインタフェースを実現するための技術として、音声認識技術が研究されている。近年では、大規模な音声・テキストデータベースと統計確率的な音声認識手法とにより、高い認識率での音声認識が実現されるようになった。今日ではさらに、人間が機械と接する実環境において、高速にかつ高い認識率で音声認識を実現するための応用技術開発が進められている。
実環境が実験室等の環境と大きく異なる点のひとつに、雑音の存在がある。雑音は、無視できない音量で絶え間なく不規則に発生する。雑音下での音声認識性能の改善は、音声認識の応用技術開発を行なう上で、早急に解決されるべき問題である。
この問題を解決するための技術のひとつに、音声認識の前処理の段階で雑音を推定し抑圧する技術がある。後掲の非特許文献1には、雑音抑圧の一般的な方法であるスペクトルサブトラクション法が開示されている。この方法では、発話の前の区間において観測された雑音の振幅スペクトルが発話中の区間における雑音の振幅スペクトルと同じであると仮定し、発話から得られた音声信号の振幅スペクトルから、発話直前に観測された雑音の振幅スペクトルを減算することで雑音を抑圧する。
音声認識の前処理の段階において雑音を逐次的に推定し抑圧する技術もある。非特許文献2には、逐次EM(Expectation Maximization)アルゴリズムを適用して雑音の最尤推定値を逐次的に求める手法が開示されている。逐次EMアルゴリズムを用いて逐次的に雑音を推定する手法では、雑音の時間変動に対処しつつ高精度に雑音の推定及び抑圧を行なうことができる。
非特許文献3及び非特許文献4に開示された、カルマンフィルタを用いて雑音の推定値を逐次的に求める手法も一般的に用いられている。この手法では、一期先予測とフィルタリングとを交互に行なうことによって、雑音を逐次的に推定し抑圧する。
また、この問題を解決するための技術として、雑音を考慮した確率モデルを用いて適応的に音声認識を行なう技術がある。例えば後掲の特許文献1には、パーティクルフィルタと呼ばれる逐次推定法を用いて、雑音パラメータの推定と、隠れマルコフモデル(HMM:Hidden Markov Model)を構成する隠れ状態の時間的成長とを行ない、当該隠れマルコフモデルに基づく音声認識を行なう音声認識システムが開示されている。
特開2002−251198号公報 S.F.ボル:「スペクトルサブトラクションを用いた、音声内の音響ノイズの抑圧」、IEEE Trans. ASSP、Vol.27、No.2、113−120頁、1979年(S.F.Boll: "Suppression of Acoustic Noise in Speech Using Spectral Subtraction," IEEE Trans. ASSP, Vol. 27, No. 2, pp. 113-120, 1979) M.アフィフィ、O.シオアン:「ロバスト音声認識のための最適な忘却による逐次推定」、IEEE Trans. SAP、Vol.12、No.1、19−26頁、2004年(M.Afify, O.Siohan: "Sequential Estimation with Optimal Forgetting for Robust Speech Recognition," IEEE Trans. SAP, Vol. 12, No.1, pp. 19-26, 2004) 有本 卓:「カルマンフィルター」、産業図書 中野 道雄 監修、西山 清 著:「パソコンで解くカルマンフィルタ」、丸善
実環境において雑音の多くは非定常な雑音である。すなわち、雑音の音響的特徴は時間の経過に伴い変動する。非特許文献1に記載のスペクトルサブトラクション法のように、雑音が定常的なものであるという前提のもとで雑音の推定及び抑圧を行なう技術では、雑音の時間変動に対応できず、高精度に雑音を抑圧することができない。
非特許文献2に記載された逐次EMアルゴリズムを用いた手法は、尤度関数の局所最適値に値が収束するまで反復計算を行なう。そのため、雑音が変動する度に膨大な量の計算が必要となり、計算に時間を要する。よって、この手法により実時間で雑音を推定し抑圧するのは困難である。
非特許文献3及び非特許文献4に開示されたカルマンフィルタを用いる推定方法は、一期先予測とフィルタリングとを交互に行ない逐次推定を行なう。そのため、逐次EMアルゴリズムのような反復計算を必要とはしない。しかし、カルマンフィルタを用いた手法は、雑音の事後確率分布が単一正規分布であるものとして確率分布を推定する。真の確率分布が混合分布であった場合には、単一正規分布で近似される。そのため、精度が劣化する。
特許文献1に記載の音声認識システムのように、雑音を考慮したモデルを用いて音声認識を行なう技術では、雑音が重畳された音声と確率モデルとのマッチングが行なわれる。そのため、例えば音響モデル適応など、雑音のない音声に基づいて行なうべき前処理を実行できない。
それゆえに、本発明の目的は、非定常雑音下での音声認識性能を改善し、かつ雑音の抑圧を短時間で行なうことができる雑音抑圧装置を提供することである。
本発明の第1の局面に係る雑音抑圧装置は、目的音声と雑音とが重畳した雑音重畳音声について所定周期ごとにフレーム化された所定時間長のフレームよりそれぞれ抽出される特徴量を受けて、雑音重畳音声に関する所定の状態空間モデルと、目的音声に関する所定の音響モデルとを基に、複数のパーティクルを有するパーティクルフィルタを用いて、雑音の推定パラメータをフレームごとに逐次生成するための雑音推定手段と、雑音重畳音声の特徴量と雑音の推定パラメータ、及び音響モデルを用いて、フレームごとに目的音声の推定特徴量を算出するための目的音声推定手段とを含む。
好ましくは、雑音推定手段は、雑音重畳音声の特徴量を基に雑音の初期分布を推定し、初期分布にしたがった確率で、複数のパーティクルの各々における雑音の初期パラメータをそれぞれサンプリングするための初期パラメータ推定手段と、音響モデルと雑音重畳音声の特徴量とを基に、拡張カルマンフィルタを用いて、各パーティクルにおける先行する第1のフレームの雑音の推定パラメータをそれぞれ第1のフレームに後続する第2のフレームに対応するものに更新するための更新手段と、第2のフレームにおける複数のパーティクルの各々の重みを算出するための重み算出手段と、更新手段により更新された雑音の推定パラメータと重み算出手段により算出された重みとにより複数のパーティクルの各々について表現される雑音パラメータの確率分布に基づき、複数のパーティクルにおける第2のフレームの雑音の推定パラメータをそれぞれ再サンプリングするための再サンプリング手段とを含む。
より好ましくは、雑音推定手段はさらに、再サンプリング手段により再サンプリングされたパラメータを基に、複数のパーティクルの各々において、第1のフレームに対応する雑音の推定パラメータをそれぞれ、第2のフレームに対応するものに再更新するための再更新手段と、複数のパーティクルの各々において、再更新手段により再更新された雑音の推定パラメータと、再サンプリング手段により再サンプリングされた雑音の推定パラメータとの一方を、所定の判定基準にしたがい第2フレームの雑音の推定パラメータとして選択するための選択手段とを含む。
好ましくは、目的音声推定手段は、雑音重畳音声の特徴量と、雑音の推定パラメータと、音響モデルとを基に、フレームに対応する雑音重畳音声の確率モデルを合成するための雑音重畳音声モデル合成手段と、雑音重畳音声の特徴量、雑音の推定パラメータ、音響モデル、及び雑音重畳音声の確率モデルを基に、フレームごとに、目的音声の推定特徴量を算出するための推定特徴量算出手段とを含む。
雑音重畳音声モデル合成手段は、複数のパーティクルの各々に対して、雑音の推定パラメータと音響モデルとを基に、当該パーティクルにおける雑音重畳音声の確率モデルのパラメータを推定するための手段を含んでもよい。
推定特徴量算出手段は、フレームごとに、複数のパーティクルの各々の目的音声の推定パラメータを、雑音重畳音声の特徴量、音響モデル、雑音の推定パラメータ、及び雑音重畳音声の確率モデルを基に算出するための手段と、複数のパーティクルの各々における目的音声の推定パラメータを基に、当該フレームにおける目的音声の推定特徴量を算出するための手段とを含んでもよい。
本発明の第2の局面に係る音声認識システムは、本発明の第1の局面に係る上記したいずれかの雑音抑圧装置と、雑音抑圧装置により算出される目的音声の推定特徴量を受けて、目的音声に関する所定の音響モデルと、認識対象言語に関する所定の言語モデルとを用いて、目的音声に関する音声認識を行なうための認識手段とを含む。
以下、図面を参照しつつ、本発明の一実施の形態について説明する。なお、以下の説明に用いる図面では、同一の部品には同一の符号を付してある。それらの名称及び機能も同一である。したがって、それらについての説明は繰返さない。以下の説明のテキスト中で使用する記号「^」等は、本来はその直後の文字の直上に記載すべきものであるが、テキスト記法の制限により当該文字の直前に記載する。式中では、これらの記号等は本来の位置に記載してある。また以下の説明のテキスト中では、ベクトル又は行列については例えば「ベクトルX」、「行列ΣW」等のように直前に「ベクトル」、「行列」等を付した通常のテキストの形で記載するが、式中ではいずれも太字で記載する。
[構成]
図1に、本実施の形態に係る音声認識システム100全体の構成を示す。図1を参照して、この音声認識システム100は、音源102が発生する音を収集し、収集した音から認識に用いる特徴量を抽出するための前処理部104と、音声と音素との関係を表す確率モデル(音響モデル)を準備するための音響モデル部106と、認識対象の言語における単語の連接確率等を表す確率モデル(言語モデル)を準備するための言語モデル部108と、前処理部104から出力された特徴量に対応する単語等を、音響モデル部106の音響モデルと言語モデル部108の言語モデルとを用いて探索するための探索部110とを含む。
音源102は、認識されるべき音声(目的音声)を発話する話者116と、話者116の周囲の雑音源118とを含む。音源102が発生する音は、話者116の発話により発生する音声120と、雑音源118が発生する雑音122とが重畳した音である。本明細書では、話者116の発話により発生する雑音のない目的音声120を、「クリーン音声」と呼ぶ。クリーン音声120と雑音122とが重畳した音を「雑音重畳音声」と呼ぶ。
音響モデル部106は、クリーン音声120に対するHMMからなる音響モデルを準備し保持する。音響モデル部106は、予め用意された大量の学習データを記憶するための学習データ記憶部132と、学習データ記憶部132に記憶された学習データを用いてHMMに対する学習処理を行なうためのモデル学習部134と、モデル学習部134による学習で得られるクリーン音声HMM130を記憶するためのクリーン音声HMM記憶部136とを含む。
図2に、クリーン音声HMM130の概念を模式的に示す。図2を参照して、クリーン音声HMM130は、複数の定常信号源(状態)の間の遷移により時系列信号をモデル化した確率モデルである。このクリーン音声HMM130は、複数の状態142A,142B,142C,142D,…,142Mを含む。クリーン音声HMM130ではさらに、各状態に対してその状態から他の状態への遷移確率が定義される。例えば状態142Aに対して、自己すなわち状態142Aへの遷移144に関する遷移確率と、状態142Bへの遷移146に関する遷移確率とが定義されている。また、このクリーン音声HMM130の各状態においては、各遷移に伴う出力の出力確率が定義される。本実施の形態においては、出力確率はそれぞれ混合正規分布によって表現される。例えば状態142Aは単一正規分布148A,148B,…,148Kからなる混合正規分布を持つ。
再び図1を参照して、前処理部104は、音源102が発生する雑音重畳音声を計測し、得られる計測信号に所定の信号処理を施すことにより雑音重畳音声に関する所定の特徴量ベクトル(以下単に「特徴量」と呼ぶ。)124を抽出するための計測部112と、計測部112が抽出する特徴量124に含まれる雑音成分を、クリーン音声HMM130を用いて抑圧する雑音抑圧処理を行なうための雑音抑圧部114とを含む。
具体的には、計測部112は、雑音重畳音声を時間長数10ミリ秒のフレームごとに対数メルフィルタバンク分析し、得られる対数メル周波数スペクトルを要素とするベクトルを特徴量124として出力する。
雑音抑圧部114は、クリーン音声HMM130を用いて、雑音重畳音声の特徴量124からクリーン音声120の特徴量を推定する。そして推定により得られた特徴量126を探索部110に出力する。本明細書では、推定により得られる特徴量126によって表される音声を「推定クリーン音声」と呼ぶ。
図3に、雑音重畳音声の観測過程及び雑音の状態変化過程を表現する状態空間モデル160を示す。図3を参照して、時刻tのフレームにおける雑音重畳音声の特徴量124を特徴量ベクトルXtとする。特徴量ベクトルXtは、計測により得られる既知のパラメータである。特徴量ベクトルXtは、クリーン音声120からの成分であるベクトルStと、雑音122からの成分である雑音成分ベクトルNtとからなる。ベクトルSt及びNtは、いずれも未知のパラメータである。
上記したベクトルXt、St及びNtの次元数は同一である。なお、以下に説明する処理はこれらベクトルの各次元の要素についてそれぞれ行なわれるが、以下の説明では、簡単のために各次元の要素を特に区別して言及することはしない。
状態空間モデル160において、クリーン音声120の出力過程はHMMでモデル化できるものと仮定する。すなわち、時刻tにおけるクリーン音声120の成分であるベクトルStは、クリーン音声HMM130におけるある状態内のある確率分布にしたがって出力されるものと仮定する。
クリーン音声HMM130において、時刻tに対応する状態をstとし、状態st内の混合確率分布を構成するある単一正規分布をktとする。また、分布ktから出力されるパラメータのベクトルをベクトルSst,kt,tとする。以下、クリーン音声HMM130から出力されるパラメータベクトルSst,kt,tを、「(クリーン音声HMM130の)出力パラメータ」と呼ぶ。クリーン音声120の特徴量ベクトルStと、出力パラメータベクトルSst,kt,tとの間には誤差が存在する。この誤差もまたベクトルであり、このベクトルをベクトルVtとする。雑音重畳音声の特徴量ベクトルXtの観測過程は、クリーン音声HMM130の出力パラメータベクトルSst,kt,t、誤差ベクトルVt、及び雑音122の成分ベクトルNtを用いて、次の式(1)により表現される。
Figure 2006201287
誤差ベクトルVtは、次の式(2)のように単一正規分布にしたがうものとする。
Figure 2006201287
ただしこの式においてΣS,st,ktはクリーン音声HMM130における状態st、分布ktより得られるパラメータの共分散行列を表わし、記号「〜」は左辺の値が右辺に示される確率分布にしたがうことを示し、「N(μ,Σ)」は、平均値ベクトルμ、分散Σの正規分布を表す。
また状態空間モデル160において、雑音の成分ベクトルNtは、ランダムウォーク過程にしたがって変化するものと仮定する。すなわち、時刻t−1における雑音122の成分ベクトルNt-1と時刻tにおける雑音122の成分ベクトルNtとの間に誤差が生じるものと仮定する。この誤差をベクトルWtとする。すると、ベクトルNtの状態変化過程は、次の式(3)により表現される。
Figure 2006201287
誤差ベクトルWtは、次の式(4)のように単一正規分布にしたがうものとする。
Figure 2006201287
ただし、式(4)においてΣWは、誤差ベクトルWtの共分散行列を表す。
図1に示す雑音抑圧部114は、上記の式(1)〜式(4)により表現される状態空間モデル160を用いて、時刻tに対応するフレームごとに、クリーン音声の特徴量ベクトルを逐次推定する。
図4に、雑音抑圧部114の構成をブロック図で示す。図4を参照して、雑音抑圧部114は、雑音重畳音声の特徴量Xt(124)を受けて、クリーン音声HMM130を用いて状態空間モデル160における雑音122の確率分布(以下、「雑音確率分布」と呼ぶ。)を推定するための雑音確率分布推定部200と、雑音確率分布推定部200により推定された雑音確率分布とクリーン音声HMM130とから雑音重畳音声の確率モデルの平均ベクトルと共分散行列とを生成するためのパラメータ生成部202と、雑音確率分布、雑音重畳音声の平均ベクトル及び共分散行列、並びにクリーン音声HMM130を用いて、推定クリーン音声の特徴量126を算出するためのクリーン音声推定部204とを含む。
雑音確率分布推定部200は、雑音確率分布をフレームごとに逐次推定し、雑音確率分布を表すパラメータ206を出力する機能を持つ。ここに、雑音122の成分ベクトルN0,…,Ntからなる系列をベクトルN0;t={N0,…,Nt}とする。ベクトルN0;tの事後確率分布p(N0;t|X0;t)は、1次マルコフ連鎖を用いて、次の式(5)のように表される。
Figure 2006201287
式(5)のp(Nt|Nt-1)は、単一正規分布を用いて次の式(6)のようにモデル化される。
Figure 2006201287
また、式(5)のp(Xt|Nt)は、単一正規分布を用いて次の式(7)のようにモデル化される。
Figure 2006201287
したがって、状態空間モデル160を基に雑音ベクトルNtの確率分布を逐次推定する問題は、雑音重畳音声ベクトルXtが与えられた時の出力確率を最大にするような事後確率分布p(Nt|Nt-1)を推定する問題に帰着する。雑音確率分布推定部200は、雑音重畳音声ベクトルXtと状態空間モデル160とに基づき、この推定を行なう。
雑音確率分布推定部200は、雑音の成分ベクトルNtの確率分布を逐次的に推定する際に、パーティクルフィルタと呼ばれる手法を用いる。この推定法は、状態空間内に、局限された状態空間(パーティクル)を多数生成して、各パーティクルにおいてパラメータの確率分布を推定し、状態空間内におけるパラメータの確率分布を、各パーティクルにおいて推定された確率分布を用いて近似的に表現する手法である。この手法では、多数のパーティクルにおける初期的なパラメータを、ランダムなサンプリングにより、又は当該パラメータの初期分布からのサンプリングにより決定する。そして、以下の処理をフレームごとに行なう。すなわち、あるフレームに対応して各パーティクルにおいてパラメータが決定されると、各パーティクルのパラメータを当該フレームに後続するフレームに対応するものに更新し、その更新の尤度に応じて各パーティクルに対して重みを付与する。そして、更新後のパーティクルにおけるパラメータの確率分布にしたがい、当該後続のフレームに対応する各パーティクルのパラメータを再サンプリングする。再サンプリングされたパラメータを基に、当該後続のフレームに対応する各パーティクルのパラメータを決定する。以上の処理をフレームごとに行なうことにより、逐次的に各パーティクルにおけるパラメータを決定する。状態空間におけるパラメータは、パーティクルにおけるパラメータの重み付き和によって近似的に表現される。すなわち、パーティクルの数をJ、j番目のパーティクルにおける雑音のパラメータをベクトルNt (j)とし、当該パーティクルに対する重みをwt (j)とすると、式(5)に示す雑音の事後確率分布p(N0:t|X0:t)は、次の式(8)によって近似的に表現される。
Figure 2006201287
パラメータ生成部202は、具体的にはVTS(Vector Taylor Series)法と呼ばれるHMM合成法によって、パーティクルフィルタにより推定された雑音の分布を用い、複数のパーティクルにおける雑音重畳音声の特徴量ベクトルXtの平均ベクトル及び共分散行列(208)をそれぞれ算出する機能を持つ。
クリーン音声推定部204は、最小2乗誤差(Minimum Mean Square Error:MMSE)推定法で、フレームごとに、複数のパーティクルにおけるクリーン音声のパラメータをそれぞれ推定し、それら推定されたパラメータの重み付き和によって推定クリーン音声の特徴量126を算出する機能を持つ。クリーン音声推定部204はさらに、雑音確率分布推定部200に、次のフレームへの移行に関する要求210を発行する機能を持つ。
図5に、雑音確率分布推定部200の構成をブロック図で示す。図5を参照して、雑音確率分布推定部200は、雑音重畳音声の特徴量124とクリーン音声推定部204からの要求210とを受けて、処理対象となるフレームを選択し、当該フレームにおける雑音重畳音声の特徴量124をフレームに応じた出力先に出力するためのフレーム選択部220と、フレーム選択部220から最初の所定フレーム分の雑音重畳音声の特徴量124を受けて雑音の初期分布を推定し、各パーティクルにおける雑音の初期的なパラメータを決定するための雑音初期分布推定部222と、フレーム選択部220から時刻t(t≧1)のフレームにおける雑音重畳音声の特徴量124を受けて、逐次的に、パーティクルにおける雑音のパラメータと当該パーティクルに対する重みとを算出するための逐次計算部224とを含む。
雑音初期分布推定部222は、雑音の初期分布p(N0)が単一正規分布であるものとみなして雑音の初期分布を推定する。雑音の初期分布における平均ベクトルをμNとし、共分散行列を行列ΣNとすると、雑音の初期分布p(N0)は次の式(9)のように表される。
Figure 2006201287
雑音初期分布推定部222は、最初の所定フレーム分の区間の雑音重畳音声の特徴量ベクトルXtが雑音の成分のみからなるものとみなし、雑音の初期分布の平均ベクトルμN、及び共分散行列ΣNを推定する。例えば0≦t≦9の10フレーム分の区間がこの区間に該当する場合、雑音初期分布推定部222は、平均ベクトルμN及び共分散行列ΣNをそれぞれ、次の式(10)及び式(11)によって算出する。ただし、ベクトルの右肩に付した「T」は転置を表す。
Figure 2006201287
雑音初期分布推定部222はさらに、各パーティクルにおける雑音の初期パラメータベクトルN0 (j)を、初期分布p(N0)からのサンプリングによって生成する。すなわち、式(12)と式(13)とに示すサンプリングを、パーティクルj(1≦j≦J)ごとに行なう。
Figure 2006201287
逐次計算部224は、クリーン音声HMM130の出力パラメータ140をサンプリンするためのクリーン音声HMMサンプリング部226と、時刻tにおける雑音重畳音声の特徴量124を受け、各パーティクルにおける雑音のパラメータを更新するための更新部230と、更新後のパーティクルに対する重みをそれぞれ算出するための重み算出部232と、重み算出部232により算出された重みに基づき、パーティクルにおける雑音のパラメータを再サンプリングするための再サンプリング部234と、再サンプリングされたパーティクルにおける雑音のパラメータと時刻t−1における各パーティクルにおける雑音のパラメータとに基づき、各パーティクルにおける雑音のパラメータを決定し、推定雑音分布206を生成するための推定雑音分布生成部236とを含む。
更新部230は、状態空間モデル160(図3)を基に構成される拡張カルマンフィルタを用いて、時刻t−1に対応するパーティクルにおける雑音のパラメータを、時刻tに対応するものに更新する機能を持つ。拡張カルマンフィルタは、式(1)に示すように非線形項を含む状態空間モデルに対応したカルマンフィルタである。本実施の形態における拡張カルマンフィルタの分布更新式を、以下の式(14)〜式(19)に示す。なお、これらの数式において時刻t−1に対応するパラメータから予測される時刻tにおけるパラメータについては添え字として「t|t-1」を付してある。
Figure 2006201287
ただし、式(16)〜式(18)のベクトルS(j) st (j) ,kt (j) ,tは、j番目のパーティクルにおいてクリーン音声HMM130(図2参照)の出力パラメータベクトルSst,kt,tに相当するパラメータである。また前述した通り、行列ΣWは、時刻t−1から時刻tへの状態変化の際に雑音ベクトルNtに生じる誤差ベクトルWtの共分散行列を表す。
クリーン音声HMMサンプリング部226は、クリーン音声HMM130(図2参照)内の状態st (j)を、状態st-1 (j)からの遷移確率にしたがってサンプリングし、サンプリングされた状態st (j)内の混合分布から、単一正規分布kt (j)をその混合重みに基づいてサンプリングする。クリーン音声HMMサンプリング部226はさらに、サンプリングされた単一正規分布kt (j)から出力パラメータベクトルS(j) st (j) ,kt (j) ,tを確率分布にしたがってサンプリングして、更新部230に与える。
クリーン音声HMM130内の状態st-1 (j)から状態stへの遷移確率をベクトルaS,st-1 (j) ,stとすると、状態st (j)は、クリーン音声HMM130から次の式(20)に示すサンプリングによって得られる。
Figure 2006201287
状態st (j)の混合分布における単一正規分布ktの混合重みをPS,st (j) ,ktとすると、分布kt (j)は、状態st (j)から次の式(21)に示すサンプリングによって得られる。
Figure 2006201287
分布kt (j)の平均ベクトルをベクトルμS,st (j) ,kt (j)とし、分布kt (j)の共分散行列を行列ΣS,st (j) ,kt (j)とすると、j番目のパーティクルにおけるクリーン音声HMM130の出力パラメータベクトルS(j) st (j) ,kt (j) ,tは、分布kt (j)から、次の式(22)に示すサンプリングによって得られる。
Figure 2006201287
なお、フレーム選択部220はさらに、クリーン音声HMMサンプリング部226に対し、時刻tにおけるクリーン音声HMMの出力パラメータのサンプリングを要求する機能を持つ。
重み算出部232は、時刻tでの雑音重畳音声の特徴量ベクトルXtと、時刻tの各パーティクルにおけるクリーン音声130のパラメータベクトルS(j) st (j) ,kt (j) ,t、及び雑音のパラメータベクトルNt (j)と、時刻t−1のパーティクルに対する重みwt-1 (j)とを基に、次の式(23)及び式(24)に示す算出方法を用いて、時刻tのパーティクルに対する重みwt (j)を算出する機能を持つ。
Figure 2006201287
なお、重みwt (j)(1≦j≦J)は、Σj=1〜Jt (j)=1となるように正規化される。
再サンプリング部234は、パラメータが更新されたパーティクルにおける雑音のパラメータの確率分布にしたがい、時刻tに対応する各パーティクルにおける雑音のパラメータベクトルNt (j)を再サンプリングする機能を持つ。この際、再サンプリング部234は、微小な重みwt (j)しか与えられていないパーティクルにおける確率分布からは、パラメータの再サンプリングを行なわない。一方、大きな重みwt (j)が与えられているパーティクルにおける確率分布からは、パラメータを重みwt (j)の大きさに応じた回数の再サンプリングを行ない、得られたパラメータをそれぞれ、当該再サンプリングの回数と同数のパーティクルに割当てる。ただし再サンプリングの全回数及びパーティクルの全数は一定(J)である。このようにするのは、各パーティクルに割当てられる重みが、式(23)から分かるように観測された特徴量ベクトルXtの尤度に対応しているからである。
推定雑音分布生成部236は、Metropolis-Hastingsアルゴリズムにより、時刻tのフレームに対応するパーティクルの再生成を行なう機能を持つ。図6に、推定雑音分布生成部236の構成をブロック図で示す。図6を参照して、推定雑音分布生成部236は、再サンプリング部234による再サンプリングで得られた各パーティクルにおける雑音の確率分布を用いて状態空間モデル160における雑音の確率分布を表し、当該表した確率分布に基づき、時刻t−1に対応するパーティクルにおける雑音のパラメータを時刻tに対応するものへ、上記の式(14)〜式(19)に示す拡張カルマンフィルタを用いて再更新するための再更新部262と、再更新されたパーティクルに対する重み(これを以下「wt *(j)」とする。)を上記の式(23)及び式(24)に示す算出方法を用いて算出するための重み再計算部264と、再サンプリングされたパーティクルに対する重みwt (j)及び再更新されたパーティクルに対する重みwt *(j)から、再更新されたパラメータを許容するか否かの判定に用いる許容確率νを算出するための許容確率算出部266と、所定の乱数発生方法により0から1までの閉区間内の乱数uを発生させるための乱数発生部268と、許容確率νと乱数uとに基づき、時刻tに対応するパーティクルにおけるパラメータとして、再サンプリングされたパーティクルにおけるパラメータと、再更新されたパーティクルにおけるパラメータとの一方を選択するためのパラメータ選択部270とを含む。
許容確率算出部266は、重みwt (j)及び重みwt *(j)から次の式(25)にしたがって、許容確率νを算出する機能を持つ。
Figure 2006201287
パラメータ選択部270は、uが許容確率ν以下であれば、当該パーティクルにおける雑音のパラメータを再更新で得られた新たなパラメータに変更する機能を持つ。
[プログラム構造]
以下の説明からも明らかなように、図1に示す音声認識システム100の前処理部104、音響モデル部106、及び探索部110は、いずれもコンピュータハードウェアとその上で実行されるプログラムにより実現可能である。図7に、本実施の形態に係る前処理部104に含まれる雑音抑圧部114が行なう雑音抑圧処理を実現するコンピュータプログラムの制御構造をフローチャートで示す。
図7を参照して、雑音抑圧処理が開始されると、ステップ302において、雑音122の初期分布を推定する。すなわち、上記の式(10)及び式(11)に示す算出方法により、式(9)に示す初期分布p(N0)のパラメータ平均ベクトルμN及び共分散行列ΣNを算出する。さらに、初期分布p(N0)からパラメータベクトルN0 (j)(j=1,…,J)をサンプリングし、各パーティクルにおける雑音の初期的なパラメータに設定する。
ステップ304では、雑音抑圧の対象となるフレームを次のフレームに移行させる。ステップ306では、パーティクルフィルタを用いて、処理対象のフレームにおける雑音122の確率分布を推定する。すなわち、各パーティクルにおける雑音のパラメータベクトルNt (j)、及びベクトルNt (j)の共分散行列ΣNt (j)を推定し、さらに、各パーティクルにおけるクリーン音声HMM130の状態st (j)、並びに各パーティクルに対する重みw(j)を定める。このステップでの処理については、図8を用いて後述する。
ステップ308では、ステップ306でパーティクルごとに定めたクリーン音声HMM130の状態st (j)と、雑音のパラメータベクトルNt (j)と、共分散行列ΣNt (j)とを用いて、各パーティクルにおける雑音重畳音声の特徴量ベクトルXt(124)の確率分布を推定する。さらに、クリーン音声HMM130を構成する分布k(1≦k≦K)ごとに、パーティクルにおける雑音重畳音声の確率モデルの平均ベクトルμXkt (j) ,tと、共分散行列ΣXk,t (j)とを算出する。
ステップ310では、MMSE推定法により、時刻tのフレームにおけるクリーン音声の特徴量を推定する。すなわちまず、ステップ306及びステップ308の処理で得られたパラメータを用いて、MMSE推定法によって、各パーティクルにおけるクリーン音声120のMMSE推定値ベクトル^St (j)を算出する。MMSE推定値ベクトル^St (j)は、次の数式により得られる。
Figure 2006201287
この式において、P(k|Xt,(j))は、j番目のパーティクルにおける、クリーン音声HMM130内の分布kに対する混合重みを表す。混合重みP(k|Xt,(j))は、次の数式により算出される。
Figure 2006201287
続いて、MMSE推定値ベクトル^St (j)と重みwt (j)とを用いて、時刻tにおけるクリーン音声の推定特徴量ベクトル^Stを、次の数式に示す重み付き和によって算出し、推定クリーン音声の特徴量126(図1参照)として出力する。
Figure 2006201287
ステップ312では、終了判定を行なう。すなわち時刻tのフレームが最終のフレームであれば雑音抑圧処理を終了する。さもなければステップ304に戻る。
図8に、ステップ306(図7参照)において行なわれる雑音確率分布の推定処理を実現するプログラムの制御構造をフローチャートで示す。図8を参照して、雑音確率分布の推定処理が開始されると、ステップ322において、式(14)〜式(19)により示す拡張カルマンフィルタを用いて、時刻t−1のパーティクルにおける雑音の確率分布から、時刻tのパーティクルにおける雑音の確率分布を推定する。
ステップ324では、時刻tの各パーティクルに対する重みwt (j)を、式(23)及び式(24)によって算出し、正規化する。ステップ326では、各パーティクルに与えられた重みwt (j)に基づき、各パーティクルからの再サンプリングの回数を決定し、当該パーティクルにおける雑音の確率分布に基づいてパラメータを再サンプリングする。ステップ328では、Metropolis-Hastingsアルゴリズムを用いて時刻tにおけるパーティクルを再生成する。
図9にステップ328(図8参照)における処理の詳細をフローチャートで示す。図9を参照して、ステップ328における処理が開始されると、ステップ342において、ステップ326(図8参照)での再サンプリングで得られたパーティクルにおけるパラメータを用いて、雑音の確率分布の再更新を行なう。すなわち、時刻tのフレームのパーティクルを新たに準備し、ステップ322(図8参照)での処理と同様の処理により、時刻t−1のフレームのパーティクルに対応するパラメータから、時刻tのフレームのパーティクルに対応するパラメータへの再更新を行ない、準備したパーティクルのパラメータに設定する。ステップ344では、ステップ342で準備したパーティクルに対する重みwt *(j)を、図8に示すステップ324の処理と同様の処理で算出し正規化する。
ステップ346では、ステップ324の処理で算出された重みwt (j)と、ステップ344で算出された重みwt *(j)との比較により、ステップ342で準備されたパーティクルの許容確率νを定める。ステップ348では、区間[0,1]の値からなる一様な集合U[0,1]の中から任意の値を選択することにより乱数uを発生する。ステップ350では、ステップ348で発生した乱数uの値と、ステップ346で定めた許容確率νの値とを比較する。uが許容確率の値以下であれば、ステップ352へ進む。さもなければステップ354に進む。ステップ352では、ステップ342で準備されたパーティクルを許容する。すなわち、ステップ326での再サンプリングで得られたパラメータを、準備されたパーティクルのパラメータで置換して処理を終了する。ステップ354では、ステップ342で準備されたパーティクルを棄却する。すなわち、準備されたパーティクル及びそのパラメータを破棄し、処理を終了する。
[動作]
本実施の形態に係る音声認識システム100は以下のように動作する。まず、図5に示す雑音確率分布推定部200による雑音の初期分布の推定動作を説明する。図1に示す計測部112が、音源102から雑音重畳音声(120及び122)を受け、特徴量Xt(124)を抽出する。抽出された特徴量Xt(124)は、雑音抑圧部114の図4に示す雑音確率分布推定部200に与えられる。図5を参照して、雑音確率分布推定部200のフレーム選択部220は、特徴量Xt(124)のうち最初の10フレーム分を、雑音初期分布推定部222に与える。雑音初期分布推定部222は、上記の式(9)〜式(11)に示す処理により雑音の初期分布p(N0)を推定する。さらに、雑音の初期分布p(N0)から、上記の式(12)及び式(13)に示すサンプリングをJ回行なう。このサンプリングによって、各パーティクルにおける雑音の初期的なパラメータベクトルN0 (j)及び共分散行列ΣN0 (j)が決定される。雑音確率分布推定部200は、これらのパラメータを、時刻t=0における推定雑音分布206のパラメータとして出力する。
次に、雑音確率分布推定部200による、時刻t(t≧1)のフレームにおける推定雑音分布206の推定動作を説明する。図5を参照して、次のフレームの処理の開始要求210に応答して、フレーム選択部220は、雑音重畳音声の特徴量Xt(124)を更新部230に与えるとともに、クリーン音声HMMサンプリング部226に、時刻tにおけるクリーン音声HMMの出力パラメータのサンプリングを要求する。更新部230は、これに応答して、時刻t−1の各パーティクルにおける推定確率分布のパラメータ206を取得する。
クリーン音声HMMサンプリング部226は、クリーン音声HMM130から、出力パラメータベクトルS(j) st (j) ,kt (j) ,tのサンプリングを行なう。図10に、出力パラメータベクトルS(j) st (j) ,kt (j) ,tのサンプリングの概要を模式的に示す。例えば、j番目のパーティクルにおいて、時刻t−1に対応する状態st-1 (j)から、遷移確率にしたがって状態遷移を行なうことにより時刻tにおけるj番目のパーティクルに関する状態400を抽出する。次にクリーン音声HMMサンプリング部226は、状態st (j)の混合正規分布の中から、混合重みにしたがった確率で単一正規分布kt (j)(402)をサンプリングする。クリーン音声HMMサンプリング部226はさらに、分布kt (j)(402)により表される出力確率の分布にしたがい、出力パラメータベクトルS(j) st (j) ,kt (j) ,tをサンプリングする。クリーン音声HMMサンプリング部226は、総数Jの各パーティクルにおける出力パラメータベクトルS(j) st (j) ,kt (j) ,tをそれぞれ、以上の手順でサンプリングし、図5に示す更新部230に与える。
図11に、逐次計算部224によるパラメータの更新、及び再サンプリングの概要を模式的に示す。図11においては、雑音のパラメータが左右方向に分布し、時間が上から下に進行する。また、図11においては、パーティクルを、白抜きの丸印、及び黒塗りの丸印によって模式的に示す。例えば、白抜きの丸印で示すパーティクルが重みwt (j)の値の微小なパーティクルであり、黒塗りの丸印で示すパーティクルが重みwt (j)の値の大きなパーティクルであるものとする。
図11を参照して、時刻t−1に対応するパーティクルにより状態空間420が近似的に表現されているものとする。更新部230は、式(14)〜式(19)により示す拡張カルマンフィルタを用いて、状態空間420内の各パーティクルにおける雑音のパラメータベクトル^Nt-1 (j)を、時刻tに対応する推定雑音分布のパラメータベクトル^Nt (j)に更新する。これにより、状態空間420内の各パーティクルは更新され、パラメータが更新されたパーティクルにより時刻tに対応する状態空間430が表現される。
続いて重み算出部232は、状態空間430内の各パーティクルに対する重みwt (j)を、式(23)及び式(24)によって算出する。再サンプリング部234は、重みwt (j)に基づき、パーティクルにおける雑音のパラメータを再サンプリングする。この際、再サンプリング部234はまず、状態空間430内の各パーティクルからの再サンプリングの回数を、wt (j)に応じてパーティクルごとに設定する。白抜きの丸印で表される重みの微小なパーティクルからのサンプリングの回数を0に設定する。また、黒塗りの丸印で表される重みの大きなパーティクルからのサンプリングの回数を、重みの大きさに応じて1〜3に設定する。続いて、状態空間430内のパーティクルにおける雑音の確率分布に基づき、設定された回数ずつ、雑音のパラメータの再サンプリングを行なう。このようにして、時刻tに対応する新たな状態空間440を表現するパーティクルがそれぞれ形成される。
再サンプリング部234によるこのような再サンプリングが繰返し行なわれると、あるフレームに対応するパーティクルの多くにおける雑音のパラメータが、それ以前の時点のフレームに対応する少数のパーティクルにおける雑音の確率分布からサンプリングされたものとなるおそれがある。そこで、推定雑音分布生成部236は、Metropolis-Hastingsアルゴリズムを用いて、新たに時刻tに対応するパーティクルにおけるパラメータを生成することにより、このような事態を防止する。図6に示す再更新部262は、状態空間440における推定雑音分布にしたがい、時刻t−1に対応する状態空間420内のパーティクルにおける雑音のパラメータを再更新する。重み再計算部264は、再更新されたパーティクルに対する重みwt *(j)を算出する。許容確率算出部266は、再更新されたパーティクルに対する重みwt *(j)と、再サンプリングされたパーティクルに対する重みwt (j)とを基に、許容確率νを算出する。パラメータ選択部270は、許容確率νと、乱数発生部268が発生した[0,1]の区間の乱数uとを比較し、乱数uが許容確率ν以下であれば、再サンプリングされたパーティクルにおけるパラメータを、再更新されたパーティクルにおけるパラメータで置換する。さもなければ、再更新されたパーティクルにおけるパラメータを破棄する。
以上のような動作をフレームごとに繰返すことにより、各フレームに対応して、各パーティクルにおける推定雑音分布206のパラメータベクトルNt (j)及び共分散行列ΣNt (j)が推定される。雑音確率分布推定部200は、各パーティクルにおける推定雑音分布206のパラメータベクトルNt (j)及び共分散行列ΣNt (j)と、各パーティクルに対する重みwt (j)と、当該パーティクルにおけるクリーン音声HMM130の出力パラメータ及びそのサンプリング元である状態st (j)と、雑音重畳音声の特徴量ベクトルXtとを、フレームごとに、図4に示すパラメータ生成部202に与える。
図4を参照して、パラメータ生成部202は、VTS法によって、時刻tに対応する各パーティクルにおける雑音重畳音声の確率モデルの平均ベクトル及び共分散行列(208)を生成する。これにより、各パーティクルにおいて雑音の確率分布と、雑音重畳音声の確率分布とが推定されたことになる。クリーン音声推定部204は、MMSE推定法により、時刻tのフレームに対応する各パーティクルにおいて、クリーン音声のMMSE推定値ベクトル^St (j)を算出する。さらに、MMSE推定値ベクトル^St (j)と重みwt (j)とを用いて、時刻tにおけるクリーン音声の推定特徴量ベクトル^Stを算出し、図1に示す探索部110に出力する。
図1に示す探索部110は、クリーン音声の推定特徴量ベクトル^Stを用いて、クリーン音声HMM130と、言語モデル部108に保持された言語モデルとを基に、適合する目的言語の単語等を探索し、その結果を認識出力128として出力する。
[実験]
本実施の形態に係る音声認識システム100による効果を確認するために、雑音重畳音声からの雑音の推定実験と、雑音重畳音声の認識実験とを行なった。以下、実験方法及び結果について説明する。
本実験においては、日本語の雑音下音声認識評価用共通データベースに収録されたクリーン音声1001文のデータに雑音を人工的に加算して、雑音重畳音声を生成した。加算する雑音には、それぞれ実環境で収録された工場雑音と道路工事雑音とを使用した。本実験では、雑音を加算していないクリーン音声と、クリーン音声に20dBから0dBまでのSNR(Signal-to-Noise Ratio)で雑音を加算した雑音重畳音声とを用意し、試料とした。なお、クリーン音声の各文には、CMS(Cepstrum Mean Subtraction)処理を施した。その他、音声認識の際の音響分析条件は、次の表1に示す通りであった。
Figure 2006201287
雑音認識実験では、比較のために、上記の各試料から、本実施の形態に係る雑音抑圧処理の方法を含む次の5種の処理方法で、探索に用いる特徴量を生成した。すなわち、(A)雑音抑圧処理を行なわない雑音重畳音声の特徴量(ベースライン)、(B)ETSI(European Telecommunications Standards Institute)により勧告されているETSI Advanced front−end(ES 202)による雑音抑圧処理を施した特徴量、(C)雑音の確率分布を更新せずに実行される従来のMMSE推定(従来型MMSE)により得られる推定特徴量、(D)パーティクルフィルタを用いた本実施の形態に係る雑音抑圧処理により得られる推定特徴量、及び(E)雑音重畳音声への加算前の雑音(真の雑音)を用いて実行されるMMSE推定により得られる推定特徴量である。
パーティクルフィルタを用いた雑音抑圧処理において、クリーン音声HMMには、1状態512混合モデル、4状態128混合モデル、8状態64混合モデル、及び16状態32混合モデルの4種を用いた。
図12及び図13にそれぞれ、工場雑音及び道路工事雑音の各フレームにおける、メル対数フィルタバンクの1番目のフィルタによる出力値と、当該出力値の移動平均と、雑音抑圧処理において当該出力値に対応する推定結果とを示す。これらグラフの横軸は、雑音のフレーム番号を表す。グラフ上、左から右に進むにしたがい時間が推移する。図12及び図13を参照して、本実施の形態に係る雑音抑圧処理における雑音の推定結果は、工場雑音及び道路工事雑音のいずれにおいても、雑音の移動平均に近い時間軌跡となっている。よって、本実施の形態に係る雑音抑圧処理において、時間変動が推定できていることが分かる。
また、この雑音推定実験における処理に、クロック周波数3.2ギガヘルツ、32ビットの市販のCPU(Central Processing Unit)を用いた場合、処理に要した時間は、雑音重畳音声における実時間の0.8倍であった。すなわち、雑音推定処理を実時間で処理できることが明らかとなった。
表2に、工場雑音を加算して得られた雑音重畳音声に対する認識実験で得られた単語認識精度を、上記(A)〜(E)の処理方法別に示す。また、表3に、道路工事雑音を加算して得られた雑音重畳音声に対する認識実験で得られた単語認識精度を、上記(A)〜(E)の処理方法別に示す。なお、これらの表の「(D)パーティクルフィルタ」の項目においては、雑音抑圧処理に用いたクリーン音声HMMの状態数ごとに単語認識精度を示す。
Figure 2006201287
Figure 2006201287
表2及び表3を参照して、(D)パーティクルフィルタによる雑音抑圧処理を行なうことで、良好な単語認識精度が得られることが分かる。特に、SNRの小さな雑音重畳音声すなわち雑音成分の割合が大きな雑音重畳音声においては、(D)パーティクルフィルタによる雑音抑圧処理により、高い単語認識精度が得られることが分かる。
以上の実験結果から、本実施の形態の雑音抑圧処理により、雑音下での音声認識性能が改善され、かつ実時間処理が可能になることが明らかとなった。
[変形例等]
なお、本実施の形態においては、パーティクルフィルタによる処理を雑音抑圧に用いている。そのため、雑音抑圧後の推定クリーン音声のパラメータを用いて探索を行なう前に、さらに音響モデル適応を行なうこともできる。音響モデル適応により、推定クリーン音声に適合した音響モデルを探索に用いることができるようになる。したがって、認識精度が向上することが期待される。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内でのすべての変更を含む。
本発明の一実施の形態に係る音声認識システム100の構成を示す概略図である。 クリーン音声HMM130の概念を示す概略図である。 雑音重畳音声の状態空間モデル160の概念を示す概略図である。 雑音抑圧部114の構成を示すブロック図である。 雑音確率分布推定部200の構成を示すブロック図である。 推定雑音分布生成部236の構成を示すブロック図である。 雑音抑圧処理の制御構造を示すフローチャートである。 雑音確率分布推定処理の制御構造を示すフローチャートである。 Metropolis-Hastingsアルゴリズムによるサンプリング処理の制御構造を示すフローチャートである。 クリーン音声HMM130からパラメータをサンプリングする動作の概要を示す図である。 パーティクルフィルタによる処理の概要を示す図である。 工場雑音のメルフィルタバンク出力値と当該雑音の推定値とのフレームごとの変化を示す図である。 道路工事雑音のメルフィルタバンク出力値と当該雑音の推定値とのフレームごとの変化を示す図である。
符号の説明
100 音声認識システム
102 音源
104 前処理部
106 音響モデル部
108 言語モデル部
110 探索部
112 計測部
114 雑音抑圧部
116 話者
118 雑音源
120 クリーン音声
122 雑音
124 特徴量
130 クリーン音声HMM
132 学習データ
134 モデル学習部
136 クリーン音声HMM記憶部
160 状態空間モデル
200 雑音確率分布推定部
202 パラメータ生成部
204 クリーン音声推定部
220 フレーム選択部
222 雑音初期分布推定部
224 逐次計算部
226 クリーン音声HMMサンプリング部
230 更新部
232 重み算出部
234 再サンプリング部
236 推定雑音分布生成部
262 再更新部
264 重み再計算部
266 許容確率算出部
268 乱数発生部
270 パラメータ選択部

Claims (7)

  1. 目的音声と雑音とが重畳した雑音重畳音声について所定周期ごとにフレーム化された所定時間長のフレームよりそれぞれ抽出される特徴量を受けて、前記雑音重畳音声に関する所定の状態空間モデルと、前記目的音声に関する所定の音響モデルとを基に、複数のパーティクルを有するパーティクルフィルタを用いて、前記雑音の推定パラメータを前記フレームごとに逐次生成するための雑音推定手段と、
    前記雑音重畳音声の特徴量と、前記雑音の推定パラメータと、前記音響モデルとを用いて、前記フレームごとに前記目的音声の推定特徴量を算出するための目的音声推定手段とを含む、雑音抑圧装置。
  2. 前記雑音推定手段は、
    前記雑音重畳音声の特徴量を基に前記雑音の初期分布を推定し、当該初期分布にしたがった確率で、前記複数のパーティクルの各々における雑音の初期パラメータをそれぞれサンプリングするための初期パラメータ推定手段と、
    前記音響モデルと前記雑音重畳音声の特徴量とを基に、拡張カルマンフィルタを用いて、各パーティクルにおける先行する第1のフレームの雑音の推定パラメータをそれぞれ前記第1のフレームに後続する第2のフレームに対応するものに更新するための更新手段と、
    前記第2のフレームにおける前記複数のパーティクルの各々の重みを算出するための重み算出手段と、
    前記更新手段により更新された雑音の推定パラメータと前記重み算出手段により算出された重みとにより前記複数のパーティクルの各々について表現される雑音パラメータの確率分布に基づき、前記複数のパーティクルにおける前記第2のフレームの雑音の推定パラメータをそれぞれ再サンプリングするための再サンプリング手段とを含む、請求項1に記載の雑音抑圧装置。
  3. 前記雑音推定手段はさらに、
    前記再サンプリング手段により再サンプリングされたパラメータを基に、前記複数のパーティクルの各々において、前記第1のフレームに対応する前記雑音の推定パラメータをそれぞれ、前記第2のフレームに対応するものに再更新するための再更新手段と、
    前記複数のパーティクルの各々において、前記再更新手段により再更新された前記雑音の推定パラメータと、前記再サンプリング手段により再サンプリングされた前記雑音の推定パラメータとの一方を、所定の判定基準にしたがい前記第2のフレームの雑音の推定パラメータとして選択するための選択手段とを含む、請求項2に記載の雑音抑圧装置。
  4. 前記目的音声推定手段は、
    前記雑音重畳音声の特徴量と、前記雑音の推定パラメータと、前記音響モデルとを基に、前記フレームに対応する前記雑音重畳音声の確率モデルを合成するための雑音重畳音声モデル合成手段と、
    前記雑音重畳音声の特徴量、前記雑音の推定パラメータ、前記音響モデル、及び前記雑音重畳音声の確率モデルを基に、前記フレームごとに、前記目的音声の推定特徴量を算出するための推定特徴量算出手段とを含む、請求項1に記載の雑音抑圧装置。
  5. 前記雑音重畳音声モデル合成手段は、前記複数のパーティクルの各々に対して、前記雑音の推定パラメータと、前記音響モデルとを基に、当該パーティクルにおける雑音重畳音声の確率モデルのパラメータを推定するためのパラメータ推定手段を含む、請求項4に記載の雑音抑圧装置。
  6. 前記推定特徴量算出手段は、
    前記フレームごとに、前記複数のパーティクルの各々の前記目的音声の推定パラメータを、前記雑音重畳音声の特徴量、前記音響モデル、前記雑音の推定パラメータ、及び前記雑音重畳音声の確率モデルを基に算出するための手段と、
    前記複数のパーティクルの各々における前記目的音声の推定パラメータを基に、当該フレームにおける目的音声の推定特徴量を算出するための手段とを含む、請求項4又は請求項5に記載の雑音抑圧装置。
  7. 請求項1〜請求項6のいずれかに記載の雑音抑圧装置と、
    前記雑音抑圧装置により算出される前記目的音声の推定特徴量を受けて、前記目的音声に関する前記所定の音響モデルと、認識対象言語に関する所定の言語モデルとを用いて、前記目的音声に関する音声認識を行なうための音声認識手段とを含む、音声認識システム。
JP2005010639A 2005-01-18 2005-01-18 雑音抑圧装置及び音声認識システム Active JP4512848B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005010639A JP4512848B2 (ja) 2005-01-18 2005-01-18 雑音抑圧装置及び音声認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005010639A JP4512848B2 (ja) 2005-01-18 2005-01-18 雑音抑圧装置及び音声認識システム

Publications (3)

Publication Number Publication Date
JP2006201287A true JP2006201287A (ja) 2006-08-03
JP2006201287A5 JP2006201287A5 (ja) 2006-11-09
JP4512848B2 JP4512848B2 (ja) 2010-07-28

Family

ID=36959373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005010639A Active JP4512848B2 (ja) 2005-01-18 2005-01-18 雑音抑圧装置及び音声認識システム

Country Status (1)

Country Link
JP (1) JP4512848B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041499A (ja) * 2005-07-01 2007-02-15 Advanced Telecommunication Research Institute International 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP2008058876A (ja) * 2006-09-04 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 音声信号区間推定方法、及びその装置とそのプログラムとその記憶媒体
JP2008145923A (ja) * 2006-12-13 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> 音声信号区間推定装置、その方法、そのプログラム及び記録媒体
KR100853171B1 (ko) 2007-02-28 2008-08-20 포항공과대학교 산학협력단 구속 순차 em 알고리즘을 이용한 깨끗한 음성 복원을위한 음성 강조 방법
JP2008292858A (ja) * 2007-05-25 2008-12-04 Advanced Telecommunication Research Institute International 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP2009063747A (ja) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> 雑音抑圧装置、雑音抑圧方法、雑音抑圧プログラム、および記録媒体
WO2009038013A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 雑音除去システム、雑音除去方法および雑音除去プログラム
JP2010078650A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 音声認識装置及びその方法
WO2020238681A1 (zh) * 2019-05-31 2020-12-03 京东数字科技控股有限公司 音频处理方法、装置和人机交互系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251198A (ja) * 2000-12-19 2002-09-06 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声認識システム
JP2003216180A (ja) * 2002-01-25 2003-07-30 Matsushita Electric Ind Co Ltd 音声認識装置およびその方法
JP2004347761A (ja) * 2003-05-21 2004-12-09 Internatl Business Mach Corp <Ibm> 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体
JP2005084653A (ja) * 2003-09-11 2005-03-31 National Institute Of Advanced Industrial & Technology 背景雑音歪みの補正処理方法及びそれを用いた音声認識システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251198A (ja) * 2000-12-19 2002-09-06 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声認識システム
JP2003216180A (ja) * 2002-01-25 2003-07-30 Matsushita Electric Ind Co Ltd 音声認識装置およびその方法
JP2004347761A (ja) * 2003-05-21 2004-12-09 Internatl Business Mach Corp <Ibm> 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体
JP2005084653A (ja) * 2003-09-11 2005-03-31 National Institute Of Advanced Industrial & Technology 背景雑音歪みの補正処理方法及びそれを用いた音声認識システム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041499A (ja) * 2005-07-01 2007-02-15 Advanced Telecommunication Research Institute International 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP4617497B2 (ja) * 2005-07-01 2011-01-26 株式会社国際電気通信基礎技術研究所 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP2008058876A (ja) * 2006-09-04 2008-03-13 Nippon Telegr & Teleph Corp <Ntt> 音声信号区間推定方法、及びその装置とそのプログラムとその記憶媒体
JP2008145923A (ja) * 2006-12-13 2008-06-26 Nippon Telegr & Teleph Corp <Ntt> 音声信号区間推定装置、その方法、そのプログラム及び記録媒体
JP4673828B2 (ja) * 2006-12-13 2011-04-20 日本電信電話株式会社 音声信号区間推定装置、その方法、そのプログラム及び記録媒体
KR100853171B1 (ko) 2007-02-28 2008-08-20 포항공과대학교 산학협력단 구속 순차 em 알고리즘을 이용한 깨끗한 음성 복원을위한 음성 강조 방법
JP2008292858A (ja) * 2007-05-25 2008-12-04 Advanced Telecommunication Research Institute International 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP2009063747A (ja) * 2007-09-05 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> 雑音抑圧装置、雑音抑圧方法、雑音抑圧プログラム、および記録媒体
WO2009038013A1 (ja) * 2007-09-21 2009-03-26 Nec Corporation 雑音除去システム、雑音除去方法および雑音除去プログラム
JP5344251B2 (ja) * 2007-09-21 2013-11-20 日本電気株式会社 雑音除去システム、雑音除去方法および雑音除去プログラム
JP2010078650A (ja) * 2008-09-24 2010-04-08 Toshiba Corp 音声認識装置及びその方法
WO2020238681A1 (zh) * 2019-05-31 2020-12-03 京东数字科技控股有限公司 音频处理方法、装置和人机交互系统

Also Published As

Publication number Publication date
JP4512848B2 (ja) 2010-07-28

Similar Documents

Publication Publication Date Title
JP4586577B2 (ja) 外乱成分抑圧装置、コンピュータプログラム、及び音声認識システム
Tu et al. Speech enhancement based on teacher–student deep learning using improved speech presence probability for noise-robust speech recognition
JP4512848B2 (ja) 雑音抑圧装置及び音声認識システム
EP1515305B1 (en) Noise adaption for speech recognition
Deng et al. Recursive estimation of nonstationary noise using iterative stochastic approximation for robust speech recognition
JP6243858B2 (ja) 音声モデル学習方法、雑音抑圧方法、音声モデル学習装置、雑音抑圧装置、音声モデル学習プログラム及び雑音抑圧プログラム
Arrowood et al. Using observation uncertainty in HMM decoding.
JP2004264816A (ja) 再帰的構成における反復ノイズ推定法
JP2019144402A (ja) 音声変換学習装置、音声変換装置、方法、及びプログラム
JP4617497B2 (ja) 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
EP1457968B1 (en) Noise adaptation system of speech model, noise adaptation method, and noise adaptation program for speech recognition
US20020059065A1 (en) Speech processing system
JP2009139894A (ja) 雑音抑圧装置、音声認識装置、雑音抑圧方法、及びプログラム
US20020026309A1 (en) Speech processing system
JP2010078650A (ja) 音声認識装置及びその方法
JP4705414B2 (ja) 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体
JP5070591B2 (ja) 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
JP4964194B2 (ja) 音声認識モデル作成装置とその方法、音声認識装置とその方法、プログラムとその記録媒体
JP2008298844A (ja) 雑音抑圧装置、コンピュータプログラム、及び音声認識システム
Stouten et al. Joint removal of additive and convolutional noise with model-based feature enhancement
JP2008064849A (ja) 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体
WO2010109725A1 (ja) 音声処理装置、音声処理方法、及び、音声処理プログラム
JP6564744B2 (ja) 信号解析装置、方法、及びプログラム
BO Noise-Robust Speech Recognition Using Deep Neural Network
Adiga et al. An alternating ℓ p—ℓ 2 projections algorithm (ALPA) for speech modeling using sparsity constraints

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100330

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100419

R150 Certificate of patent or registration of utility model

Ref document number: 4512848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250