JP4691079B2 - 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体 - Google Patents

音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体 Download PDF

Info

Publication number
JP4691079B2
JP4691079B2 JP2007229884A JP2007229884A JP4691079B2 JP 4691079 B2 JP4691079 B2 JP 4691079B2 JP 2007229884 A JP2007229884 A JP 2007229884A JP 2007229884 A JP2007229884 A JP 2007229884A JP 4691079 B2 JP4691079 B2 JP 4691079B2
Authority
JP
Japan
Prior art keywords
probability
speech
frame
speech state
state probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007229884A
Other languages
English (en)
Other versions
JP2009063700A (ja
Inventor
雅清 藤本
健太郎 石塚
智広 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007229884A priority Critical patent/JP4691079B2/ja
Publication of JP2009063700A publication Critical patent/JP2009063700A/ja
Application granted granted Critical
Publication of JP4691079B2 publication Critical patent/JP4691079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、音響信号の中で音声信号が存在する区間を推定するための音声信号区間推定方法に関する。
音声信号の符号化、雑音信号の抑圧、残響除去、自動音声認識などの音声信号処理技術の多くにおいては、処理対象とする音声信号以外の信号(雑音など)が含まれる音響信号から、処理対象とする音声信号が存在する区間を推定する必要がある。この音声信号区間推定の精度がその後の処理の効果に大きく影響する。音声信号区間推定技術は、あらゆる音声信号処理技術の基礎となる技術である。
非特許文献1は、入力となる音響信号の周波数スペクトル、信号の全帯域のエネルギーおよび帯域分割後の各帯域のエネルギー、信号波形の零交差数、およびそれらの時間微分などの特徴量を利用した音声信号区間推定方法を開示している。これらの音響特徴量を用いた音声信号区間推定方法では、入力される音響信号を25ms程度のある一定時間長に分割し、分割された各信号区間で上述の音響特徴量を算出し、その値が別途定めた閾値を超える場合には音声区間、そうでなければ非音声区間として判定する。
非特許文献2は、入力となる音響信号にWiener filter理論に基づく雑音除去を適用し、雑音除去後の信号の全帯域のエネルギーおよび帯域分割後の各帯域のエネルギー、周波数スペクトルの分散値などの特徴量を利用した音声信号区間推定方法を開示している。これらの音響特徴量を用いた音声信号区間推定方法では、入力される音響信号を25ms程度のある一定時間長に分割し、分割された各信号区間で上述の音響特徴量を算出し、その値が別途定めた閾値を超える場合には音声区間、そうでなければ非音声区間として判定する。
非特許文献3は、信号の状態遷移を定義した音声信号区間推定方法を開示している。この方法では、入力となる音響信号が時間経過とともに音声状態、および非音声状態を遷移する信号であると見なす。音声状態、および非音声状態の状態遷移は、入力信号が音声状態に属する確率、非音声状態に属する確率を基準として決定され、音声状態に属する信号のみを出力する。また、音声状態、非音声状態の構成は適応的に行われる。
非特許文献4は、音響信号波形の基本周波数を推定し、推定された基本周波数に基づき音響信号の周期性成分と非周期性成分を分離し、分離された周期性成分と非周期性成分の比を計算し、その比に基づいて目的信号の存在区間を検出する音声信号区間推定方法を開示している。
Benyassine, A., Shlomot, E., and Su, H-Y. "ITU-T recommendation G.729 Annex B:A silence compression scheme for use with G.729 optimized for V.70 digital simultaneous voice and data applications,"IEEE Communications Magazine, pp.64-73, September 1997. ETSI ES 202 050 v.1.1.4,"Speech processing, Transmission and Quality aspects(STQ), Distributed Speech Recognition; Advanced Front-end feature extraction algorithm; Compression algorithms,"November 2005. 藤本 雅清,石塚健太郎,加藤 比呂子,"音声と雑音両方の状態遷移過程を有する雑音下音声区間検出,"電子情報通信学会,音声研究会,SP2006-87, pp.13-18, December 2006. Kentaro Ishizuka and Tomohiro Nakatani,"Study of noise robust voice activity detection based on periodic component to aperiodic component ratio,"Proceedings of ISCA Tutorial and Research Workshop on Statistical And Perceptual Audition(SAPA2006), pp.65-70, 2006.
上記非特許文献1および上記非特許文献2に記載の技術は、入力音響信号に含まれる雑音信号の特徴が、定常的なものであるという前提のもとで音声信号区間推定を行う技術である。しかし、実環境における雑音信号の多くは非定常的な特徴をもっている。すなわち、雑音信号の統計的な特徴が、時間の経過に伴い変動する。そのため、上記非特許文献1および上記非特許文献2に記載の技術では、雑音の時間変動に対応できず、高精度に音声信号区間の推定を行うことができない。
上記非特許文献3に記載の技術は、並列カルマンフィルタ、および並列カルマンスムーザを用いて非定常的な雑音を逐次推定し、かつ音声/非音声の確率モデルを逐次更新することにより観測信号の尤度を計算し、それに基づき音声信号区間の推定を行う。しかし、この方法では、比較的緩やかな変化をする雑音には対処できるが、突発的な雑音や、急激な時間変化を有する雑音に対応することが難しい。
上記非特許文献4に記載の技術は、音響信号の周期性成分と非周期性成分を分離し、分離された周期性成分と非周期性成分の比を計算し、その比に基づいて目的信号の存在区間を検出する。この方法では、雑音に周期的な成分が含まれている場合、性能が劣化するが、そうでない場合は、突発的、急激な変化を有する雑音に対して頑健である。
それゆえに、本発明の目的は、定常雑音、緩やかな変化を有する非定常雑音に加え、突発的、急激な変化を有する雑音、周期的成分を含む雑音に対しても頑健である音声信号区間推定技術を提供することにある。
上記課題を解決するため、本発明では、2系統の音響信号分析を行い、この2系統の分析結果を重み付け合成して得られる結果を用いて、音声状態に属する確率と非音声状態に属する確率を求める。これらの確率から、音声信号区間であるか否かを判定する。具体的には、入力の音響信号をフレーム単位に分割し、フレームの音響特徴量から、前記フレームの音声状態確率および非音声状態確率を求め(第1音響信号分析)、他方、入力の音響信号をフレーム単位に分割し、フレームの基本周波数に含まれる周期性成分および非周期性成分から、前記フレームの音声状態確率および非音声状態確率を求める(第2音響信号分析)。そして、第1音響信号分析で得られた上記フレームの音声状態確率/非音声状態確率と、第2音響信号分析で得られた上記フレームの音声状態確率/非音声状態確率とを用いて、それぞれに対して重み付けする重みを求める(重み算出)。さらに、第1音響信号分析で得られた上記フレームの音声状態確率と、第2音響信号分析で得られた上記フレームの音声状態確率とを、上記算出された重みによって重み付けして合成した音声状態合成確率と、第1音響信号分析で得られた上記フレームの非音声状態確率と、第2音響信号分析で得られた上記フレームの非音声状態確率とを、上記算出された重みによって重み付けして合成した非音声状態合成確率とを求め、この音声状態合成確率と、この非音声状態合成確率と、音声状態と非音声状態との間の状態遷移モデルとに基づいて、上記フレームが音声状態に属する確率(音声状態尤度)と上記フレームが非音声状態に属する確率(非音声状態尤度)を求める。この音声状態尤度と非音声状態尤度とから、上記フレームが音声信号区間であるか否かを判定するのであり、上記重みを、第1音響信号分析によって得られたフレームの音声状態確率/非音声状態確率に重み付けする重みαと、第2音響信号分析によって得られたフレームの音声状態確率/非音声状態確率に重み付けする重みβとを、第1音響信号分析によって得られたフレームの音声状態確率とその非音声状態確率との差と、第2音響信号分析によって得られたフレームの音声状態確率とその非音声状態確率との差とに応じて按分して求める。
本発明は、2系統の異なる音響信号分析を行うが、第1音響信号分析は、上記非特許文献3に記載の技術に相当し、第2音響信号分析は、上記非特許文献4に記載の技術に相当し、これらを重み付け合成して得られる結果に基づいて音声信号区間推定を行う。重み付け合成に用いる重みは、2系統の異なる音響信号分析で得られた分析結果に応じて適応的に決定される。
また、本発明の音声信号区間推定装置としてコンピュータを機能させる音声信号区間推定プログラムによって、コンピュータを音声信号区間推定装置として作動処理させることができる。そして、この音声信号区間推定プログラムを記録した、コンピュータに読み取り可能なプログラム記録媒体によって、他のコンピュータを音声信号区間推定装置として機能させることや、音声信号区間推定プログラムを流通させることなどが可能になる。
本発明に拠れば、上記非特許文献3に記載の技術に相当する第1音響信号分析と、上記非特許文献4に記載の技術に相当する第2音響信号分析とを行い、これらを重み付け合成して得られる結果に基づいて音声信号区間推定を行うから、各々の長所を生かし短所を克服することになり、入力の音響信号に含まれる雑音が、定常雑音、緩やかな変化を有する非定常雑音のみならず、突発的、急激な変化を有する雑音、周期的成分を含む雑音であっても、音声信号区間を正確に推定することができる。
以下、図面を参照しつつ、本発明の一実施形態について説明する。なお、以下の説明に用いる図面では、同一の構成要素には同一の符号を記してある。それらの名称、機能も同一であり、それらについての説明は繰り返さない。以下の説明において、明細書中で使用する記号「^」、「〜」等は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。式中においては、これらの記号は本来の位置に記述している。以下の説明において、ベクトルについては例えば「ベクトルA」等のように直前に「ベクトル」等を付与して記載するが、式中ではいずれも太字で記載する。また、ベクトルの各要素単位で行われる処理は、特に断りが無い限り、全てのベクトルの全ての要素に対して適用されるものとする。
以下、音声信号区間推定装置・方法の実施形態を説明する。音声信号区間推定装置は、例えば専用のハードウェアで構成された専用機やパーソナルコンピュータのような汎用機といったコンピュータで実現される。ここではコンピュータ(汎用機)で実現する場合として説明する。
音声信号区間推定装置のハードウェア構成例を説明する。
音声信号区間推定装置は、キーボード、ポインティングデバイスなどが接続可能な入力部と、液晶ディスプレイ、CRT(Cathode Ray Tube)ディスプレイなどが接続可能な出力部と、音声信号区間推定装置外部に通信可能な通信装置(例えば通信ケーブル、LANカード、ルータ、モデムなど)が接続可能な通信部と、CPU(Central Processing Unit)〔DSP(Digital Signal Processor)でも良い。またキャッシュメモリやレジスタなどを備えていてもよい。〕と、メモリであるRAM、ROMや、ハードディスク、光ディスク、半導体メモリなどである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、音声信号区間推定装置に、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)などの記憶媒体を読み書きできる装置(ドライブ)などを設けるとしてもよい。
また、音声信号区間推定装置には、例えば音声、音楽、雑音などの音を受音する音響信号収音手段(例えばマイクロホン)を接続可能であって、マイクロホンによって得られた(アナログ)信号の入力を受ける信号入力部、および、再生信号を音として出力する音響出力装置(例えばスピーカ)を接続可能であって、スピーカに入力する信号(再生信号をD/A変換したもの)を出力するための信号出力部を設ける構成とすることも可能である。この場合、信号入力部にはマイクロホンが接続され、信号出力部にはスピーカが接続する。
音声信号区間推定装置の外部記憶装置には、音声信号区間推定のためのプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている〔外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくなどでもよい。〕。また、このプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。以下、データやその格納領域のアドレスなどを記憶する記憶手段を単に「○○記憶部」と呼ぶことにする。
この実施形態では、予め主記憶部に、離散信号である音響信号を記憶しておく。なお、データとしての音響信号は、予め主記憶部に記憶されているものに限らず、他の収音装置によって収音されたアナログ信号が離散信号に変換されたものでもよいし、音声信号区間推定装置のマイクロホンによって収音されたアナログ信号が離散信号に変換されたものでもよい。アナログ信号から離散信号への変換は公知のA/D変換、量子化等により実現されるから説明を略する。
また、この実施形態では、後述する閾値THも、予め主記憶部に記憶しておく。
音声信号区間推定装置の外部記憶装置〔あるいはROMなど〕には、後述する第1音響信号分析のためのプログラム、後述する第2音響信号分析のためのプログラム、第1音響信号分析の結果と第2音響信号分析の結果に対する重みを求めるためのプログラム、第1音響信号分析の結果(音声状態のもの)および第2音響信号分析の結果(音声状態のもの)に対する重み付けで得られる音声状態合成確率と、第1音響信号分析の結果(非音声状態のもの)および第2音響信号分析の結果(非音声状態のもの)に対する重み付けで得られる非音声状態合成確率とを用いて、音響信号が音声状態に属する確率と非音声状態に属する確率の比を求めるためのプログラム、この比の値から音響信号が音声信号区間あるいは非音声信号区間であることを判別するためのプログラム、その他、各プログラムに基づく処理によって必要となる制御を行うためのプログラムなどが記憶されている。
音声信号区間推定装置では、上記各プログラムとこの各プログラムの処理に必要なデータが必要に応じてRAMに読み込まれて、CPUで解釈実行・処理される。その結果、CPUが所定の機能(第1音響信号分析部、第2音響信号分析部、重み算出部、音声状態/非音声状態合成確率比算出部、音声信号区間推定部)を実現することで、音声信号区間推定が実現される。
<音声信号区間推定装置の構成>
本発明による音声信号区間推定の一実施形態を図1に示す。図中符号10は、この発明の一実施形態である音声信号区間推定装置の機能構成を示す。音声信号区間推定装置(10)は、入力の音響信号(13)に対して並列カルマンフィルタ/並列カルマンスムーザを用いて確率計算を行う第1音響信号分析部(14)と、音響信号(13)の周期性成分と非周期性成分の比を用いて確率計算を行う第2音響信号分析部(15)と、それぞれの確率の重みを計算する重み算出部(16)と、算出された重みを用いて、音響信号(13)が音声状態に属する合成確率と非音声状態に属する合成確率を算出し、それぞれの比を求める音声状態/非音声状態合成確率比算出部(17)と、音声状態/非音声状態合成確率比に基づき音声/非音声識別を行う音声信号区間推定部(18)とを含む。
第1音響信号分析装置(14)および第2音響信号分析装置(15)へ入力される音響信号(13)は、例えば8,000Hzのサンプリングレートでサンプリングされ、離散信号に変換された音響信号である。この音響信号(13)は、目的信号である音声信号(11)に雑音信号(12)が重畳した音となっている。以下、音響信号(13)を「入力信号」、音声信号(11)を「クリーン音声」、雑音信号(12)を「雑音」と呼ぶ。
音声信号区間推定装置(10)は、入力信号(13)を受けて、音声信号区間推定結果(19)を出力する。音声信号区間推定結果(19)は、フレーム単位の音響信号が音声状態に属すれば1を、非音声状態に属すれば0を取る。音声信号区間推定装置(10)は、音声信号区間推定結果(19)の値を入力信号(13)にかけ合わせた信号を出力してもよい。すなわち、音声状態に属するフレームの入力信号(13)の値は保持され、非音声状態に属するフレームでは、信号の値が全て0に置換される。
<第1音響信号分析部(14)の構成>
第1音響信号分析部(14)は図2に示すように、入力信号(13)を受けて、音声信号区間推定に用いる音響特徴量を抽出するための音響特徴量抽出部(20)と、確率モデルパラメータを推定し、得られた確率モデルパラメータにより構成される確率モデルを用いた入力信号(13)の確率計算を行うための、確率推定部(21)とを含む。
音響特徴量抽出部(20)は、時間軸方向に一定時間幅で始点を移動させながら、入力信号(13)から一定時間長の音響信号をフレームとして切り出す。例えば160サンプル点(8,000Hz×20ms)長の音響信号を、80サンプル点(8,000Hz×10ms)ずつ始点を移動させながら切り出す。音響特徴量抽出部(20)は、切り出された音響信号に対して高速フーリエ変換および、24次元のメルフィルタバンク分析を適用して、24次元の対数メルスペクトルを要素に持つベクトルG={gt,0,…,gt,φ,…,gt,23}(図3の301)を算出し、これを出力する。ベクトルGは、切り出しの始点の時刻がtのフレームにおける音響特徴量を表す。φはベクトルの要素番号を示す。以下、tをフレーム時刻と呼ぶことにする。
なお、音響特徴量としては、対数メルスペクトルに限定するものではなく、ケプストラム係数などとすることができる。但し、後述する第2音響信号分析部(15)が用いる音響特徴量(基本周波数)以外の音響特徴量とするのがよい。
音響特徴量抽出部(20)の出力である24次元の対数メルスペクトル(301)は、確率推定部(21)の入力となる。確率推定部(21)は、入力されたフレームに対して並列非線形カルマンフィルタ、および並列カルマンスムーザを適用し、雑音パラメータを推定する。推定された雑音パラメータを用いて、非音声(雑音+無音)、および、音声(雑音+クリーン音声)の確率モデルを生成し、対数メルスペクトル(301)を各確率モデルに入力した際の確率を計算する。
<確率推定部(21)の構成>
確率推定部(21)は図3に示すように、前向き推定部(302)と、後ろ向き推定部(303)と、GMM(Gaussian Mixture Model)記憶部(304)と、パラメータ記憶部(305)を含む。
GMM記憶部(304)は、あらかじめ用意した無音信号とクリーン音声信号の各音響モデルである無音GMM(306)およびクリーン音声GMM(307)を記憶する。以下、無音GMM(306)およびクリーン音声GMM(307)を単にGMM(306,307)などと表記する。GMM(306,307)の構成方法は公知の技術であるので、説明を省略する。GMM(308,307)はそれぞれ複数の正規分布(たとえば32個)を含有しており、それぞれの正規分布は、混合重みwj,k 、平均μS,j,k,φ、分散ΣS,j,k,φをパラメータとして構成され、jはGMMの種別(j=0:無音GMM,j=1:クリーン音声GMM)、kは各正規分布の番号を示す。各パラメータは、前向き推定部(302)と後向き推定部(303)への入力となる。
パラメータ記憶部(305)は、初期雑音モデル推定用バッファ(308)と、雑音モデル推定用バッファ(309)とを含む。
<前向き推定部(302)の構成>
前向き推定部(302)は図4に示す流れで処理を行う。この処理を並列非線形カルマンフィルタと呼ぶ。
まず、フレーム判定処理(S401)にてフレーム時刻tがt<10であれば、雑音初期モデル推定用バッファリング処理(S402)にて初期雑音モデル推定用バッファ(308)に、対数メルスペクトルgt,φを記憶する。
フレーム判定処理(S401)にてt=10であれば、雑音初期モデル推定用バッファ読出処理(S403)にて初期雑音モデル推定用バッファ(308)からg0,φ,…,g9,φを取り出し、初期雑音モデル推定処理(S404)にて初期の雑音モデルパラメータNinit φ,Σinit Nφを下記各式で推定し、これらを雑音モデル推定用バッファ(309)に記憶する。
Figure 0004691079
また、フレーム判定処理(S401)にてt>10であれば、雑音モデル推定用バッファ読出処理(S405)にて雑音モデル推定用バッファ(309)から1フレーム時刻前の推定結果^Nt-1,φ,^ΣN,t-1,φを取り出す。
パラメータ予測処理(S406)にて、1フレーム時刻前の推定結果から現在のフレーム時刻のパラメータを下記各式のランダムウォーク過程により予測する。下記各式において、Npred t,φ,Σpred N,t,φはフレーム時刻tにおける予測値である。εは小さな値(例えば0.001)とする。
Figure 0004691079
t=10の場合は下記各式で予測処理を行う。
Figure 0004691079
次に、パラメータ更新処理(S407)にてパラメータの更新を行う。パラメータの更新には、入力信号の対数メルスペクトルgt,φ、パラメータ予測処理(S406)の予測結果に加え、無音信号およびクリーン音声の各パラメータを必要とし、これはGMM(306,307)のパラメータμS,j,k,φ,ΣS,j,k,φを利用する。ここで、各GMMは複数の異なる正規分布を持ち、複数のパラメータμS,j,k,φ,ΣS,j,k,φが存在するため、複数のパラメータそれぞれを用いた並列更新処理を行う。すなわち、それぞれのGMMに含まれる正規分布の合計数と同数の更新結果を得る。更新処理は下記各式で行う。下記各式において、^Nt,j,k,φ,^ΣN,t,j,kはそれぞれ更新されたパラメータである。
Figure 0004691079
次に確率モデルパラメータ生成処理(S408)にて、GMM(306,307)のパラメータ、およびパラメータ更新処理(S407)で得られた複数のパラメータ更新結果^Nt,j,k,φ,^ΣN,t,j,k,φを用いて、フレーム時刻tにおける雑音環境に適合した、非音声(雑音+無音)、および、音声(雑音+クリーン音声)の各確率モデル(GMM)を生成する。それぞれのGMM(非音声GMM、音声GMM)のモデルパラメータは下記各式で得られる。下記各式において、μg,t,j,k,φ、Σg,t,j,k,φはそれぞれフレーム時刻tにおける非音声(j=0)、および、音声(j=1)のGMMのモデルパラメータである。また、それぞれのGMMモデルパラメータは、正規分布kの平均、分散に相当し、混合重みには、GMM(306,307)のパラメータwj,k をそのまま流用する。
Figure 0004691079
次に、出力確率算出処理(S409)にて、入力信号(13)の対数メルスペクトルベクトルG(301)を生成された非音声、音声それぞれのGMM(非音声GMM、音声GMM)に入力した際の出力確率を求める。まず、非音声、音声それぞれのGMM(非音声GMM、音声GMM)全体における出力確率b1,j(G)は、下記各式で得られる。下記各式のwj,k1,j,k(G)は、非音声、音声それぞれのGMM(非音声GMM、音声GMM)に含まれる各正規分布kの出力確率である。
Figure 0004691079
j,k1,j,k(G)の合計が1になるよう次式で正規化を行う。次式のwg,j,kは、正規化された各GMM(非音声GMM、音声GMM)の各正規分布kの出力確率である。
Figure 0004691079
次に、第1加重平均処理(S410)にて、パラメータ更新処理(S407)で得られた複数のパラメータ更新結果を出力確率算出処理(S409)で得られた正規化出力確率wg,j,kを用いて、加重平均することにより、それぞれのGMM(非音声GMM、音声GMM)に対応する雑音パラメータ推定結果^Nt,j,φ,^ΣN,t,j,φを得る。この加重平均は下記各式で行う。
Figure 0004691079
次に、第2加重平均処理(S411)にて、第1加重平均処理(S410)にて得られた各GMM(非音声GMM、音声GMM)に対応する雑音パラメータ推定結果^Nt,j,φ,^ΣN,t,j,φを、出力確率算出処理(S409)で得られた出力確率b1,j(G)を用いて加重平均することにより、フレーム時刻tにおける雑音パラメータ推定結果^Nt,φ,^ΣN,t,φが得られ、次のフレーム時刻の雑音パラメータ推定に利用する。この加重平均は下記各式で行う。
Figure 0004691079
雑音モデル推定用バッファリング処理(S412)にて、雑音モデル推定用バッファ(309)に当該フレーム時刻のgt,φ,Npred t,φ,Σpred N,t,φ,^Nt,j,k,φ,^ΣN,t,j,k,φ,^Nt,φ,^ΣN,t,φを記憶する。
式(3),(4)の予測処理、および式(7)〜(12)の更新処理は、従来の非線形カルマンフィルタであるが、本発明では、GMM(306,307)のパラメータを用いて複数のフィルタを構成する並列推定手段と、複数の推定結果を加重平均する手段とを含んでおり、より正確な雑音モデルのパラメータ推定が実現される。
<後向き推定部(303)の構成>
後向き推定部(303)は図5に示す流れで処理を行う。この処理を並列カルマンスムーザと呼ぶ。
第1判定処理(S501)にて、t<10であれば、第1設定処理(S502)にて変数tbに0を設定して処理を終了し、そうでなければ、第2判定処理(S503)にてtbの値を判定する。
第2判定処理(S503)にて、tbの値が後向き推定に要するフレーム数B(例えばB=5)未満であれば、第2設定処理(S504)にてtbの値を1加算して処理を終了し、tbの値がB以上であれば、第3設定処理(S505)にて後向き推定用のカウンタbwの値にBを設定する。
雑音モデル推定用バッファ読出処理(S506)にて、雑音モデル推定用バッファ(309)からフレーム時刻s=t−B+bwのパラメータNpred s,φ,Σpred N,s,φ、フレーム時刻s−1のパラメータgs-1,φ,^Ns-1,j,k,φ,^ΣN,s-1,j,k,φを取り出す。但し、bw=B、すなわちフレーム時刻s=tの場合は、雑音モデル推定用バッファ(309)から^Nt,j,k,φ,^ΣN,t,j,k,φ,^Nt,φ,^ΣN,t,φを取り出し、〜Ns,j,k,φ=^Nt,j,k,φ,〜ΣN,s,j,k,φ=^ΣN,t,j,k,φ,〜Ns,φ=^Nt,φ,〜ΣN,s,φ=^ΣN,t,φと定義する。
パラメータ平滑処理(S507)にて、後向き推定を用いて次式によるパラメータの再推定(平滑化)を行う。次式において、〜Ns-1,j,k,φ,〜ΣN,s-1,j,k,φは、平滑化されたパラメータである。
Figure 0004691079
次に確率モデルパラメータ生成処理(S508)にて、GMM(306,307)のパラメータ、およびパラメータ平滑処理(S507)で得られた複数のパラメータ平滑結果〜Ns-1,j,k,φ,〜ΣN,s-1,j,k,φを用いて、フレーム時刻s−1における雑音環境に適合した、非音声(雑音+無音)、および、音声(雑音+クリーン音声)の各確率モデル(GMM)を生成する。それぞれのGMM(非音声GMM、音声GMM)のモデルパラメータは下記各式により得られる。下記各式において、μg,s-1,j,k,φ,Σg,s-1,j,k,φはそれぞれフレーム時刻s−1における非音声(j=0)、および、音声(j=1)のGMMのモデルパラメータである。また、それぞれのGMMモデルパラメータは、正規分布kの平均、分散に相当し、混合重みには、GMM(306,307)のパラメータwj,k をそのまま流用する。
Figure 0004691079
次に、出力確率算出処理(S509)にて、フレーム時刻s−1における入力信号(13)の対数メルスペクトルベクトルGs-1(301)を生成された非音声、音声それぞれのGMM(非音声GMM、音声GMM)に入力した際の出力確率を求める。
まず、非音声、音声それぞれのGMM(非音声GMM、音声GMM)全体における出力確率b1,j(Gs-1)は、下記各式により得られる。下記各式のwj,k1,j,k(Gs-1)は、非音声、音声それぞれのGMM(非音声GMM、音声GMM)に含まれる各正規分布kの出力確率である。
Figure 0004691079
j,k1,j,k(Gs-1)の合計が1になるよう次式で正規化を行う。次式のwg,j,kは、正規化された各GMM(非音声GMM、音声GMM)の各正規分布kの出力確率である。
Figure 0004691079
次に、第1加重平均処理(S510)にて、パラメータ平滑処理(S507)で得られた複数のパラメータ平滑結果を出力確率算出処理(S509)で得られた正規化出力確率wg,j,kを用いて、加重平均することにより、それぞれのGMM(非音声GMM、音声GMM)に対応する雑音パラメータ平滑結果〜Ns-1,j,φ,〜ΣN,s-1,j,φを得る。加重平均は下記各式により行う。
Figure 0004691079
次に、第2加重平均処理(S511)にて、第1加重平均処理(S510)にて得られた各GMM(非音声GMM、音声GMM)に対応する雑音パラメータ平滑結果〜Ns-1,j,φ,〜ΣN,s-1,j,φを、出力確率算出処理(S509)で得られた出力確率b1,j(GS-1)を用いて加重平均することにより、フレーム時刻s−1における雑音パラメータ平滑結果〜Ns-1,φ,〜ΣN,s-1,φが得られ、次のフレーム時刻の雑音パラメータ推定に用いる。この加重平均は下記各式で行う。
Figure 0004691079
第4設定処理(S512)にて、bwの値を1減算(すなわち時刻sの値を1減算)する。
第3判定処理(S513)にて、bw>0であれば、雑音モデル推定用バッファ読出処理(S506)にもどり、そうでなければ、処理を終了する。
確率推定部(21)は、前向き推定部(302)(並列非線形カルマンフィルタ)、後向き推定部(303)(並列カルマンスムーザ)により得られた出力確率を出力パラメータ(310)として出力し、重み算出部(16)、音声状態/非音声状態合成確率比算出部(17)への入力とする。すなわち、出力パラメータ(310)は、フレーム時刻tから過去のフレーム時刻t−Bにおける出力確率b1,j(G),…,b1,j(Gt-B)により構成される。
<第2音響信号分析部(15)の構成>
第2音響信号分析部(15)は、図6に示すように、音響信号切出手段(60)と、離散フーリエ変換手段(602)と、パワー算出手段(603)と、基本周波数推定手段(604)と、周期性成分パワー算出手段(605)と、減算手段(607)と、除算手段(609)と、確率算出手段(611)と、GMM記憶部(612)によって構成される。また、処理の手順を、図7に示す。
音響信号切出手段(601)は、時間軸方向に一定時間幅で始点を移動させながら、入力信号(13)から一定時間長の音響信号をフレームとして切り出す(S701)。例えばサンプリング周波数が8,000Hzの場合、160サンプル点(8,000Hz×20ms)の離散信号を80サンプル点(8,000Hz×10ms)ずつ始点を移動しながら、例えば以下のハニング窓w(n)を乗じて切り出す。ここでnはn番目のサンプル点を表し、Lは切り出し波形のサンプル点数(上述の例では160点)を表す。なお、音響信号切出手段(601)が切り出すフレーム長は、音響特徴量抽出部(20)が切り出すフレーム長と同じとすることに絶対的要請があるものではないが、処理を簡便に行うなどの観点からは、同じとするのがよい。この結果得られた信号を音響信号切出手段(601)の出力とする。
Figure 0004691079
離散フーリエ変換手段(602)は、音響信号切出手段(601)の出力である、切り出された音響信号に対し、離散フーリエ変換を行い、時間領域の信号波形から周波数領域の周波数スペクトルに変換する(S702)。音響信号切出手段(601)の時間シフトt番目の出力信号をxt(n)とすると、そのスペクトルXt(k)は次式で表される。ここでkはサンプリング周波数をM等分した離散点を表し、Mは例えば256を用いる。なお、時間シフトtは、上記音響特徴量抽出部(20)が切り出すフレーム時刻tと同期させる。このようにして得られた周波数スペクトルXt(k)を離散フーリエ変換手段(602)の出力とする。
Figure 0004691079
パワー算出手段(603)は、音響信号切出手段(601)の出力である、切り出された音響信号全体のパワーを、離散フーリエ変換手段(602)の出力である周波数スペクトルから、もしくは切出された音響信号から直接算出する(S703)。周波数スペクトルからの算出は、式(44)により行う。ここでρは信号全体のパワーを表す。音響信号波形からの算出は、式(45)により行う。このようにして算出された信号全体のパワーρをパワー算出手段(603)の出力とする。
Figure 0004691079
基本周波数推定手段(604)は、パワー算出手段(603)の出力である信号全体のパワーと、離散フーリエ変換手段(602)の出力である周波数スペクトルを入力とし、音響信号切出手段(601)の出力である音響信号の時間領域における信号波形の基本周波数を推定する(S704)。周波数スペクトルを用いた場合の基本周波数の推定は、例えば音声の倍音成分のパワーを最大化するような推定方法によって行う(参考文献1参照)。f0を推定基本周波数に対応する周波数スペクトルのビンの番号、()内を最大化するjを出力する関数をargmax,vをM/jの整数部分を表す関数とすると、式(46)によって基本周波数が推定される。このf0を基本周波数推定手段(604)の出力とする。
(参考文献1)Nakatani,T. and Irino,T.,“Robust and accurate fundamental frequency estimation based on dominant harmonic components,”Journal of the Acoustical Society of America, Vol.116,pp.3690-3700,2004.
Figure 0004691079
なお、周波数スペクトルを用いないで推定する場合には、例えば自己相関法によって推定を行う(参考文献2参照)。自己相関法では、まず自己相関関数を求める。切り出し波形のサンプル点数をL、そのj番目のサンプル点の信号の振幅をxt(j)としたときに、自己相関関数の係数ct(j)は式(47)に従って求まる。これをj=1,…,Lについて求める。次に、この自己相関関数の係数におけるjの一定の探索範囲内、例えば16160(サンプリング周波数8,000Hzの場合の50Hzから500Hzの周期に該当)の範囲内においてct(j)が最大となるjを検出する。その結果得られたjは入力信号の探索範囲において最も支配的な周期性成分の周期長を表し、入力信号が単一の完全な周期信号(例えば正弦波)の場合にはその周期長に相当する値になる。このようなjを基本周波数推定手段(604)の出力とすればよい。
(参考文献2)Quatieri,T.F.,“Discrete-time Speech Signal Processing principles and practice,”Prentice-Hall, 2002; 504乃至505頁.
Figure 0004691079
周期性成分パワー算出手段(605)は、離散フーリエ変換手段(602)の出力である周波数スペクトルと、パワー算出手段(603)の出力である音響信号のパワーと、基本周波数推定手段(604)の出力である基本周波数を入力として、音響信号切出手段(601)の出力である音響信号の周期性成分のパワー(606)を推定する(S705)。周期性成分のパワー^ρt pは、f0を推定基本周波数に対応する周波数スペクトルのビンの番号、vをM/jの整数部分を表す関数とすると、下記各式によって求めることができる。これを周期性成分パワー算出手段(605)の出力とする。
Figure 0004691079
この周期性成分のパワー(606)は、周波数スペクトルを用いずに、音響信号切出手段(601)の出力である音響信号からも推定することができる。その推定は以下のようにして行う。まず、基本周波数推定手段(604)の出力を用いて、z領域での表現において、式(50)で表される周波数特性を持つ櫛型フィルタを構成する。
Figure 0004691079
次に、この櫛型フィルタを音響信号切出手段(601)の出力である音響信号に適用し、櫛型フィルタの周波数特性における零点に相当する部分(基本周波数成分とその整数倍の周波数成分)のパワーが抑圧された離散信号を得る。この結果得られた信号のパワー(非周期性成分パワー)を^ρt aとすると、周期性成分のパワー^ρt p(606)は、次式によって推定できる。これを周期性成分パワー算出手段(605)の出力としても良い。
Figure 0004691079
減算手段(607)は、パワー算出手段(603)の出力である音響信号切出手段(601)の出力のパワー値から、周期性成分パワー算出手段(605)の出力を減算することで、周期性成分以外の、非周期性成分のパワー(608)を推定する(S706)。つまり、推定される非周期性成分パワーを^ρt aとすると、式(52)によって推定を行う。
Figure 0004691079
なお、周期性成分パワー(606)と非周期性成分パワー(608)は合算するとρに等しくなるので、この性質を利用して、周期性成分パワー(606)を先に求める方法以外に、下記各式のように非周期性成分のパワー(608)を先に求めてから、減算手段により周期性成分のパワー(606)を求めても良い。
Figure 0004691079
除算手段(609)は、上述のようにして得られた周期性成分パワー(606)と非周期性成分パワー(608)を入力とし、これらの比を取り、これを出力とする(S707)。出力となる比の値(610)は、式(55)により算出する。
Figure 0004691079
確率算出手段(611)は、除算手段(609)で得られた周期性成分パワーと非周期性成分パワーの比(610)と、GMM記憶部(612)に記憶される、あらかじめ用意した無音信号とクリーン音声信号の各音響モデルである無音GMM(613)およびクリーン音声GMM(614)に基づき、入力信号(13)が非音声(無音)状態に属する確率と音声(クリーン音声)状態に属する確率を算出する。以下、無音GMM(613)およびクリーン音声GMM(614)を単にGMM(613,614)などと表記する。GMM(613,614)はそれぞれ複数の正規分布(たとえば32個)を含有しており、それぞれの正規分布は、混合重みwj,k ,平均μR,j,k、分散ΣR,j,kをパラメータとして構成され、jはGMMの種別(j=0:無音GMM,j=1:クリーン音声GMM)、kは各正規分布の番号を示す。各パラメータは、確率算出手段(611)への入力となる。
周期性成分パワーと非周期性成分パワーの比(610)を無音GMM(613)、クリーン音声GMM(614)に入力した際の出力確率は、下記各式により得られる。
Figure 0004691079
確率算出手段(611)は、式(56)で得られた確率b2,j(Rt(a,p))を出力パラメータ(615)として出力し、重み算出部(16)、音声状態/非音声状態合成確率算出部(17)への入力とする。
<重み算出部(16)の構成>
重み算出部(16)は、第1音響信号分析部(14)の出力パラメータ(310)と第2音響信号分析部(15)の出力パラメータ(615)を入力として、これらの出力パラメータに係るフレームにおいて、どちらの出力パラメータを重視するかを表す、重みγを算出し、この重みγを出力する。重み算出部(16)は、図8に示す流れで処理を行う。
まず、第1判定処理(S801)で、(b1,0(Gt) > b1,1(Gt) AND b2,0(Rt(a,p)) > b2,1(Rt(a,p))) OR (b1,0(Gt) ≦ b1,1(Gt) AND b2,0(Rt(a,p)) ≦ b2,1(Rt(a,p)))の判別を行い、この判別が真であれば、第2判定処理(S802)の判別を行う。第2判定処理(S802)で、|b1,0(Gt) - b1,1(Gt)| > |b2,0(Rt(a,p)) - b2,1(Rt(a,p))|の判別を行い、この判別が真であれば、第1設定処理(S803)にてγ=1を設定し、この判別が偽であれば第2設定処理(S804)にてγ=0を設定する。また、第1判定処理(S801)の判別が偽であれば、第3設定処理(S805)にて次式によりγを決定する。なお、第1判定処理(S801)では、(b1,0(Gt) ≧ b1,1(Gt) AND b2,0(Rt(a,p)) ≧ b2,1(Rt(a,p))) OR (b1,0(Gt) < b1,1(Gt) AND b2,0(Rt(a,p)) < b2,1(Rt(a,p)))の判別を行うとしてもよい。また、第2判定処理(S802)では、|b1,0(Gt) - b1,1(Gt)| ≧ |b2,0(Rt(a,p)) - b2,1(Rt(a,p))|の判別を行うとしてもよい。
Figure 0004691079
<音声状態/非音声状態合成確率比算出部(17)の構成>
重み算出部(16)で得られた重みγと、第2音響信号分析部(14)の出力パラメータ(310)と、第2音響信号分析部(15)の出力パラメータ(615)を用いて、音声状態/非音声状態の合成確率bj(Gt ,Rt(a,p))を次式によって得ることができる。
Figure 0004691079
ここで図9に示す符号90は有限状態機械により表現された、音声状態/非音声状態の状態遷移モデルであり、非音声状態H0(91)と、音声状態H1(92)と、各状態への状態遷移確率ai,j(93〜96)とを含む(iは状態遷移元の状態番号、jは状態遷移先の状態番号)。
音声状態/非音声状態合成確率比算出部(17)は、音声状態/非音声状態の合成確率bj(Gt ,Rt(a,p))および、音声状態/非音声状態の状態遷移モデル(90)に基づき、音声状態/非音声状態合成確率比(105)を算出する。
状態番号0は非音声状態を、状態番号1は音声状態をそれぞれ示し、状態遷移確率ai,j(93〜96)は、ai,0 +ai,1 =1を満たす。
音声状態/非音声状態合成確率比算出部(17)は、図10に示す構成となっており、確率比算出部(101)と、パラメータ記憶部(102)とを含む。
パラメータ記憶部(102)は、確率比算出用バッファ(103)と、状態遷移確率テーブル(104)とを含み、状態遷移確率テーブル(104)は、非音声状態H0(91)、および音声状態H1(92)への状態遷移確率ai,j(93〜96)の値を持つ。
音声状態/非音声状態合成確率比算出部(17)は、確率推定部(21)の後向き推定部(303)の場合と同様に、フレーム時刻tよりBフレーム遡ったフレーム時刻s=t−Bに視点を移して処理を行う。まず、フレーム時刻sにおける信号の状態をq=Hと定義すると、音声状態合成確率と非音声状態合成確率の比L(s)(符号105)は次式により得られる。次式において、G0:s ={G0 ,…,G},R0:s(a,p)={R0(a,p ),…,Rs(a,p)}である。
Figure 0004691079
確率比L(s)(符号105)はベイズの定理により次式のように展開される。
Figure 0004691079
また、雑音信号N0:s ={N0 ,…,N}の時間変動を考慮すると、式(61)は次式のように拡張される。但し、Nm 〔m=0,…,s〕はフレーム時刻mでのサンプル系列からなるベクトルである。
Figure 0004691079
上式は、過去のフレーム時刻の状態を考慮した再帰式(1次マルコフ過程)により、次式のように展開される。
Figure 0004691079
式(63)において、p(qs =H|qs-1 =H)=ai,j ,p(Gs ,Rs(a,p)|qs =H,Ns)=bj(Gs ,Rs(a,p)),p(Ns|Ns-1)=1に相当し、確率p(Gs ,Rs(a,p),qs =H,Ns)は、時間順方向に算出される前向き確率αs,j に相当する。すなわち式(63)は、次式の再帰式により得られる。
Figure 0004691079
次に、フレーム時刻sより未来のフレーム時刻、すなわちフレーム時刻s+1,…,t=s+Bにおける状態の影響を考慮すると、確率比L(s)(符号105)は、次式のように表現される。
Figure 0004691079
式(65)の確率p(Gs+1:t,Rs+1:t(a,p),Ns+1:t|q=H,N)は、フレーム時刻sより未来のフレーム時刻の状態を考慮した再帰式(1次マルコフ過程)により、次式のように展開される。
Figure 0004691079
式(66)において、p(qs+1 =H|q=H)=ai,j ,p(Gs+1 ,Rs+1(a,p)|qs+1 =H,Ns+1)=bj(Gs+1 ,Rs+1(a,p)),p(Ns+1|Ns)=1に相当し、確率p(Gs+1:t,Rs+1:t(a,p),Ns+1:t|q=H,N)は、時間逆方向に算出される後向き確率βs,i に相当する。すなわち式(66)は、次式の再帰式により得られる。
Figure 0004691079
よって、確率比L(s)(符号105)は、
Figure 0004691079
により算出される。すなわち、確率比算出部(101)は、フレーム時刻tよりもBフレーム過去のフレーム時刻s=t−Bにおける前向き確率αs,j 、および後向き確率βs,i を算出して、音声状態/非音状態確率比L(s)(符号105)を得る。それぞれの算出は、図11の処理に従う。なお、この実施形態では、音声状態/非音状態確率比L(s)(符号105)を出力する構成であるが、必ずしもこれに限定されず、後述する音声信号区間推定部(18)での判定処理にもよるが、αs,1 ・βs,1 およびαs,0 ・βs,0を出力するようにしてもよい。
後向き確率βs,i は、確率推定部(21)の後向き推定部(303)と同様にBフレーム未来のフレーム時刻から遡って、現在のフレーム時刻の確率を算出する。
先ず、第1判定処理(S1101)にて、t<10+B、すなわちs<10であれば、初期値設定処理(S1102)にて前向き確率αs,j を以下のように設定する。
Figure 0004691079
確率比算出用バッファリング処理(S1103)にて、確率比算出用バッファ(103)に前向き確率αs,j を記憶する。第1判定処理(S1101)にて、t<10+Bでなければ、確率比算出用バッファ読出処理(S1104)にて、確率比算出用バッファ(103)よりフレーム時刻s−1の前向き確率αs-1,j を取り出す。
前向き確率算出処理(S1105)にて、状態遷移確率テーブル(104)より状態遷移確率ai,j(93〜96)を取り出し、フレーム時刻sの前向き確率αs,j を式(64)に従って算出する。
第1設定処理(S1106)にて後向き確率算出用のカウンタbwの値にBを設定する。
後向き確率算出処理(S1107)にて、状態遷移確率テーブル(64)より状態遷移確率ai,j(93〜96)を取り出し、フレーム時刻s+bw−1の後向き確率βs+bw-1,iを式(67)に従って算出する。また、bw=Bの場合は、初期値を式(71)で与える。
Figure 0004691079
第2設定処理(S1108)にて、bwの値を1減算する。
第2判定処理(S1109)にて、bw>0であれば、後向き確率算出処理(S1107)にもどり、そうでなければ、確率比算出処理(S1110)に移行する。この時点で、フレーム時刻sにおける後向き確率βs,i が得られる。
確率比算出処理(S1110)にて、フレーム時刻sにおける音声状態/非音状態確率比L(s)(符号105)を式(68)に従って算出する。
確率比算出用バッファリング処理(S1103)にて、確率比算出用バッファ(103)に前向き確率αs,j を記憶する。
<音声信号区間推定部(18)>
音声信号区間推定部(18)にて、音声状態/非音状態確率比算出部(17)の出力である、音声状態/非音状態確率比L(s)(符号105)を受けて、フレーム時刻sのフレームが音声状態に属するか非音声状態に属するかを判定する。
音声状態/非音状態確率比L(s)(符号105)の値が、別途設定された閾値TH以上(あるいは、閾値THより大)であれば、フレーム時刻sのフレームが音声状態に属すると判断して1を音声信号区間推定結果(19)として出力し、閾値TH未満(あるいは、閾値TH以下)であれば、フレーム時刻sのフレームが非音声状態に属すると判断して0を音声信号区間推定結果(19)として出力する。閾値THの値は、事前に固定された値に決定しておいても、入力信号(13)の特徴に応じて適応的に決定しても良い。
なお、音声状態/非音状態確率比L(s)(符号105)の値と閾値THとの比較判定に限定されるものではなく、αs,1 ・βs,1 とαs,0 ・βs,0との大小関係を比較して判定するようにしてもよい。
<変更例>
上記実施の形態において、パラメータ予測処理(S406)にて、ランダムウォーク過程により1時刻前の推定結果より現在の時刻のパラメータを予測しているが、自己回帰法(線形予測法)などを用いて予測してもよい。この場合、自己回帰係数の次数に応じて最終的な雑音モデルパラメータ推定性能が向上することが期待される。
上記実施の形態において、第1加重平均処理(S410,S510)および、第2加重平均処理(S411,S511)にて、加重平均ではなく、最大の重みを持つ推定結果をそのまま使用してもよい。この場合、他の推定結果の重みに比べて十分大きな重みを持っていることが望ましい。
上記実施の形態において、GMM(306,307,613,614)の代わりに、音声信号の確率モデルとしてHMM(Hidden Markov Model)等の他の確率モデルを用いてもよい。
上記実施の形態において、音声信号区間推定部(18)における閾値判定後に、音声信号区間、および非音声信号区間の継続長を調査して、音声信号区間推定結果(19)を自動訂正する処理を接続してもよい。この場合、突発的な識別誤りを訂正することができるため、音声信号区間推定の性能が向上することが期待される。
以上の実施形態の他、本発明である音声信号区間推定装置・方法は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記音声信号区間推定装置・方法において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
また、上記音声信号区間推定装置における処理機能をコンピュータによって実現する場合、音声信号区間推定装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記音声信号区間推定装置における処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、音声信号区間推定装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
本発明の効果を示すために、音声信号と雑音信号が混在する音響信号を本発明の音声信号区間検出装置に入力し、音声信号区間を検出する実施例を示す。以下実験方法、および結果について説明する。
本実験では、提案手法の評価は、音声区間検出の評価用に設計されたデータベースCENSREC-1-Cを用いて行う。データベースCENSREC-1-Cについては、参考文献3を参照のこと。
(参考文献3)北岡 教英,山田 武志,柘植 覚,宮島 千代美,西浦 敬信,中山 雅人,藤本 雅清,山本 一公,滝口 哲也,黒岩 眞吾,武田 一哉,中村 哲,“CENSREC-1-C:雑音下音声区間検出評価基盤の構築,”情報処理学会研究報告,SLP-63-1,pp.1-6,Oct.2006.
CENSREC-1-Cは、人工的に作成したシミュレーションデータと、実環境で収録した実データの2種類のデータを含んでおり、本実験では、実環境における音声品質劣化の影響(雑音及び、発声変形の影響等)を調査するため、実データを用いて評価を行う。
CENSREC-1-Cの実データの収録は、学生食堂(Restaurant)と高速道路付近(Street)の2種類の環境で行われており、SNRはそれぞれ、High SNR(平均騒音レベル約60dB(A)であり、SNRレベルで5〜15dB程度である。)とLow SNR(平均騒音レベル約70dB(A)であり、SNRレベルで0〜5dB程度である。)である。音声データは、1名の話者が1〜12桁の連続数字を8〜10回、約2秒間隔で発話した音声を1ファイルとして収録しており、各環境において話者1名あたり4ファイルを収録している。発話者は10名(男女各5名)である(ただし評価対象は男性1名を除く9名分のデータ)。それぞれの信号は、サンプリング周波数は8,000Hz、量子化ビット数16ビットで離散サンプリングされたものである。この音響信号に対して、1フレームの時間長を25ms(200サンプル点)とし、10ms(80サンプル点)ごとにフレームの始点を移動させて、第1音響信号分析部(14)、第2音響信号分析部(15)を適用した。
GMM(306,307)には、24次元の対数メルスペクトルを音響特徴量とする混合分布数32のモデルを用い、それぞれ無音信号、クリーン音声信号を用いて学習した。GMM(613,614)には、1次元の周期性成分パワーと非周期性成分パワーの比(610)を音響特徴量とする混合分布数32のモデルを用い、それぞれ無音信号、クリーン音声信号を用いて学習した。
パラメータ予測処理(S406)においてεのパラメータ値には0.001を設定し、処理(S503)において、後向き推定に要するフレーム数Bには5を設定した。状態遷移確率テーブル(104)において、状態遷移確率ai,j(93〜96)の値にはそれぞれ、0.8,0.2,0.9,0.1を設定した。音声信号区間推定部(18)において、閾値THの値には10を設定した。
性能の評価は次式の区間検出正解率Correct rateと区間検出正解精度Accuracyで行った。
Figure 0004691079
上式のNは総発話区間数、Nは正解発話区間検出数、Nは誤発話区間検出数である。Correct rateは、発話区間をどれだけ多く検出できるかを評価する尺度である。Accuracyは、発話区間をどれだけ過不足なく検出できるかを評価する尺度であり、式(73)に従い負値を取ることも許容する。
図12は、評価結果であり、図12(a)、図12(b)、図12(c)は、それぞれCENSREC-1-Cデータベースに規定されたベースライン、上記非特許文献1、上記非特許文献2に開示された方法による結果であり、図12(d)は本発明による結果を示す。
図12の結果から、本発明により従来技術に比べて極めて高い性能を得られることが明らかとなった。
本発明による音声信号区間推定装置の一実施形態の機能構成例を示す図。 第1音響信号分析部の機能構成例を示す図。 確率推定部の機能構成例を示す図。 前向き推定部の処理フロー。 後向き推定部の処理フロー。 第2音響信号分析部の機能構成例を示す図。 第2音響信号分析部の処理フロー。 重み算出部の処理フロー。 音声状態/非音声状態の状態遷移モデル。 音声/非音声状態合成確率比算出部の機能構成例を示す図。 音声/非音声状態合成確率比算出部の処理フロー。 本発明と従来技術による音声信号区間推定の比較実験結果。
符号の説明
10 音声信号区間推定装置
14 第1音響信号分析部
15 第2音響信号分析部
16 重み算出部
17 音声状態/非音声状態合成確率比算出部
18 音声信号区間推定部

Claims (12)

  1. 音響信号において音声信号が存在する区間(以下、音声信号区間という。)を推定する音声信号区間推定装置であって、
    上記音響信号をフレーム単位に分割し、フレームの音響特徴量から、前記フレームの音声状態確率および非音声状態確率を求める第1音響信号分析手段と、
    上記音響信号をフレーム単位に分割し、フレームの基本周波数に含まれる周期性成分および非周期性成分から、前記フレームの音声状態確率および非音声状態確率を求める第2音響信号分析手段と、
    上記第1音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率と、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率とを用いて、それぞれに対して重み付けする重みを求める重み算出手段と、
    上記第1音響信号分析手段によって得られた上記フレームの音声状態確率と、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率とを、上記重み算出手段によって得られた重みによって重み付けして合成した音声状態合成確率と、上記第1音響信号分析手段によって得られた上記フレームの非音声状態確率と、上記第2音響信号分析手段によって得られた上記フレームの非音声状態確率とを、上記重み算出手段によって得られた重みによって重み付けして合成した非音声状態合成確率とを求め、上記音声状態合成確率と、上記非音声状態合成確率と、音声状態と非音声状態との間の状態遷移モデルとに基づき、上記フレームが音声状態に属する確率(以下、音声状態尤度という。)と上記フレームが非音声状態に属する確率(以下、非音声状態尤度という。)を求める音声状態確率/非音声状態確率算出手段と、
    上記音声状態確率/非音声状態確率算出手段によって得られた上記音声状態尤度と上記非音声状態尤度から、上記フレームが音声信号区間であるか否かを判定する音声信号区間推定手段とを備え
    上記重み算出手段は、
    上記第1音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率に重み付けする重みαと、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率に重み付けする重みβとを、上記第1音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差と、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差とに応じて按分して求める
    ことを特徴とする音声信号区間推定装置。
  2. 上記重み算出手段は、
    上記第1音響信号分析手段によって得られた上記フレームの音声状態確率がその非音声状態確率以上あるいはより大であり、かつ、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率がその非音声状態確率以上あるいはより大である場合、あるいは、上記第1音響信号分析手段によって得られた上記フレームの音声状態確率がその非音声状態確率未満あるいは以下であり、かつ、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率がその非音声状態確率未満あるいは以下である場合において、上記第1音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差が、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差以上あるいはより大である場合には、上記重みβを0とし、上記第1音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差が、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率とその非音声状態確率との差未満あるいは以下である場合には、上記重みαを0とする
    ことを特徴とする請求項1に記載の音声信号区間推定装置。
  3. 上記第1音響信号分析手段が、
    上記音響信号をフレーム単位に分割し、フレームの音響特徴量を求める音響特徴量抽出手段と、
    予め用意した無音信号とクリーン音声信号の各音響モデルである無音確率モデルおよびクリーン音声確率モデルと、上記音響特徴量抽出手段によって得られた音響特徴量とを用いて並列カルマンフィルタ処理および並列カルマンスムーザ処理を行うことで、音声信号の確率モデル(以下、音声確率モデルという。)と非音声信号の確率モデル(以下、非音声確率モデルという。)を生成し、上記音響特徴量に前記音声確率モデルを適用して上記フレームの音声状態確率を求め、上記音響特徴量に前記非音声確率モデルを適用して上記フレームの非音声状態確率を求める確率推定手段と
    を備えたことを特徴とする請求項1または請求項2に記載の音声信号区間推定装置。
  4. 上記第2音響信号分析手段が、
    上記フレームの基本周波数に含まれる周期性成分を求める周期性成分算出手段と、
    上記フレームの基本周波数に含まれる非周期性成分を求める非周期性成分算出手段と、
    上記周期性成分算出手段によって得られた周期性成分と上記非周期性成分算出手段によって得られた非周期性成分との比(以下、周期性成分・非周期性成分比という。)を算出する周期性成分・非周期性成分比算出手段と、
    上記周期性成分・非周期性成分比算出手段によって得られた上記周期性成分・非周期性成分比と、予め用意した無音信号とクリーン音声信号の各音響モデルである無音確率モデルおよびクリーン音声確率モデルとを用いて、前記フレームの音声状態確率および非音声状態確率を求める確率算出手段と
    を備えたことを特徴とする請求項1から請求項3のいずれかに記載の音声信号区間推定装置。
  5. 上記音声状態確率/非音声状態確率算出手段は、
    上記音声状態尤度を、上記状態遷移モデル上の1次マルコフ過程の前向き確率と後向き確率との積として求め、
    上記非音声状態尤度を、上記状態遷移モデル上の1次マルコフ過程の前向き確率と後向き確率との積として求める
    ことを特徴とする請求項1から請求項4のいずれかに記載の音声信号区間推定装置。
  6. 音響信号において音声信号が存在する区間(以下、音声信号区間という。)を推定する音声信号区間推定方法であって、
    第1音響信号分析手段が、上記音響信号をフレーム単位に分割し、フレームの音響特徴量から、前記フレームの音声状態確率および非音声状態確率を求める第1音響信号分析ステップと、
    第2音響信号分析手段が、上記音響信号をフレーム単位に分割し、フレームの基本周波数に含まれる周期性成分および非周期性成分から、前記フレームの音声状態確率および非音声状態確率を求める第2音響信号分析ステップと、
    重み算出手段が、上記第1音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率と、上記第2音響信号分析手段によって得られた上記フレームの音声状態確率/非音声状態確率とを用いて、それぞれに対して重み付けする重みを求める重み算出ステップと、
    音声状態確率/非音声状態確率算出手段が、上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率と、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率とを、上記重み算出ステップによって得られた重みによって重み付けして合成した音声状態合成確率と、上記第1音響信号分析ステップによって得られた上記フレームの非音声状態確率と、上記第2音響信号分析ステップによって得られた上記フレームの非音声状態確率とを、上記重み算出ステップによって得られた重みによって重み付けして合成した非音声状態合成確率とを求め、上記音声状態合成確率と、上記非音声状態合成確率と、音声状態と非音声状態との間の状態遷移モデルとに基づき、上記フレームが音声状態に属する確率(以下、音声状態尤度という。)と上記フレームが非音声状態に属する確率(以下、非音声状態尤度という。)を求める音声状態確率/非音声状態確率算出ステップと、
    音声信号区間推定手段が、上記音声状態確率/非音声状態確率算出ステップによって得られた上記音声状態尤度と上記非音声状態尤度から、上記フレームが音声信号区間であるか否かを判定する音声信号区間推定ステップと、を備え、
    上記重み算出ステップは、
    上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率/非音声状態確率に重み付けする重みαと、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率/非音声状態確率に重み付けする重みβとを、上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差と、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差とに応じて按分して求める
    ことを特徴とする音声信号区間推定方法。
  7. 上記重み算出ステップは、
    上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率がその非音声状態確率以上あるいはより大であり、かつ、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率がその非音声状態確率以上あるいはより大である場合、あるいは、上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率がその非音声状態確率未満あるいは以下であり、かつ、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率がその非音声状態確率未満あるいは以下である場合において、上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差が、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差以上あるいはより大である場合には、上記重みβを0とし、上記第1音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差が、上記第2音響信号分析ステップによって得られた上記フレームの音声状態確率とその非音声状態確率との差未満あるいは以下である場合には、上記重みαを0とする
    ことを特徴とする請求項6に記載の音声信号区間推定方法。
  8. 上記第1音響信号分析ステップは、
    音響特徴量抽出手段が、上記音響信号をフレーム単位に分割し、フレームの音響特徴量を求める音響特徴量抽出ステップと、
    確率推定手段が、予め用意した無音信号とクリーン音声信号の各音響モデルである無音確率モデルおよびクリーン音声確率モデルと、上記音響特徴量抽出ステップによって得られた音響特徴量とを用いて並列カルマンフィルタ処理および並列カルマンスムーザ処理を行うことで、音声信号の確率モデル(以下、音声確率モデルという。)と非音声信号の確率モデル(以下、非音声確率モデルという。)を生成し、上記音響特徴量に前記音声確率モデルを適用して上記フレームの音声状態確率を求め、上記音響特徴量に前記非音声確率モデルを適用して上記フレームの非音声状態確率を求める確率推定ステップと
    を備えたことを特徴とする請求項6または請求項7に記載の音声信号区間推定方法。
  9. 上記第2音響信号分析ステップは、
    周期性成分算出手段が、上記フレームの基本周波数に含まれる周期性成分を求める周期性成分算出ステップと、
    非周期性成分算出手段が、上記フレームの基本周波数に含まれる非周期性成分を求める非周期性成分算出ステップと、
    周期性成分・非周期性成分比算出手段が、上記周期性成分算出ステップによって得られた周期性成分と上記非周期性成分算出ステップによって得られた非周期性成分との比(以下、周期性成分・非周期性成分比という。)を算出する周期性成分・非周期性成分比算出ステップと、
    確率算出手段が、上記周期性成分・非周期性成分比算出ステップによって得られた上記周期性成分・非周期性成分比と、予め用意した無音信号とクリーン音声信号の各音響モデルである無音確率モデルおよびクリーン音声確率モデルとを用いて、前記フレームの音声状態確率および非音声状態確率を求める確率算出ステップと
    を備えたことを特徴とする請求項6から請求項8のいずれかに記載の音声信号区間推定方法。
  10. 上記音声状態確率/非音声状態確率算出ステップは、
    上記音声状態尤度を、上記状態遷移モデル上の1次マルコフ過程の前向き確率と後向き確率との積として求め、
    上記非音声状態尤度を、上記状態遷移モデル上の1次マルコフ過程の前向き確率と後向き確率との積として求める
    ことを特徴とする請求項6から請求項9のいずれかに記載の音声信号区間推定方法。
  11. 請求項1から請求項のいずれかに記載された音声信号区間推定装置としてコンピュータを機能させるための音声信号区間推定プログラム。
  12. 請求項11に記載の音声信号区間推定プログラムを記録した、コンピュータに読み取り可能な記録媒体。
JP2007229884A 2007-09-05 2007-09-05 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体 Active JP4691079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007229884A JP4691079B2 (ja) 2007-09-05 2007-09-05 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007229884A JP4691079B2 (ja) 2007-09-05 2007-09-05 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2009063700A JP2009063700A (ja) 2009-03-26
JP4691079B2 true JP4691079B2 (ja) 2011-06-01

Family

ID=40558342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007229884A Active JP4691079B2 (ja) 2007-09-05 2007-09-05 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4691079B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5411807B2 (ja) * 2010-05-25 2014-02-12 日本電信電話株式会社 チャネル統合方法、チャネル統合装置、プログラム
CN114093379B (zh) * 2021-12-15 2022-06-21 北京荣耀终端有限公司 噪声消除方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944186A (ja) * 1995-07-31 1997-02-14 Matsushita Electric Ind Co Ltd 雑音抑制装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944186A (ja) * 1995-07-31 1997-02-14 Matsushita Electric Ind Co Ltd 雑音抑制装置

Also Published As

Publication number Publication date
JP2009063700A (ja) 2009-03-26

Similar Documents

Publication Publication Date Title
JP5411936B2 (ja) 音声信号区間推定装置と音声信号区間推定方法及びそのプログラムと記録媒体
JP6752255B2 (ja) オーディオ信号分類方法及び装置
JP4568371B2 (ja) 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム
KR101266894B1 (ko) 특성 추출을 사용하여 음성 향상을 위한 오디오 신호를 프로세싱하기 위한 장치 및 방법
EP1918910B1 (en) Model-based enhancement of speech signals
US7590526B2 (en) Method for processing speech signal data and finding a filter coefficient
JP4856662B2 (ja) 雑音除去装置、その方法、そのプログラム及び記録媒体
JP2004347761A (ja) 音声認識装置、音声認識方法、該音声認識方法をコンピュータに対して実行させるためのコンピュータ実行可能なプログラムおよび記憶媒体
JP6004792B2 (ja) 音響処理装置、音響処理方法、及び音響処理プログラム
JP4127792B2 (ja) 音声強化デバイス
JP4673828B2 (ja) 音声信号区間推定装置、その方法、そのプログラム及び記録媒体
JP4691079B2 (ja) 音声信号区間推定装置、方法、プログラムおよびこれを記録した記録媒体
JPWO2007094463A1 (ja) 信号歪み除去装置、方法、プログラム及びそのプログラムを記録した記録媒体
JP4755555B2 (ja) 音声信号区間推定方法、及びその装置とそのプログラムとその記憶媒体
JP4413175B2 (ja) 非定常雑音判別方法、その装置、そのプログラム及びその記録媒体
Kumar Performance measurement of a novel pitch detection scheme based on weighted autocorrelation for speech signals
Eyben et al. Acoustic features and modelling
JP6633579B2 (ja) 音響信号処理装置、方法及びプログラム
JP6653687B2 (ja) 音響信号処理装置、方法及びプログラム
JP4690973B2 (ja) 信号区間推定装置、方法、プログラム及びその記録媒体
JP4685735B2 (ja) 音響信号区間検出方法、装置、プログラム及びその記録媒体
JP3034279B2 (ja) 有音検出装置および有音検出方法
Sadeghi et al. The effect of different acoustic noise on speech signal formant frequency location
Kalimoldayev et al. Methods for applying VAD in Kazakh speech recognition systems
JP6599408B2 (ja) 音響信号処理装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110218

R150 Certificate of patent or registration of utility model

Ref document number: 4691079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350