JP4568371B2 - 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム - Google Patents

少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム Download PDF

Info

Publication number
JP4568371B2
JP4568371B2 JP2009536691A JP2009536691A JP4568371B2 JP 4568371 B2 JP4568371 B2 JP 4568371B2 JP 2009536691 A JP2009536691 A JP 2009536691A JP 2009536691 A JP2009536691 A JP 2009536691A JP 4568371 B2 JP4568371 B2 JP 4568371B2
Authority
JP
Japan
Prior art keywords
feature vector
speech
energy
frames
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009536691A
Other languages
English (en)
Other versions
JP2010510534A (ja
Inventor
バルサン、ツィッカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2010510534A publication Critical patent/JP2010510534A/ja
Application granted granted Critical
Publication of JP4568371B2 publication Critical patent/JP4568371B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、一般に音声アクティビティ検出に関する。特に、限定するものではないが、本発明は、スピーチとノイズといったイベント・タイプ間を区別することに関する。
音声アクティビティ検出(VAD)は、スピーチ・コーディング、ハンズ・フリー電話及びスピーチ認識といった多くのスピーチ処理タスクにおいて不可欠なものである。例えば、モバイル通信においては、無線インターフェース全体の伝送帯域幅は、モバイル装置がスピーチのないことを検出したときには大幅に減少する。第2の例は、自動スピーチ認識システム(ASR)である。メモリと精度に関する制約のため、ASRにおいてはVADは重要である。スピーチの境界の検出が不正確なことによって、認識性能の低下及びスピーチ品質の劣化といった深刻な問題が生じる。
VADは、スピーチ認識において大きな関心がもたれている。一般に、そうしたシステムを設計するために、2つの主要な手法、すなわち閾値比較技術及びモデル・ベースの技術が用いられる。閾値比較手法については、例えば、エネルギー、ゼロ交差、自己相関係数などのような種々の特徴が、入力信号から抽出され、次に幾つかの閾値と比較される。幾つかの手法は、以下の刊行物、すなわち非特許文献1及び非特許文献2において見ることができる。
閾値は、通常はノイズのみから推定され、動的に更新される。適応閾値又は適切なフィルタリングを用いることによって、それらの性能を向上させることができる。例えば、非特許文献3、特許文献1、及び非特許文献4を参照されたい。
もう1つの方法として、他の複雑な環境音からスピーチを確実に区別するために、モデル・ベースのVADが広く導入されてきた。以下の刊行物、すなわち非特許文献5及び非特許文献6において、幾つかの手法を見出すことができる。そうしたシステムにおいては、通常、フルバンド・エネルギー、サブバンド・エネルギー、線形予測残余エネルギーといった特徴、又はメル周波数ケプストラム係数(MFCC)といった周波数ベースの特徴が用いられる。
ワードの始点/終点の検出は、ワード認識のためのスピーチの認識とともに、AU697062(AU−B−23284/95)において検討されている。現時点における少なくとも2つの特徴、すなわち、信号エネルギーの関数である特徴と、現時点におけるブロックの線形予測符号化(LPC)ケプストラム係数と平均LPCケプストラム係数の差の二乗の関数である現時点における少なくとも1つの他の特徴とを含む特徴ベクトルが生成される。
閾値適応技術及びエネルギーの特徴をベースとするVAD技術は、信号エネルギー・レベルが通常は非常に動的であり、音楽及び非定常ノイズのような背景音が日常的に存在する多くの実生活用途において遭遇する複雑な音響状況を取り扱うことができない。結果として、ノイズ・イベントは、挿入エラーを生じさせるワードとして認識されることが多く、一方、隣接するノイズ・イベントによって影響を受けるスピーチ・イベントは、置換エラーを生じる。モデル・ベースのVAD技術は、ノイズの多い状況で良好に動作するが、1つの単一言語に対する依存性を有することによって(それらの技術は、音素レベルの情報をエンコードするものであるため)、機能性が大いに低下する。
環境のタイプは、VADの精度にとって重要な役割を果たす。例えば、車が静止しているときに一般的に高い信号対ノイズ比(SNR)状態におかれる車環境では、正確な検出が可能である。SNRが非常に低く、車のエンジンからの高強度の半定常バックグラウンド・ノイズ(semi-stationary background noise)と、道路の隆起、ワイパのノイズ、ドアを閉じる音といったごく一時的なノイズとが存在するのが一般的な場合には、音声アクティビティ検出には困難な課題が残る。また、他の状況においては、SNRが低く、バックグラウンド・ノイズとごく一時的なノイズとが存在する場合には、音声アクティビティ検出は困難である。
米国特許第6314396号明細書
Li, Q., Zheng, J., Zhou, Q., and Lee, C.-H.,"A robust, real-time endpoint detector with energy normalization for ASR inadverse environments,"Proc. ICASSP, pp. 233-236, 2001 L. R. Rabiner, et al.,"Application of an LPC Distance Measure to the Voiced-Unvoiced-Silence Detection Problem,"IEEE Trans.On ASSP, vol. ASSP-25, no. 4, pp. 338-343, August 1977 Martin, A., Charlet, D., and Mauuary, L,"Robust Speech/Nonspeech Detection Using LDA applied to MFCC,"Proc. ICASSP, pp. 237-240, 2001 Lie Lu, Hong-Jiang Zhang, H. Jiang,"Content Analysis for Audio Classification and Segmentation,"IEEE Trans. Speech & Audio Processing, Vol. 10, N0. 7, pp. 504-516, Oct. 2002 J. Ajmera, I. McCowan,"Speech/Music Discrimination Using Entropy and Dynamism Features in a HMM ClassificationFramework,"IDIAP-RR 01-26, IDIAP, Martigny, Switzerland 2001 T. Hain, S. Johnson, A. Tuerk, P. Woodland, S.Young,"Segment Generation and Clustering in the HTK Broadcast News Transcription System,"DARPA Broadcast News Transcription und Understanding Workshop, pp. 133-137, 1998 F. Palou Cambra, P. Bravetti, O. Emam, V. Fischer, and E. Janke,"Towards a common alphabet for multilingual speech recognition,"in Proc. of the 6th Int. Conf. on Spoken Language Processing, Beijing, 2000 V. Fischer, J. Gonzalez, E. Janke, M. Villani, and C. Waast-Richard,"Towards Multilingual Acoustic Modeling for Large Vocabulary Continuous Speech Recognition,"in Proc. of the IEEE Workshop on Multilingual Speech Communications, Kyoto, Japan, 2000 S. Kunzmann, V. Fischer, J. Gonzalez, O. Emam, C. Guenther, and E. Janke,"Multilingual Acoustic Models for Speech Recognition and Synthesis,"in Proc. of the IEEE Int. Conference on Acoustics, Speech, and Signal Processing, Montreal, 2004 E. Marcheret, K. Visweswariah, G. Potamianos,"Speech Activity Detection fusing Acoustic Phonetic and Energy Features,"Proc./ICASLP 2005
したがって、種々の環境で良好に機能し、堅牢性及び精度が重要な事項であるVAD方法/システムを開発することが非常に望ましい。
本発明の実施形態の目的は、前述の問題の1つ又は複数に対処することである。
本発明の第1の態様によれば、少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法であって、
入力信号を含むフレームの組を受信するステップと、
フレームの各々について少なくとも2つの異なる特徴ベクトル(feature vectors) を求めるステップと、
少なくとも2つのイベント・クラスについてトレーニングされた事前分類器(pre-classifiers)のそれぞれの組を用いて、少なくとも2つの異なる特徴ベクトルを分類するステップと、
フレームの各々についての事前分類器の出力に基づいて、少なくとも1つの重み因子の値を求めるステップと、
少なくとも1つの重み因子を少なくとも2つの異なる特徴ベクトルに掛けることによって、フレームの各々について組み合わせ特徴ベクトル(combined feature vector)を計算するステップと、
少なくとも2つのイベント・クラスについてトレーニングされた分類器の組を用いて、組み合わせ特徴ベクトルを分類するステップと、
を含む方法が提供される。
コンピュータ化された方法は、事前分類器の組の各々の出力間の少なくとも1つの距離を求め、その少なくとも1つの距離に基づいて少なくとも1つの重み因子の値を求めることを含むことができる。
この方法はさらに、少なくとも1つの距離を少なくとも1つの所定の閾値と比較し、その比較に依存する式を用いて少なくとも1つの重み因子の値を計算することを含むことができる。この式は、少なくとも1つの閾値のうちの少なくとも1つを入力として用いることができる。
少なくとも1つの距離は、カルバック−ライブラー距離、マハラノビス距離、及びユークリッド距離のうちの少なくとも1つに基づくものとすることができる。
フレームの各々についてエネルギー・ベースの特徴ベクトルを求めることができる。このエネルギー・ベースの特徴ベクトルは、異なる周波数帯域におけるエネルギー、ログ・エネルギー及びスピーチ・エネルギー・コンター(speech energy contour)のうちの少なくとも1つに基づくものとすることができる。
フレームの各々についてモデル・ベースの特徴ベクトルを求めることができる。このモデル・ベースの特徴ベクトルは、音響モデル、ニューラル・ネットワーク、及び、ニューラル・ネットワークと隠れマルコフ・モデルとの混合型スキームのうちの少なくとも1つに基づくものとすることができる。
1つの特定の実施形態においては、フレームの各々について、異なる周波数帯域のエネルギーに基づく第1の特徴ベクトルと、音響モデルに基づく第2の特徴ベクトルとが求められる。この特定の実施形態における音響モデルは、一言語音響モデル及び多言語音響モデルのうちの1つとすることができる。
本発明の第2の態様は、音声アクティビティ検出システムをトレーニングするためのコンピュータ化された方法であって、
トレーニング信号を含むフレームの組を受信するステップと、
フレームの各々について品質因子を求めるステップと、
トレーニング信号の内容に基づいて、フレームを少なくとも2つのイベント・クラスにラベル付けするステップと、
フレームの各々について少なくとも2つの異なる特徴ベクトルを求めるステップと、
少なくとも2つのイベント・クラスについて用いる少なくとも2つの異なる特徴ベクトルを分類するために、事前分類器のそれぞれの組をトレーニングするステップと、
フレームの各々についての事前分類器の出力に基づいて、少なくとも1つの重み因子の値を求めるステップと、
少なくとも1つの重み因子を少なくとも2つの異なる特徴ベクトルに掛けることによって、フレームの各々について組み合わせ特徴ベクトルを計算するステップと、
組み合わせ特徴ベクトルを少なくとも2つのイベント・クラスに分類するために、分類器の組を用いて組み合わせ特徴ベクトルを分類するステップと、
を含む方法を提供する。
この方法は、少なくとも1つの重み因子の値を求めるために、事前分類器の出力間の距離の閾値を求めることを含むことができる。
本発明の第3の態様は、少なくとも2つのイベント・クラス間を区別するための音声アクティビティ検出システムであって、
入力信号を含むフレームの組の各々のフレームについて少なくとも2つの異なる特徴ベクトルを求めるための特徴ベクトル・ユニットと、
少なくとも2つのイベント・クラスについてトレーニングされた、少なくとも2つの異なる特徴ベクトルを分類するための事前分類器の組と、
フレームの各々についての事前分類器の出力に基づいて少なくとも1つの重み因子の値を求めるための重み因子値計算器と、
少なくとも1つの重み因子を少なくとも2つの異なる特徴ベクトルに掛けることによって、フレームの各々について組み合わせ特徴ベクトルの値を計算するための、組み合わせ特徴ベクトル計算器と、
少なくとも2つのイベント・クラスについてトレーニングされた、組み合わせ特徴ベクトルを分類するための分類器の組と、
を含むシステムを提供する。
音声アクティビティ検出システムにおいては、重み因子値計算器は、少なくとも1つの重み因子の値を求めるための、事前分類器の出力間の距離についての閾値を含むことができる。
本発明のさらなる態様は、データ処理システム上で実行されたときにデータ処理システムに前述の方法ステップを実行させるコンピュータ可読プログラムを提供する。
本発明の実施形態に係る音声アクティビティ検出システムを一例として概略的に示す。 本発明の実施形態に係る音声アクティビティ検出方法のフローチャートを一例として示す。 本発明の実施形態に係る音声アクティビティ検出システムをトレーニングする1つの例を概略的に示す。 本発明の実施形態に係る音声アクティビティ検出システムをトレーニングするさらなる例を概略的に示す。
本発明と、それをどのようにして実行に移すことができるかとをよりよく理解するために、単なる例として添付の図面を参照する。
本発明の実施形態は、モデル・ベースの音声アクティビティ検出技術を、異なる周波数帯域上の信号エネルギーに基づく音声アクティビティ検出技術と組み合わせるものである。この組み合わせによって、異なるエネルギー・バンドの信号エネルギーによって提供される情報と音響モデルによって提供される情報とが互いに補完し合うため、環境変化に対する堅牢性がもたらされる。信号エネルギー及び音響モデルから得られる2つのタイプの特徴ベクトルは、環境変化に従う。さらに、ここで提示される音声アクティビティ検出技術は、動的重み因子を用いるものであり、動的重み因子は入力信号と関連する環境を反映する。2つのタイプの特徴ベクトルをそうした動的重み因子と組み合わせることによって、音声アクティビティ検出技術は環境変化に適応する。
具体的な例として音響モデルに基づく特徴ベクトルと、異なる周波数帯域におけるエネルギーに基づく特徴ベクトルとが後述されるが、特徴ベクトルのタイプが互いに異なっており、それらが入力信号の相補的な情報を提供する限り、その他のタイプの特徴ベクトルを用いてもよい。
高SNR状態におけるスピーチ検出のための簡単で有効な特徴は、信号エネルギーである。エネルギーに基づくあらゆる堅牢な機構は、信号及びノイズの相対的なレベルと信号の全ゲインとに適応するものでなければならない。さらに、異なる周波数帯域で伝達される情報は、音素のタイプ(自鳴音、摩擦音、滑空音など)に応じて異なるため、エネルギー・バンドを用いてこれらの特徴のタイプを計算する。m個の要素を有する特徴ベクトルは、(En、En、En、...、En)のように書くことができ、ここでmは帯域数を表す。信号エネルギーに基づく特徴ベクトルは、本発明の実施形態に係る音声アクティビティ検出システムに用いられる第1のタイプの特徴ベクトルである。エネルギーに基づく他のタイプの特徴ベクトルは、ログ・エネルギー及びスピーチ・エネルギー・コンターなどのスペクトル振幅である。原則として、ノイズに対して感度の高いあらゆる特徴ベクトルを用いることができる。
メル周波数ケプストラム係数(MFCC)及びそれらの導関数、知覚線形予測(PLP)係数などの周波数ベースのスピーチ特徴は、スピーチ認識システムにおけるノイズに対する堅牢性を向上させるために非常に有効であることが知られている。残念ながら、それらは、VADシステムにおいて直接用いられたときに他の環境音からスピーチを区別するのにはそれほど有効ではない。したがって、それらをVADシステムにおいて用いる方法は、音響モデル(AM)を通じたものである。
音響モデルが用いられる場合、VADの機能は、典型的には、AMがトレーニングされた言語のみに制限される。別の言語についての特徴ベースのVADの使用は、新しいAMとすべてのVADシステムの再トレーニングとを必要とし、計算コストが増大することがある。したがって、2つ以上の言語を取り扱うことができる共通音韻体系(common phonology)でトレーニングされたAMを使用するのが有利である。これによって、精度に対する労力が低コストで最小になる。
多言語AMは、すべての言語にわたる共通アルファベットに基づくスピーチ転写(speech transcription)を必要とする。共通アルファベットを達成するために、関連する言語の各々について既に存在するアルファベットから開始することができ、それらの言語の幾つかは、簡略化し、次いで同じIPAシンボルに対応する幾つかの言語に存在する音を融合することを必要とするものである。この手法は、非特許文献7において説明されている。多言語スピーチ認識についての音響モデリングは、ほとんどの場合、(半)連続隠れマルコフモデル・トレーニングについての確立した方法を利用するものであるが、このタスクのために、各々のクラスについてのクラス事後確率(posterior class probability)を生成するニューラル・ネットワークを考慮することもできる。この手法は、非特許文献8及び非特許文献9において説明される。
スピーチとノイズの両方の観測をガウス混合密度関数(Gaussian mixture density function)の個々の分布によって特徴付けることができると仮定すると、VADシステムは、統計的AMが隠れマルコフモデル・フレームワーク内のガウス混合モデル(GMM)としてモデル化される既存のスピーチ認識システムから、恩恵を受けることもできる。非特許文献10において一つの例を見出すことができる。各々のクラスは、(選択された数の混合を有する)GMMによってモデル化される。スピーチ/ノイズ・イベントについてのクラス事後確率は、フレーム・ベースで計算され、本発明においては(P、P)と呼ばれる。それらは第2のタイプのFVを表す。
以下の説明においては、特徴ベクトルを提供するモデルの例として、多言語音響モデルが用いられることが多い。多言語音響モデルから単一言語音響モデルを導出するのは簡単であることが分かる。さらに、本発明の実施形態に係る音声検出システムにおいては、特定の単一言語音響モデルを用いることが可能である。
周波数帯域のエネルギーに関する第1の特徴ベクトル(En、En、En、...、En)は、事前分類器の第1の組への入力である。音響モデル又は他の関連するモデルによって提供される第2の特徴ベクトル、例えば2つのイベント・タイプについての(P、P)は、事前分類器の第2の組への入力である。事前分類器は、典型的には、ガウス混合分布を出力するガウス混合事前分類器である。本発明の実施形態において採用されるガウス混合モデルのいずれかについて、クラスの各々の事後確率を推定するために、例えばニューラル・ネットワークを用いることができる。
これらの組における事前分類器の数は、音声アクティビティ検出システムが検出することが必要なイベント・クラスの数に対応する。典型的には、2つのイベント・クラス、すなわち、スピーチと非スピーチ(言い換えれば、スピーチとノイズ)が存在する。しかしながら、用途に応じて、より多くのイベント・クラスが必要な場合もある。極めてありふれた例は、以下の3つのイベント・クラス、すなわち、スピーチ、ノイズ及びサイレンスを有することである。事前分類器は、それぞれのイベント・クラスについてトレーニングされている。トレーニングは、以下で少し詳しく説明される。
高SNR(クリーンな環境)においては、2つのクラスの分布は良好に分類され、エネルギー・ベースのモデルと関連する事前分類器のいずれかは、信頼性のある出力を提供することになる。(多言語)音響モデルと関連する分類モデルは、適度に良好なクラス分離を提供することも期待される。低SNR(ノイズの多い環境)においては、エネルギー・バンドと関連する2つのクラスの分布は大きく重なり、エネルギー・バンドのみと関連する事前分類器に基づく判断が不正確なものになる。
FVタイプのうちの一方は、環境のタイプ(ノイズが多い又はクリーン)に応じて他のタイプよりも効果的であると思われる。しかしながら、実際の適用においては環境の変化が非常に頻繁に起こり、これらの変化に対する音声アクティビティ検出システムの堅牢性を向上させるために、両方のFVタイプの存在を必要とする。したがって、本発明の実施形態においては、環境のタイプに応じて2つのFVタイプが動的に重み付けされるスキームが用いられることになる。
どのFVが最も信頼できる判定を提供することになるかを判断するために環境を定義する問題が残っている。環境のタイプを推定する簡単で効果的な方法は、例えばスピーチ/ノイズ分布間といったイベント・タイプ分布間の距離を計算することを含む。良好な識別クラスを提供し、分布間に大きな距離をもたらす極めて識別性のある特徴ベクトルは、分布間にそれほど大きなドット区別(dot differentiate)のない特徴ベクトルに対して強調される。事前分類器のモデル間の距離に基づいて、重み因子の値が求められる。
図1は、本発明の実施形態に係る音声アクティビティ検出システム100を概略的に示す。図2は、音声アクティビティ検出方法200のフローチャートを示す。方法200におけるステップの順序は変えてもよいことが分かる。また、ブロックの配置は、ブロックによって提供される機能が音声検出システム100に存在する限り、図1に示されたものから変えてもよい。
音声アクティビティ検出システム100は、入力データ101を受信する(ステップ201)。入力データは、典型的にはフレームに分割され、フレームは、10−30msの間でサイズが変化する、重なり合って連続するスピーチのセグメント(入力信号)である。エネルギー・バンド・ブロック104は、各々のフレームについて第1の特徴ベクトル(En、En、En、...、En)を求める。フロント・エンド102は、典型的には、各々のフレームについて、MFCC係数及びそれらの導関数、又は知覚線形予測(PLP)係数を計算する(ステップ204)。これらの係数は、音響モデルAM103に入力される。図1においては、音響モデルは、単なる例として、多言語音響モデルであるように示されている。音響モデル103は、各々のフレームについての第2の特徴ベクトルとして音声音響尤度(phonetic acoustic likelihoods)を提供する(ステップ205)。多言語音響モデルは、少なくともトレーニングされた言語のいずれかについてモデル依存VADの使用を保証する。
エネルギー・バンド・ブロック104によって提供された第1の特徴ベクトル(En、En、En、...、En)は、事前分類器の第1の組 M3 121、M4 122に入力される(ステップ203)。音響モデル103によって提供された第2の特徴ベクトル(P1、P2)は、事前分類器の第2の組 M1 111、M2 112に入力される(ステップ206)。事前分類器M1、M2、M3、M4は、典型的にはガウス混合事前分類器であり、ガウス混合分布を出力する。ニューラル・ネットワークを用いて、クラスの各々の事後確率を得ることもできる。これらの組における事前分類器の数は、音声アクティビティ検出システム100が検出する必要があるイベント・クラスの数に対応する。図1は、イベント・クラスとしてスピーチ/ノイズを示す。しかしながら、用途に応じて、より多くのイベント・クラスが必要な場合がある。事前分類器は、それぞれのイベント・クラスについてトレーニングされている。図1の例においては、Mは、(P、P)のみについてトレーニングされたスピーチ・モデルであり、Mは、(P、P)のみについてトレーニングされたノイズ・モデルであり、Mは、(En、En、En、...、En)のみについてトレーニングされたスピーチ・モデルであり、Mは、(En、En、En、...、En)のみについてトレーニングされたノイズ・モデルである。
音声アクティビティ検出システム100は、各々の組における事前分類器によって出力される分布間の距離を計算する(ステップ207)。言い換えれば、事前分類器M1及びM2の出力間の距離KL12が計算され、同様に、事前分類器M3及びM4の出力間の距離KL34が計算される。3つ以上のタイプのイベント・クラスが存在する場合には、組における事前分類器のすべての対の間の距離を計算するか、又は、事前分類器の所定の幾つかの対のみの間の距離を計算することができる。距離は、例えば、カルバック−ライブラー距離、マハラノビス距離、又はユークリッド距離とすることができる。典型的には、事前分類器の両方の組について同じタイプの距離が用いられる。
VADシステム100は、特徴ベクトルに重み因子kを掛けることによって、特徴ベクトル(P、P)と(En、En、En、...、En)とを組み合わせて組み合わせ特徴ベクトルにする(ステップ209)。組み合わせ特徴ベクトルは、例えば、以下の形式のもの、すなわち、(k*En k*En k*En...k*En (1−k)*P (1−k)*P)とすることができる。
重み因子kの値は、距離KL12及びKL34に基づいて求められる(ステップ208)。重み因子kの値を求める1つの例は、以下の通りである。トレーニング段階の間に、トレーニング信号のSNRが計算できるときに、SNRクラス・ラベルを含み距離KL12及びKL34に対応するデータ構造が形成される。表1は、そうしたデータ構造の例である。
Figure 0004568371
表1が示すように、SNR空間をレンジに分割する閾値が存在してもよい。表1においては、閾値は、SNR空間を低SNR及び高SNRの2つのレンジに分割する。距離値KL12及びKL34は、現在の環境タイプを予測するのに用いられ、各々の入力スピーチのフレーム(例えば10ms)について計算される。
表1においては、各々のSNRクラスと距離との対について1つの列が存在する。言い換えれば、ここでの特定の例においては、距離KL12について2つの列(SNR高、SNR低)が存在し、距離KL34について2つの列(SNR高、SNR低)が存在する。表1のフォーマットのさらなる選択肢として、トレーニング段階の間に、すべての距離値KL12を1つの列に集め、すべての距離値KL34をさらに別の列に集めることができる。SNRクラスの列における項目によって、SNR低/高間の区別をつけることができる。
トレーニング段階及び表1を再び参照すると、フレームxにおいて、ノイズの多い環境(低SNR)の場合には、(KL12L−フレーム−x及びKL34L−フレーム−x)の対のみが計算されることになる。次のフレーム(x+1)において、環境が依然としてノイズの多い場合には、(KL12L−フレーム−x+1及びKL34L−フレーム−x+1)の対が計算されることになり、そうでなければ(高SNRの場合には)(KL12H−フレーム−x+1及びKL34H−フレーム−x+1)の対が計算される。各々のフレームについてトレーニング段階において環境タイプが計算され、対応するKL距離が参照テーブル(表1)に集められる。実行時において、SNRに関する情報が不足しているときには、各々のスピーチ・フレームについて距離値KL12及びKL34が計算される。参照テーブルにおける対応する閾値に対するKL12及びKL34値の比較に基づいて、SNRタイプに関する情報が取得される。このようにして、環境のタイプ(SNRクラス)を取得することができる。
まとめとして、トレーニング段階の間に、表1又は同様のデータ構造の値が集められ、トレーニング段階の間に閾値が求められる。実行段階において、音声アクティビティ検出が実行されたときに、距離値KL12及びKL34が表1の(又は同様のデータ構造の)閾値と比較され、その比較に基づいて、どのSNRクラスが現在のフレームの環境を記述するかが判定される。
現在の環境(SNRレンジ)を判定した後で、環境タイプに基づいて、例えば、以下の関係を用いる閾値自体に基づいて、重み因子の値を求めることができる。
1.SNR<閾値のとき、k=min(TH12−L、TH34−L
2.SNR>閾値のとき、k=max(TH12−H、TH34−H
重み因子値の計算に閾値を用いる代わりに、距離値KL12及びKL34を用いることができる。例えば、SNR<閾値のとき、kの値はk=min(KL12、KL34)とすることができ、SNR>閾値のとき、k=max(KL12、KL34)とすることができる。このように、音声アクティビティ検出システムは、環境の変化を考慮に入れることによってさらに動的なものとなる。
組み合わせ特徴ベクトル(重み付きFV)は、スピーチ及びノイズについてトレーニングされた分類器の組131、132に入力される(ステップ210)。3つ以上のタイプのイベントが存在する場合には、組み合わせ特徴ベクトルに作用する分類器の組における事前分類器及び分類器の数は、イベントのタイプの数と一致することになる。組み合わせ特徴ベクトルの分類器の組は、典型的には、発見的決定ルール、ガウス混合モデル、パーセプトロン、サポート・ベクトル・マシン又は他のニューラル・ネットワークを用いる。分類器131及び132によって提供されるスコアは、典型的には、2つのフレームにわたって平滑化される(ステップ211)。次に、音声アクティビティ検出システムは、平滑化されたスコアに基づいてイベントのタイプを判定する(ステップ212)。
図3は、音声アクティビティ検出システム100のトレーニングを概略的に示す。音声アクティビティ検出システム100のトレーニングは、トレーニング信号301を入力し、システム100をトレーニング・モードに切り替えることによって、自動的に行われることが好ましい。フロント・エンド102において各々のフレームについて計算された音響FVは、2つの理由のために、すなわち、データをスピーチ/ノイズにラベル付けするため、及び、スピーチを他のノイズから区別するのにより有効な別のタイプのFVを生成するために、音響モデル103に入力される。後者の理由は、VADシステムの実行段階にも当てはまる。
各々のフレームについてのラベルは、以下の方法、すなわち、手動、強制アライメント・モード(図3の強制アライメント・ブロック302)でスピーチ認識システムを実行すること、又は、既存のスピーチ・デコーダの出力を用いること、のうちの1つによって得ることができる。例示の目的で、トレーニング・データをラベル付けする第2の方法を、図3を参照しながら以下により詳細に説明する。
ブロック303で行われる「phone to class」マッピングを考える。すべての音素をインベントリから区別クラスにマッピングすることによって、所定のすべての言語についての音響音声空間が定義される。説明例として2つのクラス(スピーチ/ノイズ)を選択するが、イベントのクラス及びそれらの数は、音声アクティビティ検出が作動するように意図された環境によって課される必要性に応じて、任意に選択することができる。このステップのために、トレーニング・データの音声転写が必要である。例えば、ノイズ・クラスについては、純粋な静の音素(pure silence phonemes)、無声摩擦音、及び破裂音が選択され、一方、スピーチ・クラスについては残りの音素が選択される。
次に、多言語音響モデル・ブロック103において行われるクラス尤度生成を考える。音響モデル103からの結果と音響の特徴(例えば、多言語AMに入力されるMFCC係数(ブロック103))とに基づいて、AMのガウス分布全体を対応する音にマッピングし、次に対応するクラスにマッピングすることによって、スピーチ事後検出クラスが得られる。例えば、ノイズ・クラスについては、ノイズの多いクラス及び静かなクラスに属するすべてのガウス分布がノイズにマッピングされ、クラスの残りはスピーチ・クラスにマッピングされる。
強制アラインメント・ブロック302においては、ビタビ・アライメントが行われる。信号の正しい転写を仮定すると、強制アライメントは、スピーチ認識と同じ機構を用いて各々の信号セグメント(フレーム)についての音情報を決定する。これによって、特徴が(AMからの)異音(allophone)に整合させられる。次に、phone to classマッピング(ブロック303)は、異音から音声に、最終的にはクラスにマッピングする。強制アライメントからのスピーチ/ノイズ・ラベルは、補正ラベルとして扱われる。
次に、言語にかかわらず、定められたクラスについてガウス・モデル(ブロック111、112)をトレーニングすることができる。
そのため、各々の入力フレームについて、MFCC係数に基づいて第2の特徴ベクトル(P1、P2)がブロック103の多言語音響モデルによって計算され、ブロック302及び303によって対応するクラスに整合される。さらに、この段階でSNRも計算される。ブロック302は、事前にトレーニングされたスピーチ/ノイズ・ガウス混合である事前分類器の第2の組111、112に、SNR情報とともに第2の特徴ベクトルを出力する。
音声アクティビティ検出システム100は、異なる周波数帯域における信号エネルギーを求めるエネルギー・バンド・ブロック104にも、トレーニング信号301を入力する。エネルギー・バンド・ブロック104は、関連するイベントのタイプについて予めトレーニングされた事前分類器の第1の組121、122に、第1の特徴ベクトルを入力する。
音声アクティビティ検出システム100は、トレーニング段階において、事前分類器111、112の出力間の距離KL12と、事前分類器121、122の出力間の距離KL34とを計算する。SNRに関する情報は、距離KL12及びKL34とともに渡される。音声アクティビティ検出システム100は、事前分類器の出力間の距離KL12、KL34とSNRとに基づいて、データ構造、例えば参照テーブルを生成する。
データ構造は典型的には、種々の環境タイプと、これらの環境タイプと関連する距離KL12、KL34の値とを有する。例として、表1は、2つの環境タイプ(SNR低及びSNR高)を含む。これらの環境タイプを分離するために、トレーニング段階において閾値が求められる。トレーニング段階の間に、各々のKL12、KL34値と関連するSNRにしたがって、距離KL12及びKL34が表1の列に集められる。このようにして、列KL12l、KL12h、KL34l及びKL34hが形成される。
音声アクティビティ検出システム100は、前述の第1及び第2の特徴ベクトルに重み因子を掛けることによって、組み合わせ特徴ベクトルを求める。組み合わせ特徴ベクトルは、分類器の組131、132に入力される。
前述のように、3つ以上のSNRクラスを有することもできる。またこの場合においては、SNRクラスを互いに区別するために、トレーニング段階の間に閾値が決定される。表2は、2つのイベント・クラスと3つのSNRクラスとが用いられる例を示す。この例においては、2つのSNR閾値(閾値、閾値)と、距離値についての8つの閾値とが存在する。以下は、この例において重み因子の値を求めるための式の例である。
1.SNR<閾値のとき、k=min(TH12−L、TH34−L
2.閾値<SNR<閾値のとき、
Figure 0004568371

3.SNR>閾値のとき、k=max(TH12−H、TH34−H
Figure 0004568371
さらに、3つ以上のイベント・クラスを有することも可能である。この場合には、音声アクティビティ検出システムにおいて、さらに多くの事前分類器及び分類器が存在する。例えば、3つのイベント・クラス(スピーチ、ノイズ、サイレンス)の場合には、KL(スピーチ、ノイズ)、KL(スピーチ、サイレンス)及びKL(ノイズ、サイレンス)の3つの距離が考えられる。図4は、例として、3つのイベント・クラスと2つのSNRクラス(環境タイプ)が存在する音声アクティビティ検出システムのトレーニング段階を示す。各々のタイプの特徴ベクトルについて3つの事前分類器(すなわちイベント・クラスの数)、すなわち、モデル111、112、113及びモデル121、122、123が存在する。図4においては、トレーニング段階の間に監視される距離の数は、各々のタイプの特徴ベクトルについて6つであり、例えば音響モデルから得られた特徴ベクトルについては、KL12H、KL12L、KL13H、KL13L、KL23H、KL23Lである。FV間の重み因子は、SNR及びFVのタイプによって決まる。したがって、定められたSNRクラスの数及び特徴ベクトルの数が変わらない場合には、重み付けの手順も変わらない。第3のSNRクラスが中(medium)の場合には、エネルギー・タイプのFVについて最大値0.5が推奨されるが、用途に応じて若干調節してもよい。
さらに、フレームについて3つ以上の特徴ベクトルを有することが適切である。最終的な重み付きFVは、(k*FV1、k*FV2、k*FV3、...k*FVn)の形態となり、ここでk1+k2+k3...+kn=1である。より多くのFVを用いることによって考慮されることが必要なのは、異なるSNRクラスに対するそれらの挙動である。そのため、SNRクラスの数は、FVの選択に影響を及ぼす可能性がある。1つのクラスについての1つのFVは、同一のものとすることができる。しかしながら、現時点では、音声アクティビティ検出の分野においてそうした細かい分類は存在しない。
本発明は、すべてがハードウェアからなる実施形態、すべてがソフトウェアからなる実施形態、又は、ハードウェア要素とソフトウェア要素との両方を含む実施形態の形をとることができる。好ましい実施形態においては、本発明は、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むがこれらに限定されないソフトウェアで実現される。
さらに、本発明は、コンピュータ若しくはあらゆる命令実行システムによって又はそれらと関連して用いられるプログラム・コードを提供するコンピュータ使用可能媒体又はコンピュータ可読媒体からアクセス可能なコンピュータ・プログラム製品の形をとることができる。この説明の目的のために、コンピュータ使用可能媒体又はコンピュータ可読媒体は、命令実行システム、機器若しくは装置によって又はそれらと関連して用いられるプログラムを収容し、格納し、通信し、伝搬し、又は搬送することが可能なあらゆる機器とすることができる。
媒体は、電子システム、磁気システム、光学システム、電磁気システム、赤外線システム、若しくは半導体システム(又は機器若しくは装置)、又は伝搬媒体とすることができる。コンピュータ可読媒体の例として、半導体又は固体メモリ、磁気テープ、リムーバブル・コンピュータ・ディスケット、ランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、磁気ディスク及び光ディスクが挙げられる。光ディスクの現時点の例として、コンパクト・ディスク−読み取り専用メモリ(CD−ROM)、コンパクト・ディスク−読み取り/書き込み(CD−R/W)及びDVDをが挙げられる。
プログラム・コードを格納及び/又は実行するのに適したデータ処理システムは、システム・バスを通じて直接的に又は間接的にメモリ要素に結合された少なくとも1つのプロセッサを含む。メモリ要素として、プログラム・コードの実際の実行の際に使用されるローカル・メモリと、バルク・ストレージと、実行の際にコードがバルク・ストレージから取得されなければならない回数を減少させるために少なくとも幾つかのプログラム・コードの一時的な格納場所となるキャッシュ・メモリとを挙げることができる。
入力/出力デバイス、すなわちI/Oデバイス(キーボード、ディスプレイ、ポインティング・デバイスなどを含むがこれらに限定されるものではない)は、直接的に、又は介在するI/Oコントローラを通して、システムに結合することができる。ネットワーク・アダプタをシステムに結合して、データ処理システムが、介在するプライベート・ネットワーク又は公衆ネットワークを通して他のデータ処理システム又は遠隔プリンタ若しくはストレージ・デバイスに結合されるようにすることができる。モデム、ケーブル・モデム及びイーサネット・カードは、現時点で利用可能なタイプのネットワーク・アダプタのうちのほんの一部に過ぎない。
本発明の実施形態は、動的な重み因子の値が各々のフレームについて更新されることを前提として説明されたが、これは必ずしも必須の事項ではないことが分かる。例えば、3番目のフレームごとに重み因子の値を求めることができる。特許請求の範囲における「フレームの組」は、必ずしも互いに厳密に連続するフレームの組についていうことが必要とされるわけではない。重み付けは、クラス分離の正確さを損なうことなく2つ以上のフレームについて行うことができる。重み因子値の更新は、頻度は低いものの音声アクティビティ検出の精度を低下させる場合があるが、用途によっては、その精度は依然として十分なものである。
上記の説明においては、信号対ノイズ比は、入力信号と関連する環境を反映する品質因子として用いられているが、他の品質因子を付加的に又は代替的に適用することもできることが分かる。
この説明は、本明細書に記載された種々の特徴の幾つかの組み合わせを明示的に説明するものである。この説明を分析する当業者には種々の他の組み合わせが明らかであることが分かる。
特許請求の範囲において、コンピュータ化された方法とは、1つ又は複数のプロセッサ、メモリ手段及びストレージ手段の適切な組み合わせを含むコンピュータ・システムによってステップが行われる方法のことをいう。
上記の説明は、本発明の特定の実施形態を参照しているが、当業者であれば、範囲が特許請求の範囲によって定められる本発明の原理及び趣旨から逸脱することなく、これらの実施形態を変更できることが分かるであろう。

Claims (6)

  1. 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法であって、
    入力信号を含むフレームの組を受信するステップと、
    前記フレームの各々について少なくとも2つの異なる特徴ベクトルを求めるステップとを有し、
    前記少なくとも2つの異なる特徴ベクトルのうち、第1の特徴ベクトルはエネルギー・ベース特徴ベクトルであり、第2の特徴ベクトルは音響モデルによって提供される前記少なくとも2つのイベント・クラスのクラス事後確率に基づくものであり、前記少なくとも2つのイベント・クラスはスピーチ・クラス及びノイズ・クラスを含んでおり、
    前記少なくとも2つのイベント・クラスについてトレーニングされた事前分類器の第1及び第2の組に、前記第1及び第2の特徴ベクトルをそれぞれ入力するステップを有し、
    事前分類器の前記第1及び第2の組の各々は、スピーチ・モデル用の事前分類器及びノイズ・モデル用の事前分類器をそれぞれ含んでおり、
    事前分類器の前記第1及び第2の組の各々ごとに、前記スピーチ・モデル用の事前分類器及び前記ノイズ・モデル用の事前分類器からの2つの出力間の各距離値を求め、当該各距離値を少なくとも1つの所定の距離閾値と比較することにより、当該比較結果に従って前記フレームの各々についての信号対ノイズ比を推定するステップと、
    前記推定した信号対ノイズ比を前記少なくとも1つの所定の距離閾値と比較することにより、当該比較結果に従って少なくとも1つの重み因子の値を求めるステップと、
    前記少なくとも1つの重み因子を前記少なくとも2つの異なる特徴ベクトルに掛けることによって、前記フレームの各々について組み合わせ特徴ベクトルを計算するステップと、
    前記少なくとも2つのイベント・クラスについてトレーニングされた分類器の組を用いて、前記組み合わせ特徴ベクトルを分類するステップとをさらに有する、方法。
  2. 前記各距は、カルバック−ライブラー距離、マハラノビス距離、及びユークリッド距離のうちの少なくとも1つに基づくものである、請求項1に記載の方法。
  3. 前記第1の特徴ベクトルは、異なる周波数帯域におけるエネルギー、ログ・エネルギー、及びスピーチ・エネルギー・コンターのうちの少なくとも1つに基づくものである、請求項1又は請求項2に記載の方法。
  4. 前記第2の特徴ベクトルは、ニューラル・ネットワーク、及びニューラル・ネットワークと隠れマルコフ・モデルとの混合型スキームのうちの少なくとも1つに基づくものである、請求項1から請求項までのいずれか1項に記載の方法。
  5. 前記第1の特徴ベクトルは、異なる周波数帯域におけるエネルギーに基づくものであり、前記第2の特徴ベクトルについての前記音響モデルは、一言語音響モデル及び多言語音響モデルのうちの1つである、請求項1から請求項までのいずれか1項に記載の方法。
  6. 求項1から請求項までのいずれか1項に記載の方法のステップをコンピュータに実行させるためのコンピュータ・プログラム。
JP2009536691A 2006-11-16 2007-10-26 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム Active JP4568371B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06124228 2006-11-16
PCT/EP2007/061534 WO2008058842A1 (en) 2006-11-16 2007-10-26 Voice activity detection system and method

Publications (2)

Publication Number Publication Date
JP2010510534A JP2010510534A (ja) 2010-04-02
JP4568371B2 true JP4568371B2 (ja) 2010-10-27

Family

ID=38857912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009536691A Active JP4568371B2 (ja) 2006-11-16 2007-10-26 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム

Country Status (9)

Country Link
US (2) US8311813B2 (ja)
EP (1) EP2089877B1 (ja)
JP (1) JP4568371B2 (ja)
KR (1) KR101054704B1 (ja)
CN (1) CN101548313B (ja)
AT (1) ATE463820T1 (ja)
CA (1) CA2663568C (ja)
DE (1) DE602007005833D1 (ja)
WO (1) WO2008058842A1 (ja)

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010103333A (ko) * 2000-05-09 2001-11-23 류영선 즉석두부용 분말 제조방법
US8131543B1 (en) * 2008-04-14 2012-03-06 Google Inc. Speech detection
US8938389B2 (en) * 2008-12-17 2015-01-20 Nec Corporation Voice activity detector, voice activity detection program, and parameter adjusting method
US8554348B2 (en) * 2009-07-20 2013-10-08 Apple Inc. Transient detection using a digital audio workstation
WO2011010647A1 (ja) * 2009-07-21 2011-01-27 独立行政法人産業技術総合研究所 混合音信号中の混合比率推定方法及びシステム並びに音素認識方法
CN102044242B (zh) 2009-10-15 2012-01-25 华为技术有限公司 语音激活检测方法、装置和电子设备
WO2011044848A1 (zh) * 2009-10-15 2011-04-21 华为技术有限公司 信号处理的方法、装置和系统
CA2778343A1 (en) * 2009-10-19 2011-04-28 Martin Sehlstedt Method and voice activity detector for a speech encoder
US8626498B2 (en) 2010-02-24 2014-01-07 Qualcomm Incorporated Voice activity detection based on plural voice activity detectors
KR20140026229A (ko) 2010-04-22 2014-03-05 퀄컴 인코포레이티드 음성 액티비티 검출
US8762144B2 (en) * 2010-07-21 2014-06-24 Samsung Electronics Co., Ltd. Method and apparatus for voice activity detection
CN102446506B (zh) * 2010-10-11 2013-06-05 华为技术有限公司 音频信号的分类识别方法及装置
US8898058B2 (en) * 2010-10-25 2014-11-25 Qualcomm Incorporated Systems, methods, and apparatus for voice activity detection
WO2012083552A1 (en) * 2010-12-24 2012-06-28 Huawei Technologies Co., Ltd. Method and apparatus for voice activity detection
ES2860986T3 (es) 2010-12-24 2021-10-05 Huawei Tech Co Ltd Método y aparato para detectar adaptivamente una actividad de voz en una señal de audio de entrada
CN102097095A (zh) * 2010-12-28 2011-06-15 天津市亚安科技电子有限公司 一种语音端点检测方法及装置
US20130090926A1 (en) * 2011-09-16 2013-04-11 Qualcomm Incorporated Mobile device context information using speech detection
US9235799B2 (en) 2011-11-26 2016-01-12 Microsoft Technology Licensing, Llc Discriminative pretraining of deep neural networks
US8965763B1 (en) * 2012-02-02 2015-02-24 Google Inc. Discriminative language modeling for automatic speech recognition with a weak acoustic model and distributed training
US8543398B1 (en) 2012-02-29 2013-09-24 Google Inc. Training an automatic speech recognition system using compressed word frequencies
US8374865B1 (en) 2012-04-26 2013-02-12 Google Inc. Sampling training data for an automatic speech recognition system based on a benchmark classification distribution
US8571859B1 (en) 2012-05-31 2013-10-29 Google Inc. Multi-stage speaker adaptation
US8805684B1 (en) 2012-05-31 2014-08-12 Google Inc. Distributed speaker adaptation
US8554559B1 (en) 2012-07-13 2013-10-08 Google Inc. Localized speech recognition with offload
US9123333B2 (en) 2012-09-12 2015-09-01 Google Inc. Minimum bayesian risk methods for automatic speech recognition
US10381002B2 (en) 2012-10-30 2019-08-13 Google Technology Holdings LLC Voice control user interface during low-power mode
US10373615B2 (en) 2012-10-30 2019-08-06 Google Technology Holdings LLC Voice control user interface during low power mode
US9584642B2 (en) 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US10304465B2 (en) 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
US9477925B2 (en) 2012-11-20 2016-10-25 Microsoft Technology Licensing, Llc Deep neural networks training for speech and pattern recognition
US9454958B2 (en) 2013-03-07 2016-09-27 Microsoft Technology Licensing, Llc Exploiting heterogeneous data in deep neural network-based speech recognition systems
US9570087B2 (en) * 2013-03-15 2017-02-14 Broadcom Corporation Single channel suppression of interfering sources
CN107093991B (zh) 2013-03-26 2020-10-09 杜比实验室特许公司 基于目标响度的响度归一化方法和设备
US9466292B1 (en) * 2013-05-03 2016-10-11 Google Inc. Online incremental adaptation of deep neural networks using auxiliary Gaussian mixture models in speech recognition
US9997172B2 (en) * 2013-12-02 2018-06-12 Nuance Communications, Inc. Voice activity detection (VAD) for a coded speech bitstream without decoding
US8768712B1 (en) 2013-12-04 2014-07-01 Google Inc. Initiating actions based on partial hotwords
EP2945303A1 (en) 2014-05-16 2015-11-18 Thomson Licensing Method and apparatus for selecting or removing audio component types
US10650805B2 (en) * 2014-09-11 2020-05-12 Nuance Communications, Inc. Method for scoring in an automatic speech recognition system
US9324320B1 (en) * 2014-10-02 2016-04-26 Microsoft Technology Licensing, Llc Neural network-based speech processing
US9842608B2 (en) 2014-10-03 2017-12-12 Google Inc. Automatic selective gain control of audio data for speech recognition
CN105529038A (zh) * 2014-10-21 2016-04-27 阿里巴巴集团控股有限公司 对用户语音信号进行处理的方法及其系统
US10403269B2 (en) 2015-03-27 2019-09-03 Google Llc Processing audio waveforms
US10515301B2 (en) 2015-04-17 2019-12-24 Microsoft Technology Licensing, Llc Small-footprint deep neural network
US10121471B2 (en) * 2015-06-29 2018-11-06 Amazon Technologies, Inc. Language model speech endpointing
CN104980211B (zh) * 2015-06-29 2017-12-12 北京航天易联科技发展有限公司 一种信号处理方法和装置
US10339921B2 (en) 2015-09-24 2019-07-02 Google Llc Multichannel raw-waveform neural networks
US10229700B2 (en) * 2015-09-24 2019-03-12 Google Llc Voice activity detection
US10347271B2 (en) * 2015-12-04 2019-07-09 Synaptics Incorporated Semi-supervised system for multichannel source enhancement through configurable unsupervised adaptive transformations and supervised deep neural network
US9959887B2 (en) 2016-03-08 2018-05-01 International Business Machines Corporation Multi-pass speech activity detection strategy to improve automatic speech recognition
US10490209B2 (en) * 2016-05-02 2019-11-26 Google Llc Automatic determination of timing windows for speech captions in an audio stream
CN107564512B (zh) * 2016-06-30 2020-12-25 展讯通信(上海)有限公司 语音活动侦测方法及装置
US10475471B2 (en) * 2016-10-11 2019-11-12 Cirrus Logic, Inc. Detection of acoustic impulse events in voice applications using a neural network
US10242696B2 (en) 2016-10-11 2019-03-26 Cirrus Logic, Inc. Detection of acoustic impulse events in voice applications
WO2018118744A1 (en) * 2016-12-19 2018-06-28 Knowles Electronics, Llc Methods and systems for reducing false alarms in keyword detection
CN106782529B (zh) * 2016-12-23 2020-03-10 北京云知声信息技术有限公司 语音识别的唤醒词选择方法及装置
US10810995B2 (en) * 2017-04-27 2020-10-20 Marchex, Inc. Automatic speech recognition (ASR) model training
US10311874B2 (en) 2017-09-01 2019-06-04 4Q Catalyst, LLC Methods and systems for voice-based programming of a voice-controlled device
US10403303B1 (en) * 2017-11-02 2019-09-03 Gopro, Inc. Systems and methods for identifying speech based on cepstral coefficients and support vector machines
CN107808659A (zh) * 2017-12-02 2018-03-16 宫文峰 智能语音信号模式识别系统装置
CN109065027B (zh) * 2018-06-04 2023-05-02 平安科技(深圳)有限公司 语音区分模型训练方法、装置、计算机设备及存储介质
EP3813061A4 (en) * 2018-06-21 2021-06-23 NEC Corporation ATTRIBUTE IDENTIFICATION DEVICE, ATTRIBUTE IDENTIFICATION METHOD AND PROGRAM STORAGE MEDIUM
CN108922556B (zh) * 2018-07-16 2019-08-27 百度在线网络技术(北京)有限公司 声音处理方法、装置及设备
US20200074997A1 (en) * 2018-08-31 2020-03-05 CloudMinds Technology, Inc. Method and system for detecting voice activity in noisy conditions
CN111199733A (zh) * 2018-11-19 2020-05-26 珠海全志科技股份有限公司 多级识别语音唤醒方法及装置、计算机存储介质及设备
CN111524536B (zh) * 2019-02-01 2023-09-08 富士通株式会社 信号处理方法和信息处理设备
CN109754823A (zh) * 2019-02-26 2019-05-14 维沃移动通信有限公司 一种语音活动检测方法、移动终端
US12014728B2 (en) * 2019-03-25 2024-06-18 Microsoft Technology Licensing, Llc Dynamic combination of acoustic model states
CN110349597B (zh) * 2019-07-03 2021-06-25 山东师范大学 一种语音检测方法及装置
KR20210044559A (ko) 2019-10-15 2021-04-23 삼성전자주식회사 출력 토큰 결정 방법 및 장치
US11270720B2 (en) * 2019-12-30 2022-03-08 Texas Instruments Incorporated Background noise estimation and voice activity detection system
CN112420022B (zh) * 2020-10-21 2024-05-10 浙江同花顺智能科技有限公司 一种噪声提取方法、装置、设备和存储介质
CN112509598B (zh) * 2020-11-20 2024-06-18 北京小米松果电子有限公司 音频检测方法及装置、存储介质
CN112466056B (zh) * 2020-12-01 2022-04-05 上海旷日网络科技有限公司 一种基于语音识别的自助柜取件系统及方法
CN112820324B (zh) * 2020-12-31 2024-06-25 平安科技(深圳)有限公司 多标签语音活动检测方法、装置及存储介质
US20220310081A1 (en) * 2021-03-26 2022-09-29 Google Llc Multilingual Re-Scoring Models for Automatic Speech Recognition
KR102318642B1 (ko) * 2021-04-16 2021-10-28 (주)엠제이티 음성 분석 결과를 이용하는 온라인 플랫폼
US12022016B2 (en) * 2022-04-07 2024-06-25 Bank Of America Corporation System and method for managing exception request blocks in a blockchain network

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4696039A (en) * 1983-10-13 1987-09-22 Texas Instruments Incorporated Speech analysis/synthesis system with silence suppression
US4780906A (en) * 1984-02-17 1988-10-25 Texas Instruments Incorporated Speaker-independent word recognition method and system based upon zero-crossing rate and energy measurement of analog speech signal
DE4422545A1 (de) * 1994-06-28 1996-01-04 Sel Alcatel Ag Start-/Endpunkt-Detektion zur Worterkennung
US6314396B1 (en) * 1998-11-06 2001-11-06 International Business Machines Corporation Automatic gain control in a speech recognition system
US6556967B1 (en) * 1999-03-12 2003-04-29 The United States Of America As Represented By The National Security Agency Voice activity detector
US6615170B1 (en) * 2000-03-07 2003-09-02 International Business Machines Corporation Model-based voice activity detection system and method using a log-likelihood ratio and pitch
US6901362B1 (en) * 2000-04-19 2005-05-31 Microsoft Corporation Audio segmentation and classification
JP3721948B2 (ja) 2000-05-30 2005-11-30 株式会社国際電気通信基礎技術研究所 音声始端検出方法、音声認識装置における音声区間検出方法および音声認識装置
US6754626B2 (en) * 2001-03-01 2004-06-22 International Business Machines Corporation Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context
EP1443498B1 (en) * 2003-01-24 2008-03-19 Sony Ericsson Mobile Communications AB Noise reduction and audio-visual speech activity detection
FI20045315A (fi) * 2004-08-30 2006-03-01 Nokia Corp Ääniaktiivisuuden havaitseminen äänisignaalissa
US20070033042A1 (en) * 2005-08-03 2007-02-08 International Business Machines Corporation Speech detection fusing multi-class acoustic-phonetic, and energy features
US20070036342A1 (en) * 2005-08-05 2007-02-15 Boillot Marc A Method and system for operation of a voice activity detector
CN100573663C (zh) * 2006-04-20 2009-12-23 南京大学 基于语音特征判别的静音检测方法
US20080010065A1 (en) * 2006-06-05 2008-01-10 Harry Bratt Method and apparatus for speaker recognition
US20080300875A1 (en) * 2007-06-04 2008-12-04 Texas Instruments Incorporated Efficient Speech Recognition with Cluster Methods
KR100930584B1 (ko) * 2007-09-19 2009-12-09 한국전자통신연구원 인간 음성의 유성음 특징을 이용한 음성 판별 방법 및 장치
US8131543B1 (en) * 2008-04-14 2012-03-06 Google Inc. Speech detection

Also Published As

Publication number Publication date
CN101548313B (zh) 2011-07-13
KR20090083367A (ko) 2009-08-03
JP2010510534A (ja) 2010-04-02
US8554560B2 (en) 2013-10-08
EP2089877A1 (en) 2009-08-19
US20120330656A1 (en) 2012-12-27
CA2663568A1 (en) 2008-05-22
ATE463820T1 (de) 2010-04-15
US8311813B2 (en) 2012-11-13
EP2089877B1 (en) 2010-04-07
US20100057453A1 (en) 2010-03-04
CA2663568C (en) 2016-01-05
KR101054704B1 (ko) 2011-08-08
CN101548313A (zh) 2009-09-30
WO2008058842A1 (en) 2008-05-22
DE602007005833D1 (de) 2010-05-20

Similar Documents

Publication Publication Date Title
JP4568371B2 (ja) 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム
US6615170B1 (en) Model-based voice activity detection system and method using a log-likelihood ratio and pitch
Evangelopoulos et al. Multiband modulation energy tracking for noisy speech detection
Deshwal et al. Feature extraction methods in language identification: a survey
Alam et al. Supervised/unsupervised voice activity detectors for text-dependent speaker recognition on the RSR2015 corpus
EP2083417B1 (en) Sound processing device and program
Chowdhury et al. Bayesian on-line spectral change point detection: a soft computing approach for on-line ASR
Akbacak et al. Environmental sniffing: noise knowledge estimation for robust speech systems
Ishizuka et al. Noise robust voice activity detection based on periodic to aperiodic component ratio
US11837236B2 (en) Speaker recognition based on signal segments weighted by quality
KR101065188B1 (ko) 진화 학습에 의한 화자 적응 장치 및 방법과 이를 이용한 음성인식 시스템
Grewal et al. Isolated word recognition system for English language
Odriozola et al. An on-line VAD based on Multi-Normalisation Scoring (MNS) of observation likelihoods
Stahl et al. Phase-processing for voice activity detection: A statistical approach
JP5136621B2 (ja) 情報検索装置及び方法
US20210225366A1 (en) Speech recognition system with fine-grained decoding
Amrous et al. Robust arabic multi-stream speech recognition system in noisy environment
Pattanayak et al. Significance of single frequency filter for the development of children's KWS system.
Abdulwahab et al. Acoustic Comparison of Malaysian and Nigerian English Accents
Zeng et al. Robust children and adults speech classification
Beritelli et al. Adaptive V/UV speech detection based on characterization of background noise
Deekshitha et al. Multilingual broad phoneme recognition and language-independent spoken term detection for low-resourced languages
Rao et al. Robust Voicing Detection and F 0 Estimation Method
Shih et al. Harmonic-Based Robust Voice Activity Detection for Enhanced Low SNR Noisy Speech Recognition System
Pohjalainen A new HMM-based approach to broad phonetic classification of speech.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100208

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100208

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100806

R150 Certificate of patent or registration of utility model

Ref document number: 4568371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3