JPH09127972A - 連結数字の認識のための発声識別立証 - Google Patents

連結数字の認識のための発声識別立証

Info

Publication number
JPH09127972A
JPH09127972A JP8242436A JP24243696A JPH09127972A JP H09127972 A JPH09127972 A JP H09127972A JP 8242436 A JP8242436 A JP 8242436A JP 24243696 A JP24243696 A JP 24243696A JP H09127972 A JPH09127972 A JP H09127972A
Authority
JP
Japan
Prior art keywords
string
signal
verification
model
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8242436A
Other languages
English (en)
Other versions
JP3549681B2 (ja
Inventor
Wu Chou
チョー ウー
Biing-Hwang Juang
ジョアン ビーイング−ホワン
Chin-Hui Lee
リー チン−フイ
Mazin G Rahim
ジー.レイム マズィン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AT&T Corp filed Critical AT&T Corp
Publication of JPH09127972A publication Critical patent/JPH09127972A/ja
Application granted granted Critical
Publication of JP3549681B2 publication Critical patent/JP3549681B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

(57)【要約】 【課題】 本発明は、一般的に音声認識と立証の分野に
関し、特に、音声立証訓練の分野に関する。 【解決手段】 音声認識システムでは、認識プロセッサ
は、入力として未知の発声信号を受信する。認識プロセ
ッサは、未知の発声信号入力に応答して、認識データベ
ースをアクセスし、未知の発声を分類し、仮定音声信号
を生成するために、認識データベースの認識モデルに対
して発声信号のスコアをカウントする。立証プロセッサ
は、立証されるべき入力として、仮定音声信号を受信す
る。立証プロセッサは、立証データベースに格納される
予め選択された形式の訓練を反映する立証モデルに対し
て仮定音声信号をテストするために、立証データベース
をアクセスする。立証テストに基づき、立証プロセッサ
は、信用測定信号を生成する。信用測定信号は、立証し
きい値に対して比較され、認識プロセッサによりなされ
る認識決定の精度を決定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般的に音声認識
と立証の分野に関し、特に、音声立証訓練の分野に関す
る。
【0002】
【従来の技術】音声認識は、未知の話された発声が識別
されるプロセスである。訓練として知られているプロセ
スを通して、知られている単語または単語ストリングが
テストされ、単語または単語ストリングの特徴は音声認
識装置メモリー内の認識モデルとしてサンプリングされ
て、記録される。認識モデルは、知られている発声の典
型的な音響的解釈を表している。訓練プロセスにおい
て、訓練アルゴリズムが認識モデルに適用され、将来の
未知の単語および単語のストリングを認識するために利
用されるこれらの格納された表現を形成する。
【0003】動作において、音声認識装置は未知の発声
を受信し、未知の発声を認識するために、未知の発声か
ら特徴を抽出する。未知の発声の抽出された特徴は、テ
ストパターンとして参照される。
【0004】認識装置は、その後、未知の発声のための
テストパターンとメモリー内の1つ以上の認識モデルの
組合せとを比較する。認識モデルの各組合せがテストパ
ターンとどれほどよくマッチするかの相対的な測定を提
供するために、スコアをカウントする技術が用いられ
る。未知の発声と最もはっきりとマッチする1つ以上の
認識プロセッサモデルの組合せと関連する単語として未
知の発声は認識される。
【0005】従来の音声認識の実際では、音声認識モデ
ル化とモデル訓練のために妥当な可能性またはクラスの
数「N」が利用された。そのようなN-クラスモデルに
おいては、認識されるべきすべての発声入力は妥当であ
ると仮定される。「N」個の存在可能なクラスの各々に
対する認識モデルは、認識装置メモリーに格納されてい
る。妥当であるかどうかにかかわらず、認識されるべき
全ての音声入力は、Nクラスのうちの1つとして分類さ
れる。認識装置は、N個のモデルの各々に対する発声の
スコアを計算し、発声を、最もよいスコアを持つ(N個
のクラスの内の)あるクラスにマッチさせる。
【0006】付加的な、または「N+1」のクラスの概
念が、N個の妥当なクラスの認識に加えて、(「フィラ
ー」モデルと指定される)関連したN+1モデルを提供
するように開発されている。そのようなシステムにおい
ては、認識されるべき入力発声がN個の妥当なクラスの
入力に対するN個のモデルの各々に対して、また付加的
に、N+1フィラークラスモデルに対して、スコアが数
えられる。N+1モデルは、すべての無効の入力を表す
ように設計されている。N+1フィラーモデルの使用に
より、認識プロセスはさらに洗練され、入力発声または
入力発声のセグメントが妥当ではないかもしれないこと
を考慮するようになった。
【0007】いったん未知の発声が音声認識プロセスに
よって分類されると、音声認識装置によりなされる分類
決定の確実性を評価することがしばしば、望ましい。こ
れは、2パスプロセスにより達成され、未知の発声は最
初にN個の可能な妥当なクラスを表すN個のモデルに対
してそれのスコアを数えることにより認識される(分類
される)。最もよいスコアを提供する認識モデルは、そ
の関連したクラスにマッチされ、それは、後で立証され
るべき仮定発声として認識される。仮定認識発声は、そ
の後、フィラー立証モデルに対して第2のパスにおいて
立証され、そのモデルは、上述のN+1認識フィラーモ
デルと同様であるはずである。
【0008】2パス音声認識プロセスは、未知の発声の
認識を可能にし、続いて、システムが認識決定について
どれほど信用できるかの計算される判定が続く。例え
ば、認識装置は未知の発声を特定の単語として分類し、
立証器は、フィラーモデルを使って分類が正しいことを
示す。立証器は、認識装置が適切に分類したかどうかに
かかわらず、立証器は、2進の決定、「はい」、または
「いいえ」を作成するために使用される。
【0009】発声立証は音声認識システム開発の重要な
観点を表している。発声立証は、計算された信用スコア
に基づいて全体の発声のうちの拒絶する部分またはすべ
てを含んでいる。信用スコアは、優度比距離に基づくこ
とができ、それは、単語が音声のあるセグメント中に存
在するかどうかをテストする。優度比距離は、発声が妥
当な単語なしでなされ、認識される発声が乏しい状況
で、あるいは重要な混乱が高いエラーレートを発生する
単語間に存在するとき、特に有益である。
【0010】音声認識システムの文脈での発声立証の成
功した性能は、立証モデルを訓練するために用いられる
技術の有効性と密接に関連し、そのモデルは立証プロセ
スにおいて使用される。従来の訓練方法には欠陥が存在
し、それは、訓練と立証エラーレートの間の直接的な関
係の不足に起因している。立証エラーレートを直接最小
化する訓練方法を見つけることが、目下の問題である。
【0011】
【発明の概要】音声認識技術の進歩が、本発明により提
供され、それでは、接続された単語のストリングを認識
するために2つのパスの認識と立証戦略を採用する。本
発明の図示される実施例によれば、音声認識システム
は、認識プロセッサを具備するか、または仮定ストリン
グを生成し、未知の接続された単語の音響的入力ストリ
ングに基づいて接続された単語の仮定ストリングを発生
するための認識プロセッサと、接続された単語の仮定ス
トリングに応答するストリングベース信用測定信号を生
成する立証プロセッサとを具備する。認識データベース
は、認識プロセッサによって使用される認識モデルを格
納する。立証データベースは、立証プロセッサによって
使用される立証モデルを格納する。
【0012】第1のパスでの認識は、隠れマルコフモデ
ルのセットを使用して従来のビタービ(Viterbi) ビー
ムサーチアルゴリズムで実行され、そのモデルは、スト
リング分類エラーを最小化するように訓練されている。
第2のパスでの発声立証は、本発明による最小ストリン
グ立証エラー(MSVE)訓練プロセスで訓練された隠
れマルコフモデルのセットを使用して、仮定認識ストリ
ングを立証するために実行される。
【0013】立証エラーを最小限にするために立証デー
タベースに格納された立証モデルを訓練する方法が利用
される。訓練方法は、予期されるストリング立証エラー
を計算し、最小化することを含んでいる。
【0014】訓練プロセスにおいて、最初に、立証デー
タベースの立証モデルが初期設定される。既知の仮定ス
トリングが選ばれる。立証プロセッサは、既知の仮定ス
トリングのための現在の立証モデルに基づいて第1のス
トリングベース信用測定信号を生成する。
【0015】既知の仮定ストリングのための現在の立証
モデルと混同するほど似た1つ以上の競合ストリングモ
デルが生成される。1つ以上の競合ストリングモデルは
立証プロセッサに提供され、それは、既知の仮定ストリ
ングと1つ以上の競合ストリングモデルに基づいて1つ
以上のストリングベース信用測定信号を生成する。
【0016】誤立証信号は、既知の仮定ストリングのた
めの第1のストリングベース信用測定信号に基づいて立
証プロセッサにより生成され、1つ以上の競合ストリン
グモデルに基づいてストリングベース信用測定信号が生
成される。誤立証信号に基づく損失関数信号は、その既
知の仮定ストリングのための現在の立証モデルに基づく
既知の仮定ストリングの立証を、1つ以上の他の競合立
証モデルをもつ既知の仮定ストリングの立証に関係づけ
る勾配に提供する。勾配決定は、損失関数信号の導関数
を利用して達成される。
【0017】立証モデルは、未知の仮定ストリングを誤
立証する優度を最小化するために更新される。更新プロ
セスは、予期される損失関数信号を評価し、立証エラー
の優度を最小化するために、評価される損失関数信号に
応答する立証モデルを繰り返し調整する。
【0018】本発明の音声認識システムは、立証プロセ
ッサにより生成される信用測定信号を立証するために最
適立証しきい値信号値を生成するように動作させられる
ことができる。立証しきい値信号値は、仮定認識ストリ
ングを拒絶する決定のための基礎を提供し、立証エラー
レートを維持するように選ばれる。
【0019】既知の仮定ストリングは、立証プロセッサ
に入力され、それは、立証データベースに格納された立
証モデルをアクセスするように結合されている。1つ以
上の競合ストリングモデルが既知の仮定ストリングに基
づいて生成される。1つ以上の競合ストリングモデルは
立証プロセッサに提供される。
【0020】立証プロセッサは、予め選択された数の場
に対して、既知の仮定ストリングのための現在の立証モ
デルに基づいて第1のストリングベース信用測定信号を
生成し、既知の仮定ストリングに基づいて1つ以上の競
合ストリングモデルのうちの各々に対するストリングベ
ース信用測定信号を生成するように動作させられる。既
知の仮定ストリングに対する現在の立証モデルに基づく
ストリングベース信用測定信号値の第1の分布は記録さ
れる。既知の仮定ストリングに対するストリングベース
信用測定信号値の第2の分布と競合モデルは記録され
る。立証しきい値信号値は、第1の平均と第2の平均と
に基づいて選択され、調整される。
【0021】ここに、教示される技術は、ストリング立
証エラーレートを最小化することと直接関連する。本発
明の他の目的、利点、および顕著な特徴は、本発明の好
適実施例を開示し、添付図面と関連してなされる以下の
詳細な説明から明らかとなるであろう
【0022】
【発明の実施の形態】説明の明瞭化のために、本発明の
図示される実施例は、(「プロセッサ」とラベルされた
機能ブロックを含めて)個々の機能ブロックを具備する
として提供される。これらのブロックが表している機能
は、それに制限されないが、ソフトウェアを実行可能な
ハードウェアを含めて、共有されたまたは専用とされた
ハードウェアのいずれかの使用によって提供される。例
えば、図1から図4において提供されるプロセッサの機
能は、単一な共有プロセッサによって提供されても良
い。(ソフトウェアを実行可能なハードウェアを排他的
に参照するように、用語「プロセッサ」の使用が解釈さ
れるべきでない。)
【0023】図示される実施例は、AT&T DSP1
6またはDSP32Cなどのデジタル・シグナル・プロ
セッサ(DSP)ハードウェア、下で議論される動作を
実行するソフトウェアを格納するためのリード・オンリ
ー・メモリ(ROM)、DSP結果を格納するためのラ
ンダム・アクセス・メモリ(RAM)を具備する。汎用
DSP回路と組合せてのカスタムVLSI回路だけでな
く、超大規模集積(VLSI)ハードウェア実施例が、
また提供されてもよい。
【0024】図1は、HMMベース音声認識システムの
文脈の一般的説明の目的のために本発明の図示される実
施例を提供する。音声認識システム8は、認識プロセッ
サ10、別個の隠れマルコフモデル(”HMM”)認識
モデルのセットを含む認識データベース12、立証プロ
セッサ14および別個のHMM立証モデルのセットを含
む立証データベース16を具備する。
【0025】認識プロセッサは、単語の未知の音声スト
リング18(発声)を入力として受信する。認識プロセ
ッサ10は、未知の音声ストリング18入力に応答して
認識データベース12をアクセスし、未知の単語ストリ
ングを分類して、仮定認識ストリング信号を生成するた
めに、認識データベース12の認識モデルに対する未知の
単語音声ストリングのスコアを数える。立証プロセッサ
は、仮定ストリング信号20を、立証されるべき入力とし
て受信する。立証プロセッサ14は、立証データベース
16をアクセスして、立証データベースに格納されてい
る立証モデルに対する仮定ストリング信号をテストす
る。立証テストに基づいて、立証プロセッサ14は、信
用測定信号22を生成する。信用測定信号は、立証しき
い値信号値に対して比較されるべきしきい値コンパレー
ター24に通され、認識プロセッサ10によりなされた
分類決定の精度を決定する。
【0026】図2は、音声認識システム8の立証訓練お
よびテストプロセスを説明するためのより詳細な図を提
供する。図2を参照して、音声認識システムは、訓練音
声データベース26、特徴抽出器28、第1のモードス
イッチ30、第2のモードスイッチ32、単語ベース信
用スコア計算器34、平均単語ベース信用スコアプロセ
ッサ36、ストリングベース信用測定信号発生器38、
しきい値比較器40、従来のHMM訓練器42、HMM
パラメーター立証データベース44、N最良ストリング
モデル発生器46、および強化された訓練器48を具備
する。
【0027】訓練音声データベース26は、デジタル形
式での既知の音声信号のサンプルを具備する。各音声信
号は、1語以上の話された単語のストリングに対応す
る。これらのサンプルは従来の訓練器42と強化された
訓練器48のためにそれぞれ使われる。訓練音声データ
ベース26からの既知の音声ストリングのサンプルは、
第1のモードスイッチ30を介してシステムの他の構成
要素に提供される。
【0028】第1のモードスイッチ30は、システムの
2つの動作モードを反映する:訓練(T)モードとテス
トのための立証(V)モードである。第1のモードスイ
ッチ30が(図示のように)T位置にあるとき、訓練デ
ータベース26からの訓練ストリング信号は、訓練がシ
ステムの訓練部50によって実行できるように、システ
ムのバランスに提供される。第1のモードスイッチがV
位置にあるとき、デジタル形式の仮定認識音声ストリン
グ信号が、システムの立証部52により立証のためにシ
ステムのバランスに提供される。
【0029】システムの特徴抽出器28は、第1のモー
ドスイッチ30に結合されている。第1のモードスイッ
チの状態に依存して、特徴抽出器28は、訓練ストリン
グ信号または仮定音声ストリング信号を受信する。これ
らの受信ストリング信号に基づいて、特徴抽出器は、立
証または訓練の目的でストリング信号を特徴付ける1つ
以上の特徴ベクトルOを作成する。
【0030】特徴抽出器からの特徴ベクトル出力は、第
2のモードスイッチ32に提供される。第2のモードスイ
ッチは、第1のモードスイッチとタンデム形式で動作す
る。すなわち、両方のスイッチは、両方のスイッチに提
供されるモード信号54に基づいて、同時に同じ状態
(TまたはV)にセットされる。第2のモードスイッチ
32は、特徴抽出器28の出力をシステムの立証部52
または訓練部50に向ける。
【0031】システムの立証部52は、認識プロセッサ
10によりなされた認識決定をテストするために選択さ
れることができる(図1)。図2に示される立証部52
は、単語ベース信用スコア計算器34、平均単語ベース
信用スコアプロセッサ36、およびストリングベース信
用測定信号発生器38を具備する。
【0032】特徴抽出器28は、一連のフレーム特徴ベ
クトルを出力する。特徴ベクトルのフレームに基づく単
語信号は、単語ベース信用スコア計算器34に提供され
る。単語ベース信用スコア計算器は、離散的な単語信号
について計算を実行する。単語ベース信用スコア計算器
34は、1つ以上の立証モデル(この場合隠れマルコフ
モデル「HMM」)のストリングを、仮定認識音声スト
リング信号の各単語信号にマッチさせる。信用スコア計
算器34は、仮定ストリング信号の各単語信号に対して
単語ベース信用スコアを生成する。ストリングの各単語
セグメントに対して計算される単語ベース信用スコア
は、信用のレベルを示し、それは、仮定ストリングの各
特定の単語が正しく認識され、音声認識システムに提供
された入力発声の単語に正確に対応しているレベルであ
る。
【0033】平均単語ベース信用スコアプロセッサ36
は、仮定ストリング信号の各単語セグメント信号に対し
て生成される単語ベース信用スコアのセットについて算
術平均演算を実行して、平均単語ベース信用スコア信号
を生成するための手段を提供する。平均信用スコア信号
は、ストリングベース信用測定信号発生器38に通され
る。
【0034】ストリングベース信用測定信号発生器38
は、平均信用スコア信号を受信するように結合されてい
て、ストリングベース信用測定信号を生成するように応
答する。ストリングベース信用測定信号は、立証テスト
結果を具体化し、立証プロセッサに提供される仮定スト
リング信号が実際の話された単語ストリングを正確に表
しているという信用度の測定を提供する。
【0035】立証プロセッサに提供される仮定(の)認
識(される)音声ストリング信号が音声認識システムに
元々入力される未知の音声単語ストリングであることを
立証するために、信用測定信号は、立証しきい値信号値
40と比較される。信用測定信号がしきい値信号値以下
ならば、仮定ストリング信号は、実際の話された入力発
声を間違って表しているとして拒絶される。すなわち、
立証プロセッサに提供される仮定ストリング信号は立証
されることができないであろう。
【0036】システムの訓練部50は、従来のHMM訓
練器42、HMMパラメーターデータベース44、N最
良ストリングモデル発生器46、および強化された訓練
器48を具備する。従来のHMM訓練器42は、米国特
許番号4,783,804により説明されるようであ
り、HMMの従来の訓練を提供する。従来の訓練器の出
力は、HMMのセットが基づく訓練音声ストリングの特
徴ベクトルOだけでなく、1つ以上の従来のように訓練
されたHMMsの組ΘI を具備する。従来の訓練器42の
出力は、初期化パラメーターとしてN最良ストリング発
生器46および強化された訓練器48による使用のため
にHMMパラメーターデータベース44に記録される。
【0037】強化された訓練器48は、初期のパラメー
ターΘI を受信して、HMMパラメーターデータベース
に強化されたまたは更新されたHMMのセットΘU を戻
す。強化されたモデルΘU は、最終的に、立証モード処
理の間に単語ベース信用スコア計算器34に提供され
る。従来のように訓練されたHMMΘI よりもむしろ強
化されたHMMΘU の単語ベース信用スコア計算器の使
用は、ストリング立証エラーレートの減少を達成するた
めに提供される。
【0038】N最良ストリングモデル発生器46は、H
MMパラメーターデータベース44から、隠れマルコフ
モデル(HMM)パラメーターΘI と訓練音声ストリン
グOを受信するように結合されている。N最良ストリン
グモデル発生器46は、ストリングモデルのセットを生成
するように動作し、そのモデルは、仮定認識ストリング
信号のための現在の立証モデルと高度に競合する。これ
らの競合するストリングモデルは、強化された訓練器4
8の区別的な訓練のための基礎を提供する。即ち、立証
プロセッサへの正しい仮定ストリング信号入力が立証プ
ロセッサに極めて高い信用測定信号を生成させるよう
に、また、間違った仮定ストリング入力は、立証プロセ
ッサに低い信用測定信号信号を生成させるように、立証
モデルを訓練するためである。
【0039】N最良ストリング発生器46は、”N”個
の最良の(競合する)単語ストリングと、各そのような
単語ストリングのための最良のHMM立証モデル列とを
決定することにより、”N”個の最良の(あるいは最も
競合する)単語ストリングを発生する。N最良単語スト
リングの決定は、修正されたビタービデコーダーのDS
P実行の使用によってなされる。
【0040】修正されたビタービデコーダは、部分的な
パスマップ、即ち瞬間毎にいずれかの文法ノード(即ち
単語の結合点)に通じるすべての部分的なパスのすべて
のスコアのリスト(または、マトリクス)を準備する。
その後、修正されたビタービ前検索の終了時に、デコー
ダは、当業界でよく知られたA*トレースバックツリー
検索を使用する。発生器は、「スタック」(位付けられ
たデータリスト)の先頭にある先頭(ベスト)部分的パ
スを育てることによりツリー検索を実行する。スタック
上のすべての部分的パスの位付けは、完了されるときに
部分的パスが達成できる最良の可能なスコアにより決定
される。ビタービ前検索において準備される部分的パス
マップは、後方ツリー検索においていかなる不完全な部
分的パスに対してもスコアを提供する。A*手続の「最
良が1番」という性質のため、先頭のNストリングは逐
次生成される。
【0041】スタック深さがいずれの検索エラーも回避
するように十分に深いとすると、A*アルゴリズムの許
容性、または最適なパスの確実な発見は、部分的なパス
の不完全な部分の上限がスタックデコーダーとして使用
されるときに保証される。ツリートレリス手順におい
て、同じHMMが両方向に沿っての検索において使われ
れば、最もしっかりとした上限、あるいはそのパスの実
際のスコアが得られる。
【0042】発生器は、N最良ストリングリスト中の各
単語ストリングに対するモデルのセットに対して入力音
声ストリングOのビタービ整列によりN最良単語ストリ
ングに基づいてN最良ストリングモデルを生成する。こ
のステップは、同じ単語ストリングに対応する多くのス
トリングモデルが存在するかもしれないので、発生器に
より実行される、しかし、あるモデルのセットに対する
入力発声に最もよくマッチするストリングモデルは独特
である。
【0043】発生器が、未知の競合ストリングをモデル
化する能力を提供することに注意すべきである。これ
は、N最良デコーディングによって生成される競合する
単語ストリングモデルが、訓練資料により制限されない
という事実に起因している。N最良ストリングリスト
は、動的で、音声立証モデルの組に基づいてストリング
レベル音響分解能を反映する。
【0044】従って、HMMパラメーターデータベース
44の基礎的な立証モデルは、N最良ストリングモデル発
生器(一種の音声認識装置)により生成されるストリン
グモデルにより訓練される。生成されたストリングモデ
ルは、元の訓練資料に無い単語ストリングに基づくこと
ができるが、認識装置が、既知の仮定ストリング信号と
混同してそれを見つける。認識装置が既知の仮定ストリ
ング信号と混同して見つけるこれらの知られていない競
合単語ストリングは、そのような知られていない混同し
やすい同様なストリングに対する立証モデル化を改善す
るように識別的にモデル化される。(正しいストリング
と混同されそうである)知られていないストリングを識
別するための基礎を提供するように立証モデルを準備す
るモデル化は、訓練資料の貧しいストリング範囲により
そのようなモデル化が連続的な音声認識と立証において
遭遇する困難さを減少させるので、有益である。
【0045】N最良ストリングモデル発生器の動作は、
同時継続の米国特許出願番号08/030,895に詳
細に説明されており、それは本願の所有者に譲渡され、
ここにそれに述べられているまま引用により組み込まれ
る。
【0046】最小ストリング立証エラーレート訓練で
は、N最良ストリングモデルは、ストリングエラーを表
し、減らすために特に設計されている識別関数のセット
に組み込まれる。これは、以下に説明するように、強化
された訓練器48の動作によりなされる。
【0047】発声立証プロセッサ14(図1)は、仮定
ストリング信号という形で提案された仮定認識発声を立
証するために、統計的仮定テストを公式化し、適用する
ように動作する。立証プロセスのタスクは、仮定のキー
ワードまたはキーワードの組が、未知の発声に存在しな
い(すなわち、提案された認識された仮定発声20は不正
確である)という他の仮定に対して、仮定のキーワード
またはキーワードのセットが、未知の発声内に存在する
という無効仮定をテストすることである。
【0048】立証プロセスは、提案された仮定発声の精
度を立証するために、優度比距離計算を用いるように設
計されている。本発明によれば、発声立証モデルは、ス
トリングレベルについて作られ(訓練され)、立証テス
トは、ストリングレベルについて実施される。ここで教
示される発声立証は、仮定ストリング信号に対するスト
リングベース信用測定信号を生成するために単語信号セ
グメントの単語ベース信用スコアの寄与を結合する幾何
学的平均化の形式を使用する。ストリングベース信用測
定信号は、仮定ストリング信号のすべてまたは一部分を
受け入れ、あるいは拒絶するために、しきい値信号値40
(図2)に対して立証される。
【0049】図2を参照して、立証テストモードでは、
仮定された単語ストリング55は、立証部52への提供
のために第1のモードスイッチ30を介して特徴抽出器
28に通される。単語iの仮定されたストリング(信号
55)は、認識プロセスの結果としてN個の単語{O
q }に分割される。
【0050】立証部52は、立証のために、与えられた
モデル組ΘU を利用する。立証部52は、HMMパラメ
ーターデータベース44の現在のモデルのセットに基づ
いて仮定単語ストリングに基づいて信用測定信号を生成
する。仮定単語ストリングは、不合格にされる。生成さ
れた測定信号
【数1】 が、予め定義された立証しきい値信号値τ以下であれ
ば、拒絶される。ここで、kは、負の定数であり、L
(Oq ;Θ,l)は、数字(フレーム)lと認識される
音声セグメントqの信用スコアを示す。従って、信用測
定信号は、ストリング信号の各音声セグメントq(単語
フレーム)の信用スコアの平均と数学的に関連付けられ
る。
【0051】HMMベース立証モデルは、立証部52に
よりアクセスされて、利用されるための立証データベー
ス44に格納されている。立証データベース44内の立
証モデルΘは、3つの異なる組からなる。即ち、キーワ
ード間の混同可能性を扱うキーワード{θ1 (k)}、と反
キーワード{θ1 (a)}、及び無キーワード(無効の入
力)を識別するための一般的音響フィラーモデルθ(f)
である。
【0052】音声セグメントq,L(Oq ;Θ、l)の
単語ベース信用スコア34は、キーワード仮定とその競合
する他の仮定の間で優度比のログ(log)を用いて構
成されることができる。即ち、
【数2】 ここで、g1(Oq)=logp(Oq |θ1 (k))であ
り、
【数3】 従って、音声セグメントqに対する信用スコア計算は、
単語モデルスコアとフィラーモデルを用いて反単語モデ
ルで計算されたスコアの間の比較を関連づける。
【0053】式(1)で信用測定信号si (O;Θ)を
最大化する方法の1つは、Θのパラメーターが、データ
ベース44に格納されるように訓練するために、最大優
度手続を適用することである。しかしながら、音声認識
実験に基づいてこの種の訓練は、立証または認識エラー
レートを最小化することについて最良の性能を与えない
ことが示されている。
【0054】このため、最小ストリング分類エラー(M
SCE)訓練プロセスが、認識データベース12(図1)
に認識モデルを創造するために開発された。そのような
音声認識訓練方法は、1つ以上の既知の音声信号と現在
の認識モデルのセットとに基づいて音声認識データベー
スを提供するために用いられる。MSCE訓練プロセス
において、第1の認識装置スコア信号は、既知の音声信
号と、その信号のための現在の認識モデルに基づいて生
成される。混同しやすい仮定のセットは、各々既知の音
声信号および別の現在の認識モデルに基づいて1つ以上
の他の認識装置スコア信号を生成するために生成され
て、認識装置に適用される。
【0055】認識プロセッサは、第1の認識装置スコア
信号および他の競合認識装置スコア信号に基づいて誤分
類(誤認識)信号を生成する。認識モデルパラメーター
は、誤認識信号に基づいて修正されて、訓練における既
知の音声信号またはテスト動作における未知の音声信号
を誤認識する優度を減少させる。実施例の説明と手続
は、本願の所有者に譲渡された上記同時継続米国特許出
願08/030,895に提供される。
【0056】ストリングベース最小ストリング分類エラ
ー(MSCE)訓練におけるゴールは、予期されるスト
リング分類エラーレートを最小化することである。対照
的に、最小ストリング立証エラー(MSVE)訓練にお
けるゴールは、予期されるストリング立証エラーレート
を最小化することである。従って、MSCEアプローチ
において使われる数学的な戦略と採用される特定の目的
関数は、最適な発声立証性能とは一致しない。
【0057】本発明は、MSCEと同じ精神で最小スト
リング立証エラー(MSVE)訓練プロセスを利用する
が、HMMパラメーターデータベース44の立証モデル
に対して設計されている。誤立証測定は計算されて、予
期されるストリング立証エラーレートを最小化するため
に使用される。
【0058】MSVE訓練は、ストリングレベルにおい
て適用されて、式(1)において使われる目的関数と一
致している。MSVE訓練は、予期される関数を最小化
するように実行される。
【数4】 ここで、S()は、なめらかな0−1シグモイド非線形
関数である。
【0059】図3を参照して、強化された訓練器48
は、ストリング誤立証測定プロセッサ56、ストリング
モデル損失関数プロセッサ58、及びHMM更新プロセ
ッサ60を具備する。強化された訓練プロセスは、目的
として、式(4)について説明された予期される損失関
数を最小化して、ストリング立証エラーを実質的に減少
させる。好適実施例において、強化された訓練プロセス
は、音声認識システムにおいて上記プロセッサにより実
行される2つのプロセスステップとして実現される。
【0060】A.ストリング誤立証測定プロセッサ。 ストリング誤立証測定プロセッサ56は、N最良ストリ
ングモデル発生器46からHMMパラメーターΘI 、N
ストリングモデルSj 、および訓練音声ストリングサン
プルOを受信する。ストリングサンプルO、モデルS
j 、及びΘI に基づいて、誤立証プロセッサ56は、第
1のプロセスステップとして、i番目の仮定ストリング
i (O;Θ)ためのストリング誤立証測定値を決定す
【数5】 ここで、si (O;Θ)は、式(1)により定義される
発声ベース識別関数であり、si(O;Θ)は、以下の
ように定義される反識別関数である。
【数6】 ここで、Nは、競合ストリング仮定の全体数であり、η
は、図では2に設定される正の数である。
【0061】ストリング誤立証プロセッサ56は、図3
に示される後続のプロセッサによって使用されるための
スカラーdの値を決定し、以下の間の差を説明する誤立
証信号を生成する:(a)既知の仮定ストリング信号に
対する現在の立証モデルと既知の仮定ストリング信号に
基づく信用測定信号、および(b)その既知の仮定スト
リング信号に対するN最良競合立証モデルに基づく1つ
以上の他の信用測定信号の平均。
【0062】B.ストリングモデル損失関数プロセッサ 第2のプロセスステップは、立証エラーカウントを近似
する。これは、シグモイド非線形関数を用いてなされ
る。ストリングモデル損失関数プロセッサ58は、誤立
証測定プロセッサ56から受信されるスカラー値di
(O;Θ)に基づいてなめらかなストリング損失関数l
i (O;Θ)を評価する。この損失関数は以下のように
定義される。
【数7】 ここで、αとβは、それぞれ、シグモイド非線形平滑化
関数の傾きとシフトを制御する定数である。
【0063】ストリングモデル損失関数プロセッサ58
は、出力として、スカラーlを損失関数信号の形でHM
M更新プロセッサ60に提供する。
【0064】上記のパラメーターαとβは、ストリング
損失関数li (O;Θ)に平滑化された近似を提供する
のを助ける。ストリング損失関数の傾きは、HMM更新
プロセッサ60により使用され、現在の立証モデルHM
MパラメーターΘI を更新する。その傾きは、その仮定
ストリング信号に対する現在の立証モードモデルに基づ
く既知の仮定ストリング信号の信用測定を、1つ以上の
他の現在の立証モデルに基づく既知の仮定ストリング信
号の信用測定に関連づける。従って、この損失関数の予
期されるストリング損失の最小化は、ストリング立証エ
ラー確率の最小化と直接結び付けられる。
【0065】C.HMM更新プロセッサ 立証モデルパラメーター更新の説明に先立ち、HMM更
新プロセッサ60の動作の背景が提供される。最小スト
リング立証エラー(MSVE)訓練は、式(7)の予期
される損失関数を最小化する1組のパラメーターΘを見
つけることに導かれ、それはE[li (O;Θ)]とし
て指定される。
【0066】最小化パラメーターΘの組を見つけるため
に、パラメーターセットΘは、以下の式に従って、各繰
り返しn毎に更新される。
【数8】 式(8)では、Θn は初期HMMパラメーターセット評
価である。E[li (O;Θ)]は、予期される損失関
数である。∇は、数学的導関数演算を表している。Θ
n+1 は、予期される損失関数E[li (O;Θ)]を最
小にするHMMパラメーターセットに対する最良評価で
ある。
【0067】この式は、立証モデルパラメーターを調整
するための勾配下降繰り返しを遂行して、予期される損
失関数の最小化を達成する。ここで、εn は、繰り返し
の際に使用される一連のステップサイズパラメーターあ
るいは学習レートであり、Vn は、以下に定義される正
の有限の学習マトリクスである。
【数9】 ならば、予期される損失の静止点に収束する。
【0068】図3の実施例では、HMMパラメーター
は、HMM更新プロセッサ60により(8)に従って適
応的に調整される。HMMの構造により、それらのパラ
メーターは、ある制約条件を満たさなければならない。
HMM更新プロセッサは、すべてのそのような制約条件
を満たすように、パラメーター更新プロセスの一部とし
て、変換されたHMMパラメーターを使用する。以下の
変換は、HMM更新プロセッサにより使われる。
【0069】(1)分散の対数
【数10】 ここで、各立証モデルが、例えば単語またはサブ単語を
反映する場合、σ2 i,j,k ,d はi番目の立証モデル、j
番目の状態、k番目の混合要素、及びd特徴ベクトルの
d次元の分散である。
【0070】(2)混合重みの変換された対数 元の混合重みCi,j,k は、次の通りに、変換された混合
重みCi,j,k と関連づけられる。
【数11】 ここで、Lは、i番目の立証モデル中のj番目の状態に
ある混合重みの全体数である。
【0071】(3)遷移確率の変換された対数 元の遷移確率ai,j は、以下のようにして、変換された
遷移確率に関連づけられる。
【数12】 ここで、Mは、i番目の立証モデルの全体の状態数であ
る。
【0072】図示される実施例の重要な観点は、小さい
分散を扱うことに関する。正しくなく扱われると、逆効
果になるので、過去に提案されたいくつかの補正訓練ア
ルゴリズムにおいては、分散調整は避けられていた。
【0073】HMMの分散は、104 から106 程異な
る。これらの分散は、観察確率密度関数bi 1(x)の指
数項に生じ、HMMの優度スコアの支配的な効果を持
つ。図示される実施例において、これは、HMMパラメ
ーター調整特に、HMMの観察確率密度関数の平均パラ
メーターの調整への異なる感度に導く。
【0074】この巨大な感度の差を補償するために、実
施例は、正の有限のマトリクスVnを使用する。正の有
限のマトリクスVnは、各状態に対して、
【数13】 である対角マトリクスである。ここで、σ2(n)は、
時間nにおけるHMMΘIの分散である。
【0075】図4は、HMM更新プロセッサ60のブロ
ック図を示す。図に示すように、HMM更新プロセッサ
60は、ΘI 、O、lに基づいて、パラメーターμ、σ
2 、c、aを更新し、HMMパラメーターデータベース
44に更新されたΘU を戻す。ΘI とΘU は、パラメータ
ーμ、σ2 、c、aからなり、ΘI とΘU は、それぞれ
更新されない、及び更新された量を表している。
【0076】最小ストリング立証エラー訓練では、式
(8)に示されるモデルパラメーターを更新すること
は、損失関数∇の導関数を見つけることを含んでいる。
項∂l/∂Θは、各モデルパラメーターに対して特に計
算され、目下のHMMがキーワードモデルか、反キーワ
ードモデル、またはフィラーモデルであるかに依存して
異なっている。このステップは、導関数∂l/∂Θが全
てのモデルに共通であれば、最小ストリング分類エラー
訓練において使われるものとは異なっている。
【0077】MSVEでは、∂l/∂Θは、項∂l/∂
Lが全ての立証モデルに共通であれば、∂l/∂Θ=∂
l/∂L・∂L/∂Θのようなチェーン規則として書か
れることができる。∂l/∂Lは、以下の部分導関数か
らなる。
【数14】
【0078】導関数∂L/∂eは、更新されたモデルが
キーワードΘ(k) であるか、反キーワードΘ(a) 、また
はフィラーモデルΘ(f) であるかに依存して異なる。Θ
(k)では、
【数15】 Θ(a)では、
【数16】 Θ(f)では、
【数17】
【0079】項∂p()/∂Θは、全ての立証モデルに
共通であり、更新されたモデルの特定のパラメーターだ
けが異なる。この確率p()は、以下のように定義され
る。
【数18】
【0080】HMM更新プロセッサ60により提供され
るパラメーター更新は以下の通りである。 (1)平均更新
【数19】 ここで、Onn(d)は、特徴ベクトルOnnのd次元要素
であり、ωj は、最適パスが最初に状態jに入るタイム
フレームに対応し、ωj+1 は、最適パスが状態j+1に
入るタイムフレームに対応し、l(O,Θ)は(7)に
従って構成されている損失関数であり、εn はステップ
サイズで有り、
【数20】 ここで、Dは特徴ベクトルの次元である。平均更新は、
図4のブロック62により提供される。
【0081】(2)分散更新 σ2 =logσ2 の更新は、以下の公式に従って行われ
る。
【数21】 ここで、Yi,j,k (Onn)は、(14)に示されるよう
に定義される。従って、時間N+1における分散は以下
の通りである。
【数22】 分散は、10-6で下にクリップされ、制約条件σ
i,j,k,d 2(n)>10-6を満足する。分散更新は、図4
のブロック64により提供される。
【0082】(3)混合重み更新 パラメーター化された混合重みは、以下の式(17)に
従って調整される。
【数23】 従って、時間n+1における混合重みは、式(18)に
より与えられる。
【数24】 従って、調整された混合重みは、本発明の訓練プロセス
の間に以下の制約条件に合致する。 Σki,j,k (n)=1とCi、j、k (n)>0 混合重み更新は、図4のブロック66により提供され
る。
【0083】(4)状態遷移確率更新 左から右へのHMMにおいて、l番目の単語モデルのパ
ラメーター化された遷移確率は以下のように調整され
る。
【数25】 ここで、gl はl番目の立証モデルのOの優度スコアで
あり、iは終了状態であり、状態i内の自己遷移の全体
数は以下の式により示される。
【数26】 結論として、時間(n+1)における遷移確率は、以下
のように与えられる。
【数27】 これはまた、Σjl i,j(n)=1、al i,i>0と、a
l i,i+1>0の制約条件を満足する。状態遷移確率更新は
図4のブロック68により提供される。
【0084】HMM更新プロセッサ60により計算され
た更新表現(15−18)は、式(22)に従って、j
番目の状態のi番目の立証モデルの更新された観察確率
密度関数と関係付けられる。
【数28】 ここで、ci,j,k は混合重みであり、N(O,μ
i,j,k ,Vi,j,k )は、i番目の認識ユニットモデル、
j番目の状態、対角共分散マトリクスVi,j,k とのk番
目の混合のD次元の通常のガウス分布である。ブロック
62、64、66から出力されるのμ(n+1)、σ2
(n+1)及びc(n+1)の値は、ブロック68によ
り提供される状態遷移確率a(n+1)に対する値と共
に、HMMパラメーターデータベース44に戻される。
図4に例示するように、ΘU は、μ、σ2、c及びaの
ための更新された値を具備する。
【0085】上に提供されるHMMパラメーター更新の
ための表現は、HMMパラメーターデータベース44か
らの単一音声訓練ストリング信号の使用を関連づけHM
Mパラメーターを強化する。しかしながら、HMMパラ
メーターを改善するために、強化された訓練器48が複
数回繰り返される。例えば、強化された訓練器48は、
完全なHMMパラメーターデータベースを通るいくつか
のパスまたは場で動作してもよい。強化された訓練器
は、いくつかの方法のうちの処理サンプルを止めるよう
にされてもよい。例えば、強化された訓練器48は、サン
プルのHMMパラメーターデータベースを通って固定数
の場が行われるときには、停止してもよい。強化された
訓練器は、現在の場の全ての音声訓練ストリング信号を
処理するため、ストリング立証エラーレートの増加的改
良のレコードも維持できる。増加的改良がしきい値以下
に落ちるとき、処理は停止してもよい(図4の70、及
びSTOP信号を参照)。
【0086】MSVE訓練は、実行され、好適音声認識
システム実施例に適用されることができ、サブ単語特定
キーワードおよび反キーワードのモデルパラメーターを
設計する。各訓練では、式(1)により定義された識別
関数Si (O;Θ)が、現在の立証モデルに基づいて既
知の仮定ストリング信号のための信用測定信号値に設定
され、式(16)により定義される反識別関数Si
(O;Θ)は、N最良ストリング仮定を用いて1つ以上
の競合ストリングモデルに基づいて既知の仮定ストリン
グ信号に対する信用測定信号値により近似される。誤立
証測定信号は、式(5)におけるように決定される。訓
練場に対する誤立証測定と信用測定信号値の分布は、メ
モリーに記録されて、臨界しきい値を決定するために利
用される。
【0087】発声立証システムの性能は、適切な臨界し
きい値の選択により強化できる。しきい値は、最小合計
エラーレートを得るか、または偽拒絶エラー(タイプ
I)が偽受け入れエラー(タイプII)に等しくなる等
しいエラーレートを達成するために、あらかじめ決めら
れた基準に従ってセットできる。立証しきい値は、偽拒
絶エラー(タイプI)と偽受け入れエラー(タイプI
I)の間に望ましいトレードオフを得るために初めに設
定されてもよい。各エラーレートは、訓練データとテス
トデータの間の環境の不均衡によりもたらされるかもし
れない。環境の不均衡は、異なるアクセントをもつ異な
る話者、または異なる周辺ノイズも含んでいる。
【0088】タイプIとタイプIIのエラーの両方のた
めの等しい立証エラーレートは、本発明の音声認識シス
テムにより達成できる。しかしながら、等しいエラーレ
ートは、異なる選択されたしきい値信号値に対して変わ
ることができる。異なる選択されたしきい値において、
タイプIエラーレートは、タイプIIエラーレートより高
いか、またはより低いに違いない。従って、特定の環境
条件の下での仮定単語ストリング信号の立証を実行する
ための演算しきい値信号値は、異なる環境条件に対して
適切ではないかもしれない。
【0089】タイプIとタイプIIに対する異なるエラ
ーレートは、商業的アプリケーションにおいて有利であ
るかもしれず、それでは偽拒絶エラーが偽受け入れエラ
ーより有害であるかもしれず、あるいは逆もまた同様か
もしれない。本発明は、タイプIとタイプII間の望ま
しいトレードオフを維持するために、立証プロセッサに
より生成される信用測定信号の臨界しきい値値を調整す
るためのメカニズムを提供する。
【0090】本発明によるしきい値適応化技術は、既知
の仮定ストリング信号に応答して生成される信用測定信
号値を利用して、立証しきい値信号値を適応化する。し
きい値動作点は、仮定ストリング信号のグループが利用
可能になるにつれて、調整される。(式(1)からの)
信用測定信号値の分布は、図5に示されるように、正し
い仮定ストリング信号72のクラスと正しくない仮定ス
トリング信号74のために記録される。右の分布72
は、単語ストリングが妥当で、正しく(認識されてい
る)分類されているとき発生される信用測定信号を提供
する。左の分布74は、無効の単語ストリング、および
間違って認識されていた他のストリングに対して生成さ
れた信用測定信号を提供する。
【0091】2つの分布72と74は、同様な形を持
ち、2つの分布の分散はほとんど等しい。この特徴は、
しきい値適応化を実行するために、ここで教示されるよ
うに、利用される。
【0092】O⊂CであるようにXH0をS(O;Θ)の
平均信用測定信号値に対応させ、XH1を要素Oが集合C
に属さないように平均信用測定信号値S(O;Θ)に対
応させる。ここで、Cは正しく認識された仮定ストリン
グ信号である。等しいエラーレートあるいは最小全体エ
ラーレートを達成するために、両方の分布に対して等し
い分散を仮定して、臨界しきい値τS は、
【数29】 におかれる。
【0093】しきい値適応化は、演算立証テストの間に
2つの分布の間にτを位置決めし、XH0−τS ≠τS
H1のときτS の値を調整するように導かれる。実際、
システムが走っている間に2つの分布の実際の瞬間的平
均を決定することは難しい。結果として、立証処理は、
XHOとXH1に対するある初期評価値で開始される。これら
の値は、十分な数のストリング(”R”)が受信され、
τS が適応化されることができる度毎に、調整される。
このプロセスは次の通りに実行される。
【0094】ストリング信用測定信号値の数Rを用い
て、XHOとXH1の値は、評価され、以下のエラー測定を計
算するために使用される。
【数30】 図5に示される分布72と74の長い末部のために平均
をバイアスすることを回避するために、あらかじめ定義
された最大と最小のしきい値を越える信用測定は、クリ
ップされる。さらに、エラー関数は、以下の形のシフト
されたシグモイドを用いて、平滑化される。
【数31】 ここで、α1 は、平滑化の程度を決定し、0.1に設定
された。nストリングを処理した後の臨界しきい値τS
(n)は、以下のように更新される。
【数32】 ここで、B1はステップサイズであり、ΔτS (n)=
τS(n)−τS (n−1)。適応の間に、τS の値は
τS (0)±2を越えることは許されない。
【0095】本発明による立証しきい値の適応化の間
に、ストリングは、平均を評価するために等しく、十分
な情報を確保するために、ランダムな認識と立証命令の
ために提供される。臨界しきい値は、最初、最小のエラ
ーレート点に設定され、20ストリング毎(即ち、R=
20)に調整され、各分布の平均を計算するために十分
な、しかし最小の数のストリングの利用可能性を確保す
る。立証しきい値信号値を調整するこの方法は、適応化
の前後でタイプIとタイプIIのエラーレートの前選択と
維持のために提供する。
【0096】話者独立電話ベースの接続される数字デー
タベースは、本発明による実験的な訓練と動作上のテス
トの際に使用された。1から16桁の長さの範囲の数字
ストリングは、異なるフィールドトライアルでのコレク
ションから抽出された。フィールドトライアルでのコレ
クションは、異なる環境条件と音響トランスデューサー
機器を表した。
【0097】訓練セットは、16089数字ストリング
から構成された。テストセットは、27702数字スト
リングから成っていた。発生の約22%は、語彙外の単
語、誤り開始、および重要な背景ノイズを含んでいた。
3000の音声学上の豊かな文からなる別のデータベー
スが、フィラーモデルを訓練するために提供された。立
証結果は、99%を越える正確な拒絶であった。
【0098】上記から、本発明は、発生立証のためのス
トリングベース最小立証エラー訓練プロセスを提供する
ことは明らかである。立証プロセッサモデルを訓練する
ことへの識別的なアプローチは、発声立証のために使わ
れた目的関数と一致し、予期されるストリング立証エラ
ーレートを最小化することに直接関連する。
【0099】上記の観点で、本発明は話者依存及び話者
独立の音声認識の両方に適用可能であることは当業者に
は明らかであろう。音声認識の文脈の中で説明された
が、モデルを訓練するために使用される技術は、一般に
パターン認識にも適用可能であることも更に明らかであ
ろう。
【0100】上記実施例は、単に図示されたに過ぎず、
特許請求の範囲の記載に基づいて定義される本発明の範
囲から離れることなく、当業者により種々の変形がなさ
れることができることは理解されよう。
【図面の簡単な説明】
【図1】本発明によるHMMベース音声認識システムを
示す図である。
【図2】図1のHMMベース音声認識システムの立証部
の詳細な図である。
【図3】図2の強化された訓練器を示す図である。
【図4】図3の強化された訓練器のHMM更新プロセッ
サを示す図である。
【図5】立証しきい値信号値決定のための信用測定信号
値分布を示す図である。
【符号の説明】
26 訓練音声データベース 28 特徴抽出器 30 第1のモードスイッチ 32 第2のモードスイッチ 34 スコア計算器 36 平均単語ベース信用スコアプロセッサ 38 ストリングベース信用測定信号発生器 40 しきい値比較器 42 従来のHMM訓練器 44 立証データベース 46 N最良ストリングモデル発生器 48 強化された訓練器 50 システムの訓練部 52 システムの立証部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ビーイング−ホワン ジョアン アメリカ合衆国 07059 ニュージャーシ ィ,ウォーレン,サウス レーン 8 (72)発明者 チン−フイ リー アメリカ合衆国 07974 ニュージャーシ ィ,ニュープロヴィデンス,ラニーメド パークウェイ 118 (72)発明者 マズィン ジー.レイム アメリカ合衆国 07726 ニュージャーシ ィ,マナラパン,キンバリー コート 31

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 1つ以上の既知の仮定ストリング信号と
    現在の立証モデルのセットに基づいて音声認識装置立証
    モデルデータベースを作成する方法であって、 (A)既知の仮定ストリング信号を受信するステップ
    と、 (B)既知の仮定ストリング信号と、その信号のための
    現在の立証モデルとに基づいて第1のストリングベース
    信用測定信号を生成するステップと、 (C)1つ以上の他のストリングベース信用測定信号を
    生成するステップと、そのような各ストリングベース信
    用測定信号は、既知の仮定ストリング信号と他の現在の
    立証モデルに基づいていて、 (D)前記第1のストリングベース信用測定信号と前記
    他のストリングベース信用測定信号に基づいて誤立証信
    号を計算するステップと、 (E)前記誤立証信号と前記既知の仮定ストリング信号
    に基づいて、前記現在の立証モデルのうちの1つ以上を
    修正して未知の仮定ストリング信号を誤立証する優度を
    減少させるステップと、及び (F)1以上の修正された立証モデルをメモリーに格納
    するステップとを具備する方法。
  2. 【請求項2】 前記立証データベースの前記立証モデル
    を初期化するステップを更に具備する請求項1に記載の
    方法。
  3. 【請求項3】 前記誤立証信号に基づいて損失関数信号
    を計算するステップと、及び前記損失関数信号の導関数
    を計算するステップを含めて、前記損失関数信号の勾配
    を決定するステップとを更に具備する請求項1に記載の
    方法。。
  4. 【請求項4】 前記ステップ(B)は、 前記既知の仮定ストリング信号を一連の単語信号に分割
    するステップと、 前記一連の単語信号の各々ごとに1つの単語ベース信用
    スコアを計算するステップと、及び各単語信号に対して
    計算された単語ベース信用スコアを平均するステップと
    を具備する請求項1に記載の方法。
  5. 【請求項5】 前記ステップ(C)は、 前記既知の仮定ストリング信号に基づいて混同しやすい
    ストリングモデルのセットを生成するステップと、前記
    混同しやすいストリングモデルは、1つ以上の単語モデ
    ルを具備していて、 前記セットの混同しやすいストリングモデルのうちのそ
    れぞれに対してストリングベース信用測定信号を生成す
    るステップと、及び前記セットの混同しやすいストリン
    グモデルのそれぞれに対するストリングベース信用測定
    信号の平均を計算するステップとを具備する請求項1に
    記載の方法。
  6. 【請求項6】 前記ステップ(C)は、 前記セットの混同しやすいストリングモデルのそれぞれ
    の単語モデルごとに単語ベース信用スコアを決定するス
    テップと、及び前記セットの混同しやすいストリングモ
    デルのそれぞれの各単語モデルに対して決定された単語
    ベース信用スコアを平均化して前記セットの混同しやす
    いストリングモデルのそれぞれに対する前記ストリング
    ベース信用測定信号を生成するステップとを具備する請
    求項5に記載の方法。
  7. 【請求項7】 ステップ(D)は、 (a)その仮定ストリング信号に対する現在の立証モデ
    ルに基づく前記既知の仮定ストリング信号に対する信用
    測定信号の発生を、 (b)1つ以上の他の現在の立証モデルに基づく前記既
    知の仮定ストリング信号に対する信用測定信号の発生に
    関連づける関数の勾配を決定するステップを具備する請
    求項1に記載の方法。
  8. 【請求項8】 ステップ(E)は、 前記勾配に基づいて前記現在の立証モデルの1つ以上の
    パラメーターを調整するステップを具備する請求項7に
    記載の方法。
  9. 【請求項9】 ステップ(D)は、 (a)前記第1のストリングベース信用測定信号と
    (b)前記1つ以上の他の信用測定信号の平均との差を
    形成するステップを具備する請求項1に記載の方法。
  10. 【請求項10】 予期される損失関数信号を評価するス
    テップと、及び前記評価された損失関数信号に応答して
    繰り返し前記立証モデルを調整して立証エラーの優度を
    最小にするステップとを具備する請求項3に記載の方
    法。
  11. 【請求項11】 接続された単語ストリングを認識する
    ための音声認識システムであって、 接続された単語の音響入力ストリングに応答して仮定ス
    トリング信号を生成するための認識プロセッサと、 認識モデルを格納するための認識データベースと、 前記仮定ストリング信号に応答してストリングベース信
    用測定信号を生成するための立証プロセッサと、及び立
    証モデルを格納するための立証データベースとを具備す
    る音声認識システム。
  12. 【請求項12】 前記立証プロセッサに接続され、スト
    リングベース信用測定信号の立証しきい値信号値を計算
    するための手段と、 前記ストリングベース信用測定信号を測定して測定信号
    値を生成するための手段と、及び前記測定信号値をしき
    い値と比較するための手段とを更に具備する請求項11
    に記載の音声認識システム。
  13. 【請求項13】 前記立証モデルは、隠れマルコフモデ
    ルパラメーターのセットを具備する請求項11に記載の
    音声認識システム。
  14. 【請求項14】 前記立証モデルは、キーワードモデ
    ル、反キーワードモデル、音響のフィラーモデル、およ
    びそれらの組合せから成るグループから選択される請求
    項11に記載の音声認識システム。
  15. 【請求項15】 前記立証モデルは、予め選択された形
    式の訓練を反映する請求項11に記載の音声認識システ
    ム。
  16. 【請求項16】 前記仮定ストリング信号は、分割され
    た一連の単語信号からなり、 前記立証プロセッサは、 前記分割された一連の単語信号の各々に対する単語ベー
    ス信用スコアを計算するための手段と、及び前記分割さ
    れた一連の単語信号の各々に対する単語ベース信用スコ
    アの平均に応答して前記ストリングベース信用測定信号
    を生成するための手段とを具備する請求項11に記載の
    音声認識システム。
  17. 【請求項17】 音声認識システムにおいて、立証プロ
    セッサにより生成された信用測定信号の立証しきい値信
    号サンプルを発生する方法であって、 (A)(i)既知の仮定ストリング信号と該既知の仮定
    ストリング信号のための現在の立証モデルに基づいて第
    1のストリングベース信用測定信号を生成し、(ii)
    各ストリングベース信用測定信号が前記既知の仮定スト
    リング信号と他の立証モデルに基づく1つ以上の他のス
    トリングベース信用測定信号を生成するように立証プロ
    セッサを動作させる場を達成するステップと、 (B)予め選択された数の場に対してステップ(A)を
    繰り返すステップと、 (C)前記予め選択された数の場に対して前記第1のス
    トリングベース信用測定信号の第1の分布を記録するス
    テップと、 (D)前記予め選択された数の場に対して、前記1つ以
    上の他のストリングベース信用測定信号の第2の分布を
    記録するステップと、 (E)前記第1の分布のための第1の平均を計算するス
    テップと、 (F)第2の分布のための第2の平均を計算するステッ
    プと、及び (G)前記第1の平均と前記第2の平均に基づいて前記
    立証しきい値信号サンプルを生成するステップとを具備
    する方法。
  18. 【請求項18】 偽拒絶立証エラーレートを選択するス
    テップと、 偽受け入れ立証エラーレートを選択するステップと、及
    び前記選択された偽拒絶立証エラーレートと前記選択さ
    れた偽受け入れ立証エラーレートに基づいて初期立証し
    きい値信号値を評価するステップとを更に具備する請求
    項17に記載の方法。
  19. 【請求項19】 前記音声認識システムが動作している
    間に前記立証しきい値信号値を発生するステップと、及
    び前記認識システムが動作している間、前記偽拒絶立証
    エラーレートと前記偽受け入れ立証エラーレートを維持
    するステップとをさらに具備する請求項18に記載の方
    法。
JP24243696A 1995-09-15 1996-09-13 連結数字の認識のための発声識別立証 Expired - Fee Related JP3549681B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/528902 1995-09-15
US08/528,902 US5737489A (en) 1995-09-15 1995-09-15 Discriminative utterance verification for connected digits recognition

Publications (2)

Publication Number Publication Date
JPH09127972A true JPH09127972A (ja) 1997-05-16
JP3549681B2 JP3549681B2 (ja) 2004-08-04

Family

ID=24107677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24243696A Expired - Fee Related JP3549681B2 (ja) 1995-09-15 1996-09-13 連結数字の認識のための発声識別立証

Country Status (5)

Country Link
US (1) US5737489A (ja)
EP (2) EP1184840B1 (ja)
JP (1) JP3549681B2 (ja)
CA (1) CA2181205C (ja)
DE (2) DE69620324T2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031923B1 (en) 2000-03-06 2006-04-18 International Business Machines Corporation Verbal utterance rejection using a labeller with grammatical constraints
JP2006201491A (ja) * 2005-01-20 2006-08-03 Advanced Telecommunication Research Institute International 発音評定装置、およびプログラム
US8271283B2 (en) 2005-02-18 2012-09-18 Samsung Electronics Co., Ltd. Method and apparatus for recognizing speech by measuring confidence levels of respective frames

Families Citing this family (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3536471B2 (ja) * 1995-09-26 2004-06-07 ソニー株式会社 識別装置および識別方法、並びに音声認識装置および音声認識方法
US5835890A (en) * 1996-08-02 1998-11-10 Nippon Telegraph And Telephone Corporation Method for speaker adaptation of speech models recognition scheme using the method and recording medium having the speech recognition method recorded thereon
US6490555B1 (en) * 1997-03-14 2002-12-03 Scansoft, Inc. Discriminatively trained mixture models in continuous speech recognition
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
US5920838A (en) * 1997-06-02 1999-07-06 Carnegie Mellon University Reading and pronunciation tutor
ATE344958T1 (de) * 1997-09-12 2006-11-15 Siemens Ag Verarbeitung eines sprachsignals
US6049768A (en) * 1997-11-03 2000-04-11 A T & T Corp Speech recognition system with implicit checksum
WO1999046763A1 (en) * 1998-03-09 1999-09-16 Lernout & Hauspie Speech Products N.V. Apparatus and method for simultaneous multimode dictation
JP2000020089A (ja) * 1998-07-07 2000-01-21 Matsushita Electric Ind Co Ltd 音声認識方法及びその装置、並びに音声制御システム
DE19842151A1 (de) * 1998-09-15 2000-03-23 Philips Corp Intellectual Pty Verfahren zur Adaption von linguistischen Sprachmodellen
US6292778B1 (en) * 1998-10-30 2001-09-18 Lucent Technologies Inc. Task-independent utterance verification with subword-based minimum verification error training
EP1011094B1 (en) 1998-12-17 2005-03-02 Sony International (Europe) GmbH Semi-supervised speaker adaption
US6922669B2 (en) * 1998-12-29 2005-07-26 Koninklijke Philips Electronics N.V. Knowledge-based strategies applied to N-best lists in automatic speech recognition systems
US6205426B1 (en) * 1999-01-25 2001-03-20 Matsushita Electric Industrial Co., Ltd. Unsupervised speech model adaptation using reliable information among N-best strings
WO2000054168A2 (en) 1999-03-05 2000-09-14 Canon Kabushiki Kaisha Database annotation and retrieval
DE19933524A1 (de) * 1999-07-16 2001-01-18 Nokia Mobile Phones Ltd Verfahren zur Eingabe von Daten in ein System
US7149690B2 (en) 1999-09-09 2006-12-12 Lucent Technologies Inc. Method and apparatus for interactive language instruction
JP3834169B2 (ja) * 1999-09-22 2006-10-18 日本放送協会 連続音声認識装置および記録媒体
KR100307623B1 (ko) * 1999-10-21 2001-11-02 윤종용 엠.에이.피 화자 적응 조건에서 파라미터의 분별적 추정 방법 및 장치 및 이를 각각 포함한 음성 인식 방법 및 장치
US6473735B1 (en) * 1999-10-21 2002-10-29 Sony Corporation System and method for speech verification using a confidence measure
US7212968B1 (en) 1999-10-28 2007-05-01 Canon Kabushiki Kaisha Pattern matching method and apparatus
US7310600B1 (en) * 1999-10-28 2007-12-18 Canon Kabushiki Kaisha Language recognition using a similarity measure
US6882970B1 (en) 1999-10-28 2005-04-19 Canon Kabushiki Kaisha Language recognition using sequence frequency
GB0011798D0 (en) * 2000-05-16 2000-07-05 Canon Kk Database annotation and retrieval
US6438519B1 (en) * 2000-05-31 2002-08-20 Motorola, Inc. Apparatus and method for rejecting out-of-class inputs for pattern classification
GB0015233D0 (en) 2000-06-21 2000-08-16 Canon Kk Indexing method and apparatus
GB2364814A (en) 2000-07-12 2002-02-06 Canon Kk Speech recognition
GB0023930D0 (en) 2000-09-29 2000-11-15 Canon Kk Database annotation and retrieval
GB0027178D0 (en) 2000-11-07 2000-12-27 Canon Kk Speech processing system
GB0028277D0 (en) 2000-11-20 2001-01-03 Canon Kk Speech processing system
US7400712B2 (en) * 2001-01-18 2008-07-15 Lucent Technologies Inc. Network provided information using text-to-speech and speech recognition and text or speech activated network control sequences for complimentary feature access
US7409349B2 (en) * 2001-05-04 2008-08-05 Microsoft Corporation Servers for web enabled speech recognition
US7610547B2 (en) * 2001-05-04 2009-10-27 Microsoft Corporation Markup language extensions for web enabled recognition
US7506022B2 (en) * 2001-05-04 2009-03-17 Microsoft.Corporation Web enabled recognition architecture
US20020178182A1 (en) * 2001-05-04 2002-11-28 Kuansan Wang Markup language extensions for web enabled recognition
US7103543B2 (en) * 2001-05-31 2006-09-05 Sony Corporation System and method for speech verification using a robust confidence measure
GB2394590B (en) * 2001-08-14 2005-02-16 Sony Electronics Inc System and method for speech verification using a robust confidence measure
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US7711570B2 (en) 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
GB2385697B (en) * 2002-02-14 2005-06-15 Canon Kk Speech processing apparatus and method
US7016842B2 (en) * 2002-03-26 2006-03-21 Sbc Technology Resources, Inc. Method and system for evaluating automatic speech recognition telephone services
EP1377000B1 (en) * 2002-06-11 2009-04-22 Swisscom (Schweiz) AG Method used in a speech-enabled automatic directory system
US7502737B2 (en) * 2002-06-24 2009-03-10 Intel Corporation Multi-pass recognition of spoken dialogue
TWI223791B (en) * 2003-04-14 2004-11-11 Ind Tech Res Inst Method and system for utterance verification
US7260535B2 (en) 2003-04-28 2007-08-21 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting for call controls
US20040230637A1 (en) * 2003-04-29 2004-11-18 Microsoft Corporation Application controls for speech enabled recognition
DE10341305A1 (de) * 2003-09-05 2005-03-31 Daimlerchrysler Ag Intelligente Nutzeradaption bei Dialogsystemen
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
US7552055B2 (en) 2004-01-10 2009-06-23 Microsoft Corporation Dialog component re-use in recognition systems
WO2005088607A1 (de) * 2004-03-12 2005-09-22 Siemens Aktiengesellschaft Benutzer- und vokabularadaptive bestimmung von konfidenz- und rückweisungsschwellen
GB0410248D0 (en) 2004-05-07 2004-06-09 Isis Innovation Signal analysis method
US7788103B2 (en) * 2004-10-18 2010-08-31 Nuance Communications, Inc. Random confirmation in speech based systems
US7844465B2 (en) * 2004-11-30 2010-11-30 Scansoft, Inc. Random confirmation in speech based systems
US7509259B2 (en) * 2004-12-21 2009-03-24 Motorola, Inc. Method of refining statistical pattern recognition models and statistical pattern recognizers
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7865362B2 (en) * 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
CN101416237B (zh) * 2006-05-01 2012-05-30 日本电信电话株式会社 基于源和室内声学的概率模型的语音去混响方法和设备
US8688451B2 (en) * 2006-05-11 2014-04-01 General Motors Llc Distinguishing out-of-vocabulary speech from in-vocabulary speech
CN101118745B (zh) * 2006-08-04 2011-01-19 中国科学院声学研究所 语音识别系统中的置信度快速求取方法
US8842886B2 (en) * 2006-08-15 2014-09-23 Avery Glasser Adaptive tuning of biometric engines
WO2008074076A1 (en) * 2006-12-19 2008-06-26 Torqx Pty Limited Confidence levels for speaker recognition
US8423364B2 (en) * 2007-02-20 2013-04-16 Microsoft Corporation Generic framework for large-margin MCE training in speech recognition
US7437291B1 (en) 2007-12-13 2008-10-14 International Business Machines Corporation Using partial information to improve dialog in automatic speech recognition systems
US8180641B2 (en) * 2008-09-29 2012-05-15 Microsoft Corporation Sequential speech recognition with two unequal ASR systems
TWI420433B (zh) * 2009-02-27 2013-12-21 Ind Tech Res Inst 語音互動系統與方法
TWI421857B (zh) * 2009-12-29 2014-01-01 Ind Tech Res Inst 產生詞語確認臨界值的裝置、方法與語音辨識、詞語確認系統
CN102117615B (zh) * 2009-12-31 2013-01-02 财团法人工业技术研究院 产生词语确认临界值的装置、方法及系统
US20130185068A1 (en) * 2010-09-17 2013-07-18 Nec Corporation Speech recognition device, speech recognition method and program
US9118669B2 (en) 2010-09-30 2015-08-25 Alcatel Lucent Method and apparatus for voice signature authentication
US8948892B2 (en) 2011-03-23 2015-02-03 Audible, Inc. Managing playback of synchronized content
US9734153B2 (en) 2011-03-23 2017-08-15 Audible, Inc. Managing related digital content
US8855797B2 (en) 2011-03-23 2014-10-07 Audible, Inc. Managing playback of synchronized content
US9703781B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Managing related digital content
US8862255B2 (en) 2011-03-23 2014-10-14 Audible, Inc. Managing playback of synchronized content
US9760920B2 (en) 2011-03-23 2017-09-12 Audible, Inc. Synchronizing digital content
US9706247B2 (en) 2011-03-23 2017-07-11 Audible, Inc. Synchronized digital content samples
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US20130090926A1 (en) * 2011-09-16 2013-04-11 Qualcomm Incorporated Mobile device context information using speech detection
WO2013163494A1 (en) * 2012-04-27 2013-10-31 Interactive Itelligence, Inc. Negative example (anti-word) based performance improvement for speech recognition
US9075760B2 (en) 2012-05-07 2015-07-07 Audible, Inc. Narration settings distribution for content customization
US9269349B2 (en) * 2012-05-24 2016-02-23 Nuance Communications, Inc. Automatic methods to predict error rates and detect performance degradation
US9317500B2 (en) 2012-05-30 2016-04-19 Audible, Inc. Synchronizing translated digital content
US8972265B1 (en) 2012-06-18 2015-03-03 Audible, Inc. Multiple voices in audio content
US9141257B1 (en) 2012-06-18 2015-09-22 Audible, Inc. Selecting and conveying supplemental content
US9536439B1 (en) 2012-06-27 2017-01-03 Audible, Inc. Conveying questions with content
US9679608B2 (en) 2012-06-28 2017-06-13 Audible, Inc. Pacing content
US10109278B2 (en) * 2012-08-02 2018-10-23 Audible, Inc. Aligning body matter across content formats
CN103631802B (zh) * 2012-08-24 2015-05-20 腾讯科技(深圳)有限公司 歌曲信息检索方法、装置及相应的服务器
US9367196B1 (en) 2012-09-26 2016-06-14 Audible, Inc. Conveying branched content
US9632647B1 (en) 2012-10-09 2017-04-25 Audible, Inc. Selecting presentation positions in dynamic content
US9223830B1 (en) 2012-10-26 2015-12-29 Audible, Inc. Content presentation analysis
US9159319B1 (en) * 2012-12-03 2015-10-13 Amazon Technologies, Inc. Keyword spotting with competitor models
CN103971678B (zh) * 2013-01-29 2015-08-12 腾讯科技(深圳)有限公司 关键词检测方法和装置
US9280906B2 (en) 2013-02-04 2016-03-08 Audible. Inc. Prompting a user for input during a synchronous presentation of audio content and textual content
US9472113B1 (en) 2013-02-05 2016-10-18 Audible, Inc. Synchronizing playback of digital content with physical content
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9390708B1 (en) * 2013-05-28 2016-07-12 Amazon Technologies, Inc. Low latency and memory efficient keywork spotting
US9317486B1 (en) 2013-06-07 2016-04-19 Audible, Inc. Synchronizing playback of digital content with captured physical content
US9489360B2 (en) 2013-09-05 2016-11-08 Audible, Inc. Identifying extra material in companion content
US9899021B1 (en) * 2013-12-20 2018-02-20 Amazon Technologies, Inc. Stochastic modeling of user interactions with a detection system
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US11232788B2 (en) * 2018-12-10 2022-01-25 Amazon Technologies, Inc. Wakeword detection

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4348553A (en) * 1980-07-02 1982-09-07 International Business Machines Corporation Parallel pattern verifier with dynamic time warping
US5127043A (en) * 1990-05-15 1992-06-30 Vcs Industries, Inc. Simultaneous speaker-independent voice recognition and verification over a telephone network
US5125022A (en) * 1990-05-15 1992-06-23 Vcs Industries, Inc. Method for recognizing alphanumeric strings spoken over a telephone network
US5303299A (en) * 1990-05-15 1994-04-12 Vcs Industries, Inc. Method for continuous recognition of alphanumeric strings spoken over a telephone network
US5349645A (en) * 1991-12-31 1994-09-20 Matsushita Electric Industrial Co., Ltd. Word hypothesizer for continuous speech decoding using stressed-vowel centered bidirectional tree searches
ES2128390T3 (es) * 1992-03-02 1999-05-16 At & T Corp Metodo de adiestramiento y dispositivo para reconocimiento de voz.
US5440662A (en) * 1992-12-11 1995-08-08 At&T Corp. Keyword/non-keyword classification in isolated word speech recognition
US5717826A (en) * 1995-08-11 1998-02-10 Lucent Technologies Inc. Utterance verification using word based minimum verification error training for recognizing a keyboard string

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7031923B1 (en) 2000-03-06 2006-04-18 International Business Machines Corporation Verbal utterance rejection using a labeller with grammatical constraints
JP2006201491A (ja) * 2005-01-20 2006-08-03 Advanced Telecommunication Research Institute International 発音評定装置、およびプログラム
US8271283B2 (en) 2005-02-18 2012-09-18 Samsung Electronics Co., Ltd. Method and apparatus for recognizing speech by measuring confidence levels of respective frames

Also Published As

Publication number Publication date
DE69620324D1 (de) 2002-05-08
DE69620324T2 (de) 2002-10-31
EP0763816A3 (en) 1998-05-13
DE69634784T2 (de) 2006-03-23
CA2181205C (en) 2001-01-02
EP0763816B1 (en) 2002-04-03
DE69634784D1 (de) 2005-06-30
EP1184840A1 (en) 2002-03-06
EP0763816A2 (en) 1997-03-19
JP3549681B2 (ja) 2004-08-04
US5737489A (en) 1998-04-07
EP1184840B1 (en) 2005-05-25
CA2181205A1 (en) 1997-03-16

Similar Documents

Publication Publication Date Title
JP3549681B2 (ja) 連結数字の認識のための発声識別立証
EP0635820B1 (en) Minimum error rate training of combined string models
US6029124A (en) Sequential, nonparametric speech recognition and speaker identification
US6125345A (en) Method and apparatus for discriminative utterance verification using multiple confidence measures
JP3053711B2 (ja) 音声認識装置およびそのトレーニング方法ならびに装置
CA2609247C (en) Automatic text-independent, language-independent speaker voice-print creation and speaker recognition
US6076057A (en) Unsupervised HMM adaptation based on speech-silence discrimination
KR100925479B1 (ko) 음성 인식 방법 및 장치
Pellom et al. An experimental study of speaker verification sensitivity to computer voice-altered imposters
KR100307623B1 (ko) 엠.에이.피 화자 적응 조건에서 파라미터의 분별적 추정 방법 및 장치 및 이를 각각 포함한 음성 인식 방법 및 장치
Chou Discriminant-function-based minimum recognition error rate pattern-recognition approach to speech recognition
JPH10116094A (ja) 音声認識方法および音声認識装置
EP1465154B1 (en) Method of speech recognition using variational inference with switching state space models
EP0758781A2 (en) Utterance verification using word based minimum verification error training for recognizing a keyword string
Lleida et al. Efficient decoding and training procedures for utterance verification in continuous speech recognition
Anastasakos et al. The use of confidence measures in unsupervised adaptation of speech recognizers.
US7480615B2 (en) Method of speech recognition using multimodal variational inference with switching state space models
Juang et al. Statistical and discriminative methods for speech recognition
WO2002029785A1 (en) Method, apparatus, and system for speaker verification based on orthogonal gaussian mixture model (gmm)
JP3368989B2 (ja) 音声認識方法
Modi et al. Discriminative utterance verification using multiple confidence measures.
McDermott et al. Prototype-based MCE/GPD training for word spotting and connected word recognition
JPH05188991A (ja) 音声認識装置
Lee et al. A Vocabulary Independent Discriminatively Trained Method For Rejection Of Non-Keywords In SubWord Based Speech Recognition
Chou Statistical and Discriminative Methods for Speech Recognition BH Juang Wu Chou CH Lee¹

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040421

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees