JP2002540478A - 並列する認識エンジン - Google Patents

並列する認識エンジン

Info

Publication number
JP2002540478A
JP2002540478A JP2000608365A JP2000608365A JP2002540478A JP 2002540478 A JP2002540478 A JP 2002540478A JP 2000608365 A JP2000608365 A JP 2000608365A JP 2000608365 A JP2000608365 A JP 2000608365A JP 2002540478 A JP2002540478 A JP 2002540478A
Authority
JP
Japan
Prior art keywords
recognition
model
vocabulary
speech
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000608365A
Other languages
English (en)
Other versions
JP2002540478A5 (ja
JP4485694B2 (ja
Inventor
エリック セレン
ステファン ベスリン
メインハード ウルリッチ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2002540478A publication Critical patent/JP2002540478A/ja
Publication of JP2002540478A5 publication Critical patent/JP2002540478A5/ja
Application granted granted Critical
Publication of JP4485694B2 publication Critical patent/JP4485694B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/34Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

(57)【要約】 一連の音声単語を認識する大語彙音声認識システムは、この一連の音声単語を表す時系列入力パターン320を入力する入力手段を有する。このシステムは更に、複数の多語彙認識システム331,332,333を有し、これら各々は、それぞれ異なる多語彙認識モデルと関連している。これら認識モデルの各々は、大語彙の特定部分を目標とする。このシステムは、前記入力パターンを複数の音声認識装置に送り、これら複数の音声認識装置によって認識された単語列から認識された単語列を選択するように動作する制御器350を有する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】
本発明は、一連の音声単語を認識する大語彙音声認識システムに関する。この
システムは、この一連の音声単語を表す時系列入力パターンを入力する入力手段
、及び前記音声認識装置に関連する多語彙認識モデルを用いて、語彙から入力パ
ターンを一連の単語として認識するように動作する多語彙音声認識装置を有する
【0002】
【従来の技術】
インターネット環境において音声を認識するシステムは、米国特許公報US5
,819,220号から既知である。このシステムは、特に音声を用いてWWW
上の情報源にアクセスすることを目的としている。ウェブとのインタフェースと
して音声認識システムを構築することは、従来の音声認識の分野において生じる
問題とは大いに異なる問題に直面する。ユーザは、如何なる項目に関するどんな
文書にも事実上アクセスすることができるので、主要な問題は前記システムがサ
ポートを必要とする大語彙である。これら大語彙に対する適切な認識モデル、例
えば言語モデルを構築することは、不可能でないなら、非常に難しい。既知のシ
ステムにおいて、統計上のn-gram言語モデル及び音響モデルを含む既定の認識モ
デルが使用される。この認識モデルは、ウェブトリガされた単語セット(web-tri
ggered word set)を用いて動的に変更される。HTML文書は、単語認識検索を
高める確率に対する最終的な単語セットに含まれるべき単語セットを特定するの
に使用されるリンク、例えばハイパーテキストリンクを含んでいる。このやり方
で、音声認識スコアを計算するのに使用される単語セットは、前記ウェブトリガ
された単語セット含むことでバイアス(biased)される。
【0003】
【発明が解決しようとする課題】
既知のシステムは、適応後にバイアスされたモデルを得ることを可能にする開
始モデルとして適切な多語彙モデルを必要とする。実際に、このバイアスされた
モデルは、現在の認識コンテクストに対し最適となる従来の多語彙モデルと見な
される。上述したように、それが開始モデルとしてのみ使用される場合も、適切
な大語彙モデルを構築することは非常に難しい。更なる問題は、例えば検索エン
ジン上に存在するような特定のウェブサイト又はHTML文書若しくは書店のよ
うな大規模電子ショップへの入力を認識するようなある認識タスクに対して起こ
る。このような状況において、述べられる単語数は莫大である。従来の多語彙モ
デルは、一般的には、可能な単語の全範囲を効果的にカバーすることはできない
。比較的少ない単語で開始モデルをバイアスさせることは、良好な認識モデルと
なることはない。この開始モデルが既にかなり良好であると仮定する場合、適切
なバイアスは、莫大な追加の単語セット及びかなりの量の処理を必要とする。
【0004】
【課題を解決するための手段】
本発明の目的は、大語彙をよりよく扱うことが可能な認識システムを提供する
ことである。
【0005】 本目的を達成するために、前記システムは、N個の多語彙音声認識装置を有し
、これら認識装置の各々はそれぞれ異なる多語彙認識モデルと関連し、これら認
識モデルの各々は、前記大語彙の特定部分に目標を置き、前記システムは、入力
パターンを複数の音声認識装置へ送り、これら複数の音声認識装置によって認識
された単語列から認識された単語列を選択するように動作する制御器を有するこ
とを特徴とする。
【0006】 各々が前記大語彙の一部に目標を置いた特定の認識モデルを具備する幾つかの
認識装置を使用することで、大語彙に対する認識モデルを構築するタスクは、特
定のコンテクストに対し大語彙モデルを構築する扱い易いタスクに分解される。
上記コンテクストは、健康、エンターテイメント、コンピュータ、芸術、ビジネ
ス、教育、政治、科学、ニュース、旅行等を含んでいる。これらコンテクストの
各々は普通に、例えば言語の一般的な単語における語彙に重複すると理解されて
いる。前記コンテクストは、これら共通する単語の統計及びこれらコンテクスト
に特有の専門用語において異なるであろう。入力を認識するためにこれらモデル
の幾つかを使用することで、より広い範囲の発話が適切に学習されたモデルを使
用して認識可能となる。幾つかのモデルを使用することの更なる利点は、認識中
に良好な識別を可能にすることである。1つの大語彙が使用された場合、ある発
話は、1つの特定の意味(及びスペル)で認識されるだけである。例として、ユ
ーザが「カラー」のような音の単語を発音した場合、認識される単語列の大部分
は、まさに共通の単語「カラー」を含むだろう。(ファッションのコンテクスト
の)カラー、カラードへリング(collared herring)(ロール巻きにしたニシン)
(食品のコンテクスト)又はカラーボーン(collar-bone)(鎖骨)(健康のコン
テクスト)のカラーという単語が認識されることはほとんどない。これら特殊な
単語は、一般的な単語の単語列が頻繁に発生することで必然的に優位となる大語
彙において認識される機会はそんなにない。幾つかのモデルを使用することで、
各モデルは、そこから選択が行われる1つ以上の候補単語列を特定する。この最
終的な選択において、カラー(color)という単語列が選択されても、その中にカ
ラー(collar)という代替の単語列がユーザに表示されてしまう。
【0007】 好ましくは、前記認識装置は、ユーザが認識に関し著しく遅いと感じない感覚
で並行して動作する。これは、各々が自己処理源を有する個々の認識エンジンを
用いて達成される。代わりに、これは、従来の時分割技術を用いて「並行」して
認識タスクを動作する十分パワフルな逐次処理器を用いて達成されてもよい。
【0008】 並行する音声認識エンジンを用いることは公知であることに注意されたい。米
国特許番号US5,754,978は、認識エンジンを並行して用いていること
が記載されている。これらエンジンの全ては、例えば95%という比較的高い精
度を有している。5%のエンジンの不正確さが重複しない場合、認識の精度は改
善可能である。これら不正確さが完全に重複しないことを保証するために、これ
らエンジンは別々でもよい。代わりに、これらエンジンの1つへの入力信号が僅
かに摂動するか、又はこれらエンジンの1つが僅かに摂動する場合に、前記エン
ジンは同じになる。比較器は、認識されたテキストを比較し、前記エンジンの出
力間における一致の度合いに基づきテキストを容認又は拒絶する。このシステム
は、大語彙には存在しない正確な認識エンジンを必要とするので、このシステム
は、大語彙認識に対し何ら解決法を提供できない。どのシステムも大語彙の特定
部分を目標にする別々のモデルを使用しない。
【0009】 国際公開公報WO98/10413号は、並行に動作可能な任意の数の音声認
識モジュールを備える対話システムを説明している。前記モジュールは、例えば
孤立型数字認識、連続番号認識、少語彙単語認識、孤立型多語彙認識、連続単語
認識、キーワード認識、単語列認識、アルファベット認識等の音声認識の特定型
式を目標とする。この対話システムは、どの型式の入力をユーザが供給するか事
前に分かり、それに応じて1つ以上の特定モジュールを活性化させる。例えば、
ユーザが番号を話す必要がある場合、対話エンジンは、ユーザが数字又は連続番
号として番号を話すことを可能にする孤立型数字認識及び連続番号認識を可能に
する。このシステムは、大語彙を処理する解決法を供給しない。
【0010】 本発明に係るシステムの認識モデルは、既定されていてもよい。好ましくは、
従属請求項2に定められるように、モデル選択器は、認識するのにアクティブに
使用されるモデルを少なくとも1つ動的に選択するのに使用される。この選択は
、ユーザが入力するコンテクスト、例えばクエリー又は口述項目に依存する。好
ましくは、このモデル選択器は、多くの認識モデルを選択する。実際には、少な
くとも1つのモデルが一般項目に関する普通の日常語彙を示す。このようなモデ
ルは、普通は、常に使用されている。
【0011】 従属請求項3に定められる実施例において、文書は認識コンテクストを規定す
る。従属請求項5に定められるように、これは、前記文書に存在する単語を走査
し、これら単語を認識するのに最適な認識モデル(例えば、文書と同様に大多数
の単語又は単語列を持つこれらモデル)を決定することで行われる。
【0012】 従属請求項4に定められる実施例において、コンテクストは、例えばコンテク
ストを特定する埋め込みタグを用いて、ウェブページに示される。このページは
、例えばリンクを介してコンテクスト(又はコンテクスト識別子)を示してもよ
い。
【0013】 従属請求項6に定められる実施例において、このシステムは、現在の認識タス
クに適したこれらの認識モデルを特定することをアクティブに試みる。認識に対
しアクティブに使用されるときの認識モデルに加えて、他のモデルは、これらの
適性に対しテストされる。このテストは、使用されないモデルが、アクティブに
使用されるモデルの1つより良好な結果を与えるかをチェックする追加の認識装
置を1つ以上使用することで背景タスクとして実行されてもよい。代わりに、実
際の認識装置は、この認識装置に十分な性能が残っている瞬間、例えばユーザが
話していないときにテストモデルをテストするのに使用されてもよい。このテス
トは、ユーザの全ての入力を含んでいる。特に、ユーザが既に多くの音声入力を
供給した場合、好ましくはこのテストが最新の入力に限定される。このやり方で
、ユーザが項目を直ぐ変えるとき、より適したモデルが選択可能である。どのモ
デルが最適かを決める基準、すなわち最も正確な認識を提供する基準は、好まし
くはスコア又は信頼手段のような認識の性能表示に基づいている。
【0014】 従属請求項7に定められる実施例において、認識モデルは階層的に配される。
これは、適切なモデルを選択することを容易にする。好ましくは、認識は多くの
比較的に一般的なモデルで始まる。ある一般的なモデルが良好な認識結果を提供
することが分かった場合、より特定のモデルがこの認識を更に改善するようにテ
ストされる。より特定のモデルの幾つかは、幾つかのより一般的なモデルによっ
て共有されてもよい。ある瞬間に、特定のモデルの認識結果が悪くなった場合、
この特定のモデルより階層的に上位にあるより一般的なモデルの幾つかが試され
てもよい。これは、あるコンテクストから他のコンテクストへの円滑な遷移を可
能にする。例えば、ユーザは、健康という一般的なコンテクストに関する入力を
供給することで始めてもよい。ある瞬間において、ユーザが医療センター又は施
設のようなより特定のコンテクストに最初に焦点を置き、更に健康ファームのよ
うな最も特定のコンテクストに下がって行くことが検出されてよい。特に、前記
健康ファームは、興味のあるエリアに配され、これはユーザに休暇、旅行又は特
に健康ファームのエリアにある旅行というより一般的なコンテクストに移動する
気にさせる。
【0015】 従属請求項8に定められるように、認識は、個々の認識サーバにより行われて
もよい。インターネットのコンテクストにおいて、このようなサーバは、ネット
上の個々のステーションであり、検索エンジンのような存在するステーション又
は電子書店のようなサービスプロバイダで統合される。特に、多くのユーザに対
し動作する認識サーバは、大多数のユーザに適する語彙をサポート可能にする必
要がある。幾つかの、特定の多語彙モデルは、高い認識精度でこのタスクを良好
に実行可能にする上記システムを利用する。
【0016】
【発明の実施の形態】
本発明のこれら及び他の特徴は、図面に示される実施例から明白であり、これ
ら図面を参照して説明する。
【0017】 例えば多語彙連続音声認識システムのような音声認識システムは、入力パター
ンを認識するために、認識モデルの集合体を典型的に使用する。例えば、音響モ
デル及び語彙は、単語を認識するのに使用されてもよく、言語モデルは、基本的
な認識結果を改善するのに使用されてよい。図1は、多語彙連続音声認識システ
ム100の典型的な構造を説明する(L. Rabiner, B-H. Juang著、"Fundamental
s of speech recognition" Prentice Hall 1993, 頁434-454参照)。このシステ
ム100は、スペクトル分析サブシステム110及びユニット整合サブシステム
120を有する。このスペクトル分析サブシステム110において、音声入力信
号(SIS)は、特徴である代表ベクトル(観測ベクトル:OV)を計算するた
めに、スペクトル的及び/又は一時的に分析される。典型的に、この音声信号は
、デジタル化(例えば6.67kHzのレートでサンプル化)され、例えばプリ
エンファシス(pre-emphasis)を与えることで前処理される。連続するサンプルは
、例えば32msecの音声信号に対応するフレームにグループ化(ブロック化
)される。連続するフレームは部分的、例えば16msec重複している。しば
しば、線形予測分析(LPC)のスペクトル分析法は、特徴である代表ベクトル
(観測ベクトル)を各フレームに対し計算するのに使用される。この特徴ベクト
ルは、例えば24,32又は63個の構成要素を有してもよい。多語彙連続音声
認識への標準的アプローチは、音声生成の見込みモデルを仮定することであり、
これによって、指定される単語列W=w…wは、一連の音響観測ベ
クトルY=y…y(t=1,…,T)を生成する。認識誤りは、観
測ベクトルの観測される列y…yの大半を発生させる前記単語列W
=w…wを決定することで統計的に最小とすることができる。ここ
で観測ベクトルは、スペクトル分析サブシステム110の結果である。これは最
大を決定することになり、帰納的確率は、全ての可能な単語列Wに対し、 max(W|Y) となる。条件付き確率にベイズの定理(Bayes' theorem)を与えることで、P(W
|Y)は、 P(W|Y)=P(Y|W)・P(W)/P(Y) で与えられる。P(Y)とWとは独立しているので、最も起こりうる単語列は、
全ての可能な単語列Wに対する以下の方程式 arg max P(Y|W)・P(W) (1) で与えられる。
【0018】 ユニット整合サブシステム120において、音響モデルは、上記方程式(1)
の第1項を供給する。この音響モデルは、与えられた単語列Wに対する一連の観
測ベクトルYの確率P(Y|W)を概算するのに使用される。多語彙システムに
対し、これは音声認識ユニットの一覧と観測ベクトルとを整合させることで通常
は実行される。音声認識ユニットは、一連の音響参照によって表される。音声認
識ユニットの様々な形態が使用されてもよい。例えば、全体の単語又は単語の集
合さえも1つの音声認識ユニットで表される。単語モデル(WM)は、与えられ
た語彙の単語各々に一連の音響参照の音声表記(transcription)を供給する。全
体の単語が音声認識ユニットで表されるシステムに対し、単語モデルと音声認識
ユニットとの間に直接的な関係が存在する。他のシステム、特に多語彙システム
は、単音素、2音素、音節のようなサブ単語ユニットと、fenene及びfenoneのよ
うな派生ユニットとが言語的に基づく音声認識ユニットに使用してもよい。この
ようなシステムに対し、単語モデルは、語彙の単語に関連する一連のサブ単語ユ
ニットを記載する辞書134と、複雑な音声認識ユニットの音響参照の列を記載
するサブ単語モデル132とにより与えられる。単語モデル構成器136は、前
記サブ単語モデル132及び辞書134に基づく単語モデルを有する。図2は、
サブ単語ユニットに基づくシステムの単語モデル220を説明し、ここで、示さ
れる単語は、3つの一連のサブ単語モデル(250,260及び270)によっ
てモデル化され、これらサブ単語モデルの各々は、4つの一連の音響参照(25
1,252,253,254;261から264;271から274)を具備す
る。図2に示される単語モデルは、隠れマルコフモデル(HMMs: Hidden Markov M
odels)に基づき、これは確率論的なモデル音声信号に広く使用されている。この
モデルを使用する場合、各認識ユニット(単語モデル又はサブ単語モデル)は、
これのパラメタがデータの学習セットから概算されるHMMによって典型的に特
徴付けられる。多語彙音声認識システムに対しては、多くの学習データがより多
くのユニットに対しHMMを適切に学習させる必要があるので、通常、サブ単語
ユニットは例えば40個の限定されたセットが使用される。HMMの状態は、音
響参照に対応している。参照をモデル化し、離散又は連続確率密度を含む様々な
技術が知られている。1つの特定の発音に関する音響参照の各列は、この発話の
音響音声表記とも呼ばれる。HMM以外の他の認識技術が使用される場合、音響
音声表記の細部が異なることは明白である。
【0019】 図1の単語レベル整合システム130は、音声認識ユニットの全列と観測ベク
トルとを整合させ、前記ベクトルと列との整合の尤度(likelihood)を供給する。
サブ単語ユニットが使用される場合、サブ単語ユニットの可能な列を辞書134
の列に制限するために、辞書134を用いることで前記整合に制約が置かれる。
これは結果を単語の可能な列に減少させる。
【0020】 十分な認識のために、整合に更なる制約が置かれるので、調査される経路が言
語モデル(LM)によって特定されるような適切な列である単語列に対応する経
路となる、この言語モデルに基づく文章レベル整合システム140を使用するこ
とも好ましい。このように、この言語モデルは、前記方程式(1)の第2項P(
W)を供給する。音響モデルの結果と言語モデルとの組合せは、認識された文章
(RS)152であるユニット整合サブシステム120の結果となる。パターン
認識に使用される言語モデルは、言語及び認識タスクの構文上及び/又は語義上
の制約142を含んでもよい。構文上の制約に基づく言語モデルは、通常、文法
144と呼ばれる。この言語モデルにより使用される文法144は、原則として
、 P(W)=P(W)P(W|W)・P(W|W)…P(W|W …W) で与えられる単語列W=W…Wqの確率を供給する。実際には、与え
られる言語における全単語と全列長とに関する条件単語確率を容易に概算するの
は不可能なので、N-gram単語モデルが広く使用されている。N-gram単語モデルに
おいて、項P(W|W…Wj−1)は、P(W|Wj−N+1
j−1)で近似される。実際には、bigram又はtrigramが使用される。trigram
において、項P(W|W…Wj−1)は、P(W|Wj−2 −1 )で近似される。
【0021】 図3は、本発明に係る音声認識システム300のブロック図を示す。このシス
テムの作用の実施例は、特に、認識された音声がテキスト又は同様な表現に変換
されるアプリケーションに関し記載される。このようなテキスト表現は、テキス
ト表現が、例えばワードプロセッサにおける文書、又はデータベースの領域を指
定するテキスト領域に挿入される口述用途に使用されてもよい。口述に関し、現
在の多語彙認識装置は、60,000語までのアクティブな語彙及び辞書をサポ
ートしている。より多くの単語に対し十分に正確な認識を可能にするモデルを構
築するために、十分に適切なデータを得ることは難しい。典型的に、ユーザは、
制限された数の単語をアクティブな語彙/辞書に加える。これら単語は、(単語
の音響音声表記も含む)300,000から500,000語の背景語彙から検
索される。口述又は同様の用途に対し、例えば、大語彙は、少なくとも100,
000のアクティブな単語又は300,000を越えるアクティブな単語からな
る。特にリンク部分をクリックすることで全く異なるコンテクストが作られるイ
ンターネット環境に対して、背景語彙の単語の多くがアクティブに認識されるこ
とが好ましいことは明白である。それに添付された先行する名前の確率(prior n
ame probability)のある形態でフラットリストとして通常はモデル化されるが、
高品質な言語モデルは存在しない例えば名前を認識するような他の認識タスクに
対して、50,000語以上の語彙が既に莫大に分類されている。
【0022】 認識結果は、口述用途に使用する必要はないと理解される。会話システムのよ
うな他のシステムに対する入力として同じように使用される。ここで、認識され
た音声情報に依存することは、データベースから検索される、又は本を注文若し
くは旅行を予約するような操作が達成される。
【0023】 図3には孤立型システム300が示されている。このシステムは、例えばPC
のようなコンピュータ上で実行される。項目310は、ユーザから音声表示信号
を入力する相互接続部を示す。例えば、マイクロホンがこの相互接続部310に
接続されてもよい。音声表示信号は、事前に記録されてもよく、又は遠隔地から
例えば電話若しくはネットワークを介して検索されることが分かる。このシステ
ム300は、ユーザからの入力を入力するためのインタフェース320を有する
。これは、例えば従来の音響カードを使用して実行されてもよい。前記インタフ
ェースがアナログ形態で音声を入力する入力部を持つ場合、このインタフェース
は、このアナログ音声を音声認識システム330で更に処理するのに適した形態
のデジタルサンプルに変換するA/D変換器を好ましくは有する。このインタフ
ェースがデジタル形態で音声を入力する入力部を持つ場合、好ましくは、前記変
換器は、前記デジタルデータを更なる処理をするのに適したデジタル形態に変換
することが可能である。音声認識システム330は、図1のスペクトル分析サブ
システム110に記載されるような入力信号を典型的には分析する。本発明に従
い、音声認識システム330は、複数の多語彙音声認識装置を有し、これら各々
は、それぞれが異なる多語彙認識モデルと関連している。図1に示されるような
典型的な認識に対し、個々の認識装置は、図3の番号335より小さい番号で示
されるような図1のモデル独立型スペクトル分析サブシステム110を割り当て
ることが可能である。図3は、3つの別々の認識装置331,332及び333
を用いて説明している。これら認識装置は、同じアルゴリズムを使用してもよく
、ここでは、語彙及び言語モデルのような使用するモデルに違いがある。音声認
識は、好ましくはスピーカ独立であり、連続音声入力を可能にする。音声認識自
体は公知であり、例えば米国シリアル番号08/425,304(当方整理番号
PHD91136)に対応するヨーロッパ番号EP92202782.6、米国
シリアル番号08/751,377(当方整理番号PHD91138)に対応す
るEP92202783.4、米国特許番号US5,634,083号(当方整
理番号PHD93034)に対応するEP94200475.5号のような様々
な文書に開示され、これら全ては本出願の譲受人である。認識装置は、ほぼ同じ
瞬間にこれら認識装置が同じ音声入力を別々に認識するような感覚、つまり“並
行に”動作する。これは、例えばVLIW処理器のような、“並行”動作処理器
における別々の処理器又は処理ユニットのような、認識装置の各々に対し別々の
情報源を用いることで達成される。同様の“並行”実行は、各認識装置が別々の
タスクとして実施される十分高度な実行を持つ従来の逐次処理器でも得られる。
好ましくは、前記認識は、単語が前記システムに入力された後、単語の認識時に
あまり遅延が起こらないという感覚における“リアルタイム”である。
【0024】 本発明に従って、多語彙音声認識装置の各々は、認識モデルの各々が大語彙の
特定部分を目標としたそれぞれ異なる多語彙認識モデルと関連している。これら
モデルは、好ましくは記憶装置340からロードされる。ここでの記載に関し、
前記認識モデルは、1つの認識タスクに使用されるモデルのコヒーレントセット
とするためのものである。例えば、図1を参照すると、認識モデルは、単語モデ
ル(辞書134及びサブ単語モデル132)と、大語彙のある特定部分に対する
言語モデル(文法144及び意味論上の制約142)とからなる。当然ながら、
普通、様々な認識モデル間に重複が存在してもよいし、存在するであろう。この
ような重複は、通常は語彙の一部に起こる。言語モデルは、部分的又は完全に同
じでもよい。簡単なシステムにおいて、認識モデルの数は、認識装置の数と一致
する。つまり、各認識装置は、排他的な認識モデルと固定した1対1の関係で関
連付けられる。好ましくは、このシステムは、以下に詳細に説明されるように、
アクティブな認識装置よりも多くのモデルを有する。当該図は8個のモデル34
1から348を示す。
【0025】 前記認識装置の出力は、認識された単語列の最終的な選択を行うための制御器
350に送られる。個々の認識装置331から333は、認識された単語列を一
つだけ生成する。代わりとして、(例えば単語グラフで表示される)多重列が生
成されてもよい。好ましくは、個々の認識装置の結果は、制御器350がほとん
どの単語列を選択することが可能である、例えば尤度のような情報又は信頼手段
(confidence measures)を含んでいる。この制御器350は、音声入力を認識装
置に送ることも担っている。アクティブな認識装置の数が一定である場合、この
送信は不変である。この場合、制御器350は、送信に関する特別なタスクを持
たない。
【0026】 好ましい実施例において、前記システムはアクティブな認識装置(N)よりも
多くの認識モデル(M)を有する。モデル選択器360は、認識コンテクストに
依存して、M個のモデルから関連する認識モデルを少なくとも1つの音声認識装
置に対し選択するのに使用される。このモデル選択器360は、アクティブな認
識装置の各々に対するモデルを選択してよい。しかしながら、共通に使用される
語彙をカバーする基本的な認識モデルは、常にアクティブであることが好ましい
。このような状況において、モデル選択器360によって少なくとも1つのモデ
ルを選択する必要はなく、認識装置に安定して割り当てられる。
【0027】 他の実施例において、少なくとも1つの認識モデルは、音声入力が関係する文
書により決定されるコンテクストに基づいて選択される。例えば、ユーザが健康
を項目とする文書を口述する場合、1つの認識装置は、健康に関する音声を認識
するのに最適な特定の認識モデルでロードされる。ユーザは、この文書に関する
コンテクストを、例えばシステムのモデルに対応する可能なコンテクストのリス
トから選択することで明確に示される。この場合、システム300は、上記リス
トを従来のやり方、例えばウインドウの選択ボックスを用いてユーザに示す。こ
のシステムは、例えば、文書内に既に存在する又はこれまでに話されたテキスト
を走査し、どのモデルが上記テキスト(例えばモデルがこれまでのテキストと同
様に多くの単語又は単語列と持つテキスト)を認識するのに最適かをチェックす
ることで、コンテクストを自動的に決定してもよい。コンテクスト識別子は、文
書と関連付けられてもよく、最適なモデルを決定するためにシステム300によ
り得られてもよい。好ましくは、HTMLページのようなウェブページに関連す
る音声に対し、前記文書のコンテクストがこの文書に指定される又はこの文章と
関連していることが好ましい。これは、タグの形態で行われ、このタグは、音声
が関連する本来のウェブページの制作者により封入されている。このタグは、ス
ポーツ、健康、エンターテイメント等のテキスト項目の形態でコンテクストを明
確に示す。仕様書は、コンテクスト番号のような識別子、又はコンテクストを指
定する場所へのリンク(例えばハイパーリンク)の形態でのような間接的でもよ
い。後者の場合、システム300は、(例えばコンテクスト番号を認識モデルの
1つにマッピング、すなわちハイパーテキストリンクにアクセスし、コンテクス
ト情報を得ることで)内在するコンテクストの仕様書から実際のコンテクストを
得ることが可能である。
【0028】 好ましい実施例において、モデル選択器360は、手近で認識に最適な利用可
能な認識モデルがどれかをチェックすることで認識をアクティブに改善するよう
に試みている。このために、モデル選択器360は、認識装置334で示される
ように、少なくとも1つのテスト認識装置を制御する。このテスト認識装置33
4は、アクティブな認識装置331から333によりまだ使用されていない認識
モデルの1つに結合される。入力された音声の一部(又は全て)は、前記テスト
認識装置にも与えられる。このテスト認識装置の結果は、制御器350による選
択の結果又は個々のアクティブな認識装置331から333の結果と比較される
。テスト認識装置334の認識結果がアクティブな認識装置331から333の
1つの認識結果よりも良好となる場合、テスト認識モデル(すなわち、テスト認
識装置334によって使用される瞬間のモデル)は、アクティブな認識装置の1
つにより使用するためにロードされる。好ましくは、最悪の認識結果を与えた認
識モデルは、(おそらく、常に使用される基本認識モデルを除いて)置き換えら
れる。
【0029】 認識モデルは、より一般的なコンテクストを備えるモデルからより特定のコン
テクストを備えるモデルへ階層的に配されることが好ましい。図4は、例えばエ
ンターテイメント、健康、旅行及びコンピュータの個々の一般項目をカバーする
4つの最も一般的なモデル410,420,430及び440を備える上記階層
を示す。一般的なモデルは、項目内の全ての発行物に関する表示テキストを分析
することで構築される。このモデル自体、モデルがどのように表示テキストから
構築されるかは十分知られている。健康の一般的なモデルは、例えば医薬品、手
術、食品/ダイエット、病院/医療センターに関する下位階層(すなわちより特
定のモデル)と関連付けられてもよい。これらモデルの各々は、これらのより特
定の項目に関するテキストを用いて作られる。当該図において、モデル422は
、病院/医療センターに関連する。このコンテクスト内において、モデル424
が健康ファームをカバーする更なる再分割が行われてもよい。健康ファームに関
する文書が典型的に周辺区域を記載するので、健康ファームに関するテキストを
分析することによって、自動的にある旅行項目に関する音声を認識するのにも適
した認識モデルが作られる。これは、カテゴリ旅行モデル内のモデル432より
下位階層にあるモデルとして使用するのに適した同じモデルを作る。あるモデル
での認識が良好な認識結果を得る場合、モデル選択器360は、より特定のモデ
ルでの認識を可能とするように動作する。上記のより特定のモデル(すなわち階
層的下層のモデル)は、より一般的なモデルと置き換えて使用されてよい。それ
は、より一般的なモデルに加えて使用されてもよい。より特定のモデルでの追加
の認識は、より一般的なモデルのみを生じさせ、より一般的なモデルと同じ階層
レベルにおいて、他の階層的に関連しないモデルと十分比較されて実行すること
が好ましい。例えば、スポーツ及び健康モデルは、階層的に関連せず(両方とも
最高位のレベルである)、スポーツモデルの使用がより良好な認識結果を与え、
より特定のスポーツモデルが使用されてよい。より特定の健康モデルを使用する
必要が無くなる。実際には、健康モデルの認識結果が非常に不十分な場合、この
モデルでの認識は、より特定のスポーツモデルを持つ追加の認識に有利となるよ
うに終わる。例えばフットボール、野球、アスレチック、カーレース等のような
幾つかのより特定のスポーツモデルが存在する場合、これらモデルの全ては検査
される。この選択は、単に、既に認識された音声と特定のモデルの語彙との一致
にも基づいている。ある瞬間における特定のモデルでの認識が不十分な結果を与
える場合、認識は、好ましくは特定のモデルより階層的に上位の少なくとも1つ
のモデルで継続される。
【0030】 図5に示されるような好ましい実施例において、認識システムが分散されてい
る。この分散されたシステムは、サーバステーション540と、少なくとも1つ
のユーザステーションを有する。3つのユーザステーション510,520及び
530が示され、ユーザステーション520にのみ、細部が示されている。これ
らステーションは、従来のコンピュータ技術を用いて実施される。例えば、ユー
ザステーション520は、デスクトップ型パーソナルコンピュータ又はワークス
テーションにより形成されるのに対し、サーバステーション540はPCサーバ
又はワークステーションサーバにより形成される。これらコンピュータは、コン
ピュータの処理器にロードされた最適なプログラムの制御下で動作する。サーバ
ステーション540及びユーザステーション510,520,530は、ネット
ワーク550を介して接続されている。このネットワーク550は、適切なネッ
トワーク、例えばオフィス環境におけるローカルエリアネットワーク又は好まし
くはインターネットであるワイドエリアネットワークでもよい。これらステーシ
ョンは、ネットワーク550を介して通信するための通信手段522及び542
をそれぞれ有する。ネットワーク550と組み合わせて使用する如何なる通信手
段が使用されてもよい。典型的に、これら通信手段は、通信インタフェース又は
モデムのようなハードウェアと、インターネットのTCP/IPプロトコルのよ
うな特定の通信プロトコルをサポートするソフトウェアドライバのソフトウェア
との組合せにより形成される。ユーザステーション520は、例えばインタフェ
ースを介してユーザから音声を入力する手段を有する。ユーザステーション52
0は、サーバステーション540に転送するのに適した音声信号を事前処理する
手段を更に有する。例えば、ユーザステーションは、図1のスペクトル分析サブ
システム110に類似のスペクトル分析サブシステム526を有する。サーバス
テーション540は、図3のシステム300に記載される全ての他のタスクを実
行する。例えば、サーバ540は、複数の(図3の認識システム335に類似の
)認識装置を具備する認識システム543と、(図3の制御器350に類似の)
制御器544、(図3の選択器360に類似の)モデル選択器545及び(図3
の記憶装置340に類似の)モデルを記憶する記憶装置546を有する。
【図面の簡単な説明】
【図1】 図1は、多/大語彙認識装置の構造を示す。
【図2】 図2は、完全な単語モデル図を示す。
【図3】 図3は、本発明に係るシステムのブロック図を示す。
【図4】 図4は、認識モデルの階層図を示す。
【図5】 図5は、本発明に係る分配システムのブロック図を示す。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SL,SZ,TZ,UG,ZW ),EA(AM,AZ,BY,KG,KZ,MD,RU, TJ,TM),AE,AL,AM,AT,AU,AZ, BA,BB,BG,BR,BY,CA,CH,CN,C R,CU,CZ,DE,DK,DM,EE,ES,FI ,GB,GD,GE,GH,GM,HR,HU,ID, IL,IN,IS,JP,KE,KG,KP,KR,K Z,LC,LK,LR,LS,LT,LU,LV,MA ,MD,MG,MK,MN,MW,MX,NO,NZ, PL,PT,RO,RU,SD,SE,SG,SI,S K,SL,TJ,TM,TR,TT,TZ,UA,UG ,UZ,VN,YU,ZA,ZW (72)発明者 ベスリン ステファン オランダ国 5656 アーアー アインドー フェン プロフ ホルストラーン 6 (72)発明者 ウルリッチ メインハード オランダ国 5656 アーアー アインドー フェン プロフ ホルストラーン 6 Fターム(参考) 5D015 HH11 HH15 KK02 LL09

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 一連の音声単語を認識する大語彙音声認識システムであって
    、 前記一連の音声単語を表す時系列入力パターンを入力する入力手段、及び 多語彙音声認識装置と関連付けられた多語彙認識モデルを用いて、語彙から前
    記入力パターンを一連の単語として認識するように動作する当該多語彙音声認識
    装置、 を有する大語彙音声認識システムにおいて、N個の多語彙音声認識装置を有し、
    当該認識装置の各々はそれぞれ異なる多語彙認識モデルと関連付けられ、前記認
    識モデルの各々は前記大語彙の特定部分に目標を置き、複数の前記音声認識装置
    に前記入力パターンを送り、前記複数の音声認識装置により認識された単語列か
    ら認識された単語列を選択するように動作する制御器を有することを特徴とする
    大語彙音声認識システム。
  2. 【請求項2】 M>Nである多語彙認識モデルをM個有し、少なくとも1つ
    の前記音声認識装置に対し、認識コンテクストに依存して前記M個のモデルから
    前記関連する認識モデルを選択するように動作するモデル選択器を有する請求項
    1に記載のシステム。
  3. 【請求項3】 音声入力が関連する文書は、少なくとも1つの認識コンテク
    ストを決定する請求項2に記載の装置。
  4. 【請求項4】 前記文書は、HTMLページのようなウェブページであり、
    前記文書のコンテクストは、当該文書内で特定される又は当該文書に関連する請
    求項3に記載のシステム。
  5. 【請求項5】 前記モデル選択器は、前記文書における又は関連する単語に
    依存して前記認識モデルを選択するように動作する請求項3に記載のシステム。
  6. 【請求項6】 前記モデル選択器は、 前記認識装置の1つによりまだ使用されていないN−M認識モデルからテスト
    認識モデルを選択し、 前記テスト認識モデルで前記入力パターンの少なくとも一部を認識するように
    テスト認識装置を制御し、及び 前記テスト認識装置の認識結果が前記認識装置の1つの認識結果よりも良好で
    ある場合、前記テスト認識モデルでの認識を可能にする ように動作する請求項2に記載のシステム。
  7. 【請求項7】 前記認識モデルは、より一般的なコンテクストを持つモデル
    からより特定のコンテクストを持つモデルへ階層的に配され、階層において高位
    レベルでの階層的に関連するより一般的なモデルでの認識が他の認識モデルと関
    連付けられる少なくとも1つの認識装置の結果と比較される良好な認識結果を得
    る場合、前記モデル選択器は、より特定のモデルでの認識を可能にするように動
    作する請求項1に記載の装置。
  8. 【請求項8】 前記システムは、インターネットのようなネットワークを介
    して接続されるサーバステーション及びユーザステーションを有し、前記ユーザ
    ステーションは、ユーザから入力パターンを入力し、当該入力パターンを表す信
    号を前記サーバステーションに転送し、前記サーバステーションは、前記認識装
    置及び制御器を有する請求項1に記載のシステム。
JP2000608365A 1999-03-26 2000-03-07 並列する認識エンジン Expired - Lifetime JP4485694B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP99200949.8 1999-03-26
EP99200949 1999-03-26
PCT/EP2000/001965 WO2000058945A1 (en) 1999-03-26 2000-03-07 Recognition engines with complementary language models

Publications (3)

Publication Number Publication Date
JP2002540478A true JP2002540478A (ja) 2002-11-26
JP2002540478A5 JP2002540478A5 (ja) 2007-04-26
JP4485694B2 JP4485694B2 (ja) 2010-06-23

Family

ID=8240033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000608365A Expired - Lifetime JP4485694B2 (ja) 1999-03-26 2000-03-07 並列する認識エンジン

Country Status (9)

Country Link
US (1) US6526380B1 (ja)
EP (1) EP1171871B1 (ja)
JP (1) JP4485694B2 (ja)
KR (1) KR20010108413A (ja)
CN (1) CN1156821C (ja)
AT (1) ATE250270T1 (ja)
AU (1) AU3164800A (ja)
DE (1) DE60005326T2 (ja)
WO (1) WO2000058945A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511024A (ja) * 2004-08-20 2008-04-10 マルチモーダル・テクノロジーズ・インク 音声からの意味内容の自動抽出および構造化文書の生成
JP2012529080A (ja) * 2009-06-04 2012-11-15 マイクロソフト コーポレーション 再認識および統計的分類を使用する認識
US9892734B2 (en) 2006-06-22 2018-02-13 Mmodal Ip Llc Automatic decision support

Families Citing this family (129)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174299B2 (en) * 1995-08-18 2007-02-06 Canon Kabushiki Kaisha Speech recognition system, speech recognition apparatus, and speech recognition method
DE60033733T2 (de) * 1999-05-31 2007-12-06 Nippon Telegraph And Telephone Corp. Datenbankabfragesystem basierend auf Spracherkennung
US20030093272A1 (en) * 1999-12-02 2003-05-15 Frederic Soufflet Speech operated automatic inquiry system
GB0004097D0 (en) * 2000-02-22 2000-04-12 Ibm Management of speech technology modules in an interactive voice response system
DE60016722T2 (de) * 2000-06-07 2005-12-15 Sony International (Europe) Gmbh Spracherkennung in zwei Durchgängen mit Restriktion des aktiven Vokabulars
US6671669B1 (en) 2000-07-18 2003-12-30 Qualcomm Incorporated combined engine system and method for voice recognition
US7243069B2 (en) * 2000-07-28 2007-07-10 International Business Machines Corporation Speech recognition by automated context creation
DE10043531A1 (de) * 2000-09-05 2002-03-14 Philips Corp Intellectual Pty Sprachdialogsystem
US6754629B1 (en) * 2000-09-08 2004-06-22 Qualcomm Incorporated System and method for automatic voice recognition using mapping
JP2002116796A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
US6922670B2 (en) * 2000-10-24 2005-07-26 Sanyo Electric Co., Ltd. User support apparatus and system using agents
US20020087313A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented intelligent speech model partitioning method and system
US20020087315A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented multi-scanning language method and system
US20020087311A1 (en) * 2000-12-29 2002-07-04 Leung Lee Victor Wai Computer-implemented dynamic language model generation method and system
US20020087309A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented speech expectation-based probability method and system
US6754626B2 (en) * 2001-03-01 2004-06-22 International Business Machines Corporation Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context
US20020169597A1 (en) * 2001-03-12 2002-11-14 Fain Systems, Inc. Method and apparatus providing computer understanding and instructions from natural language
US6785650B2 (en) * 2001-03-16 2004-08-31 International Business Machines Corporation Hierarchical transcription and display of input speech
US7072837B2 (en) * 2001-03-16 2006-07-04 International Business Machines Corporation Method for processing initially recognized speech in a speech recognition session
US6985859B2 (en) * 2001-03-28 2006-01-10 Matsushita Electric Industrial Co., Ltd. Robust word-spotting system using an intelligibility criterion for reliable keyword detection under adverse and unknown noisy environments
US7610547B2 (en) * 2001-05-04 2009-10-27 Microsoft Corporation Markup language extensions for web enabled recognition
US7409349B2 (en) * 2001-05-04 2008-08-05 Microsoft Corporation Servers for web enabled speech recognition
US7506022B2 (en) * 2001-05-04 2009-03-17 Microsoft.Corporation Web enabled recognition architecture
US6901364B2 (en) * 2001-09-13 2005-05-31 Matsushita Electric Industrial Co., Ltd. Focused language models for improved speech input of structured documents
US6996519B2 (en) * 2001-09-28 2006-02-07 Sri International Method and apparatus for performing relational speech recognition
US7308404B2 (en) * 2001-09-28 2007-12-11 Sri International Method and apparatus for speech recognition using a dynamic vocabulary
US7533020B2 (en) * 2001-09-28 2009-05-12 Nuance Communications, Inc. Method and apparatus for performing relational speech recognition
US6950795B1 (en) 2001-10-11 2005-09-27 Palm, Inc. Method and system for a recognition system having a verification recognition system
US8229753B2 (en) * 2001-10-21 2012-07-24 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting
US7711570B2 (en) * 2001-10-21 2010-05-04 Microsoft Corporation Application abstraction with dialog purpose
US7146321B2 (en) * 2001-10-31 2006-12-05 Dictaphone Corporation Distributed speech recognition system
US7133829B2 (en) * 2001-10-31 2006-11-07 Dictaphone Corporation Dynamic insertion of a speech recognition engine within a distributed speech recognition system
US7203644B2 (en) * 2001-12-31 2007-04-10 Intel Corporation Automating tuning of speech recognition systems
GB2391679B (en) 2002-02-04 2004-03-24 Zentian Ltd Speech recognition circuit using parallel processors
US6879954B2 (en) * 2002-04-22 2005-04-12 Matsushita Electric Industrial Co., Ltd. Pattern matching for large vocabulary speech recognition systems
US7292975B2 (en) * 2002-05-01 2007-11-06 Nuance Communications, Inc. Systems and methods for evaluating speaker suitability for automatic speech recognition aided transcription
US7236931B2 (en) * 2002-05-01 2007-06-26 Usb Ag, Stamford Branch Systems and methods for automatic acoustic speaker adaptation in computer-assisted transcription systems
DE10220521B4 (de) * 2002-05-08 2005-11-24 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und Klassifizierung von Gesprächen
DE10220524B4 (de) * 2002-05-08 2006-08-10 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten und zur Erkennung einer Sprache
EP1363271A1 (de) * 2002-05-08 2003-11-19 Sap Ag Verfahren und System zur Verarbeitung und Speicherung von Sprachinformationen eines Dialogs
DE10220522B4 (de) * 2002-05-08 2005-11-17 Sap Ag Verfahren und System zur Verarbeitung von Sprachdaten mittels Spracherkennung und Frequenzanalyse
DE10220520A1 (de) * 2002-05-08 2003-11-20 Sap Ag Verfahren zur Erkennung von Sprachinformation
AU2003235868A1 (en) 2002-05-10 2003-11-11 Asahi Kasei Kabushiki Kaisha Speech recognition device
US6618702B1 (en) * 2002-06-14 2003-09-09 Mary Antoinette Kohler Method of and device for phone-based speaker recognition
TWI225640B (en) * 2002-06-28 2004-12-21 Samsung Electronics Co Ltd Voice recognition device, observation probability calculating device, complex fast fourier transform calculation device and method, cache device, and method of controlling the cache device
CN1864204A (zh) * 2002-09-06 2006-11-15 语音信号技术有限公司 用来完成语音识别的方法、系统和程序
US7228275B1 (en) * 2002-10-21 2007-06-05 Toyota Infotechnology Center Co., Ltd. Speech recognition system having multiple speech recognizers
FR2850783A1 (fr) * 2003-01-30 2004-08-06 France Telecom Dispositif pour indexer un signal audio continu de duree indeterminee
ATE386318T1 (de) * 2003-03-01 2008-03-15 Robert E Coifman Verbesserung der transkriptionsgenauigkeit von spracherkennungssoftware
US7260535B2 (en) * 2003-04-28 2007-08-21 Microsoft Corporation Web server controls for web enabled recognition and/or audible prompting for call controls
US20040230637A1 (en) * 2003-04-29 2004-11-18 Microsoft Corporation Application controls for speech enabled recognition
US7437294B1 (en) 2003-11-21 2008-10-14 Sprint Spectrum L.P. Methods for selecting acoustic model for use in a voice command platform
EP2506252B1 (en) * 2003-11-21 2019-06-05 Nuance Communications, Inc. Topic specific models for text formatting and speech recognition
US7552055B2 (en) 2004-01-10 2009-06-23 Microsoft Corporation Dialog component re-use in recognition systems
US8160883B2 (en) * 2004-01-10 2012-04-17 Microsoft Corporation Focus tracking in dialogs
US20130304453A9 (en) * 2004-08-20 2013-11-14 Juergen Fritsch Automated Extraction of Semantic Content and Generation of a Structured Document from Speech
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7865362B2 (en) * 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7949533B2 (en) 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7895039B2 (en) 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US8260617B2 (en) * 2005-04-18 2012-09-04 Nuance Communications, Inc. Automating input when testing voice-enabled applications
US8032372B1 (en) 2005-09-13 2011-10-04 Escription, Inc. Dictation selection
US20070078806A1 (en) * 2005-10-05 2007-04-05 Hinickle Judith A Method and apparatus for evaluating the accuracy of transcribed documents and other documents
US7590536B2 (en) * 2005-10-07 2009-09-15 Nuance Communications, Inc. Voice language model adjustment based on user affinity
DE602006010505D1 (de) * 2005-12-12 2009-12-31 Gregory John Gadbois Mehrstimmige Spracherkennung
US7835911B2 (en) * 2005-12-30 2010-11-16 Nuance Communications, Inc. Method and system for automatically building natural language understanding models
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) * 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US7831423B2 (en) * 2006-05-25 2010-11-09 Multimodal Technologies, Inc. Replacing text representing a concept with an alternate written form of the concept
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
US7881928B2 (en) * 2006-09-01 2011-02-01 International Business Machines Corporation Enhanced linguistic transformation
US7831431B2 (en) * 2006-10-31 2010-11-09 Honda Motor Co., Ltd. Voice recognition updates via remote broadcast signal
US20080201158A1 (en) 2007-02-15 2008-08-21 Johnson Mark D System and method for visitation management in a controlled-access environment
US8542802B2 (en) 2007-02-15 2013-09-24 Global Tel*Link Corporation System and method for three-way call detection
US8412522B2 (en) 2007-12-21 2013-04-02 Nvoq Incorporated Apparatus and method for queuing jobs in a distributed dictation /transcription system
CA2710310A1 (en) * 2007-12-21 2009-07-02 Nvoq Incorporated Distributed dictation/transcription system
TW200933391A (en) * 2008-01-24 2009-08-01 Delta Electronics Inc Network information search method applying speech recognition and sysrem thereof
US8175882B2 (en) * 2008-01-25 2012-05-08 International Business Machines Corporation Method and system for accent correction
GB2457897A (en) * 2008-02-27 2009-09-02 N S C Natural Speech Comm Ltd Audio File Management, Search and Indexing Method and System
US8364481B2 (en) * 2008-07-02 2013-01-29 Google Inc. Speech recognition with parallel recognition tasks
US8805686B2 (en) * 2008-10-31 2014-08-12 Soundbound, Inc. Melodis crystal decoder method and device for searching an utterance by accessing a dictionary divided among multiple parallel processors
US8630726B2 (en) * 2009-02-12 2014-01-14 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US9225838B2 (en) 2009-02-12 2015-12-29 Value-Added Communications, Inc. System and method for detecting three-way call circumvention attempts
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8417526B2 (en) * 2009-03-13 2013-04-09 Adacel, Inc. Speech recognition learning system and method
JP2010224194A (ja) * 2009-03-23 2010-10-07 Sony Corp 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム
JP2011033680A (ja) * 2009-07-30 2011-02-17 Sony Corp 音声処理装置及び方法、並びにプログラム
US9026444B2 (en) 2009-09-16 2015-05-05 At&T Intellectual Property I, L.P. System and method for personalization of acoustic models for automatic speech recognition
US20110131040A1 (en) * 2009-12-01 2011-06-02 Honda Motor Co., Ltd Multi-mode speech recognition
EP2522012A1 (en) 2010-05-27 2012-11-14 Nuance Communications, Inc. Efficient exploitation of model complementariness by low confidence re-scoring in automatic speech recognition
US9332319B2 (en) * 2010-09-27 2016-05-03 Unisys Corporation Amalgamating multimedia transcripts for closed captioning from a plurality of text to speech conversions
US8812321B2 (en) * 2010-09-30 2014-08-19 At&T Intellectual Property I, L.P. System and method for combining speech recognition outputs from a plurality of domain-specific speech recognizers via machine learning
US8959102B2 (en) 2010-10-08 2015-02-17 Mmodal Ip Llc Structured searching of dynamic structured document corpuses
WO2012104708A1 (en) * 2011-01-31 2012-08-09 Walter Rosenbaum Method and system for information recognition
US9674328B2 (en) * 2011-02-22 2017-06-06 Speak With Me, Inc. Hybridized client-server speech recognition
US9679561B2 (en) * 2011-03-28 2017-06-13 Nuance Communications, Inc. System and method for rapid customization of speech recognition models
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9536517B2 (en) * 2011-11-18 2017-01-03 At&T Intellectual Property I, L.P. System and method for crowd-sourced data labeling
US9570076B2 (en) * 2012-10-30 2017-02-14 Google Technology Holdings LLC Method and system for voice recognition employing multiple voice-recognition techniques
US9240184B1 (en) * 2012-11-15 2016-01-19 Google Inc. Frame-level combination of deep neural network and gaussian mixture models
US9196250B2 (en) * 2012-11-16 2015-11-24 2236008 Ontario Inc. Application services interface to ASR
CN103076893B (zh) * 2012-12-31 2016-08-17 百度在线网络技术(北京)有限公司 一种用于实现语音输入的方法与设备
US9542947B2 (en) * 2013-03-12 2017-01-10 Google Technology Holdings LLC Method and apparatus including parallell processes for voice recognition
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9058805B2 (en) * 2013-05-13 2015-06-16 Google Inc. Multiple recognizer speech recognition
US9305554B2 (en) * 2013-07-17 2016-04-05 Samsung Electronics Co., Ltd. Multi-level speech recognition
EP3067884B1 (en) * 2015-03-13 2019-05-08 Samsung Electronics Co., Ltd. Speech recognition system and speech recognition method thereof
KR102413067B1 (ko) * 2015-07-28 2022-06-24 삼성전자주식회사 문법 모델을 갱신하고, 문법 모델에 기초하여 음성 인식을 수행하는 방법 및 디바이스
CN105679314B (zh) * 2015-12-28 2020-05-22 百度在线网络技术(北京)有限公司 语音识别方法和装置
US10572961B2 (en) 2016-03-15 2020-02-25 Global Tel*Link Corporation Detection and prevention of inmate to inmate message relay
US9609121B1 (en) 2016-04-07 2017-03-28 Global Tel*Link Corporation System and method for third party monitoring of voice and video calls
US20180025731A1 (en) * 2016-07-21 2018-01-25 Andrew Lovitt Cascading Specialized Recognition Engines Based on a Recognition Policy
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US9959861B2 (en) * 2016-09-30 2018-05-01 Robert Bosch Gmbh System and method for speech recognition
CN106601257B (zh) * 2016-12-31 2020-05-26 联想(北京)有限公司 一种声音识别方法、设备和第一电子设备
US10748531B2 (en) * 2017-04-13 2020-08-18 Harman International Industries, Incorporated Management layer for multiple intelligent personal assistant services
US10027797B1 (en) 2017-05-10 2018-07-17 Global Tel*Link Corporation Alarm control for inmate call monitoring
US10225396B2 (en) 2017-05-18 2019-03-05 Global Tel*Link Corporation Third party monitoring of a activity within a monitoring platform
US10860786B2 (en) 2017-06-01 2020-12-08 Global Tel*Link Corporation System and method for analyzing and investigating communication data from a controlled environment
US9930088B1 (en) 2017-06-22 2018-03-27 Global Tel*Link Corporation Utilizing VoIP codec negotiation during a controlled environment call
TWI682386B (zh) * 2018-05-09 2020-01-11 廣達電腦股份有限公司 整合式語音辨識系統及方法
EP3598377A1 (en) * 2018-07-20 2020-01-22 KBC Groep NV Improved claim handling
TWI698857B (zh) 2018-11-21 2020-07-11 財團法人工業技術研究院 語音辨識系統及其方法、與電腦程式產品
CN110415685A (zh) * 2019-08-20 2019-11-05 河海大学 一种语音识别方法
US10665241B1 (en) * 2019-09-06 2020-05-26 Verbit Software Ltd. Rapid frontend resolution of transcription-related inquiries by backend transcribers
US11532312B2 (en) 2020-12-15 2022-12-20 Microsoft Technology Licensing, Llc User-perceived latency while maintaining accuracy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2818362B2 (ja) * 1992-09-21 1998-10-30 インターナショナル・ビジネス・マシーンズ・コーポレイション 音声認識装置のコンテキスト切換えシステムおよび方法
US5754978A (en) * 1995-10-27 1998-05-19 Speech Systems Of Colorado, Inc. Speech recognition system
US5937383A (en) * 1996-02-02 1999-08-10 International Business Machines Corporation Apparatus and methods for speech recognition including individual or speaker class dependent decoding history caches for fast word acceptance or rejection
US6073101A (en) * 1996-02-02 2000-06-06 International Business Machines Corporation Text independent speaker recognition for transparent command ambiguity resolution and continuous access control
DE19635754A1 (de) 1996-09-03 1998-03-05 Siemens Ag Sprachverarbeitungssystem und Verfahren zur Sprachverarbeitung
US5819220A (en) 1996-09-30 1998-10-06 Hewlett-Packard Company Web triggered word set boosting for speech interfaces to the world wide web
US6088669A (en) * 1997-01-28 2000-07-11 International Business Machines, Corporation Speech recognition with attempted speaker recognition for speaker model prefetching or alternative speech modeling
US6078886A (en) 1997-04-14 2000-06-20 At&T Corporation System and method for providing remote automatic speech recognition services via a packet network

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008511024A (ja) * 2004-08-20 2008-04-10 マルチモーダル・テクノロジーズ・インク 音声からの意味内容の自動抽出および構造化文書の生成
JP4940139B2 (ja) * 2004-08-20 2012-05-30 マルチモーダル・テクノロジーズ・インク 音声からの意味内容の自動抽出および構造化文書の生成
US9892734B2 (en) 2006-06-22 2018-02-13 Mmodal Ip Llc Automatic decision support
JP2012529080A (ja) * 2009-06-04 2012-11-15 マイクロソフト コーポレーション 再認識および統計的分類を使用する認識
US8930179B2 (en) 2009-06-04 2015-01-06 Microsoft Corporation Recognition using re-recognition and statistical classification
JP2016026326A (ja) * 2009-06-04 2016-02-12 マイクロソフト テクノロジー ライセンシング,エルエルシー 再認識および統計的分類を使用する認識

Also Published As

Publication number Publication date
DE60005326T2 (de) 2004-07-22
EP1171871B1 (en) 2003-09-17
KR20010108413A (ko) 2001-12-07
ATE250270T1 (de) 2003-10-15
US6526380B1 (en) 2003-02-25
JP4485694B2 (ja) 2010-06-23
CN1156821C (zh) 2004-07-07
WO2000058945A1 (en) 2000-10-05
AU3164800A (en) 2000-10-16
CN1351744A (zh) 2002-05-29
DE60005326D1 (de) 2003-10-23
EP1171871A1 (en) 2002-01-16

Similar Documents

Publication Publication Date Title
JP2002540478A (ja) 並列する認識エンジン
US6363348B1 (en) User model-improvement-data-driven selection and update of user-oriented recognition model of a given type for word recognition at network server
US10410627B2 (en) Automatic language model update
US11069335B2 (en) Speech synthesis using one or more recurrent neural networks
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
US6487534B1 (en) Distributed client-server speech recognition system
US9626959B2 (en) System and method of supporting adaptive misrecognition in conversational speech
US6961705B2 (en) Information processing apparatus, information processing method, and storage medium
CN101309327B (zh) 语音聊天系统、信息处理装置、话语识别和关键字检测
US7640160B2 (en) Systems and methods for responding to natural language speech utterance
US6430551B1 (en) Vocabulary and/or language model training
US7424427B2 (en) Systems and methods for classifying audio into broad phoneme classes
EP1181684B1 (en) Client-server speech recognition
JP2002524806A (ja) 音声認識および自然言語処理を使用したネットワーク用対話型ユーザ・インタフェース
CN101505328A (zh) 应用语音识别的网络数据检索方法及其系统
US20040006469A1 (en) Apparatus and method for updating lexicon
US20040181407A1 (en) Method and system for creating speech vocabularies in an automated manner
CN110431546B (zh) 发音者检索装置、发音者检索方法以及发音者检索程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070306

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100325

R150 Certificate of patent or registration of utility model

Ref document number: 4485694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term