JP2000099083A - 音声語彙要素の発生の確率を推定する方法 - Google Patents

音声語彙要素の発生の確率を推定する方法

Info

Publication number
JP2000099083A
JP2000099083A JP11260949A JP26094999A JP2000099083A JP 2000099083 A JP2000099083 A JP 2000099083A JP 11260949 A JP11260949 A JP 11260949A JP 26094999 A JP26094999 A JP 26094999A JP 2000099083 A JP2000099083 A JP 2000099083A
Authority
JP
Japan
Prior art keywords
vocabulary
probability
gram
corpus
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11260949A
Other languages
English (en)
Inventor
Dietrich Klakow
クラコウ ディートリヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of JP2000099083A publication Critical patent/JP2000099083A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams

Abstract

(57)【要約】 【課題】 誤り率及び問題が減少されるよう音声認識シ
ステムにおいて音声語彙要素の発生の確率を推定する方
法を提供することを目的とする。 【解決手段】 言語音声モデリングの変更によって、音
声認識システムの誤り率及び問題が減少されるような更
なる代替方法が提供される。本発明による方法は、音声
語彙要素の発生の確率の推定において、この要素の幾つ
かのM−グラム確率はM−グラム特定の最適化されたパ
ラメータ値によってより高次に累乗され、このようにし
て獲得された結果は相互に乗算され、上記音声語彙要素
の発生の確率の推定は、音声語彙要素に対する第1の学
習語彙コーパスによって推定されるM>1のM−グラム
確率が最適化されたパラメータ値によって累乗された商
によって乗算され、該最適化されたパラメータ値はGI
Sアルゴリズムによって決定され、第2の学習語彙コー
パスによって推定された要素の1−グラム確率が商の被
除数として用いられ、第1の学習語彙コーパスによって
推定された要素の1−グラム確率が商の除数として用い
られる場合を含まないことを特徴とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は音声認識システムに
おいて音声語彙要素の発生の確率を推定する方法に関す
る。統計モデルに基づく音声認識システムでは、音響音
声モデリング及び言語音声モデリングが使用される。本
発明は言語音声モデリングの分野に関する。
【0002】
【従来の技術】音声語彙の要素の発生の確率をこれらの
要素の異なるM−グラム(M−gram)確率の線形の
組合せによって決定することが知られている。1993
年のR.Kneser, V.Steinbiss,"On the dynamic adaptati
on of stochastic language models", Proc. ICASSP, p
p. 586-589より、2−グラム(bigram)語彙要素
の発生の確率を形成するために、これらの2−グラム語
彙関数の異なる学習語彙コーパスについて決定される複
数の発生の確率は、これらの要素の発生の確率を形成す
るよう線形に組み合わされる。
【0003】また、1997年のR.Kneser, J.Peters a
nd D.Klakow, "Language Model Adaptation using Dyna
mic Marginals",EUROSPEECH, pp.1971-1974 の式(8)
及び(9)より、音声語彙要素の発生の確率の推定にお
いて、音声語彙要素に対する第1の学習語彙コーパスに
よって推定されるM>1のM−グラム確率が、最適化さ
れたパラメータ値によって累乗された商によって乗算さ
れ、この最適化されたパラメータ値はGIS(Generali
zed Iterative Scaling )アルゴリズムによって決定さ
れ、第2の学習語彙コーパスによって推定された要素の
1−グラム(unigram)確率が商の被除数として
用いられ、第1の学習語彙コーパスによって推定された
要素の1−グラム確率が商の除数として用いられること
が知られている。この構成では音声認識システムの誤り
率及び問題は減少される。
【0004】
【発明が解決しようとする課題】本発明は、言語音声モ
デリングの変更によって、音声認識システムの誤り率及
び問題が減少されるような更なる代替方法を提供するこ
とを目的とする。
【0005】
【課題を解決するための手段】この目的は、音声語彙要
素の発生の確率の推定において、この要素の幾つかのM
−グラム確率はM−グラム特定の最適化されたパラメー
タ値によってより高次に累乗され、このようにして獲得
された結果は相互に乗算されることによって解決され
る。
【0006】適当なM−グラムとしては、例えば、当該
の音声語彙要素を含む1−グラム(unigram),
2−グラム(bigram),ギャップ2−グラム、又
はギャップ3−グラムがある。本発明による解法は、異
なるM−グラム確率及びM−グラムの記述された組合せ
による結果としての発生の確率に関してKullbac
k−Leibler距離を最小化する構成に基づく。本
発明は対応する語彙要素の(発生の)確率によって決定
される既知の言語音声モデルの効果的な組合せを提供す
る。これは、選択された適用分野によりよく適応された
音声語彙要素の確率、及び音声認識システムのための改
善された言語音声モデルを与える。
【0007】以下の例は、本発明の保護範囲に含まれな
い(”disclaimer”)。その例とは、音声語
彙要素の発生の確率の推定において、音声語彙要素に対
する第1の学習語彙コーパスによって推定されるM>1
のM−グラム確率が最適化されたパラメータ値によって
累乗された商によって乗算され、上記最適化されたパラ
メータ値はGISアルゴリズムによって決定され、第2
の学習語彙コーパスによって推定された要素の1−グラ
ム確率が商の被除数として用いられ、第1の学習語彙コ
ーパスによって推定された要素の1−グラム確率が商の
除数として用いられる例である。
【0008】本発明の保護範囲に含まれないこの例は、
R.Kneser, J.Peters and D.Klakowによる文献"Language
Model Adaptation using Dynamic Marginals, EUROSPE
ECH, pp1971-1974,1997より既に知られており、この構
成は、既知のGISアルゴリズムの使用に基づき、この
1つの特別な解のみに達するが、本発明の保護範囲に含
まれる他の場合には達しない。
【0009】本発明の1つの実施例では、第1の学習語
彙コーパスはM−グラム確率の第1の部分を推定するた
めに使用され、第2の学習語彙コーパスの第1の部分は
M−グラム確率の第2の部分を推定するために使用さ
れ、第2の学習語彙コーパスの第2の部分はM−グラム
確率に割り当てられた最適化されたパラメータ値を決定
するために使用される。
【0010】このようにして、異なる大きさの語彙が、
異なる程度で特殊適用に適応されるモデル形式化の中に
統合されうる。例えば、第1の学習語彙コーパスは例え
ば、NABコーパス(North American Business News)
といった不特定な適用のための語彙コーパスであること
が望ましい。第2の学習語彙コーパスは例えば司法の分
野といった所与の特殊分野の適用に関する1つ以上の例
テキストからの語彙要素からなることが望ましい。第2
の学習語彙コーパスが第1の学習語彙コーパスと比較し
てかなり小さいコーパスであるよう選択された場合、言
語音声モデルはわずかな努力で特殊適用に適応されう
る。また、モデル適応のために使用されるパラメータ値
は、処理努力を最小化するよう第2の学習語彙コーパス
によって決定される。
【0011】最適化されたパラメータ値を決定するた
め、最適化関数、
【0012】
【数2】
【0013】が最小化され、式中、λi は最適化される
べきパラメータ値を表わし、hwは先行する語彙要素の
履歴hを伴う語彙要素wに対するM−グラムを表わし、
f(hw)は、第2の語彙の第2の部分の学習段階で生
ずる計数されたM−グラムの数を被除数とし、第2の語
彙の語彙要素の数を除数としたときの商を表わし、
【0014】
【外2】
【0015】はスケーリングファクタを表わし、pi
履歴hが所与であるときの語彙要素wの発生の確率の推
定された確率を表わす。変数としてパラメータλi を有
する確率関数を表わすこの最適化関数は凸であり、従来
の近似方法によって決定されうるパラメータ値λi の所
与の組に対して単一の最大を有する。このようにして、
Kullback−Leibler距離の明示的な決定
が回避される。
【0016】本発明による改善された言語音声モデルの
形成において、M<3のM−グラム確率のみが使用され
る場合、音声認識を行なうコンピュータ用の所要のメモ
リ空間は小さいままでありうる。モデル形成のため、こ
の場合は1−グラム、2−グラム、及び特にギャップ2
−グラムが使用される。本発明はまた、発生の確率が割
り当てられ上述のような方法によって推定される言語要
素を有する音声語彙を使用する音声認識システムに関す
る。
【0017】
【発明の実施の形態】本発明の上述及び他の面は、以下
説明される実施例を参照して明らかとなろう。図1は、
入力2において電気形式の音声信号を受信する音声認識
システム1を示す図である。機能ブロック3において音
響分析が行われ、それにより出力4は音声信号を定義す
る連続する特徴ベクトルを供給する。音響分析では、電
気形式で存在する音声信号がサンプリングされ、量子化
され、続いてフレームの中に組み合わされる。連続する
フレームは部分的に相互に重なり合ってもよい。特徴ベ
クトルは各単一のフレームに対して形成される。機能ブ
ロック5では、一連の音声語彙要素に対する探索が行わ
れ、これは一連の特徴ベクトルの所与の入力に対しては
存在する可能性が最も高い。
【0018】音声認識システムにおいて慣習的であるよ
うに、認識結果の確率はいわゆるベイズの公式によって
最大化される。この場合、音声信号の音響モデル(機能
ブロック6)及び言語音声モデル(機能ブロック7)の
両方が機能ブロック5によって表わされる処理動作に含
まれる。機能ブロック6による音響モデルは、別個の語
彙要素、又は複数の語彙要素の組合せをモデリングする
ためにいわゆるHMMモデル(隠れマルコフモデル)の
通常の適用を含む。音声モデル(機能ブロック7)は、
音声認識システム1が基礎とする音声語彙の単一の要素
の発生の推定された確率を含む。以下に説明される本発
明はそれに基づいており、出力8から供給される認識結
果の誤り率の減少をもたらす。更に、システムの問題が
減少される。
【0019】以下、使用される音声語彙の要素wに対し
て発生の条件付き確率pi (w|h i )が既にあるもの
と仮定し、但し、要素wは単語、単語の一部、若しく
は、単語又は単語の一部の連続でありうるものとする。
i は要素wに関する履歴、即ち所与の先行する語彙要
素、を表わすものとする。履歴hi に依存して、p
i は、1−グラム(unigram),2−グラム(b
igram),3−グラム(trigram)等の確率
でありうる。しかしながら、モデリングには、ギャップ
2−グラム、ギャップ3−グラム、又はより高次のMの
ギャップM−グラムが含まれうる。かかるモデルでは、
履歴hi はギャップを有し、即ち履歴hi は直接連続す
る語彙要素に基づくものではない。かかる発生の確率p
i の存在が仮定されうる。これらは概して適当なテキス
トコーパスから決定される。
【0020】本発明はこれらの所与のMグラム確率pi
を使用し、それらの適当な組合せの後、推定された新し
い発生の確率p(w|h)、即ち先行する語彙要素の履
歴hが与えられている場合の音声語彙要素wの確率を供
給する。この発生の確率pに対する最適値を決定するた
め、初期の開始点はKullback−Leibler
距離、即ち、
【0021】
【数3】
【0022】となる。Kullback−Leible
r距離は数学的な表現である。その定義は、例えばT.M
.Cover, J.A. Thomas によるWiley-Interscience Publ
icationより出版の文献"Elements of Information Theo
ry"の第2.3章の中に読むことができる。
【0023】この距離から開始して、以下の式、
【0024】
【数4】
【0025】に従う全体距離Dが定義される。ここで、
0 は対応する音声語彙要素の均等分布が仮定された場
合の確率値である。p’は決定されるべき発生の確率p
に対する変数である。最適なp’は計算されるべき発生
の確率pから獲得される。μiはいわゆるラグランジュ
乗数であり、近似法によるその決定もまた定義され既知
である。これに関して、上述のT.M .Cover, J.A. Thoma
s による文献が参照される。
【0026】ここで、かかる問題に対する従来の近似法
のうちの1つによって全体距離Dが決定される(やはり
上述のT.M .Cover, J.A. Thomas による文献を参照のこ
と)。この問題は閉じた解を有する。解の表現を簡単化
するため、最適化されたパラメータ値λi が定義される
一方で、以下の式、
【0027】
【数5】
【0028】に従ってラグランジュ乗数μi を使用す
る。この演繹から開始して、探索された発生の確率pに
ついて以下の式、
【0029】
【数6】
【0030】が獲得され、その中で
【0031】
【外3】
【0032】は、
【0033】
【数7】
【0034】によって決定されるスケーリングファクタ
であり、その中で加算は最適化されたパラメータ値λi
を決定するために使用される学習語彙コーパスの全ての
要素wに亘る。対応する音声言語の要素wの発生の確率
pを推定するため、異なるM−グラム確率pi (w|h
i )は相互に組み合わされる。履歴hi に依存して、p
i は1−グラム,2−グラム,3−グラム等の確率を表
わす。ギャップ2−グラム,3−グラム等もまたpi
適している。確率値pi は最初に、当該のM−グラムの
ために最適化された特定のパラメータ値λi によってよ
り高次に累乗される。このようにして獲得されたNのべ
き乗は、続いて相互に乗算され、続いて
【0035】
【外4】
【0036】による除算によるスケーリング演算が行わ
れる。最適化されたパラメータ値λi は以下の最適化式
F、
【0037】
【数8】
【0038】に従って音声認識システムの学習段階にお
いて決定され、但し式中、λi は最適化されるべきパラ
メータ値を表わし、hwは先行する語彙要素の履歴hを
伴う語彙要素wに対するM−グラムを表わし、f(h
w)は、第2の語彙の第2の部分の学習段階で生ずる計
数されたM−グラムの数を被除数とし、第2の語彙の語
彙要素の数を除数としたときの商を表わし、
【0039】
【外5】
【0040】はスケーリングファクタを表わし、pi
履歴hが所与であるときの語彙要素wの発生の確率の推
定された確率を表わす。この関数Fは音声認識システム
の当該の学習段階において最大化されるべきである。音
声認識システムのために使用されるべき言語音声モデル
を構築するとき、一般的な性質の第1の学習コーパス及
び特殊な性質の第2の学習コーパスの両方が使用され
る。第1の学習コーパスは例えば、一般的に使用可能で
あり、このコーパスの中の音声語彙要素の発生の確率か
ら形成されるNABコーパスである。特殊な性質の学習
語彙コーパスは、例えば、司法の分野又は所与の技術分
野におけるテキストの音声語彙要素を含む。本発明によ
る音声語彙要素の発生の確率を改善するための追加的な
努力は、特殊な学習語彙コーパスのためにだけ必要であ
ることが望ましい。この学習コーパスの第1の部分は、
従って確率pi を決定するために使用され、特殊な学習
語彙コーパスの第2の部分は最適化されたパラメータ値
λi を決定するために使用される。
【0041】関数Fは特殊な学習語彙コーパスの第2の
部分に関連する最適化関数であり、上述のように最大化
されるべきである。関数Fは凸であり、単一の明瞭な最
大を有する。その計算のために、幾つかの多次元最適化
又は近似方法が可能であり、例えばCambridge Universi
ty Press, 1989, 第10.4章のW.H.Press 外による"Numer
ical Recipes" に記載されるいわゆるシンプレックス
(Simplex)アルゴリズムがある。本発明におけ
る第1の望ましい用途は、所与の適用に適応される音声
モデルの構築である。例えば、3−グラムuvwの発生
の確率の改善された推定は、以下の式、
【0042】
【数9】
【0043】に従って決定される。1−グラム確率p
allg(w),2−グラム確率pallg(w|v),及び3
−グラム確率pallg(w|uv)は、上述の一般的な学
習語彙コーパスの評価に基づいて決定される。特殊な学
習語彙コーパスは2つの部分へ分割される。第1の部分
は、1−グラム確率pspez(w)及び2−グラム確率p
sp ez(w|v)を決定するために使用される。特殊な学
習語彙コーパスの他の第2の部分は上述のように最適化
されたパラメータ値λを決定するために使用される。
【0044】本発明における第2の望ましい用途は、音
声語彙要素の発生の確率の改善された推定のために、1
つ以上の学習語彙コーパスの異なるM−グラムの確率を
組み合わせることである。かかる用途の一例は、3−グ
ラムuvwに対する発生の確率p(w|uv)を、
【0045】
【数10】
【0046】に従って決定することであり、式中、p
(w)は音声語彙要素wに対する1−グラム確率であ
り、pdlは2−グラムvwの確率であり、pd2(w|
u)はギャップ2−グラムuwに対するギャップ2−グ
ラム確率である。λuni 、λdl及びλ d2は、対応する最
適化されたパラメータ値を表わす。M<3のM−グラム
確率のみ、即ち2−グラムのみが使用されれば、所望の
メモリ空間は減少されうる。その場合、2−グラムとし
て「通常の」2−グラム及び/又はギャップ2−グラム
が使用される。音声認識システムの誤り率及び問題に関
して達成されるべき減少は、多くの適用のために十分で
ある。
【図面の簡単な説明】
【図1】本発明の音声認識システムを示す図である。
【符号の説明】
1 音声認識システム 2 入力 3 音響分析 4 出力 5 音声語彙要素列の探索 6 音響音声モデル 7 言語音声モデル 8 出力
───────────────────────────────────────────────────── フロントページの続き (71)出願人 590000248 Groenewoudseweg 1, 5621 BA Eindhoven, Th e Netherlands

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 音声認識システムにおいて音声語彙要素
    の発生の確率を推定する方法であって、 音声語彙要素の発生の確率の推定において、この要素の
    幾つかのM−グラム確率はM−グラム特定の最適化され
    たパラメータ値によってより高次に累乗され、このよう
    にして獲得された結果は相互に乗算され、 上記音声語彙要素の発生の確率の推定は、音声語彙要素
    に対する第1の学習語彙コーパスによって推定されるM
    >1のM−グラム確率が最適化されたパラメータ値によ
    って累乗された商によって乗算され、該最適化されたパ
    ラメータ値はGISアルゴリズムによって決定され、第
    2の学習語彙コーパスによって推定された要素の1−グ
    ラム確率が商の被除数として用いられ、第1の学習語彙
    コーパスによって推定された要素の1−グラム確率が商
    の除数として用いられる場合を含まないことを特徴とす
    る方法。
  2. 【請求項2】 第1の学習語彙コーパスはM−グラム確
    率の第1の部分を推定するために使用され、第2の学習
    語彙コーパスの第1の部分はM−グラム確率の第2の部
    分を推定するために使用され、第2の学習語彙コーパス
    の第2の部分はM−グラム確率に割り当てられた最適化
    されたパラメータ値を決定するために使用されることを
    特徴とする、請求項1記載の方法。
  3. 【請求項3】 上記最適化されたパラメータ値を決定す
    るために、最適化関数、 【数1】 が最小化され、式中、 λi は最適化されるべきパラメータ値を表わし、 hwは先行する語彙要素の履歴hを伴う語彙要素wに対
    するM−グラムを表わし、 f(hw)は、第2の語彙の第2の部分の学習段階で生
    ずる計数されたM−グラムの数を被除数とし、第2の語
    彙の語彙要素の数を除数としたときの商を表わし、 【外1】 はスケーリングファクタを表わし、 pi は履歴hが所与であるときの語彙要素wの発生の確
    率の推定された確率を表わすことを特徴とする、請求項
    2記載の方法。
  4. 【請求項4】 M<3のM−グラム確率のみが使用され
    ることを特徴とする、請求項1乃至3のうちいずれか1
    項記載の方法。
  5. 【請求項5】 ギャップ2−グラム確率が使用される特
    徴とする、請求項4記載の方法。
  6. 【請求項6】 請求項1乃至5のうちいずれか1項記載
    の方法によって推定される発生の確率が割り当てられる
    語彙要素を有する音声語彙を用いる音声認識システム。
JP11260949A 1998-09-16 1999-09-14 音声語彙要素の発生の確率を推定する方法 Withdrawn JP2000099083A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19842404A DE19842404A1 (de) 1998-09-16 1998-09-16 Verfahren zur Schätzung von Auftrittswahrscheinlichkeiten für Sprachvokabularelemente
DE19842404:3 1998-09-16

Publications (1)

Publication Number Publication Date
JP2000099083A true JP2000099083A (ja) 2000-04-07

Family

ID=7881163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11260949A Withdrawn JP2000099083A (ja) 1998-09-16 1999-09-14 音声語彙要素の発生の確率を推定する方法

Country Status (4)

Country Link
US (1) US6314400B1 (ja)
EP (1) EP0987684B1 (ja)
JP (1) JP2000099083A (ja)
DE (2) DE19842404A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1343337B (zh) * 1999-03-05 2013-03-20 佳能株式会社 用于产生包括音素数据和解码的字的注释数据的方法和设备
US6882970B1 (en) * 1999-10-28 2005-04-19 Canon Kabushiki Kaisha Language recognition using sequence frequency
US7310600B1 (en) 1999-10-28 2007-12-18 Canon Kabushiki Kaisha Language recognition using a similarity measure
US7212968B1 (en) 1999-10-28 2007-05-01 Canon Kabushiki Kaisha Pattern matching method and apparatus
GB0011798D0 (en) * 2000-05-16 2000-07-05 Canon Kk Database annotation and retrieval
GB0015233D0 (en) * 2000-06-21 2000-08-16 Canon Kk Indexing method and apparatus
GB0023930D0 (en) 2000-09-29 2000-11-15 Canon Kk Database annotation and retrieval
GB0027178D0 (en) 2000-11-07 2000-12-27 Canon Kk Speech processing system
GB0028277D0 (en) 2000-11-20 2001-01-03 Canon Kk Speech processing system
DE10106580A1 (de) * 2001-02-13 2002-08-22 Philips Corp Intellectual Pty Spracherkennungssystem, Trainingseinrichtung und Verfahren zum Berechnen von Iterationswerten für freie Parameter eines Maximum-Entropie-Sprachmodells
DE102004048348B4 (de) * 2004-10-01 2006-07-13 Daimlerchrysler Ag Verfahren zur Adaption und/oder Erzeugung statistischer Sprachmodelle
WO2007129316A2 (en) 2006-05-07 2007-11-15 Varcode Ltd. A system and method for improved quality management in a product logistic chain
US7562811B2 (en) 2007-01-18 2009-07-21 Varcode Ltd. System and method for improved quality management in a product logistic chain
EP2156369B1 (en) 2007-05-06 2015-09-02 Varcode Ltd. A system and method for quality management utilizing barcode indicators
US8831946B2 (en) * 2007-07-23 2014-09-09 Nuance Communications, Inc. Method and system of indexing speech data
US9405823B2 (en) * 2007-07-23 2016-08-02 Nuance Communications, Inc. Spoken document retrieval using multiple speech transcription indices
JP5638948B2 (ja) * 2007-08-01 2014-12-10 ジンジャー ソフトウェア、インコーポレイティッド インターネットコーパスを用いた、文脈依存言語の自動的な修正および改善
US8540156B2 (en) 2007-11-14 2013-09-24 Varcode Ltd. System and method for quality management utilizing barcode indicators
US11704526B2 (en) 2008-06-10 2023-07-18 Varcode Ltd. Barcoded indicators for quality management
EP2531930A1 (en) 2010-02-01 2012-12-12 Ginger Software, Inc. Automatic context sensitive language correction using an internet corpus particularly for small keyboard devices
US8807422B2 (en) 2012-10-22 2014-08-19 Varcode Ltd. Tamper-proof quality management barcode indicators
US11060924B2 (en) 2015-05-18 2021-07-13 Varcode Ltd. Thermochromic ink indicia for activatable quality labels
EP3320315B1 (en) 2015-07-07 2020-03-04 Varcode Ltd. Electronic quality indicator

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4831550A (en) * 1986-03-27 1989-05-16 International Business Machines Corporation Apparatus and method for estimating, from sparse data, the probability that a particular one of a set of events is the next event in a string of events
US5293584A (en) * 1992-05-21 1994-03-08 International Business Machines Corporation Speech recognition system for natural language translation
US5467425A (en) * 1993-02-26 1995-11-14 International Business Machines Corporation Building scalable N-gram language models using maximum likelihood maximum entropy N-gram models
DE19510083C2 (de) * 1995-03-20 1997-04-24 Ibm Verfahren und Anordnung zur Spracherkennung bei Wortkomposita enthaltenden Sprachen
DE19516099C2 (de) * 1995-05-05 2003-07-03 Philips Intellectual Property Verfahren zum Bestimmen von Sprachmodellwerten

Also Published As

Publication number Publication date
EP0987684B1 (de) 2005-12-14
EP0987684A3 (de) 2004-03-24
EP0987684A2 (de) 2000-03-22
US6314400B1 (en) 2001-11-06
DE19842404A1 (de) 2000-03-23
DE59912920D1 (de) 2006-01-19

Similar Documents

Publication Publication Date Title
JP2000099083A (ja) 音声語彙要素の発生の確率を推定する方法
US6374217B1 (en) Fast update implementation for efficient latent semantic language modeling
Iyer et al. Modeling long distance dependence in language: Topic mixtures versus dynamic cache models
Hori et al. Efficient WFST-based one-pass decoding with on-the-fly hypothesis rescoring in extremely large vocabulary continuous speech recognition
Valtchev et al. MMIE training of large vocabulary recognition systems
US7720673B2 (en) Method for dynamic context scope selection in hybrid N-GRAM+LSA language modeling
US8150693B2 (en) Methods and apparatus for natural spoken language speech recognition
US7124080B2 (en) Method and apparatus for adapting a class entity dictionary used with language models
He et al. Discriminative learning for speech recognition: theory and practice
US7542907B2 (en) Biasing a speech recognizer based on prompt context
Guglani et al. Continuous Punjabi speech recognition model based on Kaldi ASR toolkit
Fukada et al. Automatic generation of multiple pronunciations based on neural networks
US20080059149A1 (en) Mapping of semantic tags to phases for grammar generation
KR100480790B1 (ko) 양방향 n-그램 언어모델을 이용한 연속 음성인식방법 및장치
Ostrogonac et al. A language model for highly inflective non-agglutinative languages
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
KR20050101694A (ko) 문법적 제약을 갖는 통계적인 음성 인식 시스템 및 그 방법
Gutkin Log-linear interpolation of language models
JP3526549B2 (ja) 音声認識装置、方法及び記録媒体
Martins et al. Automatic estimation of language model parameters for unseen words using morpho-syntactic contextual information.
Wang et al. Joint-character-POC N-gram language modeling for Chinese speech recognition
JP2000099086A (ja) 確率言語モデル学習方法、確率言語適応方法及び音声認識装置
Tanaka et al. Between-word distance calculation in a symbolic domain and its applications to speech recognition
Zhang et al. An introduction to the Chinese speech recognition front-end of the NICT/ATR multi-lingual speech translation system
Bhagat et al. Enhancing Performance of End-to-End Gujarati Language ASR using combination of Integrated Feature Extraction and Improved Spell Corrector Algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060912

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070810