JP5319141B2 - 言語モデルの枝刈り方法及び装置 - Google Patents
言語モデルの枝刈り方法及び装置 Download PDFInfo
- Publication number
- JP5319141B2 JP5319141B2 JP2008072463A JP2008072463A JP5319141B2 JP 5319141 B2 JP5319141 B2 JP 5319141B2 JP 2008072463 A JP2008072463 A JP 2008072463A JP 2008072463 A JP2008072463 A JP 2008072463A JP 5319141 B2 JP5319141 B2 JP 5319141B2
- Authority
- JP
- Japan
- Prior art keywords
- language model
- gram
- grams
- model
- occurrences
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
"Statistical Language Modeling" (Yoshihiko Gotoh and Steve Renals, Text and Speech Triggered Information Access, S. Renals and G. Grefenstette (eds.), pages 78-105, Springer 2003) "Improved Source-channel Models for Chinese Word Segmentation" (Jianfeng Gao, Mu Li and Chang-Ning Huang, In Proc. of the 41st Annual Meeting of Association for Computational Linguistics (ACL-2003), pages 272-279) "Self-organized language modeling for speech recognition", Fredrick Jelinek, In Alexander Waibel and Kai-Fu Lee (Eds.), Readings in Speech Recognition, pages 450-506, 1990. "Entropy-based Pruning of Backoff Language Models", Andreas Stolcke, In Proc. of DARPA News Transcription and Understanding Workshop, pages 270-274, 1998. "Improved Backing-Off for M-Gram Language Modeling" ,Reinhard Kneser and Hermann Hey, IEEE, pages 181-184, 1995. "Estimation of Probabilities from Sparse Data for the Language Model Component of a Speech Recognizer" (Slava M. Katz. IEEE TRANSACTIONS ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, VOL. ASP-35, NO. 3, MARCH 1987.)
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成し、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算し、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得る。
図1は、本実施形態に係る言語モデルの枝刈り方法を説明するためのフローチャートである。図1において、まず、ステップS101では、言語モデルに基づき、初期のベース(base)モデルを生成する。
Pr( “I like playing football”) = Pr(I)×Pr(like | I)×Pr(playing | like)×Pr(football | playing) (a1)
となる。
ここで、alpha(like, I) は、バックオフ係数である。
ユニグラム(n=1)に対する全ての確率はあらゆるnグラム言語モデルに記憶されていることが保証されている。
次に、上述した言語モデル枝刈り方法を用いた言語モデルの枝刈り装置について説明する。
403…追加n−グラム取得部
405…重要度計算部
410…追加部
412…記憶部
M0…言語モデル
M1…トレーニングコーパス
M2…ベースモデル
Claims (35)
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りする方法であって、
コンピュータが、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成ステップと、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、各トレーニングデータに対し、前記ベースモデルを用いて対象アプリケーションを実行するときの誤りの尤度を計算し、前記標準解答における前記n−グラムの発生回数を計算し、前記対象アプリケーションについて前記ベースモデルを処理して得られた複数の候補における前記n−グラムの発生回数を計算し、前記誤りの尤度、前記標準解答における前記n−グラムの発生回数、及び前記複数の候補における前記n−グラムの発生回数に基づき、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算ステップと、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得るステップと、
を実行する言語モデルの枝刈り方法。 - 前記計算ステップは、
前記ベースモデルを用いて、前記n−グラムの確率を計算するステップ、
をさらに含み、前記誤りの尤度、前記標準解答における前記n−グラムの発生回数、前記複数の候補における前記n−グラムの発生回数、前記言語モデルにおける前記n−グラムの確率、及び前記ベースモデルを用いて計算された前記n−グラムの確率に基づき、前記重要度を計算する請求項1記載の言語モデルの枝刈り方法。 - 前記対象アプリケーションはアジア言語の単語分割であり、
前記トレーニングデータは未分割文字列であり、
前記トレーニングデータの前記標準解答は、前記未分割文字列を分割することにより得られた標準単語列であり、
前記計算ステップは、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算するステップと、
前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項1記載の言語モデルの枝刈り方法。 - 前記標準解答における前記n−グラムの発生回数を計算するステップは、前記標準単語列における前記n−グラムの発生回数を計算する請求項3記載の言語モデルの枝刈り方法。
- 前記複数の候補における前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補における前記n−グラムの発生回数を計算する請求項3記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションは音声認識であり、
前記トレーニングデータは入力音声であり、
前記トレーニングデータの前記標準解答は、前記入力音声を認識することにより得られた標準テキストであり、
前記計算ステップは、
前記ベースモデルに基づく前記標準テキストの評価スコアを計算するステップと、
前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項1記載の言語モデルの枝刈り方法。 - 前記標準解答における前記n−グラムの発生回数を計算するステップは、前記標準テキストにおける前記n−グラムの発生回数を計算する請求項6記載の言語モデルの枝刈り方法。
- 前記複数の候補における前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補における前記n−グラムの発生回数を計算する請求項6記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションはアジア言語のIME(input method editor)であり、
前記トレーニングデータは音素記号列であり、
前記トレーニングデータの前記標準解答は、前記音素記号列を変換することにより得られた標準単語列であり、
前記計算ステップは、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算するステップと、
前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項1記載の言語モデルの枝刈り方法。 - 前記標準解答における前記n−グラムの発生回数を計算するステップは、前記標準単語列における前記n−グラムの発生回数を計算する請求項9記載の言語モデルの枝刈り方法。
- 前記複数の候補における前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補における前記n−グラムの発生回数を計算する請求項9記載の言語モデルの枝刈り方法。
- 前記生成ステップは、前記言語モデルから前記複数のn−グラム及び各n−グラムの確率を削除することにより、前記初期のベースモデルを生成する請求項1記載の言語モデルの枝刈り方法。
- 前記トレーニングデータの前記標準解答は、前記言語モデルから求めた標準解答または該トレーニングデータに対し与えられた適正な解答である請求項1記載の言語モデルの枝刈り方法。
- 前記言語モデル及び前記枝刈りされた言語モデルに基づき、追加すべき複数のn−グラム及び各n−グラムの確率を得る取得ステップと、
前記トレーニングコーパスを用いて、前記追加すべき複数のn−グラムのそれぞれに、前記対象アプリケーションに関する重要度を計算する第2の計算ステップと、
前記追加すべき複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記枝刈りされた言語モデルに追加する追加ステップと、
さらに含む請求項1記載の言語モデルの枝刈り方法。 - 前記追加すべき複数のn−グラムは、前記言語モデルに含まれているが、前記枝刈りされた言語モデルには含まれていない複数のn−グラムである請求項14記載の言語モデルの枝刈り方法。
- 前記取得ステップから前記追加ステップを繰り返す請求項14記載の言語モデルの枝刈り方法。
- 前記枝刈りされた言語モデルが予め定められたサイズになるまで、前記取得ステップから前記追加ステップを繰り返す請求項14記載の言語モデルの枝刈り方法。
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りする装置であって、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成手段と、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、各トレーニングデータに対し、前記ベースモデルを用いて対象アプリケーションを実行するときの誤りの尤度を計算し、前記標準解答における前記n−グラムの発生回数を計算し、前記対象アプリケーションについて前記ベースモデルを処理して得られた複数の候補における前記n−グラムの発生回数を計算し、前記誤りの尤度、前記標準解答における前記n−グラムの発生回数、及び前記複数の候補における前記n−グラムの発生回数に基づき、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算手段と、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得る追加手段と、
を含む言語モデル枝刈り装置。 - 前記計算手段は、
さらに、前記ベースモデルを用いて前記n−グラムの確率を計算し、
前記誤りの尤度、前記標準解答における前記n−グラムの発生回数、前記複数の候補における前記n−グラムの発生回数、前記言語モデルにおける前記n−グラムの確率、及び前記ベースモデルを用いて計算された前記n−グラムの確率に基づき、前記重要度を計算する請求項18記載の言語モデル枝刈り装置。 - 前記対象アプリケーションはアジア言語の単語分割であり、
前記トレーニングデータは未分割文字列であり、
前記トレーニングデータの前記標準解答は、前記未分割文字列を分割することにより得られた標準単語列であり、
前記計算手段は、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算し、
前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算する
請求項18記載の言語モデルの枝刈り装置。 - 前記標準解答における前記n−グラムの発生回数は、前記標準単語列における前記n−グラムの発生回数であることを特徴とする請求項20記載の言語モデル枝刈り装置。
- 前記複数の候補における前記n−グラムの発生回数は、前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補における前記n−グラムの発生回数であることを特徴とする請求項20記載の言語モデル枝刈り装置。
- 前記対象アプリケーションは音声認識であり、
前記トレーニングデータは入力音声であり、
前記トレーニングデータの前記標準解答は、前記入力音声を認識することにより得られた標準テキストであり、
前記計算手段は、
前記ベースモデルに基づく前記標準テキストの評価スコアを計算し、
前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補の前記ベースモデルに基づく平均評価スコアを計算する請求項18記載の言語モデル枝刈り装置。 - 前記標準解答における前記n−グラムの発生回数は、前記標準テキストにおける前記n−グラムの発生回数であることを特徴とする請求項23記載の言語モデル枝刈り装置。
- 前記複数の候補における前記n−グラムの発生回数は、前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補における前記n−グラムの発生回数であることを特徴とする請求項23記載の言語モデル枝刈り装置。
- 前記対象アプリケーションはアジア言語のIME(input method editor)であり、
前記トレーニングデータは音素記号列であり、
前記トレーニングデータの前記標準解答は、前記音素記号列を変換することにより得られた標準単語列であり、
前記計算手段は、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算し、
前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算する請求項18記載の言語モデル枝刈り装置。 - 前記標準解答における前記n−グラムの発生回数は、前記標準単語列における前記n−グラムの発生回数であることを特徴とする請求項26記載の言語モデル枝刈り装置。
- 前記複数の候補における前記n−グラムの発生回数は、前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補における前記n−グラムの発生回数であることを特徴とする請求項26記載の言語モデル枝刈り装置。
- 前記生成手段、前記言語モデルから前記複数のn−グラム及び各n−グラムの確率を削除することにより、前記初期のベースモデルを生成する請求項18記載の言語モデル枝刈り装置。
- 前記トレーニングデータの前記標準解答は、前記言語モデルから求めた標準解答または該トレーニングデータに対し与えられた適正な解答である請求項18記載の言語モデル枝刈り装置。
- 前記言語モデル及び前記枝刈りされた言語モデルに基づき、追加すべき複数のn−グラム及び各n−グラムの確率を得る取得手段をさらに含み、
前記計算手段は、前記トレーニングコーパスを用いて、前記追加すべき複数のn−グラムのそれぞれに、前記対象アプリケーションに関する重要度を計算し、
前記追加手段は、前記追加すべき複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記枝刈りされた言語モデルに追加する、
請求項18記載の言語モデル枝刈り装置。 - 前記追加すべき複数のn−グラムは、前記言語モデルに含まれているが、前記枝刈りされた言語モデルには含まれていない複数のn−グラムである請求項31記載の言語モデル枝刈り装置。
- 前記取得手段、前記計算手段、及び前記追加手段により、前記枝刈りされた言語モデルへの前記n−グラム及びその確率の追加が繰り返される請求項31記載の言語モデル枝刈り装置。
- 前記取得手段、前記計算手段、及び前記追加手段により、前記枝刈りされた言語モデルが予め定められたサイズになるまで、前記枝刈りされた言語モデルへの前記n−グラム及びその確率の追加が繰り返される請求項31記載の言語モデル枝刈り装置。
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りするプログラムであって、
コンピュータに、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成ステップと、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、各トレーニングデータに対し、前記ベースモデルを用いて対象アプリケーションを実行するときの誤りの尤度を計算し、前記標準解答における前記n−グラムの発生回数を計算し、前記対象アプリケーションについて前記ベースモデルを処理して得られた複数の候補における前記n−グラムの発生回数を計算し、前記誤りの尤度、前記標準解答における前記n−グラムの発生回数、及び前記複数の候補における前記n−グラムの発生回数に基づき、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算ステップと、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得るステップと、
を実行させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710089118.6 | 2007-03-19 | ||
CN200710089118 | 2007-03-19 | ||
CN2008100846147A CN101271450B (zh) | 2007-03-19 | 2008-03-13 | 裁剪语言模型的方法及装置 |
CN200810084614.7 | 2008-03-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008234657A JP2008234657A (ja) | 2008-10-02 |
JP5319141B2 true JP5319141B2 (ja) | 2013-10-16 |
Family
ID=39907291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008072463A Expired - Fee Related JP5319141B2 (ja) | 2007-03-19 | 2008-03-19 | 言語モデルの枝刈り方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5319141B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2453366B (en) * | 2007-10-04 | 2011-04-06 | Toshiba Res Europ Ltd | Automatic speech recognition method and apparatus |
JP5932869B2 (ja) | 2014-03-27 | 2016-06-08 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム |
CN105426358B (zh) * | 2015-11-09 | 2018-08-31 | 中国农业大学 | 一种针对海量新闻的疾病名词自动识别方法 |
US20210209462A1 (en) * | 2020-01-07 | 2021-07-08 | Alibaba Group Holding Limited | Method and system for processing a neural network |
CN112183725B (zh) * | 2020-09-27 | 2023-01-17 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN116306601B (zh) * | 2023-05-17 | 2023-09-08 | 上海蜜度信息技术有限公司 | 小语种纠错模型训练方法、纠错方法、系统、介质及设备 |
-
2008
- 2008-03-19 JP JP2008072463A patent/JP5319141B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008234657A (ja) | 2008-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8311825B2 (en) | Automatic speech recognition method and apparatus | |
JP5377889B2 (ja) | 言語処理装置およびプログラム | |
JP4215418B2 (ja) | 単語予測方法、音声認識方法、その方法を用いた音声認識装置及びプログラム | |
JP7092953B2 (ja) | エンドツーエンドモデルによる多言語音声認識のための音素に基づく文脈解析 | |
JP5319141B2 (ja) | 言語モデルの枝刈り方法及び装置 | |
CN101271450B (zh) | 裁剪语言模型的方法及装置 | |
US20100100379A1 (en) | Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method | |
WO2004066594A2 (en) | Word recognition consistency check and error correction system and method | |
EP2950306A1 (en) | A method and system for building a language model | |
JP5276610B2 (ja) | 言語モデル生成装置、そのプログラムおよび音声認識システム | |
JP6941494B2 (ja) | エンドツーエンド日本語音声認識モデル学習装置およびプログラム | |
JP2014146312A (ja) | 強化言語モデル表現を使用するフレーズベース機械翻訳におけるサンプリングおよび最適化 | |
JP5590549B2 (ja) | 音声検索装置および音声検索方法 | |
JP6078435B2 (ja) | 記号列変換方法、音声認識方法、それらの装置及びプログラム | |
Lei et al. | Data-driven lexicon expansion for Mandarin broadcast news and conversation speech recognition | |
Donaj et al. | Context-dependent factored language models | |
JP6276516B2 (ja) | 辞書作成装置、及び辞書作成プログラム | |
Penagarikano et al. | A dynamic approach to the selection of high order n-grams in phonotactic language recognition | |
JP2938865B1 (ja) | 音声認識装置 | |
JP4674609B2 (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP6277659B2 (ja) | 音声認識装置および音声認識方法 | |
Hasegawa-Johnson et al. | Fast transcription of speech in low-resource languages | |
Schuster | Memory-efficient LVCSR search using a one-pass stack decoder | |
Soe et al. | Syllable-based Myanmar language model for speech recognition | |
Vertanen | Efficient computer interfaces using continuous gestures, language models, and speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130711 |
|
LAPS | Cancellation because of no payment of annual fees |