JP2008234657A - 言語モデルの枝刈り方法及び装置 - Google Patents
言語モデルの枝刈り方法及び装置 Download PDFInfo
- Publication number
- JP2008234657A JP2008234657A JP2008072463A JP2008072463A JP2008234657A JP 2008234657 A JP2008234657 A JP 2008234657A JP 2008072463 A JP2008072463 A JP 2008072463A JP 2008072463 A JP2008072463 A JP 2008072463A JP 2008234657 A JP2008234657 A JP 2008234657A
- Authority
- JP
- Japan
- Prior art keywords
- gram
- language model
- grams
- occurrences
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
【解決手段】(a)複数のn(nは2以上の任意の整数)及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成し、(b)複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算し、(c)前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得る。
【選択図】図1
Description
"Statistical Language Modeling" (Yoshihiko Gotoh and Steve Renals, Text and Speech Triggered Information Access, S. Renals and G. Grefenstette (eds.), pages 78-105, Springer 2003) "Improved Source-channel Models for Chinese Word Segmentation" (Jianfeng Gao, Mu Li and Chang-Ning Huang, In Proc. of the 41st Annual Meeting of Association for Computational Linguistics (ACL-2003), pages 272-279) "Self-organized language modeling for speech recognition", Fredrick Jelinek, In Alexander Waibel and Kai-Fu Lee (Eds.), Readings in Speech Recognition, pages 450-506, 1990. "Entropy-based Pruning of Backoff Language Models", Andreas Stolcke, In Proc. of DARPA News Transcription and Understanding Workshop, pages 270-274, 1998. "Improved Backing-Off for M-Gram Language Modeling" ,Reinhard Kneser and Hermann Hey, IEEE, pages 181-184, 1995. "Estimation of Probabilities from Sparse Data for the Language Model Component of a Speech Recognizer" (Slava M. Katz. IEEE TRANSACTIONS ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING, VOL. ASP-35, NO. 3, MARCH 1987.)
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成し、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算し、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得る。
図1は、本実施形態に係る言語モデルの枝刈り方法を説明するためのフローチャートである。図1において、まず、ステップS101では、言語モデルに基づき、初期のベース(base)モデルを生成する。
Pr( “I like playing football”) = Pr(I)×Pr(like | I)×Pr(playing | like)×Pr(football | playing) (a1)
となる。
ここで、alpha(like, I) は、バックオフ係数である。
ユニグラム(n=1)に対する全ての確率はあらゆるnグラム言語モデルに記憶されていることが保証されている。
次に、上述した言語モデル枝刈り方法を用いた言語モデルの枝刈り装置について説明する。
403…追加n−グラム取得部
405…重要度計算部
410…追加部
412…記憶部
M0…言語モデル
M1…トレーニングコーパス
M2…ベースモデル
Claims (37)
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りする方法であって、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成ステップと、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算ステップと、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得るステップと、
を含む言語モデルの枝刈り方法。 - 前記計算ステップは、
各トレーニングデータに対し、前記ベースモデルを用いて前記対象アプリケーションを実行するときの誤りの尤度を計算するステップと、
前記トレーニングコーパスにおける前記n−グラムの発生回数を計算するステップと、
前記対象アプリケーションにおける前記n−グラムの発生回数を計算するステップと、
を含み、前記誤りの尤度、前記トレーニングコーパスにおける前記n−グラムの発生回数、及び前記対象アプリケーションにおける前記n−グラムの発生回数に基づき、前記重要度を計算する請求項1記載の言語モデルの枝刈り方法。 - 前記計算ステップは、
前記ベースモデルを用いて、前記n−グラムの確率を計算するステップ、
をさらに含み、前記誤りの尤度、前記トレーニングコーパスにおける前記n−グラムの発生回数、前記対象アプリケーションにおける前記n−グラムの発生回数、前記言語モデルにおける前記n−グラムの確率、及び前記ベースモデルを用いて計算された前記n−グラムの確率に基づき、前記重要度を計算する請求項2記載の言語モデルの枝刈り方法。 - 前記対象アプリケーションはアジア言語の単語分割であり、
前記トレーニングデータは未分割文字列であり、
前記トレーニングデータの前記標準解答は、前記未分割文字列を分割することにより得られた標準単語列であり、
前記計算ステップは、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算するステップと、
前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項3記載の言語モデルの枝刈り方法。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数を計算するステップは、前記標準単語列における前記n−グラムの発生回数を計算する請求項4記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションにおける前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補における前記n−グラムの発生回数を計算する請求項4記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションは音声認識であり、
前記トレーニングデータは入力音声であり、
前記トレーニングデータの前記標準解答は、前記入力音声を認識することにより得られた標準テキストであり、
前記計算ステップは、
前記ベースモデルに基づく前記標準テキストの評価スコアを計算するステップと、
前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項3記載の言語モデルの枝刈り方法。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数を計算するステップは、前記標準テキストにおける前記n−グラムの発生回数を計算する請求項7記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションにおける前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補における前記n−グラムの平均発生回数を計算する請求項7記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションはアジア言語のIME(input method editor)であり、
前記トレーニングデータは音素記号列であり、
前記トレーニングデータの前記標準解答は、前記音素記号列を変換することにより得られた標準単語列であり、
前記計算ステップは、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算するステップと、
前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算するステップと、
を含む請求項3記載の言語モデルの枝刈り方法。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数を計算するステップは、前記標準単語列における前記n−グラムの発生回数を計算する請求項10記載の言語モデルの枝刈り方法。
- 前記対象アプリケーションにおける前記n−グラムの発生回数を計算するステップは、前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補における前記n−グラムの発生回数を計算する請求項10記載の言語モデルの枝刈り方法。
- 前記生成ステップは、前記言語モデルから前記複数のn−グラム及び各n−グラムの確率を削除することにより、前記初期のベースモデルを生成する請求項1記載の言語モデルの枝刈り方法。
- 前記トレーニングデータの前記標準解答は、前記言語モデルから求めた標準解答または該トレーニングデータに対し与えられた適正な解答である請求項1記載の言語モデルの枝刈り方法。
- 前記言語モデル及び前記枝刈りされた言語モデルに基づき、追加すべき複数のn−グラム及び各n−グラムの確率を得る取得ステップと、
前記トレーニングコーパスを用いて、前記追加すべき複数のn−グラムのそれぞれに、前記対象アプリケーションに関する重要度を計算する第2の計算ステップと、
前記追加すべき複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記枝刈りされた言語モデルに追加するステップと、
さらに含む請求項1記載の言語モデルの枝刈り方法。 - 前記追加すべき複数のn−グラムは、前記言語モデルに含まれているが、前記枝刈りされた言語モデルには含まれていない複数のn−グラムである請求項15記載の言語モデルの枝刈り方法。
- 前記取得ステップから前記追加ステップを繰り返す請求項16記載の言語モデルの枝刈り方法。
- 前記枝刈りされた言語モデルが予め定められたサイズになるまで、前記取得ステップから前記追加ステップを繰り返す請求項16記載の言語モデルの枝刈り方法。
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りする装置であって、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成手段と、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算手段と、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得る追加手段と、
を含む言語モデル枝刈り装置。 - 前記計算手段は、
各トレーニングデータに対し、前記ベースモデルを用いて前記対象アプリケーションを実行するときの誤りの尤度を計算し、
前記トレーニングコーパスにおける前記n−グラムの発生回数を計算し、
前記対象アプリケーションにおける前記n−グラムの発生回数を計算し、
前記誤りの尤度、前記トレーニングコーパスにおける前記n−グラムの発生回数、及び前記対象アプリケーションにおける前記n−グラムの発生回数に基づき、前記重要度を計算する請求項19記載の言語モデル枝刈り装置。 - 前記計算手段は、
さらに、前記ベースモデルを用いて前記n−グラムの確率を計算し、
前記誤りの尤度、前記トレーニングコーパスにおける前記n−グラムの発生回数、前記対象アプリケーションにおける前記n−グラムの発生回数、前記言語モデルにおける前記n−グラムの確率、及び前記ベースモデルを用いて計算された前記n−グラムの確率に基づき、前記重要度を計算する請求項20記載の言語モデル枝刈り装置。 - 前記対象アプリケーションはアジア言語の単語分割であり、
前記トレーニングデータは未分割文字列であり、
前記トレーニングデータの前記標準解答は、前記未分割文字列を分割することにより得られた標準単語列であり、
前記計算手段は、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算し、
前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算する
請求項21記載の言語モデルの枝刈り方法。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数は、前記標準単語列における前記n−グラムの発生回数であることを特徴とする請求項22記載の言語モデル枝刈り装置。
- 前記対象アプリケーションにおける前記n−グラムの発生回数は、前記ベースモデルを用いて前記未分割文字列を分割することにより得られた複数の単語列候補における前記n−グラムの発生回数であることを特徴とする請求項22記載の言語モデル枝刈り装置。
- 前記対象アプリケーションは音声認識であり、
前記トレーニングデータは入力音声であり、
前記トレーニングデータの前記標準解答は、前記入力音声を認識することにより得られた標準テキストであり、
前記計算手段は、
前記ベースモデルに基づく前記標準テキストの評価スコアを計算し、
前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補の前記ベースモデルに基づく平均評価スコアを計算する請求項21記載の言語モデル枝刈り装置。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数は、前記標準テキストにおける前記n−グラムの発生回数であることを特徴とする請求項25記載の言語モデル枝刈り装置。
- 前記対象アプリケーションにおける前記n−グラムの発生回数は、前記ベースモデルを用いて前記入力音声を認識することにより得られた複数のテキスト候補における前記n−グラムの平均発生回数であることを特徴とする請求項25記載の言語モデル枝刈り装置。
- 前記対象アプリケーションはアジア言語のIME(input method editor)であり、
前記トレーニングデータは音素記号列であり、
前記トレーニングデータの前記標準解答は、前記音素記号列を変換することにより得られた標準単語列であり、
前記計算手段は、
前記ベースモデルに基づく前記標準単語列の評価スコアを計算し、
前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補の前記ベースモデルに基づく平均評価スコアを計算する請求項21記載の言語モデル枝刈り装置。 - 前記トレーニングコーパスにおける前記n−グラムの発生回数は、前記標準単語列における前記n−グラムの発生回数であることを特徴とする請求項28記載の言語モデル枝刈り装置。
- 前記対象アプリケーションにおける前記n−グラムの発生回数は、前記ベースモデルを用いて前記音素記号列を変換することにより得られた複数の単語列候補における前記n−グラムの発生回数であることを特徴とする請求項28記載の言語モデル枝刈り装置。
- 前記生成手段、前記言語モデルから前記複数のn−グラム及び各n−グラムの確率を削除することにより、前記初期のベースモデルを生成する請求項19記載の言語モデル枝刈り装置。
- 前記トレーニングデータの前記標準解答は、前記言語モデルから求めた標準解答または該トレーニングデータに対し与えられた適正な解答である請求項19記載の言語モデル枝刈り装置。
- 前記言語モデル及び前記枝刈りされた言語モデルに基づき、追加すべき複数のn−グラム及び各n−グラムの確率を得る取得手段をさらに含み、
前記計算手段は、前記トレーニングコーパスを用いて、前記追加すべき複数のn−グラムのそれぞれに、前記対象アプリケーションに関する重要度を計算し、
前記追加手段は、前記追加すべき複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記枝刈りされた言語モデルに追加する、
請求項19記載の言語モデル枝刈り装置。 - 前記追加すべき複数のn−グラムは、前記言語モデルに含まれているが、前記枝刈りされた言語モデルには含まれていない複数のn−グラムである請求項33記載の言語モデル枝刈り装置。
- 前記取得手段、前記計算手段、及び前記追加手段により、前記枝刈りされた言語モデルへの前記n−グラム及びその確率の追加が繰り返される請求項34記載の言語モデル枝刈り装置。
- 前記取得手段、前記計算手段、及び前記追加手段により、前記枝刈りされた言語モデルが予め定められたサイズになるまで、前記枝刈りされた言語モデルへの前記n−グラム及びその確率の追加が繰り返される請求項34記載の言語モデル枝刈り装置。
- 複数のn(nは2以上の任意の整数)−グラム及び複数のn´(n´は1≦n´<nを満たす整数)−グラムと、各n−グラムの確率及び各n´−グラムの確率とを含む言語モデルを枝刈りするプログラムであって、
コンピュータに、
前記言語モデルに基づき、前記複数のn−グラム及び各n−グラムの確率を含まない初期のベースモデルを生成する生成ステップと、
複数のトレーニングデータ及びその標準解答を含むトレーニングコーパスを用いて、前記複数のn−グラムのそれぞれに、対象アプリケーションに関する重要度を計算する計算ステップと、
前記複数のn−グラムのうち高い重要度をもつ少なくとも1つのn−グラム及びその確率を前記ベースモデルに追加することにより、枝刈りされた自然言語モデルを得るステップと、
を実行させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710089118.6 | 2007-03-19 | ||
CN200710089118 | 2007-03-19 | ||
CN2008100846147A CN101271450B (zh) | 2007-03-19 | 2008-03-13 | 裁剪语言模型的方法及装置 |
CN200810084614.7 | 2008-03-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008234657A true JP2008234657A (ja) | 2008-10-02 |
JP5319141B2 JP5319141B2 (ja) | 2013-10-16 |
Family
ID=39907291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008072463A Expired - Fee Related JP5319141B2 (ja) | 2007-03-19 | 2008-03-19 | 言語モデルの枝刈り方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5319141B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010540976A (ja) * | 2007-10-04 | 2010-12-24 | 株式会社東芝 | 自動音声認識の方法および装置 |
CN105426358A (zh) * | 2015-11-09 | 2016-03-23 | 中国农业大学 | 一种疾病名词自动识别方法 |
US9536518B2 (en) | 2014-03-27 | 2017-01-03 | International Business Machines Corporation | Unsupervised training method, training apparatus, and training program for an N-gram language model based upon recognition reliability |
CN112183725A (zh) * | 2020-09-27 | 2021-01-05 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN113159272A (zh) * | 2020-01-07 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 一种用于处理神经网络的方法和系统 |
CN114817473A (zh) * | 2022-05-09 | 2022-07-29 | 北京百度网讯科技有限公司 | 用于压缩语义理解模型的方法、装置、设备、介质和产品 |
CN116306601A (zh) * | 2023-05-17 | 2023-06-23 | 上海蜜度信息技术有限公司 | 小语种纠错模型训练方法、纠错方法、系统、介质及设备 |
-
2008
- 2008-03-19 JP JP2008072463A patent/JP5319141B2/ja not_active Expired - Fee Related
Non-Patent Citations (4)
Title |
---|
CSNG200000602004; 伊藤 彰則 外4名: '大語彙言語データベースからのN-gram構築とタスク適応の検討' 情報処理学会研究報告 第96巻第55号, 19960528, P.25〜30, 社団法人情報処理学会 * |
CSNG200400534001; 加藤 直人 外3名: 'ニュース音声認識のための(n>=4)-gramを併用する言語モデル' 電子情報通信学会論文誌 (J85-D-II) 第6号 第J85-D-II巻第6巻, 20020601, p.967-975, 社団法人電子情報通信学会 * |
JPN6012054724; 伊藤 彰則 外4名: '大語彙言語データベースからのN-gram構築とタスク適応の検討' 情報処理学会研究報告 第96巻第55号, 19960528, P.25〜30, 社団法人情報処理学会 * |
JPN6012054726; 加藤 直人 外3名: 'ニュース音声認識のための(n>=4)-gramを併用する言語モデル' 電子情報通信学会論文誌 (J85-D-II) 第6号 第J85-D-II巻第6巻, 20020601, p.967-975, 社団法人電子情報通信学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010540976A (ja) * | 2007-10-04 | 2010-12-24 | 株式会社東芝 | 自動音声認識の方法および装置 |
US9536518B2 (en) | 2014-03-27 | 2017-01-03 | International Business Machines Corporation | Unsupervised training method, training apparatus, and training program for an N-gram language model based upon recognition reliability |
US9747893B2 (en) | 2014-03-27 | 2017-08-29 | International Business Machines Corporation | Unsupervised training method, training apparatus, and training program for an N-gram language model based upon recognition reliability |
CN105426358A (zh) * | 2015-11-09 | 2016-03-23 | 中国农业大学 | 一种疾病名词自动识别方法 |
CN105426358B (zh) * | 2015-11-09 | 2018-08-31 | 中国农业大学 | 一种针对海量新闻的疾病名词自动识别方法 |
CN113159272A (zh) * | 2020-01-07 | 2021-07-23 | 阿里巴巴集团控股有限公司 | 一种用于处理神经网络的方法和系统 |
CN112183725A (zh) * | 2020-09-27 | 2021-01-05 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN112183725B (zh) * | 2020-09-27 | 2023-01-17 | 安徽寒武纪信息科技有限公司 | 提供神经网络的方法、计算装置和计算机可读存储介质 |
CN114817473A (zh) * | 2022-05-09 | 2022-07-29 | 北京百度网讯科技有限公司 | 用于压缩语义理解模型的方法、装置、设备、介质和产品 |
CN116306601A (zh) * | 2023-05-17 | 2023-06-23 | 上海蜜度信息技术有限公司 | 小语种纠错模型训练方法、纠错方法、系统、介质及设备 |
CN116306601B (zh) * | 2023-05-17 | 2023-09-08 | 上海蜜度信息技术有限公司 | 小语种纠错模型训练方法、纠错方法、系统、介质及设备 |
Also Published As
Publication number | Publication date |
---|---|
JP5319141B2 (ja) | 2013-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8311825B2 (en) | Automatic speech recognition method and apparatus | |
JP5377889B2 (ja) | 言語処理装置およびプログラム | |
JP5319141B2 (ja) | 言語モデルの枝刈り方法及び装置 | |
JP7092953B2 (ja) | エンドツーエンドモデルによる多言語音声認識のための音素に基づく文脈解析 | |
JP2008262279A (ja) | 音声検索装置 | |
CN101271450B (zh) | 裁剪语言模型的方法及装置 | |
WO2004066594A2 (en) | Word recognition consistency check and error correction system and method | |
JP5276610B2 (ja) | 言語モデル生成装置、そのプログラムおよび音声認識システム | |
EP2950306A1 (en) | A method and system for building a language model | |
JP6941494B2 (ja) | エンドツーエンド日本語音声認識モデル学習装置およびプログラム | |
Ablimit et al. | Lexicon optimization based on discriminative learning for automatic speech recognition of agglutinative language | |
JP2014146312A (ja) | 強化言語モデル表現を使用するフレーズベース機械翻訳におけるサンプリングおよび最適化 | |
JP5590549B2 (ja) | 音声検索装置および音声検索方法 | |
JP6078435B2 (ja) | 記号列変換方法、音声認識方法、それらの装置及びプログラム | |
Donaj et al. | Context-dependent factored language models | |
JP6276516B2 (ja) | 辞書作成装置、及び辞書作成プログラム | |
Penagarikano et al. | A dynamic approach to the selection of high order n-grams in phonotactic language recognition | |
JP2938865B1 (ja) | 音声認識装置 | |
JP6277659B2 (ja) | 音声認識装置および音声認識方法 | |
Hasegawa-Johnson et al. | Fast transcription of speech in low-resource languages | |
JP2008181537A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
Soe et al. | Syllable-based Myanmar language model for speech recognition | |
Schuster | Memory-efficient LVCSR search using a one-pass stack decoder | |
Vertanen | Efficient computer interfaces using continuous gestures, language models, and speech | |
Stas et al. | Morphologically motivated language modeling for Slovak continuous speech recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130711 |
|
LAPS | Cancellation because of no payment of annual fees |