JP2018124797A - 言語モデル構築装置、その方法、及びプログラム - Google Patents
言語モデル構築装置、その方法、及びプログラム Download PDFInfo
- Publication number
- JP2018124797A JP2018124797A JP2017016421A JP2017016421A JP2018124797A JP 2018124797 A JP2018124797 A JP 2018124797A JP 2017016421 A JP2017016421 A JP 2017016421A JP 2017016421 A JP2017016421 A JP 2017016421A JP 2018124797 A JP2018124797 A JP 2018124797A
- Authority
- JP
- Japan
- Prior art keywords
- language model
- smoothing parameter
- text data
- smoothing
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
図1は第一実施形態に係る言語モデル構築装置100の機能ブロック図を、図2はその処理フローを示す。
単語連鎖出現頻度算出部101は、学習用テキストデータtexLを入力とし、学習用テキストデータtexL内での、n個の単語からなるn単語列wi-n+1 iの出現頻度c(wi-n+1 i)をカウントし、各単語列(単語連鎖)の出現頻度c(wi-n+1 i)を求め(S101)、出力する。n=1,2,…,Nである。Nは2以上の整数の何れかであり、N-gramモデルにおけるNを表す。wi-n+1 iは、n単語列wi-n+1wi-n+2…wiを表す。
平滑化パラメータ決定部102は、開発用テキストデータtexDと出現頻度c(wi-n+1 i)とを入力とし、出現頻度c(wi-n+1 i)を用いて、開発用テキストデータtexDに対する評価値が最適値となるように平滑化パラメータpを決定し(S102)、出力する。
パラメータ初期設定部102−1は、平滑化パラメータの初期値p(0)を設定し(S102−1)、出力する。なお、右上の添え字(x)のxは平滑化パラメータの更新回数を示す。初期値p(0)は例えば乱数により設定する。例えば、Modified Kneser-Ney平滑化の場合(非特許文献2参照)、統計量を用いて得られるD1〜D3+を平滑化パラメータとしているが、本実施形態を適用する場合には、まず、D1〜D3+に乱数を代入し初期値とする。その後、後述するようにD1〜D3+を更新し、D1〜D3+の最適値を求める。
一時モデル作成部102−2は、平滑化パラメータp(q)と出現頻度c(wi-n+1 i)とを受け取り、これらの値を用いて、言語モデル平滑化処理を施し、一時言語モデルΛ(q)を作成し(S102−2)、出力する。なお、平滑化パラメータp(0)はパラメータ初期設定部102−1の出力値であり、平滑化パラメータp(q)(ただしq>0)はパラメータ更新部102−5の出力値である。なお、平滑化パラメータp(q)及び出現頻度c(wi-n+1 i)を用いた言語モデルの作成方法、平滑化処理については、既存のいかなる技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
モデル評価部102−3は、一時言語モデルΛ(q)と開発用テキストデータtexDとを受け取り、開発用テキストデータtexDに対して、一時言語モデルΛ(q)の評価を行い(S102−3)、評価結果R(q)を出力する。評価尺度は言語モデルの評価尺度として用いられるエントロピーやパープレキシティが考えられる。なお、評価方法については、既存のいかなる技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。評価時に学習用テキストデータtexLではなく開発用テキストデータtexDを用いることで、過学習等を防ぎ、より適切な平滑化パラメータを求めることができる。
収束判定部102−4は、評価結果R(q)を受け取り、評価結果R(q)が収束したか否かを判定する(S102−4)。例えば、(1)繰り返し回数qが所定の回数以上となったときに評価結果R(q)が収束したと判定する。また、例えば、(2)評価結果R(q)が一定の所に収束した場合(例えば、1つ前の評価結果R(q-1)と評価結果R(q)との差分が所定の閾値以下となった場合)、評価結果R(q)が収束したと判定する。また、例えば、(3-1)上述の繰り返し回数qが所定の回数以上となったとき、かつ/または、(3-2)評価結果R(q)が一定の所に収束したとき、評価結果R(q)が収束したと判定する。
パラメータ更新部102−5は、評価結果が収束していないと判断された場合は制御信号と評価結果R(q)とを受け取り、評価結果が収束したと判断された場合は制御信号を受け取る。パラメータ更新部102−5は、制御信号に従って、(1)評価結果R(q)に基づき平滑化パラメータp(q)を更新(S102−5)し、更新した平滑化パラメータp(q+1)を一時モデル作成部102−2に出力するか、または、(2)制御信号を受け取ったときの平滑化パラメータp(q)を評価値が最適値となったときの平滑化パラメータpとして遷移確率計算部103に出力する。なお、評価結果に基づきパラメータを更新する方法については、既存のいかなる技術(焼きなまし法、遺伝的アルゴリズムや進化的戦略等の組み合わせ最適化手法)を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
遷移確率計算部103は、平滑化パラメータpと出現頻度c(wi-n+1 i)とを入力とし、平滑化パラメータpを用いて、実際の平滑化パラメータに代入し、言語モデル全体の遷移確率を計算し(S103)、計算の結果得られる言語モデルΛを言語モデル構築装置100の出力値として出力する。なお、言語モデルΛを図示しない記憶部等に格納(出力)しておき、利用時に取り出す構成としてもよい。
以上の構成により、言語モデルの性能改善が可能となる。
なお、本実施形態では平滑化アルゴリズムの例としてModified Kneser-Ney を挙げて説明したが、ここで示した処理は他の平滑化アルゴリズムにおいても、単純な統計量で決定される平滑化パラメータがあれば、それを最適な値を決定するのに適用可能な手法である。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (5)
- n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出部と、
前記出現頻度を用いて、前記学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定部と、を含み、
評価値が最適値となったときの平滑化パラメータと前記出現頻度とを用いて言語モデルを作成する、
言語モデル構築装置。 - 請求項1の言語モデル構築装置であって、
前記平滑化パラメータ決定部は、
平滑化パラメータの初期値を乱数により設定するパラメータ初期設定部と、
前記出現頻度と初期化または更新された平滑化パラメータとを用いて一時言語モデルを作成する一時モデル作成部と、
前記開発用テキストデータに対して、前記一時言語モデルの評価を行うモデル評価部と、
評価結果が収束していない場合には評価結果に基づいて前記平滑化パラメータを更新するパラメータ更新部と、を含む、
言語モデル構築装置。 - n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出ステップと、
前記出現頻度を用いて、前記学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定ステップと、を含み、
評価値が最適値となったときの平滑化パラメータと前記出現頻度とを用いて言語モデルを作成する、
言語モデル構築装置が実行する言語モデル構築方法。 - 請求項3の言語モデル構築方法であって、
前記平滑化パラメータ決定ステップは、
平滑化パラメータの初期値を乱数により設定するパラメータ初期設定ステップと、
前記出現頻度と初期化または更新された平滑化パラメータとを用いて一時言語モデルを作成する一時モデル作成ステップと、
前記開発用テキストデータに対して、前記一時言語モデルの評価を行うモデル評価ステップと、
評価結果が収束していない場合には評価結果に基づいて前記平滑化パラメータを更新するパラメータ更新ステップと、を含む、
言語モデル構築方法。 - 請求項1または請求項2の言語モデル構築装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016421A JP6588933B2 (ja) | 2017-02-01 | 2017-02-01 | 言語モデル構築装置、その方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017016421A JP6588933B2 (ja) | 2017-02-01 | 2017-02-01 | 言語モデル構築装置、その方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018124797A true JP2018124797A (ja) | 2018-08-09 |
JP6588933B2 JP6588933B2 (ja) | 2019-10-09 |
Family
ID=63108972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017016421A Active JP6588933B2 (ja) | 2017-02-01 | 2017-02-01 | 言語モデル構築装置、その方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6588933B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507080A (zh) * | 2020-12-16 | 2021-03-16 | 北京信息科技大学 | 文字识别矫正的方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120150532A1 (en) * | 2010-12-08 | 2012-06-14 | At&T Intellectual Property I, L.P. | System and method for feature-rich continuous space language models |
US9367526B1 (en) * | 2011-07-26 | 2016-06-14 | Nuance Communications, Inc. | Word classing for language modeling |
JP2016133956A (ja) * | 2015-01-19 | 2016-07-25 | 株式会社デンソーアイティーラボラトリ | 形態素解析モデル生成装置、形態素解析モデル生成方法、及び、プログラム |
-
2017
- 2017-02-01 JP JP2017016421A patent/JP6588933B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120150532A1 (en) * | 2010-12-08 | 2012-06-14 | At&T Intellectual Property I, L.P. | System and method for feature-rich continuous space language models |
US9367526B1 (en) * | 2011-07-26 | 2016-06-14 | Nuance Communications, Inc. | Word classing for language modeling |
JP2016133956A (ja) * | 2015-01-19 | 2016-07-25 | 株式会社デンソーアイティーラボラトリ | 形態素解析モデル生成装置、形態素解析モデル生成方法、及び、プログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112507080A (zh) * | 2020-12-16 | 2021-03-16 | 北京信息科技大学 | 文字识别矫正的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6588933B2 (ja) | 2019-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860808B2 (en) | Method and system for generation of candidate translations | |
WO2018051841A1 (ja) | モデル学習装置、その方法、及びプログラム | |
JP6222821B2 (ja) | 誤り修正モデル学習装置、及びプログラム | |
JP7055630B2 (ja) | 音声認識のための学習方法、学習装置、コンピュータプログラム及び記憶媒体 | |
CN104854654A (zh) | 用于使用搜索查询信息的言语识别处理的方法和系统 | |
Rakib et al. | Bangla word prediction and sentence completion using GRU: an extended version of RNN on N-gram language model | |
WO2020140073A1 (en) | Neural architecture search through a graph search space | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
JP6712644B2 (ja) | 音響モデル学習装置、その方法、及びプログラム | |
US10878201B1 (en) | Apparatus and method for an adaptive neural machine translation system | |
JP2020042257A (ja) | 音声認識方法及び装置 | |
US20180082167A1 (en) | Recurrent neural network processing pooling operation | |
JP6230987B2 (ja) | 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体 | |
JP6588933B2 (ja) | 言語モデル構築装置、その方法、及びプログラム | |
JP6261669B2 (ja) | クエリ校正システムおよび方法 | |
JP2021039220A (ja) | 音声認識装置、学習装置、音声認識方法、学習方法、音声認識プログラムおよび学習プログラム | |
WO2020162240A1 (ja) | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 | |
JP2018081294A (ja) | 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム | |
JP5264649B2 (ja) | 情報圧縮型モデルパラメータ推定装置、方法及びプログラム | |
WO2019235191A1 (ja) | モデル学習装置、方法及びプログラム | |
WO2021038827A1 (ja) | 情報処理方法、情報処理プログラムおよび情報処理装置 | |
JP2011243087A (ja) | 自動単語対応付け装置とその方法とプログラム | |
JP6000153B2 (ja) | フィラー遷移モデル学習装置と言語モデル学習装置とそれらの方法とプログラム | |
JP5860439B2 (ja) | 言語モデル作成装置とその方法、そのプログラムと記録媒体 | |
JP2016212773A (ja) | 言語モデル生成装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190723 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6588933 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |