JP2018124797A - 言語モデル構築装置、その方法、及びプログラム - Google Patents

言語モデル構築装置、その方法、及びプログラム Download PDF

Info

Publication number
JP2018124797A
JP2018124797A JP2017016421A JP2017016421A JP2018124797A JP 2018124797 A JP2018124797 A JP 2018124797A JP 2017016421 A JP2017016421 A JP 2017016421A JP 2017016421 A JP2017016421 A JP 2017016421A JP 2018124797 A JP2018124797 A JP 2018124797A
Authority
JP
Japan
Prior art keywords
language model
smoothing parameter
text data
smoothing
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017016421A
Other languages
English (en)
Other versions
JP6588933B2 (ja
Inventor
浩和 政瀧
Hirokazu Masataki
浩和 政瀧
亮 増村
Akira Masumura
亮 増村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017016421A priority Critical patent/JP6588933B2/ja
Publication of JP2018124797A publication Critical patent/JP2018124797A/ja
Application granted granted Critical
Publication of JP6588933B2 publication Critical patent/JP6588933B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】従来とは異なる手法で最適な平滑化パラメータを求め、求めた平滑化パラメータを用いて言語モデルを構築することにより言語モデルの性能改善が可能となる言語モデル構築装置等を提供する。【解決手段】言語モデル構築装置は、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出部と、出現頻度を用いて、学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定部と、を含む。言語モデル構築装置は、評価値が最適値となったときの平滑化パラメータと出現頻度とを用いて言語モデルを作成する。【選択図】図1

Description

本発明は、ある単語列のi番目の単語wiの生起確率P(wi)は直前のN-1単語wi-N+1…wi-2wi-1だけに依存するという仮説に基づくモデルであるN-gramモデルの構築方法に関する。
近年、音声認識、文字認識、機械翻訳等の分野において、単語間の連鎖関係を表す“言語モデル”を用いて精度を向上させる手法が盛んに検討されている。
言語モデルでは、辞書に登録された単語に対して、直前のN-1単語から次の単語への遷移確率を表すN-gram(エヌグラム)が盛んに用いられている。しかし、N-gramは、求めるべき確率の数が語彙サイズのN乗個となり非常に膨大な個数となる。このため、新聞記事やWebのデータ等の膨大なテキストを学習し各パラメータ値(確率)が推定されるが、語彙サイズが増大するに従って確率の数が爆発的に増大するため、有限のテキストデータから全ての確率を正しく求めることは現実的には不可能である。
この問題を解決するために、平滑化(非特許文献1参照)と呼ばれる技術が用いられる。平滑化は、テキストデータ上に出現しなかったN単語列に対しても、0でない確率を与えるための手法である。多くの平滑化手法が提案されているが、基本的には最尤推定により求まるN単語間の遷移確率を減じ(ディスカウンティング)、余剰の確率を低次の単語間の遷移確率で再配分する方法であり、Modified Kneser-Ney 平滑化(非特許文献2参照)はその代表的手法である。Modified Kneser-Ney をはじめ多くの平滑化手法では、学習に用いるテキストデータの単純な統計量を用いて平滑化のパラメータ(以下、平滑化パラメータともいう)を決定している。
鹿野、伊藤、河原 他、「音声認識システム」、オーム社、2001年、pp.53-61 S.Chen & J.Goodman, "An empirical study of smoothing techniques for language modeling", Computer Speech and Language(1999) 13, pp. 359-394
しかしながら、従来技術で決定された平滑化パラメータが最適な値である保証は無く、さらなる性能改善の余地はあると考えられる。
本発明は、従来とは異なる手法で最適な平滑化パラメータを求め、求めた平滑化パラメータを用いて言語モデルを構築することにより言語モデルの性能改善が可能となる言語モデル構築装置、その方法、及びプログラムを提供することを目的とする。
上記の課題を解決するために、本発明の一態様によれば、言語モデル構築装置は、n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出部と、出現頻度を用いて、学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定部と、を含む。言語モデル構築装置は、評価値が最適値となったときの平滑化パラメータと出現頻度とを用いて言語モデルを作成する。
上記の課題を解決するために、本発明の他の態様によれば、言語モデル構築装置が実行する言語モデル構築方法は、n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出ステップと、出現頻度を用いて、学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定ステップと、を含む。言語モデル構築方法は、評価値が最適値となったときの平滑化パラメータと出現頻度とを用いて言語モデルを作成する。
本発明によれば、言語モデルの性能改善が可能となるという効果を奏する。
第一実施形態に係る言語モデル構築装置の機能ブロック図。 第一実施形態に係る言語モデル構築装置の処理フローの例を示す図。 第一実施形態に係る平滑化パラメータ決定部の機能ブロック図。 第一実施形態に係る平滑化パラメータ決定部の処理フローの例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。
<第一実施形態>
図1は第一実施形態に係る言語モデル構築装置100の機能ブロック図を、図2はその処理フローを示す。
言語モデル構築装置100は、CPUと、RAMと、以下の処理を実行するためのプログラムを記録したROMを備えたコンピュータで構成され、機能的には次に示すように構成されている。
言語モデル構築装置100は、単語連鎖出現頻度算出部101、平滑化パラメータ決定部102、遷移確率計算部103を含む。
言語モデル構築装置100は、大量の学習用テキストデータtexLと開発用テキストデータtexDとを入力とし、最適であると判断した平滑化パラメータを用いて計算した遷移確率からなる言語モデルΛを出力する。なお、開発用テキストデータtexDは、学習用テキストデータtexLとは独立のテキストデータであり、平滑化パラメータが適切な値となっているか否かを判定する際に用いるテキストデータである。また、学習用テキストデータtexLと開発用テキストデータtexDとは、言語モデルの構築に先立ち、予め図示しない記憶部に格納しておいてもよい。
<単語連鎖出現頻度算出部101>
単語連鎖出現頻度算出部101は、学習用テキストデータtexLを入力とし、学習用テキストデータtexL内での、n個の単語からなるn単語列wi-n+1 iの出現頻度c(wi-n+1 i)をカウントし、各単語列(単語連鎖)の出現頻度c(wi-n+1 i)を求め(S101)、出力する。n=1,2,…,Nである。Nは2以上の整数の何れかであり、N-gramモデルにおけるNを表す。wi-n+1 iは、n単語列wi-n+1wi-n+2…wiを表す。
例えば、最終的に求めるN-gramがトライグラム(N=3)であり、学習用テキストデータtexLに含まれるある文章が「学校/に/行/く」の場合、以下のように出現頻度c(wi-n+1 i)をカウントする。ただし「/」は単語の分割位置を示す記号である。
1単語列(n=1)として、「学校」の出現頻度c(w1 1)、「に」の出現頻度c(w2 2)、「行」の出現頻度c(w3 3)、「く」の出現頻度c(w4 4)が、それぞれ一つカウントアップされる。
2単語列(n=2)として、「<s>,学校」の出現頻度c(w0 1)、「学校,に」の出現頻度c(w1 2)、「に,行」の出現頻度c(w2 3)、「行,く」の出現頻度c(w3 4)、「く,</s>」の出現頻度c(w4 5)が、それぞれ一つカウントアップされる。ただし、<s>,</s>はそれぞれ文頭、文末を示す特殊記号である。
3単語列(n=3=N)として、「<s>,<s>,学校」の出現頻度c(w-1 1)、「<s>,学校,に」の出現頻度c(w0 2)、「学校,に,行」の出現頻度c(w1 3)、「に,行,く」の出現頻度c(w2 4)、「行,く,</s>」の出現頻度c(w3 5)が、それぞれ一つカウントアップされる。
<平滑化パラメータ決定部102>
平滑化パラメータ決定部102は、開発用テキストデータtexDと出現頻度c(wi-n+1 i)とを入力とし、出現頻度c(wi-n+1 i)を用いて、開発用テキストデータtexDに対する評価値が最適値となるように平滑化パラメータpを決定し(S102)、出力する。
平滑化パラメータpは各次数n毎にパラメータが存在し、モデル全体を単純な式で表現することはできず最適なパラメータ値を求めることは困難である。従来技術(例えば非特許文献2)では統計量を用いて平滑化パラメータを決定しているが、必ずしも決定された平滑化パラメータが最適な値であるとは限らない。本実施形態では、焼きなまし法、遺伝的アルゴリズムや進化的戦略等の組み合わせ最適化の手法を用いることで準最適な値を求める。これら、組み合わせ最適化手法に共通している点は、最初はランダムな値でパラメータの初期設定を行い、評価を行ってパラメータを更新しながら最適解に近づけることである。なお、このような組み合わせ最適化手法を用いて最適な平滑化パラメータを求めるという発想自体が従来技術にはなかった本実施形態に特有の構成である。
図3は平滑化パラメータ決定部102の機能ブロック図を、図4はその処理フローの例を示す。
平滑化パラメータ決定部102は、パラメータ初期設定部102−1と、一時モデル作成部102−2と、モデル評価部102−3と、収束判定部102−4と、パラメータ更新部102−5とを含む。
<パラメータ初期設定部102−1>
パラメータ初期設定部102−1は、平滑化パラメータの初期値p(0)を設定し(S102−1)、出力する。なお、右上の添え字(x)のxは平滑化パラメータの更新回数を示す。初期値p(0)は例えば乱数により設定する。例えば、Modified Kneser-Ney平滑化の場合(非特許文献2参照)、統計量を用いて得られるD1〜D3+を平滑化パラメータとしているが、本実施形態を適用する場合には、まず、D1〜D3+に乱数を代入し初期値とする。その後、後述するようにD1〜D3+を更新し、D1〜D3+の最適値を求める。
<一時モデル作成部102−2>
一時モデル作成部102−2は、平滑化パラメータp(q)と出現頻度c(wi-n+1 i)とを受け取り、これらの値を用いて、言語モデル平滑化処理を施し、一時言語モデルΛ(q)を作成し(S102−2)、出力する。なお、平滑化パラメータp(0)はパラメータ初期設定部102−1の出力値であり、平滑化パラメータp(q)(ただしq>0)はパラメータ更新部102−5の出力値である。なお、平滑化パラメータp(q)及び出現頻度c(wi-n+1 i)を用いた言語モデルの作成方法、平滑化処理については、既存のいかなる技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
<モデル評価部102−3>
モデル評価部102−3は、一時言語モデルΛ(q)と開発用テキストデータtexDとを受け取り、開発用テキストデータtexDに対して、一時言語モデルΛ(q)の評価を行い(S102−3)、評価結果R(q)を出力する。評価尺度は言語モデルの評価尺度として用いられるエントロピーやパープレキシティが考えられる。なお、評価方法については、既存のいかなる技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。評価時に学習用テキストデータtexLではなく開発用テキストデータtexDを用いることで、過学習等を防ぎ、より適切な平滑化パラメータを求めることができる。
<収束判定部102−4>
収束判定部102−4は、評価結果R(q)を受け取り、評価結果R(q)が収束したか否かを判定する(S102−4)。例えば、(1)繰り返し回数qが所定の回数以上となったときに評価結果R(q)が収束したと判定する。また、例えば、(2)評価結果R(q)が一定の所に収束した場合(例えば、1つ前の評価結果R(q-1)と評価結果R(q)との差分が所定の閾値以下となった場合)、評価結果R(q)が収束したと判定する。また、例えば、(3-1)上述の繰り返し回数qが所定の回数以上となったとき、かつ/または、(3-2)評価結果R(q)が一定の所に収束したとき、評価結果R(q)が収束したと判定する。
収束判定部102−4は、評価結果が収束していないと判断した場合には、パラメータ更新部102−5に対して評価結果R(q)に基づいて平滑化パラメータp(q)を更新するように制御信号と評価結果R(q)とを出力する。評価結果が収束したと判断した場合には、パラメータ更新部102−5に対してその評価結果R(q)が得られたときの平滑化パラメータp(q)を出力するように制御信号を出力する。
<パラメータ更新部102−5>
パラメータ更新部102−5は、評価結果が収束していないと判断された場合は制御信号と評価結果R(q)とを受け取り、評価結果が収束したと判断された場合は制御信号を受け取る。パラメータ更新部102−5は、制御信号に従って、(1)評価結果R(q)に基づき平滑化パラメータp(q)を更新(S102−5)し、更新した平滑化パラメータp(q+1)を一時モデル作成部102−2に出力するか、または、(2)制御信号を受け取ったときの平滑化パラメータp(q)を評価値が最適値となったときの平滑化パラメータpとして遷移確率計算部103に出力する。なお、評価結果に基づきパラメータを更新する方法については、既存のいかなる技術(焼きなまし法、遺伝的アルゴリズムや進化的戦略等の組み合わせ最適化手法)を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
<遷移確率計算部103>
遷移確率計算部103は、平滑化パラメータpと出現頻度c(wi-n+1 i)とを入力とし、平滑化パラメータpを用いて、実際の平滑化パラメータに代入し、言語モデル全体の遷移確率を計算し(S103)、計算の結果得られる言語モデルΛを言語モデル構築装置100の出力値として出力する。なお、言語モデルΛを図示しない記憶部等に格納(出力)しておき、利用時に取り出す構成としてもよい。
<効果>
以上の構成により、言語モデルの性能改善が可能となる。
<変形例>
なお、本実施形態では平滑化アルゴリズムの例としてModified Kneser-Ney を挙げて説明したが、ここで示した処理は他の平滑化アルゴリズムにおいても、単純な統計量で決定される平滑化パラメータがあれば、それを最適な値を決定するのに適用可能な手法である。
収束判定部102−4は、評価結果R(q)が収束したと判断した場合には、一時モデル作成部102−2に対して、その評価結果R(q)が得られたときの一時言語モデルΛ(q)を、言語モデル構築装置100の出力値である言語モデルΛとして出力するように制御信号を出力してもよい。この場合、一時モデル作成部102−2は、制御信号に従って、一時言語モデルΛ(q)を言語モデルΛとして出力する。このような構成の場合、改めて言語モデル全体の遷移確率を計算する必要がないため、言語モデル構築装置100は、遷移確率計算部103を備えなくともよい。本実施形態の場合も、この変形例の場合も、評価値が最適値となったときの平滑化パラメータと前記出現頻度とを用いて言語モデルを作成していると言える。
言語モデル構築装置は、音声認識装置と同一の装置内に構成してもよいし、別装置として構成してもよい。言語モデル構築装置を音声認識装置と同一の装置内に構成した場合、言語モデル構築装置は、同一の装置内の音声認識装置や記憶部に言語モデルΛを出力しておき、音声認識時や音声認識装置を構築する際に利用すればよい。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (5)

  1. n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出部と、
    前記出現頻度を用いて、前記学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定部と、を含み、
    評価値が最適値となったときの平滑化パラメータと前記出現頻度とを用いて言語モデルを作成する、
    言語モデル構築装置。
  2. 請求項1の言語モデル構築装置であって、
    前記平滑化パラメータ決定部は、
    平滑化パラメータの初期値を乱数により設定するパラメータ初期設定部と、
    前記出現頻度と初期化または更新された平滑化パラメータとを用いて一時言語モデルを作成する一時モデル作成部と、
    前記開発用テキストデータに対して、前記一時言語モデルの評価を行うモデル評価部と、
    評価結果が収束していない場合には評価結果に基づいて前記平滑化パラメータを更新するパラメータ更新部と、を含む、
    言語モデル構築装置。
  3. n=1,2,…,Nであり、Nは2以上の整数の何れかであり、学習用テキストデータでの、n個の単語からなるn単語列の各出現頻度をカウントする単語連鎖出現頻度算出ステップと、
    前記出現頻度を用いて、前記学習用テキストデータとは独立の開発用テキストデータに対する評価値が最適値となるように平滑化パラメータを決定する平滑化パラメータ決定ステップと、を含み、
    評価値が最適値となったときの平滑化パラメータと前記出現頻度とを用いて言語モデルを作成する、
    言語モデル構築装置が実行する言語モデル構築方法。
  4. 請求項3の言語モデル構築方法であって、
    前記平滑化パラメータ決定ステップは、
    平滑化パラメータの初期値を乱数により設定するパラメータ初期設定ステップと、
    前記出現頻度と初期化または更新された平滑化パラメータとを用いて一時言語モデルを作成する一時モデル作成ステップと、
    前記開発用テキストデータに対して、前記一時言語モデルの評価を行うモデル評価ステップと、
    評価結果が収束していない場合には評価結果に基づいて前記平滑化パラメータを更新するパラメータ更新ステップと、を含む、
    言語モデル構築方法。
  5. 請求項1または請求項2の言語モデル構築装置としてコンピュータを機能させるためのプログラム。
JP2017016421A 2017-02-01 2017-02-01 言語モデル構築装置、その方法、及びプログラム Active JP6588933B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017016421A JP6588933B2 (ja) 2017-02-01 2017-02-01 言語モデル構築装置、その方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017016421A JP6588933B2 (ja) 2017-02-01 2017-02-01 言語モデル構築装置、その方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018124797A true JP2018124797A (ja) 2018-08-09
JP6588933B2 JP6588933B2 (ja) 2019-10-09

Family

ID=63108972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017016421A Active JP6588933B2 (ja) 2017-02-01 2017-02-01 言語モデル構築装置、その方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6588933B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507080A (zh) * 2020-12-16 2021-03-16 北京信息科技大学 文字识别矫正的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120150532A1 (en) * 2010-12-08 2012-06-14 At&T Intellectual Property I, L.P. System and method for feature-rich continuous space language models
US9367526B1 (en) * 2011-07-26 2016-06-14 Nuance Communications, Inc. Word classing for language modeling
JP2016133956A (ja) * 2015-01-19 2016-07-25 株式会社デンソーアイティーラボラトリ 形態素解析モデル生成装置、形態素解析モデル生成方法、及び、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120150532A1 (en) * 2010-12-08 2012-06-14 At&T Intellectual Property I, L.P. System and method for feature-rich continuous space language models
US9367526B1 (en) * 2011-07-26 2016-06-14 Nuance Communications, Inc. Word classing for language modeling
JP2016133956A (ja) * 2015-01-19 2016-07-25 株式会社デンソーアイティーラボラトリ 形態素解析モデル生成装置、形態素解析モデル生成方法、及び、プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112507080A (zh) * 2020-12-16 2021-03-16 北京信息科技大学 文字识别矫正的方法

Also Published As

Publication number Publication date
JP6588933B2 (ja) 2019-10-09

Similar Documents

Publication Publication Date Title
US10860808B2 (en) Method and system for generation of candidate translations
WO2018051841A1 (ja) モデル学習装置、その方法、及びプログラム
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
JP7055630B2 (ja) 音声認識のための学習方法、学習装置、コンピュータプログラム及び記憶媒体
CN104854654A (zh) 用于使用搜索查询信息的言语识别处理的方法和系统
Rakib et al. Bangla word prediction and sentence completion using GRU: an extended version of RNN on N-gram language model
WO2020140073A1 (en) Neural architecture search through a graph search space
JP7070653B2 (ja) 学習装置、音声認識順位推定装置、それらの方法、およびプログラム
JP6712644B2 (ja) 音響モデル学習装置、その方法、及びプログラム
US10878201B1 (en) Apparatus and method for an adaptive neural machine translation system
JP2020042257A (ja) 音声認識方法及び装置
US20180082167A1 (en) Recurrent neural network processing pooling operation
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
JP6588933B2 (ja) 言語モデル構築装置、その方法、及びプログラム
JP6261669B2 (ja) クエリ校正システムおよび方法
JP2021039220A (ja) 音声認識装置、学習装置、音声認識方法、学習方法、音声認識プログラムおよび学習プログラム
WO2020162240A1 (ja) 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体
JP2018081294A (ja) 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム
JP5264649B2 (ja) 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
WO2019235191A1 (ja) モデル学習装置、方法及びプログラム
WO2021038827A1 (ja) 情報処理方法、情報処理プログラムおよび情報処理装置
JP2011243087A (ja) 自動単語対応付け装置とその方法とプログラム
JP6000153B2 (ja) フィラー遷移モデル学習装置と言語モデル学習装置とそれらの方法とプログラム
JP5860439B2 (ja) 言語モデル作成装置とその方法、そのプログラムと記録媒体
JP2016212773A (ja) 言語モデル生成装置、方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190913

R150 Certificate of patent or registration of utility model

Ref document number: 6588933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150