JP5961532B2 - 辞書・言語モデル圧縮方法とその装置とプログラム - Google Patents

辞書・言語モデル圧縮方法とその装置とプログラム Download PDF

Info

Publication number
JP5961532B2
JP5961532B2 JP2012249506A JP2012249506A JP5961532B2 JP 5961532 B2 JP5961532 B2 JP 5961532B2 JP 2012249506 A JP2012249506 A JP 2012249506A JP 2012249506 A JP2012249506 A JP 2012249506A JP 5961532 B2 JP5961532 B2 JP 5961532B2
Authority
JP
Japan
Prior art keywords
language
dictionary
entry
language model
change amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012249506A
Other languages
English (en)
Other versions
JP2014098760A (ja
Inventor
浩和 政瀧
浩和 政瀧
亮 増村
亮 増村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012249506A priority Critical patent/JP5961532B2/ja
Publication of JP2014098760A publication Critical patent/JP2014098760A/ja
Application granted granted Critical
Publication of JP5961532B2 publication Critical patent/JP5961532B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、辞書及び言語モデルのデータ量を圧縮する辞書・言語モデル圧縮方法とその装置とプログラムに関する。
近年、音声認識の分野では、認識対象となる語彙を格納する「辞書」と、辞書に登録された語彙間の連鎖確率を表す「言語モデル」とを用いて連続音声認識の精度向上を図る方法が盛んに検討されている。
言語モデルは、辞書に登録された単語に対して、単語連鎖の前のN-1単語から次のN個目の単語への遷移確率を表すN-gram(エヌグラム)が主流である。しかし、N-gramは、求めるべき確率の数が語彙サイズのN乗個存在し、パラメータ数が膨大である。このため、新聞記事やWebのデータ等の膨大なテキストを用いて各パラメータを推定することが提案されている。
しかし、パラメータ数が膨大になると、計算機に情報を保持するために膨大なメモリ容量が必要となり、実用的な計算機では実現できなくなる問題がある。そのため、できるだけ精度を落とさず、言語モデルのサイズを圧縮する方法が提案されている。
特許文献1には、各k(1≦k≦N)単語列の出現頻度にしきい値を設け、各k-gramでしきい値以下の出現頻度のパラメータを削除することによりモデルサイズを圧縮する単純な方法が開示されている。非特許文献1には、エントロピー変化量を尺度として、削除すべきパラメータを決定する方法が開示されている。この方法はパラメータ毎に削除の是非を判定するため、特許文献1の方法よりも精度の高いパラメータの削除が行える。
図7に、非特許文献1に開示された言語モデル圧縮装置900の機能構成を示してその動作を簡単に説明する。言語モデル圧縮装置900は、言語モデル構築部901、言語モデル902、言語モデル圧縮部903、圧縮された言語モデル904、辞書構築部905、辞書906、を備える。
言語モデル構築部901は、N-gram言語モデルを対象とし、外部から入力される大量のテキストデータから最尤推定等によりその遷移確率を求め、遷移確率とその単語連鎖とから成る言語モデルを構築する。言語モデルを構築する際に、大量のテキストを用いても確率が求まらないパラメータが存在するため、1-gram,2-gram,…,(N−1)-gram,N-gramと、それぞれの遷移確率を求めておき、N-gramで求まらない確率は、それより低い次数のk-gram(k<N)により補うスムージングと呼ばれる手法が一般的に用いられる。言語モデル構築部901で構築された言語モデルは、計算機の例えばハードディスク等の記憶装置に言語モデル902として蓄えられる。
言語モデル圧縮部903は、言語モデル902を元に、元々の言語モデルのエントロピー量と、2〜N-gramの各パラメータを削除した場合のエントロピー量を計算し、その変化量を求める。そして、そのエントロピー変化量が予め設定されているしきい値よりも小さい場合は、そのパラメータを言語モデルから削除する。エントロピー変換量の計算について詳しくは後述する。一部のパラメータが削除された言語モデルは、圧縮された言語モデル904として言語モデル902とは別にハードディスク等の記憶装置に蓄えられる。
辞書構築部905は、外部から入力されるテキストデータ内に出現した単語を辞書に登録する処理を行う。テキストデータが膨大な場合は辞書のサイズも膨大になる。そのため通常は、登録する語彙のサイズの上限を予め設定するか、若しくは出現頻度のしきい値を設けてテキストデータ内のある単語の出現頻度がしきい値以下の場合に、辞書登録をしないという単純な方法が用いられる。
特開平10−301596号公報
A.Stolcke, "Entropy-based Pruning of Backoff Language Models", DARPA Broadcast News Transcription and Understanding Workshop, 1998.
従来、上記した方法で一度作成した辞書のサイズを、改めて削減しようとする考えが無かった。また、言語モデルの圧縮と辞書データの削除とが、お互いに連動することが無かった。つまり、言語モデルのパラメータが削減できても、そのパラメータに関連する辞書データがそのまま残存してしまい、辞書の圧縮が不十分であるという課題があった。
本発明は、この課題に鑑みてなされたものであり、言語モデルの圧縮と辞書データ削除とを連動させて辞書から不要な単語を削除できるようにした辞書・言語モデル圧縮方法とその装置とプログラムを提供することを目的とする。
本発明の辞書・言語モデル圧縮方法は、エントロピー変化量計算過程と、言語モデル圧縮過程と、辞書圧縮過程と、を備える。エントロピー変化量計算過程は、言語モデルの言語エントリを削除した場合のエントロピー変化量を1-gram確率にまで拡張して求め、辞書を構成する単語の1-gram確率に関するエントロピー変化量がしきい値以下の場合に該当する言語エントリを削除対象言語エントリとし、該当する単語を削除対象単語とする。言語モデル圧縮処理過程は、削除対象言語エントリを言語モデルから削除する。辞書圧縮処理過程は、削除対象単語を辞書から削除する。
本発明の辞書・言語モデル圧縮方法によれば、エントロピー変化量を1-gram(各単語の出現確率)にまで拡張し、各単語の1-gramに関するエントロピー変化量がしきい値以下の場合に該当する単語を辞書から削除する。従って、削除しても影響の少ない単語を削除できるので、辞書のサイズを効果的に減少させることが可能になる。
この発明の辞書・言語モデル圧縮装置100の機能構成例を示す図。 辞書・言語モデル圧縮装置100の動作フローを示す図。 言語モデルと辞書を圧縮する方法を説明する図。 エントロピー変化量計算部10の機能構成例を示す図。 言語エントリ削除手段11の動作フローを示す図。 辞書単語削除手段12の動作フローを示す図。 従来の言語モデル圧縮装置900の機能構成を示す図。
以下、この発明の実施の形態を図面を参照して説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。
図1に、この発明の辞書・言語モデル圧縮装置100の機能構成例を示す。その動作フローを図2に示す。辞書・言語モデル圧縮装置100は、エントロピー変化量計算部10と、言語モデル圧縮処理部20と、辞書圧縮処理部30と、制御部40と、を具備する。辞書・言語モデル圧縮装置100は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。
エントロピー変化量計算部10は、言語モデル110の言語エントリを削除した場合のエントロピー変化量を1-gram確率にまで拡張して求め、辞書を構成する単語の1-gram確率に関するエントロピー変化量がしきい値以下の場合に該当する言語エントリを削除対象言語エントリとし、該当する単語を削除対象単語とする(ステップS10)。ここで言語エントリとは、上記したN-gramの各パラメータのことであり、例えば3-gram確率のパラメータである言語エントリはp(w|wn−2,wn−1)と表される。例えば、「今日は晴れ」のテキストの場合、wは「晴れ」、wn−1は「は」、wn−2は「今日」のそれぞれの形態素(単語)に対応する。このステップ10の処理は、1-gram確率の全ての言語エントリが終了するまで繰り返される(ステップS40のYes)。この繰り返し動作の制御は制御部40が行う。制御部40は、辞書・言語モデル圧縮装置100の各部の時系列的な動作を制御する。
言語モデル圧縮処理部20は、エントロピー変化量計算部10で求めた削除対象言語エントリを、言語モデル110から削除する(ステップS20)。削除する方法は、削除対象言語エントリそのものを出力して外部で言語モデル110から削除しても良し、削除対象言語エントリを出力せずそれ以外の言語エントリを出力して、例えばハードディスク等の記憶装置に圧縮された言語モデル110′として蓄えるようにしても良い。
辞書圧縮処理部30は、エントロピー変化量計算部10で求めた削除対象単語を、辞書120から削除する(ステップS30)。削除方法は削除対象言語エントリと同じである。削除対象単語を辞書から削除した圧縮された辞書120′として記憶しても良い。
ステップS20とS30の処理は、削除対象の全ての言語エントリと単語について終了するまで繰り返される(ステップS41のNo)。以上の動作の結果、言語モデル110から削除しても影響の少ない言語エントリが削除されると共に、辞書120から削除しても影響の少ない単語が削除されることになる。
図3を参照して言語モデルと辞書を圧縮する方法について説明する。言語モデル110の1-gram確率はその単語が現れる確率、2-gram確率はその2個の単語が現れる確率、3-gram確率はその2個の単語が現れる確率、である。例えば、「今日は晴れ」のテキストの場合、1-gram確率の言語エントリはp(今日)、2-gram確率の言語エントリはp(は|今日)、3-gram確率の言語エントリはp(晴れ|今日,の)となる。これ以外の単語列としては、例えば「今日は曇り」、「今日は雨」等があり、3-gram確率の他の言語エントリがp(曇り|今日,は)やp(雨|今日,は)となる。
例えば3-gram確率の言語エントリp(曇り|今日,は)を削除して、2-gram確率の言語エントリのp(曇天|今日)で代用できると仮定した場合のエントロピー変化量は式(1)で計算することができる。
Figure 0005961532
ここでhはhistoryであり、上記した例ではp′(w|h)=α×p(曇天|今日)、p(w|h)=p(曇り|今日,は)に対応する。αはバックオフ係数であり、全体の確率が1になるように調整(平滑化)する係数である。式(1)及びバックオフ係数等は従来技術であり、例えば非特許文献1に記載されている。
式(1)で計算したエントロピー変化量D(p‖p′)がしきい値θ以下であれば、p(w|h)=p(曇り|今日,は)の言語エントリを3-gram確率から削除する。つまり、エントロピー変化量D(p‖p′)が小さいということは、削除しても単語連鎖を探索する上での影響が小さいことを意味している。この処理を2-gram確率まで行って言語モデルを圧縮する考えは、上記したように従来技術である。
この発明は、上記した考えを1-gram確率まで拡張した点に特徴がある。1-gram確率の言語エントリp(w)を削除すると仮定した場合、その確率を0-gram確率である辞書120の単語数の逆数1÷v(単語数)で代用する。つまり、式(1)のp′(w|h)=1/vとし、p(w|h)=p(w)として計算したエントロピー変化量D(p‖p′)がしきい値θ以下であれば、言語モデルの1-gram確率から言語エントリp(w)を削除すると共に、辞書120の単語wも削除する。
このように、エントロピー変化量D(p‖p′)に基づいて言語モデル110の1-gram確率の言語エントリと、辞書120の対応する単語とを削除するので、削除しても影響の少ない単語を効率的に削除することができる。
図4に、この発明の要部であるエントロピー変化量計算部10のより具体的な機能構成例を示して更に詳しく説明する。エントロピー変化量計算部10は、言語エントリ削除手段11と、辞書単語削除手段12と、を備える。
言語エントリ削除手段11は、言語モデル110を参照してN-gram確率における或る言語エントリを削除した場合のエントロピー変化量を、その言語エントリに対応する(N−1)-gramの言語エントリの確率にバックオフ係数αを乗じた確率を代用した場合の変化量として求め、当該エントロピー変化量が、しきい値θ以下である言語エントリを削除対象言語エントリp(w|*)として言語モデル圧縮処理部に出力する処理を、全ての言語エントリに対して行う。*は、任意のhistoryを意味する。
図5に、言語エントリ削除手段11の動作フローを示す。言語エントリ削除手段11は、言語モデル110の、N-gram確率の言語エントリを特定する(ステップS11a)。そして、(N−1)-gram確率の代用する言語エントリの確率にバックオフ係数αを乗じた確率p′を求め(ステップS11b)、式(1)でエントロピー変化量D(p‖p′)を計算する(ステップS11c)。
エントロピー変化量D(p‖p′)がしきい値θ以下(ステップS11dのYes)であれば対象としているN-gram確率の言語エントリを削除対象言語エントリとして特定する(ステップS11e)。ステップS11a〜11eの処理は、2-gram確率の全ての言語エントリについて終了するまで繰り返される(ステップS40aのNo)。
辞書単語削除手段12は、辞書120を参照し、言語モデル110の1-gram確率の或る言語エントリを削除した場合のエントロピー変化量を、辞書120の単語数vの逆数を確率値として代用した場合の変化量として求め、当該エントロピー変化量が、しきい値θ以下である1-gram確率の言語エントリを削除対象言語エントリp(w)とすると共に、該当する単語を削除対象単語wとして辞書圧縮処理部に出力する処理を全ての1-gram確率に対して行う。
図6に、辞書単語削除手段12の動作フローを示す。辞書単語削除手段12は、言語モデル110の、1-gram確率の言語エントリを特定する(ステップS12a)。そして、0-gram確率、つまり辞書120の単語数vの逆数を確率値p′として求め(ステップS12b)、式(1)でエントロピー変化量D(p‖p′)を計算する(ステップS12c)。
エントロピー変化量D(p‖p′)がしきい値θ以下(ステップS12dのYes)であれば対象としている1-gram確率の言語エントリを削除対象言語エントリとして特定すると共に、該当する単語wを削除対象単語として特定する(ステップS12e)。ステップS12a〜12eの処理は、1-gram確率の全ての言語エントリについて終了するまで繰り返される(ステップS40bのNo)。
以上説明したようにこの発明の辞書・言語モデル削減方法によれば、エントロピー変化量の値に基づいて、削除しても影響の少ない1-gram確率の言語エントリと対応する単語を削除するので、辞書のサイズを効果的に減少させることが可能である。また、このように辞書の語彙を削除することで、例えば音声認識処理の処理速度を高速化できると共に、同音異義語や発音の近い単語に関する認識誤りを削減する効果も奏する。
なお、エントロピー変化量には、上記した式(1)以外にも、例えば参考文献1(K. Seymore and R. Rosenfeld. Scalablebackofflanguagemodel. In H. T. Bunnell and W. Idsardi, editors, Proc. ICSLP, vol. 1, pp. 232-235, Philadelphia, 1996.)に記載された式を用いることも可能である。このように、エントロピー変化量に基づく言語モデル圧縮方法に関する式であればこの発明に適用することが可能であり、上記した式に限定されない。
上記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることが出来る。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (5)

  1. 言語モデルの言語エントリを削除した場合のエントロピー変化量を1-gram確率にまで拡張して求め、辞書を構成する単語の1-gram確率に関するエントロピー変化量がしきい値以下の場合に該当する言語エントリを削除対象言語エントリとし、該当する単語を削除対象単語とするエントロピー変化量計算過程と、
    上記削除対象言語エントリを上記言語モデルから削除する言語モデル圧縮処理過程と、
    上記削除対象単語を上記辞書から削除する辞書圧縮処理過程と、
    を備える辞書・言語モデル圧縮方法。
  2. 請求項1に記載した辞書・言語モデル圧縮方法において、
    上記エントロピー変化量計算過程は、
    言語モデルを参照してN-gram確率における或る言語エントリを削除した場合のエントロピー変化量を、上記言語エントリに対応する(N−1)-gramの言語エントリの確率にバックオフ係数αを乗じた確率を代用した場合の変化量として求め、当該エントロピー変化量が、しきい値以下である上記言語エントリを削除対象言語エントリとして言語モデル圧縮処理部に出力する処理を全ての言語エントリに対して行う言語エントリ削除ステップと、
    辞書を参照し、上記言語モデルの1-gram確率の或る言語エントリを削除した場合のエントロピー変化量を、上記辞書の単語数の逆数を確率値として代用した場合の変化量として求め、当該エントロピー変化量が、しきい値以下である1-gram確率の言語エントリを上記削除対象言語エントリとすると共に、該当する単語を削除対象単語として辞書圧縮処理部に出力する処理を全ての1-gram確率に対して行う辞書単語削除ステップと、
    を含むことを特徴とする辞書・言語モデル圧縮方法。
  3. 言語モデルの言語エントリを削除した場合のエントロピー変化量を1-gram確率にまで拡張して求め、辞書を構成する単語の1-gram確率に関するエントロピー変化量がしきい値以下の場合に該当する言語エントリを削除対象言語エントリとし、該当する単語を削除対象単語とするエントロピー変化量計算部と、
    上記削除対象言語エントリを上記言語モデルから削除する言語モデル圧縮処理と、
    上記削除対象単語を上記辞書から削除する辞書圧縮処理部と、
    を具備する辞書・言語モデル圧縮装置。
  4. 請求項3に記載した辞書・言語モデル圧縮装置において、
    上記エントロピー変化量計算部は、
    言語モデルを参照してN-gram確率における或る言語エントリを削除した場合のエントロピー変化量を、上記言語エントリに対応する(N−1)-gramの言語エントリの確率にバックオフ係数αを乗じた確率を代用した場合の変化量として求め、当該エントロピー変化量が、しきい値以下である上記言語エントリを削除対象言語エントリとして言語モデル圧縮処理部に出力する処理を全ての言語エントリに対して行う言語エントリ削除手段と、
    辞書を参照し、上記言語モデルの1-gram確率の或る言語エントリを削除した場合のエントロピー変化量を、上記辞書の単語数の逆数を確率値として代用した場合の変化量として求め、当該エントロピー変化量が、しきい値以下である1-gram確率の言語エントリを上記削除対象言語エントリとすると共に、該当する単語を削除対象単語として辞書圧縮処理部に出力する処理を全ての1-gram確率に対して行う辞書単語削除手段と、
    を備えることを特徴とする辞書・言語モデル圧縮装置。
  5. 請求項3又は4に記載した辞書・言語モデル圧縮装置としてコンピュータを機能させるためのプログラム。
JP2012249506A 2012-11-13 2012-11-13 辞書・言語モデル圧縮方法とその装置とプログラム Expired - Fee Related JP5961532B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012249506A JP5961532B2 (ja) 2012-11-13 2012-11-13 辞書・言語モデル圧縮方法とその装置とプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012249506A JP5961532B2 (ja) 2012-11-13 2012-11-13 辞書・言語モデル圧縮方法とその装置とプログラム

Publications (2)

Publication Number Publication Date
JP2014098760A JP2014098760A (ja) 2014-05-29
JP5961532B2 true JP5961532B2 (ja) 2016-08-02

Family

ID=50940820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012249506A Expired - Fee Related JP5961532B2 (ja) 2012-11-13 2012-11-13 辞書・言語モデル圧縮方法とその装置とプログラム

Country Status (1)

Country Link
JP (1) JP5961532B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620435B2 (en) 2019-10-10 2023-04-04 International Business Machines Corporation Domain specific model compression

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110705279A (zh) * 2018-07-10 2020-01-17 株式会社理光 一种词汇表的选择方法、装置及计算机可读存储介质
CN109448706A (zh) * 2018-12-12 2019-03-08 苏州思必驰信息科技有限公司 神经网络语言模型压缩方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10301596A (ja) * 1997-04-24 1998-11-13 Nippon Telegr & Teleph Corp <Ntt> 統計的言語モデル圧縮方法
JP4947545B2 (ja) * 2006-08-30 2012-06-06 株式会社国際電気通信基礎技術研究所 音声認識装置及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11620435B2 (en) 2019-10-10 2023-04-04 International Business Machines Corporation Domain specific model compression

Also Published As

Publication number Publication date
JP2014098760A (ja) 2014-05-29

Similar Documents

Publication Publication Date Title
US9934778B2 (en) Conversion of non-back-off language models for efficient speech decoding
JP5331801B2 (ja) 言語モデル先読み確率を計算する方法および装置
JP5212910B2 (ja) 音声認識装置、音声認識方法、および音声認識用プログラム
Arısoy et al. Converting neural network language models into back-off language models for efficient decoding in automatic speech recognition
JP5434587B2 (ja) 音声合成装置及び方法とプログラム
JP5790646B2 (ja) パープレキシティ算出装置
JP5961532B2 (ja) 辞書・言語モデル圧縮方法とその装置とプログラム
JP5319141B2 (ja) 言語モデルの枝刈り方法及び装置
JP4822829B2 (ja) 音声認識装置および方法
JP6301794B2 (ja) オートマトン変形装置、オートマトン変形方法およびプログラム
JP2015084047A (ja) 文集合作成装置、文集合作成方法および文集合作成プログラム
KR102067973B1 (ko) 음소열의 편집 거리를 이용한 웨이크업 단어 선정 방법
JP5980101B2 (ja) 音響モデル学習用テキスト作成装置とその方法とプログラム
JP6549064B2 (ja) 音声認識装置、音声認識方法、プログラム
JP6353408B2 (ja) 言語モデル適応装置、言語モデル適応方法、プログラム
JP7028203B2 (ja) 音声認識装置、音声認識方法、プログラム
JP4194433B2 (ja) 尤度算出装置および方法
JP3969079B2 (ja) 音声認識装置および方法、記録媒体、並びにプログラム
JP5349193B2 (ja) 言語モデル圧縮装置、言語モデルのアクセス装置、言語モデル圧縮方法、言語モデルのアクセス方法、言語モデル圧縮プログラム、言語モデルのアクセスプログラム
JP6588933B2 (ja) 言語モデル構築装置、その方法、及びプログラム
JP6121313B2 (ja) ポーズ推定装置、方法、プログラム
JP6078435B2 (ja) 記号列変換方法、音声認識方法、それらの装置及びプログラム
JP5610304B2 (ja) モデルパラメータ配列装置とその方法とプログラム
JP5755603B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム
JP7160170B2 (ja) 音声認識装置、音声認識学習装置、音声認識方法、音声認識学習方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160627

R150 Certificate of patent or registration of utility model

Ref document number: 5961532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees