JP5780516B2 - モデル縮減装置とその方法とプログラム - Google Patents

モデル縮減装置とその方法とプログラム Download PDF

Info

Publication number
JP5780516B2
JP5780516B2 JP2011140449A JP2011140449A JP5780516B2 JP 5780516 B2 JP5780516 B2 JP 5780516B2 JP 2011140449 A JP2011140449 A JP 2011140449A JP 2011140449 A JP2011140449 A JP 2011140449A JP 5780516 B2 JP5780516 B2 JP 5780516B2
Authority
JP
Japan
Prior art keywords
importance
model
model parameter
sorted
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011140449A
Other languages
English (en)
Other versions
JP2013008199A (ja
Inventor
隆伸 大庭
隆伸 大庭
堀 貴明
貴明 堀
中村 篤
篤 中村
伊藤 彰則
彰則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Tohoku University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nippon Telegraph and Telephone Corp filed Critical Tohoku University NUC
Priority to JP2011140449A priority Critical patent/JP5780516B2/ja
Publication of JP2013008199A publication Critical patent/JP2013008199A/ja
Application granted granted Critical
Publication of JP5780516B2 publication Critical patent/JP5780516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、音声認識、機械翻訳、発話分類などの自然言語処理を含む統計的機械学習の分野において用いられるモデルのモデルパラメータの数を縮減するモデル縮減装置とその方法と、プログラムに関する。
例えば、自然言語処理において分類問題やランキング問題は極めて重要な問題である。分類問題は、ある単語列(サンプル)が事前に定義された有限個のクラスのうち、どれに分類されるかを推定する問題である。例えば、発話内容を、挨拶、質問、回答などにクラス分けする発話分類はこれに相当する。ランキング問題は、有限個のサンプルからなる集合が与えられた時に、各サンプルに対して、ある観点における順位を与える問題である。音声信号を単語列に変換する技術である音声認識や、機械翻訳はこれに相当するものと見なすことが出来る。
一般に、分類問題では、サンプルとクラスに応じたスコアが付与され、スコアの大きさに基づいて分類されるクラスを推定する。ランキング問題では、サンプルごとにスコアが付与され、スコアの大きさに基づいて順位が決定する。
スコアを付与するには、サンプルとクラスの組を、素性表現するための変換ルールが事前に定義されている必要がある。また、事前にモデルを用意しておく必要がある。
モデルとは、例えば音声認識であれば言語モデルであり、素性表現された入力(単語列、サンプル)に対して、スコアを返す関数のことである。ここでモデルを用意するとは、関数の型を決めた上で、そのパラメータの具体的な値を事前に決定しておくことである。統計的手法では、大量に集めた学習データを利用してモデルパラメータの値を決定する。
通常、モデルパラメータの値を決定するプロセス、つまり学習は簡単ではない。対称とする分野の専門的な知識や、大規模な計算システム、大量の学習データなどが必要である。そのため、分類やランキングを行う専門的な知識を持たない一般ユーザが、使用環境に合わせてモデルを学習することは現実的ではない。
専門家が汎用性の高いモデルを用意した場合、モデルパラメータ数が大きくなる場合がある。その場合、一般ユーザは、それに応じた規模の計算機を用意することを余儀なくされる。例えば、言語モデルは、隣り合う単語の組ごとに対応したパラメータをもつ。そのため、様々な語彙をサポートした汎用性の高い言語モデルを構築しようと考えた場合、パラメータの数は非常に大きくなる。つまり、モデルパラメータの数を縮減する装置や方法は、従来存在しなかった。
そのパラメータの数を減らす方法としては、非特許文献1に開示されたものが知られている。非特許文献1の方法は、ある観点において最適な、素性ベクトルの部分ベクトルを見つけることを目的としたものである。つまり新たにモデルパラメータの値を学習する必要がある。
北内敬、宇津呂武仁、松本裕二、「誤り駆動型の素性選択による日本語形態素解析の確率モデル学習」情報処理学会論文誌、Vol.40 No.5 May 1999
言語モデルを始めとする一部のモデルのパラメータ数は極めて大きい。しかし、これまで、例えば認識結果が極力変わらないように、既存のモデルパラメータを、任意のサイズにモデルパラメータを縮減する方法は知られていない。ここでの縮減とは、モデルパラメータを任意の数に削減することを意味する。
この発明は、このような課題に鑑みてなされたものであり、モデルパラメータ数の縮減を実現することで、ユーザが計算機の規模等に合わせて柔軟にモデルパラメータ数を変更可能なように、モデルパラメータ数を縮減するモデル縮減装置とその方法とプログラムを提供することを目的とする。
この発明のモデル縮減装置は、素性値加算部と、モデルパラメータ乗算部と、モデル縮減部と、を具備する。素性値加算部は、サンプル集合Sとクラス集合Cを入力として、サンプルsとクラスcの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルを生成し、素性ベクトルの要素fに対応する重要度qを、当該重要度qに上記素性ベクトルの要素fの二乗値f 2を加えた値として算出する。モデルパラメータ乗算部は、重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素の二乗値a 2を乗じた値をモデルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAを出力する。モデル縮減部は、ソート済みモデルパラメータAを入力として、その上位m個のモデルパラメータを出力する。ここでmはユーザが指定したモデルパラメータ数である。
この発明のモデル縮減装置は、モデルを素性変換ルールに基づいて素性ペクトルに分解し、素性ベクトルに対応する重要度の大きなモデルパラメータのみを用いる。このモデル縮減装置によれば、例えば音声認識用の言語モデル等のモデルの数を、任意のサイズに縮減することが出来ると共に、モデル縮減による認識結果の変化を小さくすることができる。また、予め、単純な統計量を得ておくだけでモデルの縮減が可能であり、サンプルに対して正解ラベル(分類問題であればどのクラスcが正解クラスであるか示す情報、ランキング問題であればサンプルの順位であり、一般に人手で付与する必要がある。)などを与えておく必要がない。
この発明のモデル縮減装置100の機能構成例を示す図。 モデル縮減装置100の動作フローを示す図。 素性値加算部10の機能構成例を示す図。 素性値加算部10の動作フローを示す図。 モデルパラメータ乗算部20の機能構成例を示す図。 モデル縮減部30の動作フローを示す図。 この発明のモデル縮減装置200の機能構成例を示す図。 データ(a1)を利用してモデル縮減を行いデータ(a3)で評価するEval-A評価実験結果を示す図。 データ(a2)を利用してモデル縮減を行いデータ(a3)で評価するEval-B評価実験結果を示す図。 データ(a1)を利用してモデル縮減を行いデータ(o2)で評価するEval-C評価実験結果を示す図。 データ(a2)を利用してモデル縮減を行いデータ(o2)で評価するEval-D評価実験結果を示す図。 データ(o1)を利用してモデル縮減を行いデータ(o2)で評価するEval-E評価実験結果を示す図。
以下、この発明の実施の形態を図面を参照して説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。実施例の説明の前に、この発明の基本的な考えを説明する。
〔この発明の基本的な考え〕
この発明のモデル縮減方法は、線形モデルに特化した手法である。ます、始めに線形モデルについて定義する。
素性ベクトルFとモデルパラメータAが与えられたとき、両者の内積(式(1))によりスコアを与えるモデルを線形モデルと称する。
Figure 0005780516
素性ベクトルFは、分類問題の場合、サンプルsとクラスcが与えられたとき、事前に定められたルールに基づいて生成される。ランキング問題では、サンプルsが与えられたときに事前に定められたルールに基づいて生成される。
分類問題は、有限個のクラスcからなる集合Cが与えられたとき、式(2)を全てのクラスc(c∈C)について算出し、一般には最大の値を取るクラスを分類結果とする。
Figure 0005780516
ランキング問題では、サンプルの集合Sが与えられたとき、式(3)を全てのサンプルs(s∈S)について算出し、その値の大きい順番に並べ替えて順位とする。
Figure 0005780516
また、二値分類といわれる2クラスの分類問題においては、あるサンプルsが与えられたとき、式(3)の計算結果の符合によって2クラスの推定を行うこともある。
今、モデルパラメータA及び素性ベクトルFの要素をそれぞれa,f(k=1,2,…,n)としたとき、直積値(式(4))をスコアとする場合であっても、モデルパラメータの要素a>0の場合、対数に変換することで大小関係は保たれ、かつ、線形モデルの型となることから、これも線形モデルとみなす。
Figure 0005780516
2つの異なるサンプル間のスコアを比較する場合に、式(5)の関係は式(6)で現せる。
Figure 0005780516
ここで、log(a)をaと見なせば、直積値(式(4))は線形モデルに変換できる。
式(1)をABFで現す。つまり、モデルをBAにより変換することを仮定する。モデルパラメータ数をnとすると、Bはn×nの対角行列である、すなわち式(7)である。
Figure 0005780516
今、モデルパラメータAの要素aを変換する変換係数bにスパース性があると仮定する。つまり、多くの要素がゼロを持つならば、BAにより多くのモデルパラメータ値がゼロに変換される。値ゼロのモデルパラメータを不要物と見なすことで、モデルを縮減することが出来る。
モデルの縮減前後で、クラス分類やランキング問題の結果があまり変わらない制約を与えるため、最小二乗誤差法を導入する。
スコア差(式(8))を最小化するBを考える。
Figure 0005780516
ここでFはサンプル若しくはクラスが与えられた下で表現される素性ベクトルである。最小値を与えるBは明らかに単位行列であるため、Bがスパースになる制約を加えた最小化問題を考える。ここでは、Bがスパースになる制約としてL1正規化を用いて目的関数Zを設ける。
Figure 0005780516
ここでwは非負の定数であり、Bのスパース性の度合いを決定するパラメータである。wの値の決定方法は後述する。
この最小化問題の解となる変換係数bの値は解析的に得られない。そこで近似を導入する(式(10))。
Figure 0005780516
ここでfi,kはFのk番目の要素である。Fが十分スパースであるとすると、第2項のfi,ki,k′は凡そゼロと見なすことが出来る。そこで、近似的に次式の最小化問題に置き換える。
Figure 0005780516
この近似から、素性ベクトルFが十分スパースに分布するとき、この発明は効果的に機能することが予想される。Z′の最小化問題の解析解は各kについて式(12)で与えられる。
Figure 0005780516
さて、wは非負の定数であることから0≦b≦1である。wが大きい値を取るとき、多くの要素の変換係数bがb=0となるので、最終的に得られるモデルパラメータ値aも0となる。なお、縮減後のモデルサイズmとwが同期している必然性はない。非同期とする場合、wの値を決定するための他の手段が必要である。その場合は、別途開発用のデータを用意して決定する。
縮減後のモデルサイズmとwを同期させる場合、つまり、m+1番目以降のモデルパラメータ値を0とする場合、素性ベクトルFの要素に対応する重みqを式(13)に示すように予め得ておき、m+1番目に大きな値を持つ要素の重みq m+1を用いてwを式(14)で求めると良い。
Figure 0005780516
は、各要素の重要度を現していると見なすことができる。最終的に変換係数bは式(15)で与えられる。
Figure 0005780516
この変換係数bを、モデルパラメータaに乗じて補正する。
重要度qの大きなモデルパラメータのみを用いることで、例えば音声認識精度を落とすことなく、モデルパラメータの数を減らすことが可能である。上記の考えに基づけば、そのモデルパラメータ値をa・bにより変換することが基本である。しかし、実際にはこの値の変換の処理を省略することも可能である。
図1に、この発明のモデル縮減装置100の機能構成例を示す。その動作フローを図2に示す。モデル縮減装置100は、素性値加算部10と、モデルパラメータ乗算部20と、モデル縮減部30と、制御部40と、を具備する。モデル縮減装置100の各部の機能は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。
素性値加算部10は、サンプルSとクラス集合Cを入力として、サンプルSとクラス集合Cの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルを生成し、素性ベクトルに対応する重要度qを、当該重要度qに上記素性ベクトルの二乗値を加えた値として算出する(ステップS10)。
モデルパラメータ乗算部20は、重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素の二乗値a 2を乗じた値をモデルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAを出力する(ステップS20)。
モデル縮減部30は、ソート済みモデルパラメータAを入力として、その上位m個のモデルパラメータを出力する(ステップS30)。制御部40は、上記した各部間の時系列的な動作等を制御するものである。
以上の作用により、例えば音声認識用の言語モデル等のモデルの数を、任意のサイズに縮減することができる。以降、モデル縮減装置100の各部の動作をより詳しく説明する。
図3に、素性値加算部10の機能構成例を示す。その動作フローを図4に示す。素性値加算部10は、サンプル・クラス取得手段11と、素性表現化手段12と、二乗値加算手段13と、を備える。
素性値加算部10が動作を開始すると、まず制御部40が、モデルパラメータの要素数分の記憶容量を確保し、記憶領域を全てゼロに初期化する(ステップS40)。例えば、外部から入力されるモデルパラメータの要素aに対応する重要度qを記憶する記憶領域をQ=(qk:q1,q2,…,qn)と表記する。
サンプル・クラス取得手段11は、サンプル集合Sとクラス集合Cを入力として、サンプル集合Sとクラス集合Cの全ての組み合わせについて、それらの集合からサンプルsとクラスcを取得して素性表現化手段12に出力する(ステップS110〜S113)。
素性表現化手段12は、サンプルsとクラスcの全ての組み合わせについてそれぞれ、素性変換ルール12aに基づいて素性ベクトルF(s,c)=(fk:f1,f2,…,fn)を生成する(ステップS12)。
二乗値加算手段13は、記憶された重要度Qの要素qに、素性ベクトルの要素fの二乗値を加算して重要度Qを更新する(ステップS13)。この重要度Qの更新は、サンプルsとクラスcの全ての組み合わせについて行われる。
Figure 0005780516
図5に、モデルパラメータ乗算部20の機能構成例を示す。モデルパラメータ乗算部20は、モデルパラメータ値乗算手段21と、ソート手段22を、備える。モデルパラメータ値乗算手段21は、モデルパラメータの要素の重要度qに、外部から入力されるモデルパラメータAの要素aの二乗値を乗じて重要度qとする計算(式(17))を行う。
Figure 0005780516
この計算は全てのkについて行われ、重要度qはソート手段22に出力される。ソート手段22は、重要度qを降順に並べ替え、ソート済みの重要度Qを生成する。そして、ソート済みの重要度Qとkの対応が取れるようにモデルパラメータの要素aを並べ替え、ソート済みのモデルパラメータAをモデル縮減部30に出力する。
図6に、モデル縮減部30の動作フローを示す。モデル縮減部30は、縮減後のサイズmの数分のソート済みのモデルパラメータAの上位m個のモデルパラメータを出力する(ステップS303)。
Figure 0005780516
縮減後のサイズmは、予めモデル縮減部30に設定されていても良いし、破線で示すように外部から設定するようにしても良い。図6のiは、要素番号を現す変数であり、ソート前の順番kと区別する目的でiとしている。
図7に、この発明のモデル縮減装置200の機能構成例を示す。モデル縮減装置200は、モデル縮減装置100(図1)と、モデルパラメータ乗算部22と、モデル縮減部32とが異なる。モデルパラメータ乗算部22は、ソート済みの重要度Qをソート済みのモデルパラメータAと共に、モデル縮減部32に出力する点のみが、モデル縮減装置100と異なる。
モデル縮減部32は、ソート済みモデルパラメータAとソート済み重要度Qを入力として、並べ替えられた上位から1〜m番目のm個のモデルパラメータa 〜a を、m+1番目の重要度q m+1とi番目の重要度q の比で補正して出力する点で、上位からm個のモデルパラメータを選択するだけのモデル縮減部30と異なる。
Figure 0005780516
〔評価実験〕
この発明のモデル縮減方法の効果を確認する目的で、日本語話言葉コーパス(CSJ)を用いて評価実験を行った。CSJは、講演音声とその書き起こしからなるコーパスである。CSJには、学会講演と模擬講演が含まれる。模擬講演は「私の街」、「生涯で最も幸せな出来事」等といったテーマの講演形式のスピーチが収録されている。
音声認識の誤り訂正言語モデルを構築し、そのモデルを縮減することでモデルサイズと精度との関係を評価した。音声認識システムは、一般に複数の認識候補となる単語列を出力することが出来る。各認識候補単語列にはスコアが与えられており、最も高いスコアを持つ単語列が通常の認識結果である。誤り訂正言語モデルは、認識候補単語列に補正スコアを加えることで、認識結果の再ランキングを行うモデルである。今、認識候補単語列の集合をSとおくと、最終的な認識結果sは式(20)で与えられる。
Figure 0005780516
ここでf(s)は音声認識システムが付与した認識候補単語列sに対応するスコアである。また、aはスケーリングを調整する定数であり、誤り訂正言語モデルのモデルパラメータAを推定する際に、開発データなどを利用して決定する。
表1に、誤り訂正言語モデルの学習・評価に用いたデータの内訳を示す。
Figure 0005780516
データ(a1)〜(a3)は、学会講演であり、データ(o1)と(o2)は模擬講演である。各発話に対し音声認識システムを適用し、5000個の認識候補単語列を生成した。
データ(a1)を使って誤り訂正言語モデルの学習を行った。つまり、モデルパラメータAの学習を行った。なお、モデルパラメータAの要素数は凡そ1000万個である。素性には、(a1)に出現した全ての単語1-gram,2-gram,3-gram及び品詞1-gram,2-gram,3-gramの頻度を利用した。n-gramとはn個のトークン(単語又は品詞)の並びである。
モデルパラメータAの学習には、ラウンドロビン対比学習法(Round-robin duel discrimination)を使用した。スケーリングを調整する定数aの値は、データ(a2)を開発セットとして用いて、その単語誤り率(WER)が最小になるように決定した。
モデル縮減の評価として5つの環境を用意した。データ(a1)を利用してモデル縮減を行いデータ(a3)で評価する場合をEval-Aと記載する。同様にデータ(a2)を利用してモデル縮減を行いデータ(a3)で評価する場合をEval-B、データ(a1)を利用してモデル縮減を行いデータ(o2)で評価する場合をEval-Cとする。同様に、データ(a2)とデータ(o2)の組をEval-D、データ(o1)とデータ(o2)の組をEval-Eとする。誤り訂正言語モデルは、学会講演で学習しているためEval-CからEval-Eはアウトオブドメインとなるタスクでの評価となる。
Eval-Aは、誤り訂正言語モデルの学習データと、モデル縮減のためのデータが一致しており、評価データのドメインも一致する場合の例である。Eval-Bではドメインは一致するが、モデル縮減のためのデータが極少量しかない場合を模擬している。Eval-C,DはEval-A,Bのそれぞれにおいて、評価セットだけがアウトオブドメインである場合に相当する。Eval-Eはモデル縮減のためのデータにも、誤り訂正言語モデルの学習データと異なるドメインを利用した場合である。
それぞれの結果を図8〜12に示す。横軸はモデル縮減後のモデルサイズmであり対数スケールである。縦軸は誤り訂正言語モデル適用後の認識結果のWERである。図中に、破線で示す特性は従来手法であり、単純にモデルパラメータAの要素aの絶対値の大きな順に上位m個のモデルパラメータを利用する方法である。一点鎖線で示す特性は、この発明の実施例1(図1)のモデル縮減装置100によって縮減されたモデルを使用した結果を示す。実線で示す特性は、実施例2(図7)のモデル縮減装置200によって縮減されたモデルを使用した結果を示す。
従来手法で性能が大きく劣化し始める100k以下のモデルサイズで比較する。何れの条件でも、従来手法の単語誤り率を示す破線(+)よりも単語誤り率の上昇を抑制させながら大きくモデルを縮減することに成功している。
このように、この発明のモデル縮減方法によれば認識結果の変化を小さく抑制しつつ、モデル数を大幅に縮減することが可能である。なお、評価実験結果は、音声認識を例に説明を行ったが、この発明のモデル縮減方法は、線形モデルを使用する限りにおいて、他に機械翻訳や、発話分類をはじめ、画像認識、自然言語処理の分野でも利用することが可能である。
上記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (5)

  1. サンプル集合Sとクラス集合Cを入力として、サンプルsとクラスcの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルFを生成し、素性ベクトルFの要素fに対応する重要度q に、上記素性ベクトルFの要素fの二乗値f 2加算して、重要度q を更新する素性値加算部と、
    上記重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素aの二乗値a 2を乗じた値をモ
    デルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAを出力するモデルパラメータ乗算部と、
    上記ソート済みモデルパラメータAを入力として、その上位m個のモデルパラメータを出力するモデル縮減部と、
    を具備するモデル縮減装置。
  2. サンプル集合Sとクラス集合Cを入力として、サンプルsとクラスcの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルFを生成し、素性ベクトルFの要素fに対応する重要度q に、上記素性ベクトルFの要素fの二乗値f 2加算して、重要度q を更新する素性値加算部と、
    上記重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素aの二乗値a 2を乗じた値をモ
    デルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAと、上記重要度を大きさの順番に並べたソート済み重要度Qを出力するモデルパラメータ乗算部と、
    上記ソート済みモデルパラメータAと上記ソート済み重要度Qを入力として、上位から1〜m番目のm個のモデルパラメータa1〜amを、m+1番目の重要度q m+1とi番目の重要度q の比で補正して出力するモデル縮減部と、
    を具備するモデル縮減装置。
  3. サンプル集合Sとクラス集合Cを入力として、サンプルsとクラスcの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルFを生成し、素性ベクトルFの要素fに対応する重要度q に、上記素性ベクトルFの要素fの二乗値f 2加算して、重要度q を更新する素性値加算過程と、
    上記重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素aの二乗値a 2を乗じた値をモ
    デルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAを出力するモデルパラメータ乗算過程と、
    上記ソート済みモデルパラメータAを入力として、その上位m個のモデルパラメータを出力するモデル縮減過程と、
    を備えるモデル縮減方法。
  4. サンプル集合Sとクラス集合Cを入力として、サンプルsとクラスcの全ての組み合わせについて、素性変換ルールに基づいて素性ベクトルFを生成し、素性ベクトルFの要素fに対応する重要度q に、上記素性ベクトルFの要素fの二乗値f 2加算して、重要度q を更新する素性値加算過程と、
    上記重要度qと外部から入力されるモデルパラメータAの要素aを入力として、当該重要度qに、対応するモデルパラメータAの要素aの二乗値a 2を乗じた値をモ
    デルパラメータの要素の重要度とし、その重要度の大きさの順番にモデルパラメータを並べ替えたソート済みモデルパラメータAと、上記重要度を大きさの順番に並べたソート済み重要度Qを出力するモデルパラメータ乗算過程と、
    上記ソート済みモデルパラメータAと上記ソート済み重要度Qを入力として、上位から1〜m番目のm個のモデルパラメータa1〜amを、m+1番目の重要度q m+1とi番目の重要度q の比で補正して出力するモデル縮減過程と、
    を備えるモデル縮減方法。
  5. 請求項1又は2に記載したモデル縮減装置としてコンピュータを機能させるためのプログラム。
JP2011140449A 2011-06-24 2011-06-24 モデル縮減装置とその方法とプログラム Active JP5780516B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011140449A JP5780516B2 (ja) 2011-06-24 2011-06-24 モデル縮減装置とその方法とプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011140449A JP5780516B2 (ja) 2011-06-24 2011-06-24 モデル縮減装置とその方法とプログラム

Publications (2)

Publication Number Publication Date
JP2013008199A JP2013008199A (ja) 2013-01-10
JP5780516B2 true JP5780516B2 (ja) 2015-09-16

Family

ID=47675500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011140449A Active JP5780516B2 (ja) 2011-06-24 2011-06-24 モデル縮減装置とその方法とプログラム

Country Status (1)

Country Link
JP (1) JP5780516B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110991643B (zh) * 2019-12-25 2024-01-30 北京奇艺世纪科技有限公司 一种模型部署方法、装置、电子设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5268825B2 (ja) * 2009-08-18 2013-08-21 日本電信電話株式会社 モデルパラメータ推定装置、方法及びプログラム

Also Published As

Publication number Publication date
JP2013008199A (ja) 2013-01-10

Similar Documents

Publication Publication Date Title
US20200327883A1 (en) Modeling method for speech recognition, apparatus and device
US7707028B2 (en) Clustering system, clustering method, clustering program and attribute estimation system using clustering system
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
KR102101044B1 (ko) 텍스트 투 스피치 및 시맨틱스에 기초한 오디오 인적 상호 증명 기법
US8504367B2 (en) Speech retrieval apparatus and speech retrieval method
JP3768205B2 (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
JP6832501B2 (ja) 意味生成方法、意味生成装置及びプログラム
CN108475262A (zh) 用于文本处理的电子设备和方法
JP2015094848A (ja) 情報処理装置、情報処理方法、およびプログラム
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
JP5975938B2 (ja) 音声認識装置、音声認識方法及びプログラム
CN117494815A (zh) 面向档案的可信大语言模型训练、推理方法和装置
CN113836894A (zh) 多维度英语作文评分方法、装置及可读存储介质
US20100296728A1 (en) Discrimination Apparatus, Method of Discrimination, and Computer Program
JP6082657B2 (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
WO2020162190A1 (ja) 音響モデル学習装置、音響モデル学習方法、プログラム
JP6605997B2 (ja) 学習装置、学習方法及びプログラム
JP5780516B2 (ja) モデル縮減装置とその方法とプログラム
JP5555542B2 (ja) 自動単語対応付け装置とその方法とプログラム
JP6852167B2 (ja) コンフュージョンネットワーク分散表現生成装置、コンフュージョンネットワーク分類装置、コンフュージョンネットワーク分散表現生成方法、コンフュージョンネットワーク分類方法、プログラム
CN114357152A (zh) 信息处理方法、装置、计算机可读存储介质和计算机设备
JP5860439B2 (ja) 言語モデル作成装置とその方法、そのプログラムと記録媒体
JP5610304B2 (ja) モデルパラメータ配列装置とその方法とプログラム
JP6728083B2 (ja) 中間特徴量計算装置、音響モデル学習装置、音声認識装置、中間特徴量計算方法、音響モデル学習方法、音声認識方法、プログラム
CN111666770A (zh) 一种语义匹配方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20131011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150707

R150 Certificate of patent or registration of utility model

Ref document number: 5780516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250