JP5951562B2 - 有限状態トランスデューサの構造推定装置、方法、プログラム - Google Patents
有限状態トランスデューサの構造推定装置、方法、プログラム Download PDFInfo
- Publication number
- JP5951562B2 JP5951562B2 JP2013167484A JP2013167484A JP5951562B2 JP 5951562 B2 JP5951562 B2 JP 5951562B2 JP 2013167484 A JP2013167484 A JP 2013167484A JP 2013167484 A JP2013167484 A JP 2013167484A JP 5951562 B2 JP5951562 B2 JP 5951562B2
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- state
- symbol
- output
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
WFSTは数学的には7つの集合(Q*,X*,Y*,K*,I*,F*,A*)によって定義される。
Q*は状態集合と呼ばれる集合である。
X*は入力シンボル集合と呼ばれる集合であり、入力系列内で取り得る全要素を網羅する集合である。
Y*は出力シンボル集合と呼ばれる集合であり、出力系列内で取り得る全要素を網羅する集合である。
(具体例:英日翻訳を表現するWFSTであればX*は全英単語集合、Y*は全日本語単語集合であり、英語の読み推定WFSTであればX*はアルファベットの集合、Y*は英語音素の集合となる。)
K*は重み集合と呼ばれる集合であり、演算子(×),(+)を用いて半環を構成することができることが要請される(以降、和の単位元を0-、積の単位元を1-と書く)。
I*は初期状態集合と呼ばれる集合であり、Q*の部分集合I*⊂Q*である。
F*は終了状態集合と呼ばれる集合であり、Q*×K*の部分集合F*⊂(Q*×K*)である。ここで記号×は集合の直積操作を表わす。
A*はアーク集合と呼ばれる集合で(Q*×X*~×Y*~×Q*×K*)の部分集合である。すなわち、A*⊂(Q*×X*~×Y*~×Q*×K*)。ここでX*~およびY*~はそれぞれX*~=X*∪{ε}およびY*~=Y*∪{ε}で定義され、それぞれのシンボル集合に無為を表すシンボルεを加えたものである。
A*={(1,a,ε,2,0.5),(2,b,ε,3,1-),(3,ε,x,1,0.5),(3,c,y,1,0.5)}
同様に、状態2はアーク(2,b,ε,3,1-)のみを持ち、次の時刻で到達できる状態は必ず状態3であり、その遷移の間にはbを読み込み何も出力しない。状態3は複数のアーク(3,ε,x,1,0.5),(3,c,y,1,0.5)を持つ。これは「状態3から何も入力せずに"x"を出力して状態1に至る」確率が0.5であり、「状態3から"c"を読み込んで"y"を出力して状態1に至る」確率が0.5であるということを表わしている。
(ア)何も遷移せずに終了した場合:
P(x=={};y=={})=0.5
(イ)a:ε→ b:ε→ε:xと遷移した場合:
P(x=={a,b};y=={x})=0.5×1-×0.5×0.5=0.125
(ウ)a:ε→ b:ε→ c:yと遷移した場合:
P(x=={a,b,c};y=={y})=0.5×1-×0.5×0.5=0.125
(エ)a:ε→ b:ε→ε:x → a:ε→ b:ε→ c:yと遷移した場合:
P(x=={a,b,ab,c};y=={x,y})=0.5×1-×0.5×0.5×0.5×1-×0.5×0.5=0.016525
(A)専門家がWFSTを直接設計することによってそれを得る。
(B)WFSTに等価に変換できる統計モデル(HMMやN-gram)の統計的推論を用いて、変換処理の入出力例から学習することにそれをよって得る。
入出力例(以降、学習データという)から自動でWFSTの構造を推定する手法について述べる。従来は直接にWFSTを推定する手法が存在しなかったため、Joint Sequence Modelに基づく推定手法では、Joint Sequence Modelと呼ばれる統計モデルを先に推定した後にそれをWFST形式に変換する。他にも様々なWFSTの作成法があるが、既存の学習データから推論するための手法は全て、このJoint Sequence Modelに基づく推定方法と同様、別の統計モデルの推定アルゴリズムを経由したものとなる。
A*={S[z″,z′],x,y,S[z′,z],P(z|z′,z″) | ∀(x,y)=z∈V*, ∀z′∈V*, ∀z″∈V*}
アークと状態の構造が決まった上で、重みパラメータのみを調整する試みは、以前から広く行なわれてきた。例えば、非特許文献1ではWFSTの重みを最適に調整する手法を提供している。このような試みは全て、WFST中にアークが何個、どの状態からどの状態に向かって存在しているかが定まった上での最適化であり、構造を最適化する枠組みとは異なる。
また、既述の(B)の方法では、学習によってWFSTを得ることのメリットがあるが、構造に関しては変換元の統計モデルの形をそのまま受け継ぐため、構造の意味で変換の処理に適した形になっているとは言いがたい。
(なお、WFSTの「構造最適化」という言葉は、与えられたWFSTをより小さくする「最小化」と呼ばれる処理や、計算機上での扱いを容易にするための「決定化」と呼ばれる処理の総称として利用されることがあるが、本発明はそれらとは関係がない。これらの技術はなんらかの別の手法でWFSTを得た後にそれらを良くする方法であって、入出力の例からWFSTを直接構築する方法ではない)
P(ps,k,is,k,os,k,qs,k|αs,Gs)=1(ps,k=s)・Fs(is,k,os,k,qs,k;αs,Gs)
と表し、Nを2以上の予め定められた整数とし、nを1≦n≦Nを満たす整数とし、x= nをn番目の入力系列とし、y= nをn番目の出力系列とし、n番目の入力系列x= nと出力系列y= nとのペアに対応する、有限状態トランスデューサ上の1番目の状態からJn番目の状態までをつなぐ経路を上記(s,k)の系列としてπ= n={(sn,1,kn,1),(sn,2,kn,2),…,(sn,j,kn,j),…,(sn,Jn,kn,Jn)}のように表わすとし、I={is,k|∀s,∀k}とし、O={os,k|∀s,∀k}とし、Q={qs,k|∀s,∀k}とし、I*を1番目の状態になりえる状態の集合とし、f(sn,Jn)を状態sn,Jnに関連付けられている終了状態の重みとして(ただし、状態sn,Jnが終了状態でない場合はf(sn,Jn)=0とする)、n番目の入力系列x= nと出力系列y= nとのペアに対応する経路π= nが表われる確率を、
と表し、経路π= nに対応するn番目の入力系列x= nと出力系列y= nを、シンボル系列から無為を表すシンボルεを取り除くオペレータR[・]を用いて、
と表す、有限状態トランスデューサによるシンボル系列生成モデルを用いて、N個の入力系列と出力系列とを用いて上記シンボル系列生成モデルを学習することによって、有限状態トランスデューサの構造を推定する。
Gs(i,o,q)=G(IO) s(i,o)・G(ST) s(q)
と表すことができる(ただし、G(IO) sは基底測度G(IO) 0と集中度パラメータβ0で定まるディリクレ過程DP(β0,G(IO) 0)からサンプルされた離散確率分布であり、G(ST) sは基底測度G(ST) 0と集中度パラメータγ0で定まるディリクレ過程DP(γ0,G(ST) 0)からサンプルされた離散確率分布である)。
<WFSTの生成プロセス>
本発明はノンパラメトリック・ベイズ理論に基づくWFSTの生成プロセスを通して、データを観測した上でWFSTが従う確率過程をシミュレーションすることによって、適切なWFSTを得る。
WFSTの生成確率過程を考えるにあたり、アークの表現を少し変更する。これまでアークは重みwを含む五つ組(p,i,o,q,w) (ここでpは前状態、iは入力シンボル、oは出力シンボル、qは次状態) として表わしてきたが、wはそのアークを用いて実際にデータが変換される確率であるとも考えることができるので、wに関しては省略し、四つ組(ps,k,is,k,os,k,qs,k)の出現確率を直接考えてもよい(実際のws,kは学習データで(s,k)に対応するアークによる変換が何度使われたかをカウントすることによって推定できる)。なお、以降、アークを示す変数、すなわち前状態ps,k、入力シンボルis,k、出力シンボルos,k、次状態qs,kはどの状態を前状態として持つかを示す添字sとその状態から出ているアーク全てに付与した通し番号kを添字として利用することで区別することとする。
P(ps,k,is,k,os,k,qs,k|αs,Gs)=1(ps,k=s)・Fs(is,k,os,k,qs,k;αs,Gs) (3)
P(Fs|αs,Gs)=DP(Fs;αs,Gs) (4)
Gs(i,o,q)=G(IO) s(i,o)・G(ST) s(q) (5)
P(G(IO) s|β0,G(IO) 0)=DP(G(IO) s;β0,G(IO) 0) (6)
P(G(ST) s|γ0,G(ST) 0)=DP(G(ST) s;γ0,G(ST) 0) (7)
P(αs)=Gam(αs;a0,b0) (8)
全変数が上述の確率的関係に従うと考えた時、学習データZ*が観測された際のアーク構造を表わす変数の事後分布P(I,O,Q|Z*)を計算することによって、学習データZ*を変換するのに用いることができるWFSTを推定することができる。本発明は前述のモデルに従って、構造変数事後分布P(I,O,Q|Z*)を近似計算する何らかの手法によってWFST構造を推定する技術全般に関するものであるが、ここでは実現法の一例として、マルコフ連鎖モンテカルロ法のアルゴリズムである近似Gibbs SamplingによるWFSTの推論について説明する。近似Gibbs Samplingによる手法では、P(I,O,Q|Z*)を直接計算するのではなく、P(I,O,Q|Z*)に従うサンプルを複数個生成し、それらを併合するか、または単に一つだけ抽出するかによって適切なWFSTを得る。
(参考文献1)M. West, "Hyperparameter estimation in Dirichlet process mixture models" (インターネット〈URL: http://www.stat.duke.edu/~mw/.downloads/DP.learnalpha.pdf〉[平成25年8月7日検索])
(参考文献2)Sethuraman, J., A constructive definition of Dirichlet priors, Statistica Sinica, 4, 639-650, 1994.
P(G(IO) s|I,O,β0,G(IO) 0)=Dir(η=) (13)
ηi′,o′=β0G(IO) 0(i′,o′)+c(IO) i′,o′ (14)
(参考文献3)A. Gelman, J. B. Carlin, H. S. Stern, D.B. Rubin, “Bayesian Data Analysis, Second Edition,” Chapman and Hall, p. 582, 2003.
(参考文献4)Aldous, D., Exchangeability and Related Topics, Ecole dete de probabilites de Saint-Flour, XIII, 1983, pp.1-198.
(参考文献5)E. B. Fox, E. B. Sudderth, M. I. Jordan, A. S. Willsky,“A Sticky HDP-HMM with Application to Speaker Diarization,” The Annals of Applied Statistics, Vol. 5, No. 2A, pp. 1020-1056, 2011.
上述した理論を実現するための構造推定装置の機能構成図の例を図2に、構造推定装置における構造推定処理の処理フローを図3に示す。ここでは図3の処理フローのステップ毎に構造推定装置の動作例を示す。構造推定装置は、N個の入力系列と出力系列とを用いて上述のシンボル系列生成モデルを学習することによって、有限状態トランスデューサの構造を推定する推定部を含むが、近似Gibbs Samplingによって推定を行う推定部は、図2に示すように、初期WFST格納部10A、ハイパーパラメータ格納部10B、パス格納部10C、事前分布格納部10D、学習データ格納部10E、初期パス決定部11、乱数発生部12、事前分布計算部13、WFST構築部14、WFST合成部15、パスサンプル部16を含む。
WFST初期化ステップでは、初期状態のWFST構造の推定値が特定される。例えば、初期状態のWFST構造の推定値を、入出力シンボル状態基底測度からランダムにサンプリングして作成してもよいし、あるいは、一状態WFST(状態1しか持たないWFST)を考え、アーク集合をA*={(1,i′,o′,1,1-)|∀i′∈X*~,∀o′∈Y*~}としたWFSTを初期状態のWFST構造としてもよい。また、従来技術のように、他の装置によって他の確率モデルの推定結果から変換して得られた構造を初期状態のWFST構造とみなしてもよい。初期状態のWFST構造の推定値は、初期WFST格納部10Aに記憶される。
また、ハイパーパラメータ初期化ステップでは、他の装置で推定した結果や専門家が調整した結果として得られるハイパーパラメータがハイパーパラメータ格納部10Bに記憶される。
これらのステップは初期化処理なので、図2では該当処理を行なう構成要素を図示していない。この例では、初期WFST格納部10Aとハイパーパラメータ格納部10Bの各データはそれぞれ他の装置によって得られたデータを用いるとする。
パス初期化ステップでは、初期パス決定部11が、各入出力系列x= n,y= nが初期WFSTのどの経路で変換されているかを決定し、それを初期値とする。例えば、初期パス決定部11が、この経路を、乱数発生部12が発生した乱数を用いてランダムに求めてもよいし、初期パス決定部11が、他の装置で計算したものを利用するとしてもよい。この処理の後、パス格納部10Cには学習データ格納部10Eに格納されている入出力例x= n,y= nと同数、すなわちN個のパスπ= nが格納されることになる。つまり、この処理によって、パス格納部10Cのデータが初期化される。
乱数発生部12が発生させた乱数を元に、ランダムに1からN(Nは2以上の予め定められた整数)の自然数乱数を生成する。選択された自然数nは、事前分布計算部13、WFST構築部14、WFST合成部15、パスサンプル部16に供給される。
事前分布サンプリングステップでは、事前分布計算部13が、パス格納部10Cおよびハイパーパラメータ格納部10Bに格納されている情報と、乱数発生部12によって発生された乱数を用いて、以下のサンプリングを行なった結果を事前分布格納部10Dに格納する。
・式(11)で示される確率分布関数に基づくアーク集中度のサンプリング
・式(12)で示される確率分布関数に基づく状態基底測度のサンプリング
・式(13)で示される確率分布関数に基づく入出力シンボル基底測度のサンプリング
WFST構築ステップでは、WFST構築部14が、パス格納部10Cに格納されているパスと、事前分布格納部10Dに格納された事前分布と、乱数発生部12によって発生された乱数を用いて、式(15)の確率分布を表現するWFST[T(¬n)]を構築する。この計算は実際に全通りを計算することによって行なってもよいし、後段のWFST合成ステップS6で必要になる度にWFST構築部14がWFST[T(¬n)]の必要な部分のみを構築するという方法をとってもよい。
WFST合成ステップでは、WFST合成部15が、WFST構築ステップによって構築されたWFSTと学習データ格納部10Eに格納されているn番目の入出力系列をWFST合成アルゴリズムによって合成することによって、取り得る全てのパスが列挙されたWFST[x=(・)T(¬n)(・)y=]を得る。
パスサンプリングステップでは、パスサンプル部16が、WFST合成ステップの結果として得られたWFST[x=(・)T(¬n)(・)y=]の経路を前向き後ろ向きアルゴリズム(Forward-Backward Algorithm)に基づいてサンプリングする。サンプリングの結果はステップS3で選ばれたnに対応するパスの更新値として、パス格納部10Cに格納されているパスを更新する。
図示しない制御部は、パス格納部10Cに格納されているパスが長期間変わらなかった場合や、十分な回数が繰り返された場合(例えば、十分に大きな値の閾値を予め定めておき、ステップS8の処理が当該閾値に達したか否かを判定する)、もしくは補助的な外部装置を用いて収束性を推定した結果によって収束したと判定された場合に、ステップS3の処理への遷移を止め、次のステップS9の処理を実行するように制御する。そうでない場合は再度ステップS3以降の処理が繰り返される。
最終的な構造推定装置の結果は、WFST構築部14がステップS5の処理を再度実行することによって得られる。ここでのステップS5の処理を行なう際、q(¬n)(sn,j,kn,j)を計算するためのnとしてダミーの値(つまり、nは集合{1,…,N}に属さない整数で例えばn=0とする)を与えることによって、全ての学習データの変換においてアークを通った回数に比例した確率値(q(¬n)(sn,j,kn,j))を重みとして算出できる。またアーク集中度αsを0とすることによって、実際に学習データの変換に利用されなかったアークの生成を抑えることができる。なお、後述の検証実験ではこのようにして得た最終WFSTで評価を行なった。
本発明による構造推定装置の有効性を検証するため、データを生成したWFSTの復元と英単語の読み推定を行なった。
WFSTの復元においては、図4(a)で示されるWFSTをランダムに状態遷移することで100個の入出力系列を得た。こうして得た100個の入出力系列から、本来これらを生成したWFST(図4(a))を復元できるかを評価する。
この実験では、真の状態数は既知であるとし、本発明による構造推定装置によって、どのようなアークを持つWFSTが生成されるかを検証した。結果として得られたWFSTは図4(b)となった。図4(b)のWFSTと図4(a)のWFSTは確率値に少し変動が見られるものの、ほぼ等価である。
英単語の読み推定実験では、英単語の文字列と対応する音素列を10006単語分記述した辞書を用いて、文字の系列と英語音素の系列の間の関係を示すWFSTを推定した。得られたWFSTを用いて、辞書に入っていない単語の読みを推定し、正解と比較することで音素エラー率を評価した結果を図5に示す。図中のJoint sequence modelとなっているものは先述した既存技術のものであり、HDP-WFSTが本発明の装置で作成されたWFSTである。図より、本発明で得られたWFSTのほうが、小さいパラメータ数でより音素エラー率の低いWFSTとなっていることがわかる。
上述の実施例に関わる構造推定装置は、CPU(Central Processing Unit)〔キャッシュメモリなどを備えていてもよい〕、メモリであるRAM(Random Access Memory)やROM(Read Only Memory)と、ハードディスクである外部記憶装置、並びにこれらのCPUやDSP、RAMやROM、外部記憶装置間のデータのやり取りが可能なように接続するバスなどを備えている。また必要に応じて、構造推定装置に、CD−ROMなどの記憶媒体を読み書きできる装置(ドライブ)などを設けるとしてもよい。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
Claims (7)
- 与えられた入力シンボルの系列(以下、入力系列という)と出力シンボルの系列(以下、出力系列という)を用いた機械学習によって有限状態トランスデューサの構造を推定する装置であって、
有限状態トランスデューサのアークを(ps,k,is,k,os,k,qs,k)として(ただし、ps,k:遷移元の状態、is,k:入力シンボル、os,k:出力シンボル、qs,k:遷移先の状態、(s,k):アークを示す変数、s:遷移元の状態を特定するための識別子、k:識別子sで特定される遷移元の状態から出ているアーク全てに付与した通し番号)、
(ps,k,is,k,os,k,qs,k)の事前確率を、
基底測度Gsと集中度パラメータαsで定まるディリクレ過程DP(αs,Gs)からサンプルされた離散確率分布であるFs(is,k,os,k,qs,k)と、条件Cが真の時に1を出力しそうでない時に0を出力する指示関数1(C)とを用いて、
P(ps,k,is,k,os,k,qs,k|αs,Gs)=1(ps,k=s)・Fs(is,k,os,k,qs,k;αs,Gs)
と表し、
Nを2以上の予め定められた整数とし、nを1≦n≦Nを満たす整数とし、x= nをn番目の入力系列とし、y= nをn番目の出力系列とし、n番目の入力系列x= nと出力系列y= nとのペアに対応する、有限状態トランスデューサ上の1番目の状態からJn番目の状態までをつなぐ経路を上記(s,k)の系列としてπ= n={(sn,1,kn,1),(sn,2,kn,2),…,(sn,j,kn,j),…,(sn,Jn,kn,Jn)}のように表わすとし、I={is,k|∀s,∀k}とし、O={os,k|∀s,∀k}とし、Q={qs,k|∀s,∀k}とし、I*を1番目の状態になりえる状態の集合とし、f(sn,Jn)を状態sn,Jnに関連付けられている終了状態の重みとして(ただし、状態sn,Jnが終了状態でない場合はf(sn,Jn)=0とする)、
n番目の入力系列x= nと出力系列y= nとのペアに対応する経路π= nが表われる確率を、
と表し、
経路π= nに対応するn番目の入力系列x= nと出力系列y= nを、シンボル系列から無為を表すシンボルεを取り除くオペレータR[・]を用いて、
と表す、有限状態トランスデューサによるシンボル系列生成モデルを用いて、
N個の入力系列および出力系列を用いて上記シンボル系列生成モデルを学習することによって、有限状態トランスデューサの構造を推定する推定部
を含む有限状態トランスデューサの構造推定装置。 - 請求項1に記載の有限状態トランスデューサの構造推定装置であって、
入力シンボルiと出力シンボルoと遷移先の状態qを確率変数とする上記基底測度Gsを、入力シンボルiと出力シンボルoを確率変数とする基底測度G(IO) sと遷移先の状態qを確率変数とする基底測度G(ST) sとを用いて、
Gs(i,o,q)=G(IO) s(i,o)・G(ST) s(q)
と表し、ただし、G(IO) sは基底測度G(IO) 0と集中度パラメータβ0で定まるディリクレ過程DP(β0,G(IO) 0)からサンプルされた離散確率分布であり、G(ST) sは基底測度G(ST) 0と集中度パラメータγ0で定まるディリクレ過程DP(γ0,G(ST) 0)からサンプルされた離散確率分布である、
とすることを特徴とする有限状態トランスデューサの構造推定装置。 - 請求項1または請求項2に記載の有限状態トランスデューサの構造推定装置であって、
集中度パラメータαsは、ガンマ分布Gam(αs;a0,b0)に従う確率変数である、ただし、a0はガンマ分布の形状パラメータであり、b0はガンマ分布のスケールパラメータである、
ことを特徴とする有限状態トランスデューサの構造推定装置。 - 請求項1から請求項3のいずれかに記載の有限状態トランスデューサの構造推定装置であって、
N個の入力系列および出力系列を用いて、入力系列から対応する出力系列への全ての変換においてアークを通った累積回数に比例する確率として重みを算出する
ことを特徴とする有限状態トランスデューサの構造推定装置。 - 請求項1から請求項4のいずれかに記載の有限状態トランスデューサの構造推定装置であって、
上記推定部は、マルコフ連鎖モンテカルロ法または統計的モデル推定法によって、上記シンボル系列生成モデルを学習する
ことを特徴とする有限状態トランスデューサの構造推定装置。 - 与えられた入力シンボルの系列(以下、入力系列という)と出力シンボルの系列(以下、出力系列という)を用いた機械学習によって有限状態トランスデューサの構造を推定する方法であって、
有限状態トランスデューサのアークを(ps,k,is,k,os,k,qs,k)として(ただし、ps,k:遷移元の状態、is,k:入力シンボル、os,k:出力シンボル、qs,k:遷移先の状態、(s,k):アークを示す変数、s:遷移元の状態を特定するための識別子、k:識別子sで特定される遷移元の状態から出ているアーク全てに付与した通し番号)、
(ps,k,is,k,os,k,qs,k)の事前確率を、
基底測度Gsと集中度パラメータαsで定まるディリクレ過程DP(αs,Gs)からサンプルされた離散確率分布であるFs(is,k,os,k,qs,k)と、条件Cが真の時に1を出力しそうでない時に0を出力する指示関数1(C)とを用いて、
P(ps,k,is,k,os,k,qs,k|αs,Gs)=1(ps,k=s)・Fs(is,k,os,k,qs,k;αs,Gs)
と表し、
Nを2以上の予め定められた整数とし、nを1≦n≦Nを満たす整数とし、x= nをn番目の入力系列とし、y= nをn番目の出力系列とし、n番目の入力系列x= nと出力系列y= nとのペアに対応する、有限状態トランスデューサ上の1番目の状態からJn番目の状態までをつなぐ経路を上記(s,k)の系列としてπ= n={(sn,1,kn,1),(sn,2,kn,2),…,(sn,j,kn,j),…,(sn,Jn,kn,Jn)}のように表わすとし、I={is,k|∀s,∀k}とし、O={os,k|∀s,∀k}とし、Q={qs,k|∀s,∀k}とし、I*を1番目の状態になりえる状態の集合とし、f(sn,Jn)を状態sn,Jnに関連付けられている終了状態の重みとして(ただし、状態sn,Jnが終了状態でない場合はf(sn,Jn)=0とする)、
n番目の入力系列x= nと出力系列y= nとのペアに対応する経路π= nが表われる確率を、
と表し、
経路π= nに対応するn番目の入力系列x= nと出力系列y= nを、シンボル系列から無為を表すシンボルεを取り除くオペレータR[・]を用いて、
と表す、有限状態トランスデューサによるシンボル系列生成モデルを用いて、
推定部が、N個の入力系列および出力系列を用いて上記シンボル系列生成モデルを学習することによって、有限状態トランスデューサの構造を推定する推定ステップ
を有する有限状態トランスデューサの構造推定方法。 - コンピュータを、請求項1から請求項5のいずれかに記載の有限状態トランスデューサの構造推定装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167484A JP5951562B2 (ja) | 2013-08-12 | 2013-08-12 | 有限状態トランスデューサの構造推定装置、方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013167484A JP5951562B2 (ja) | 2013-08-12 | 2013-08-12 | 有限状態トランスデューサの構造推定装置、方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015036835A JP2015036835A (ja) | 2015-02-23 |
JP5951562B2 true JP5951562B2 (ja) | 2016-07-13 |
Family
ID=52687321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013167484A Active JP5951562B2 (ja) | 2013-08-12 | 2013-08-12 | 有限状態トランスデューサの構造推定装置、方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5951562B2 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001312294A (ja) * | 2000-05-02 | 2001-11-09 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 入力記号列を出力記号列に変換するトランスデューサの学習方法およびトランスデューサの学習プログラムを記憶したコンピュータ読み取り可能な記録媒体 |
JP5175325B2 (ja) * | 2010-11-24 | 2013-04-03 | 日本電信電話株式会社 | 音声認識用wfst作成装置とそれを用いた音声認識装置と、それらの方法とプログラムと記憶媒体 |
-
2013
- 2013-08-12 JP JP2013167484A patent/JP5951562B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015036835A (ja) | 2015-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tokdar et al. | Importance sampling: a review | |
CN108460028B (zh) | 将句子权重融入神经机器翻译的领域适应方法 | |
JP5705472B2 (ja) | 一般化された巡回セールスマン問題としてのフレーズ−ベースの統計的機械翻訳 | |
JPWO2018131259A1 (ja) | 文章評価装置、及び文章評価方法 | |
RU2638634C2 (ru) | Автоматическое обучение программы синтаксического и семантического анализа с использованием генетического алгоритма | |
JP2014157323A (ja) | 音声認識装置、音響モデル学習装置、その方法及びプログラム | |
JP6743942B2 (ja) | 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
JP7143677B2 (ja) | 単語符号化装置、解析装置、言語モデル学習装置、方法、及びプログラム | |
Cox et al. | Sparse bayesian estimation of parameters in linear-gaussian state-space models | |
Guo et al. | Gaussian mixture solvers for diffusion models | |
CN116894778A (zh) | 一种用于图像生成的扩散模型采样方法和装置 | |
JP5951562B2 (ja) | 有限状態トランスデューサの構造推定装置、方法、プログラム | |
JP6158105B2 (ja) | 言語モデル作成装置、音声認識装置、その方法及びプログラム | |
JP4328362B2 (ja) | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 | |
JP4950600B2 (ja) | 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 | |
KR102674639B1 (ko) | 신경망 모델 기반 암호문을 복호화하기 위한 전자 장치 및 전자 장치의 제어 방법 | |
JPWO2020235024A1 (ja) | 情報学習装置、情報処理装置、情報学習方法、情報処理方法及びプログラム | |
JP5486569B2 (ja) | パターン識別方法、パターン識別装置、およびプログラム | |
JP7120064B2 (ja) | 言語モデルスコア計算装置、言語モデル作成装置、それらの方法、プログラム、および記録媒体 | |
JP4537970B2 (ja) | 言語モデル作成装置、言語モデル作成方法、そのプログラムおよびその記録媒体 | |
JP6558856B2 (ja) | 形態素解析装置、モデル学習装置、及びプログラム | |
JP4405542B2 (ja) | 音素モデルをクラスタリングする装置、方法およびプログラム | |
JP2008209698A (ja) | 適応モデル学習方法とその装置、それを用いた音声認識用音響モデル作成方法とその装置、及び音響モデルを用いた音声認識方法とその装置、及びそれら装置のプログラムと、それらプログラムの記憶媒体 | |
JP2021135314A (ja) | 学習装置、音声認識装置、学習方法、および、学習プログラム | |
WO2023007848A1 (ja) | データ解析方法、データ解析装置、及び、データ解析プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160607 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5951562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |