JP2010250161A - 相違度利用型識別的学習装置とその方法、そのプログラム - Google Patents

相違度利用型識別的学習装置とその方法、そのプログラム Download PDF

Info

Publication number
JP2010250161A
JP2010250161A JP2009100865A JP2009100865A JP2010250161A JP 2010250161 A JP2010250161 A JP 2010250161A JP 2009100865 A JP2009100865 A JP 2009100865A JP 2009100865 A JP2009100865 A JP 2009100865A JP 2010250161 A JP2010250161 A JP 2010250161A
Authority
JP
Japan
Prior art keywords
value
function
recognition
positive example
example side
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009100865A
Other languages
English (en)
Other versions
JP5113797B2 (ja
Inventor
Atsushi Nakamura
篤 中村
Mcdermott Erik
エリック マクダモット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009100865A priority Critical patent/JP5113797B2/ja
Publication of JP2010250161A publication Critical patent/JP2010250161A/ja
Application granted granted Critical
Publication of JP5113797B2 publication Critical patent/JP5113797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】識別的学習法の計算量を削減する。
【解決手段】この発明の相違度利用型識別的学習装置は、モデルパラメータ記録部と、パターン認識部と、識別関数値生成部と、相違度算出部と、正例認識比較部と、モデルパラメータ最適化部とを具備する。相違度算出部が認識シンボル系列と正例との相違度を算出し、正例認識比較部がN個(N≧2)の減衰係数と識別関数値と相違度を入力としてそのN個の減衰係数を用いて正例側統合値及びその正例側統合値を補正するための統合値を求め、上記正例側統合値を補正した目的関数を出力する。
【選択図】図1

Description

この発明は、音声、静止画像、動画画像等の時間軸上や空間軸上、或いはその双方において動的に変化し、何らかの概念情報を表現する信号から何らかの方法によって抽出した特徴量系列から、予め定められた信号の種別を離散値で表現したシンボル系列に同定するパターン認識のための識別的学習方法とその装置と、プログラムに関する。
パターン認識誤りの多くは、特徴量空間上で隣接する他シンボルとの境界周辺に位置するパターンの混同に起因して発生する。これを抑止するためには、学習の段階で正解シンボルと隣接するシンボルの両方の学習データから情報を得、混同を減らすようにモデルパラメータを推定することが有効である。このようなシンボル間識別能力の向上を図る枠組みを総称して識別的学習(Discriminative training)と呼んでいる。
その識別的学習法の代表的な実現法のひとつである最小識別誤り(MCE:Minimum Classification Error、以降MCEと称する)学習を、シンボル系列を同定するパターン認識に適用する場合を例に説明する。図7にパターン認識の一種である連続単語音声認識にMCE学習法を適用した識別的学習装置700の機能構成例を示す。
識別的学習装置700は、音響モデル記録部70、正例言語モデル記録部71、正例識別関数値生成部73、正例用音声認識部74、負例識別関数値生成部75、音声認識部76、正例・負例比較部77、モデルパラメータ最適化部78を備える。音響モデル記録部70は、音響モデル701と言語モデル702とを含む。音響モデル701は、例えば連続単語音声認識に広く用いられる隠れマルコフモデル(HMM:Hidden Markov Model)で実現されるものである。言語モデル702は、単語N−gram確率モデルであり、単語の品詞属性情報や発音情報等を保持する単語発音辞書も含むものである。
正例言語モデル記録部71は、入力音声信号の特徴量系列Xに対応する正解言語シンボル系列である正例言語モデルを記録する。複数の特徴量系列Xによって特徴量系列群Z={X,X,X,…}が構成される。正例識別関数値生成部73は、特徴量系列Xとその正解R(X)を入力として、正例言語モデル記録部71を参照してその特徴量系列Xが所属する正解のシンボル系列R(X)(以降、正例シンボル系列R(X)と称する)に対応するか否かを評価するための識別関数値G(式(1))を出力する。
Figure 2010250161
ここでΛは、音響モデル記録部70に記録されたシンボルが持つモデルパラメータの集合である。
正例用音声認識部74は、正例シンボル系列R(X)と識別関数値Gを並び替えて正解と推定される音声認識結果を出力する。
音声認識部76は、特徴量系列Xとその正解R(X)を入力として、正例シンボル系列R(X)以外、つまり正解以外のシンボル系列S(以降、負例シンボル系列S(S≠R(X))と称する)を生成し、特徴量系列Xと負例シンボル系列S(S≠R(X))を負例識別関数値生成部75に出力する。
負例識別関数値生成部75は、音響モデル記録部70を参照して入力音声信号の特徴量系列Xが負例シンボル系列S(S≠R(X))に対応するか否かを評価するための識別関数値G ̄(式(2))を出力する。G ̄の表記は式中及び図中の表記が正しい。
Figure 2010250161
ここで、Wは想定するシンボル系列全体の集合である。PΛA(X|S)は、負例シン
ボル系列S(S≠R(X))を意図して発声された音声の特徴量系列がXであることの確率であり音響モデルを用いて計算される。PΛL(S)は、負例シンボル系列S(S≠R(X))の出現に関する事前確率であり言語モデルを用いて計算される。ηは、人為的に定めることの出来る事前確率PΛL(S)の効果を制御する係数であり、ηが大きいほど式(2)における事前確率PΛL(S)の寄与が大きくなる。
正例・負例比較部77は、正例シンボル系列を評価する識別関数値Gと負例シンボル系列Sを評価する識別関数値G ̄を入力とし、それら全ての識別関数値G ̄を用いて入力音声信号の特徴量系列Xについての誤識別の尺度である式(3)に示す誤識別尺度d(X;Λ)を出力する。
Figure 2010250161
この誤識別尺度d(X;Λ)の意味するところは、複数の負例シンボル系列S(S≠R(X))が与える識別関数値G ̄の内の最大値と、正例シンボル系列が与える識別関数値Gとの差であり、これが正値をとるならば少なくとも一つの負例シンボル系列S(S≠R(X))の識別関数値G ̄が正例シンボル系列R(X)の識別関数値Gを上回り、入力音声信号の特徴量Xは誤識別されたことになる。
誤識別尺度d(X;Λ)を、より一般的には式(4)で表すことが出来る。
Figure 2010250161
このように、式(4)右辺第二項において、より多くの負例シンボル系列の影響を考慮
した誤識別尺度を考えることも出来る。ここでh(・)は任意の単調増加可逆関数、h-1(・)はその逆関数である。連続単語音声認識においては、誤識別尺度d(X;Λ)を例えば式(5)で定義する。
Figure 2010250161
ここでφは正定数であり、φが大きいほど右辺第二項においてはS≠R(X)を満たす
exp(g(X,S;Λ)の中で最大値をとるものが支配的となる。
モデルパラメータ最適化部78は、誤識別尺度d(X;Λ)を入力として、誤識別尺度d(X;Λ)によって被る損失の大きさを表す損失関数loss(d)を定義し、その総損失が最小化されるモデルパラメータΛを見つける。損失関数としては、例えば式(6)に示す様な連続非線形なものが考えられる。
Figure 2010250161
式(6)の損失関数loss(d)は、d=0のシンボル系列境界周辺の狭い領域では誤識別尺度d(X;Λ)の値に応じた0〜1の間の値をとり、d<0では0に漸近し、d>0では1に漸近する値をとる。また、最も簡単な線形の損失関数loss(d)としては式(7)が考えられる。
Figure 2010250161
式(7)の損失関数の場合は、損失値は誤識別尺度d(X;Λ)と一致した値となる。
今、一団の特徴量系列群Z={X,X,X,…}と、その特徴量系列群Zの個々に対する正例シンボル系列{R(X),R(X),R(X),…}が学習データとして与えられると、特徴量系列群Z全体の総損失L(Z;Λ)は式(8)で得られる。
Figure 2010250161
総損失L(Z;Λ)を最適化手法によって最小化するモデルパラメータΛを見つけることが、識別的学習方法の識別能力を高めることに相当する。最適化手法としては、確率的効果(PD:Probabilistic Descent)法、Quickprop法等を利用することが出来る。
また、もう一つの識別学習の代表例である最大相互情報量(MMI:Maximum Mutual Information)学習法では、式(9)で定義されるMMI目的関数FMMI(Z;Λ)を最大にするモデルパラメータΛを最適化手法によって見つける。
Figure 2010250161
ここで、W′は想定するシンボル系列全体Wに対して連続単語音声認識をした結果とし
て得られたシンボル系列W′(W′⊂W)である。また、式(5)を変形すると式(10)で表せる。
Figure 2010250161
このように、fMMI(X,Λ)と、MCE学習法における誤識別尺度d(X;Λ)とは、ほぼ同じ手順によって計算出来る。特にMCE学習法において線形損失関数(式(6))を適用した場合の総損失の最小化は、MMI目的関数の最大化とほぼ同じ手順になる。
式(9)と式(10)の計算では、特徴量系列Xを連続単語音声認識した結果として得
られる複数の対立関係にある正例単語系列と負例単語系列が用いられる。識別的学習にお
いては、正例,負例の認識単語系列を十分多くの種類用いて、より多様な認識誤りを考慮
することが重要である。このため、多数の単語から成る単語系列群を単語のネットワーク
構造で効率よく表現出来る単語ラティス等を利用して式(9)及び式(10)の計算が行
われる。そして、正例単語系列を教師情報として利用して総損失が最小化されるようにモ
デルパラメータΛを最適化する。
[Juang & Katagiri 92] Biing-Hwang JUANG and Shigeru KATAGIRI; Discriminative Learning for Minimum Error Classification, IEEE, Trans. On SP., Vol. 40, No. 12, pp. 3043-3054 (1992). [Katagiri et al., 98] Shigeru KATAGIRI, Biing-Hwang JUANG and Chin-Hui LEE; Pattern Recognition Using a Family of Design Algorithms Based Upon the Generalized Probabilistic Descent Method, Proc. IEEE, Vol. 86, No. 11, pp. 2345-2373 (1998). 「McDermott & Katagiri, 97」 Erik MCDERMOTT and Shigeru KATAGIRI; String-Level MCE for Continuous Phoneme Recognition, Proc. Eurospeech97, Vol. 1, pp. 123-126 (1997). [McDermott et al., 07] E. McDermott, T. Hazen, J. Le Roux, A. Nakamura, and S. Katagiri: Discriminative training for large vocabulary speech recognition using Minimum Classification Error, IEEE Transactions on Audio, Speech and Language Processing, vol. 15, no. 1, pp. 203-223 (2007). [Macherey et al., 05] W. Macherey, L. Haferkamp, R.Schlueter, and H. Ney: Investigations on error minimizing training criteria for discriminative training in automatic speech recognition, in Proc. Interspeech’ 05 - Eurospeech, pp. 2133-2136 (2005).
従来の識別的学習法は、正例シンボル系列と負例シンボル系列とを、それぞれ別に計算して求め、それぞれの誤識別尺度を最小化するか又は、それぞれの識別関数値の差を最大化するシンボル系列を求めていた。そために次のような問題が生じる。第一に正例シンボル系列と負例シンボル系列のそれぞれの識別関数値を求める必要性から所要計算リソース量が大きいという問題がある。
第二に正例に準ずるシンボル系列の選定が恣意的、且つ手作業で行われていた問題がある。特徴量系列Xの正例シンボル系列R(X)と比較して、文意への影響がわずかである相違を持つ複数の負例シンボル系列{R′(X),R′(X),R′(X),…}も正例に準ずるものとして扱い正例についての知識量を大きくする。知識量を増やすことで学習データに含まれない特徴量系列に対してより頑健なモデルパラメータを生成する識別学習装置が実現できる。しかし、その複数の負例シンボル系列{R′(X),R′(X),R′(X),…}の選定は恣意的に行われていた。
この発明は、このような点に鑑みてなされたものであり、個々のシンボル系列に対する正例,負例の区別を、正例に対する相違度として一般化することで計算量を削減すると共に、正例に準ずるシンボル系列を客観的基準に基づいて自動的に目的関数に反映させ、正例に準ずるシンボル系列の選定を手動で行う必要の無い相違度利用型識別的学習装置と、その方法とプログラムを提供することを目的とする。
この発明の相違度利用型識別的学習装置は、モデルパラメータ記録部と、パターン認識部と、識別関数値生成部と、相違度算出部と、正例認識比較部と、モデルパラメータ最適化部とを具備する。モデルパラメータ記録部はモデルパラメータを記録する。パターン認識部は、学習データをパターン認識した認識シンボル系列を生成する。識別関数値生成部は、モデルパラメータ記録部を参照して認識シンボル系列が学習データの特徴量に対応するか否かを評価する識別関数値を出力する。相違度算出部は、認識シンボル系列と正例との相違度を算出する。正例認識比較部は、N個(N≧2)の減衰係数と識別関数値と相違度を入力とし、そのN個の減衰係数を用いて正例側統合値及びその正例側統合値を補正するための統合値を求め、上記正例側統合値を補正した目的関数を出力する。モデルパラメータ最適化部は、目的関数を用いて認識シンボル系列に対応するモデルパラメータを最適化する。
この発明の相違度利用型識別的学習装置によれば、相違度推定部が認識シンボル系列と正例との相違度を推定し、正例,負例の区別を、正例に対する相違度として一般化する。
そして、その相違度を用いた目的関数によってモデルパラメータを最適化する。よって、従来の識別的学習装置のように負例シンボル系列を生成するためのパターン認識処理を必要としない。また、負例シンボル系列の識別関数値を計算する必要も無くなるので所要計算リソース量を削減することが出来る。
また、正例と正例に準ずる認識シンボル系列を減衰係数によって自動的に重み付けして目的関数に反映するので、正例に準ずるシンボル系列の選定を恣意的、且つ手作業で行う必要が無くなる。
この発明の相違度利用型識別的学習装置100の機能構成例を示す図。 相違度利用型識別的学習装置100の動作フローを示す図。 最大相互情報量学習法による正例認識比較部14の機能構成例を示す図。 正例認識比較部14の動作フローを示す図。 最小識別誤り学習法による正例認識比較部50の機能構成例を示す図。 正例認識比較部50の動作フローを示す図。 従来の識別的学習装置の機能構成の一例を示す図。
この発明の相違度利用型識別的学習装置は、従来の識別的学習装置700の正例シンボル系列のパターン認識を行う正例側音声認識部74と正例識別関数値生成部73に相当する機能構成を必要としない点で新しい。この発明の実施例の説明をする前に、この発明の基本的な考えについて説明する。
〔基本的な考え〕
この発明の相違度利用型識別的学習方法は、各々の認識シンボル系列に対する正例、負
例の区別を、正例に対する相違度を用いて抽象化し、相違度を基準とした識別関数値の荷重和を用いて学習する方法である。
まず、二つの任意のシンボル系列VとSとの間の相違度を表す関数Δ(V,S)を導入する。関数Δ(V,S)の実現法としては、例えばVとSの間の編集距離等を用いることが出来る。また、VとSとが共通の特徴量系列Xに対応付けられている場合には、シンボル系列を成す各々のシンボルと特徴量系列を成す各々の特徴量との対応関係に基づく相違尺度(参考文献;J. Zheng and A. Stolcke: Improved Discriminative Training Using Phone Lattices, in Proc. Interspeech, pp. 2125-2128, (2005))等が利用できる。
正例シンボル系列R(X)と任意の認識シンボル系列S(S∈W′)との間の相違度Δ(R(X),S)は、認識シンボル系列S(S∈W′)の誤り尺度とみなすことが出来る。この相違度Δ(R(X),S)を利用して新たな目的関数F+(Z;Λ)を式(11)に示すように定義することが出来る。F+の+はこの発明で提案するものであることを意味する。
Figure 2010250161
+(X;Λ)の各項は、各認識シンボル系列S(S∈W′)に対応する識別関数値g(X,S;Λ)を任意の単調増加関数h(・)に通し、その値に正例との相違度Δ(R(X),S)と減衰係数σを乗じた値の指数関数値を乗ずるものである。つまり、指数減衰する値で荷重和をとったもので成り立っている。減衰係数σ,σを適切に設定することで、目的関数F+(Z;Λ)の最大化による識別的学習が行える。
例えば、減衰係数σを大きな値にすることにより、式(11)の右辺第一項は、相違度Δ(R(X),S)が小さい程大きな値となる。よって、相違度Δ(R(X),S)=0の正例と正例に準ずる相違度Δ(R(X),S)が極小さな認識シンボル系列S(S∈W′)についての識別関数値の影響が支配的となる。減衰係数σ=0とすると式(11)の右辺第二項の荷重値は全て1となり、認識シンボル系列群内(S∈W′)の全ての識別関数値が公平に扱われる。つまり、式(11)の右辺第一項の値は、正例若しくは正例に極近いシンボル系列の識別関数値の荷重和であり、右辺第二項はほとんどが負例のシンボル系列の識別関数値の累積となる。
このように、この発明によれば、一回のパターン認識で目的関数を生成することが可能である。よって、従来の方法よりも計算量を削減することが出来る。また、式(11)の第二式右辺第一項の指数減衰係数σによって、正例と正例に準ずる認識シンボル系列S(S∈W′)を相違度の大きさに応じて自動的に重み付けして目的関数に反映させることが出来る。その結果、従来の方法のように正例に準ずるシンボル系列の選定を手作業で行う必要がない。
以下、この発明の実施の形態を図面を参照して説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。
図1にこの発明の相違度利用型識別的学習装置100の機能構成例を示す。その動作フローを図2に示す。相違度利用型識別的学習装置100は、モデルパラメータ記録部12と、識別関数値生成部11と、パターン認識部10と、相違度算出部13と、正例認識比較部14と、モデルパラメータ最適化部15とを具備する。相違度利用型識別的学習装置100は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。
相違度利用型識別的学習装置100は、学習データの特徴量系列Xとその正解である正例シンボル系列R(X)を入力信号として、最適化したモデルパラメータΛを出力す
るものである。図1及び図3、図5の入力信号の表記は、多数の特徴量系列{X,X,X,…}、多数の正例シンボル系列{R(X),R(X),R(X),…}を、X及びR(X)と表記している。なお、本文中にはこの表記は用いない。
モデルパラメータ記録部12は、音響モデルと言語モデルとから成る認識対象シンボル系列に対応するモデルパラメータを記録する。パターン認識部10は、外部から入力される学習データの特徴量系列Xをパターン認識した認識シンボル系列Sを生成する(ステップS10)。識別関数値生成部11は、認識シンボル系列Sを入力としモデルパラメータ記録部12を参照して、その認識シンボル系列Sが学習データの特徴量系列Xに対応するか否かを評価する識別関数値g(X,S;Λ)を出力する(ステップS11)。
識別関数値g(X,S;Λ)は、パターン認識部10を介して正例認識比較部14に入力される。相違度算出部13は、学習データの特徴量系列Xに対応する正例シンボル系列R(X)と、認識シンボル系列Sを入力として、その間の相違度Δ(R(X,S))を算出する(ステップS13)。
正例認識比較部14は、予め定められたN個(N≧2)の減衰係数σ,σと上記識別関数値g(X,S;Λ)と相違度Δ(R(X,S))とを入力とし、N個の減衰係数を用いて正例側統合値及びその正例側統合値を補正するための統合値を求め、正例側統合値を補正した目的関数f(X;Λ)を出力する(ステップS14)。
モデルパラメータ最適化部15は、目的関数f(X;Λ)を用いて目的関数f(X;Λ)をより大きくする様にパラメータの集合Λ内の認識シンボル系列に対応するモデルパラメータを最適化する(ステップS15)。モデルパラメータ最適化部15は、目的関数f(X;Λ)の増分が予め定めた収束条件閾値よりも小さな値になるまでモデルパラメータを最適化する。
以上のように実施例1の相違度利用型識別的学習装置100は、従来の識別的学習装置700が必要とした正例側のパターン認識部(正例用音声認識部74)と正例識別関数値生成部73に相当する機能構成がない。パターン認識部10の1回のパターン認識動作で目的関数f(X;Λ)を生成する。したがって、従来の識別的学習装置700よりも計算量を削減することが出来る。
なお、実施例1のパターン認識部10、識別関数値生成部11、モデルパラメータ記録部12、モデルパラメータ最適化部15は、それぞれ従来の識別的学習装置700の音声認識部76、負例識別関数値生成部75、モデルパラメータ最適化部78に対応するものであり各々の動作も同じである。
相違度利用型識別的学習装置100は、相違度算出部13と正例認識比較部14の機能構成が新しい。以降の説明では、この新しい構成についてのみ説明を行う。なお、相違度利用型識別的学習装置100では、学習データの特徴量系列Xに対応する正解シンボル系列R(X)を入力する例で説明を行ったが、正解シンボル系列R(X)の入力が無くてもこの発明の相違度利用型識別的学習装置100は実現出来る。
〔変形例〕
図1に破線で、正解シンボル系列R(X)の入力を必要としない実施例1の変形例の相違度利用型識別的学習装置100′の機能構成例を示す。変形例は、相違度算出部13′の入力信号とその動作のみが異なる。相違度推定部13′は、学習データの特徴量系列Xとその特徴量系列Xをパターン認識した認識シンボル系列S(S∈W′)と識別関数値g(X,S;Λ)を入力として、認識シンボル系列S(S∈W′)と正例との相違度Δ(R(X,S))の推定値Δ^(S)を推定する。相違度の推定値Δ^(S)は、例えば、[Wessel et ai., 01]の方法により認識結果の確信度θ(S)を推定することで計算出来る。(参考文献:F. Wessel, R. Schiuter, K. Macherey, and H. Ney: Confidence Measures for Large Vocabulary Continuous Speech Recognition, IEEE Transactions on Speech and Audio Processing, vol. 9, no. 3, pp. 288-298 (2001))
確信度θ(S)とは、認識結果を正解として信頼できる度合いを表す尺度である。例えば、特徴量系列Xを連続パターン認識して得られた複数の認識シンボル系列S,S,S,…の内、Sの確信度を考える。もし識別関数値g(X,S,Λ)の値がg(X,S,Λ),(X,S,Λ),…との比較において突出して大きければ、Sが正解である確信度は大きいとみなすことが出来る。
逆にg(X,S,Λ),(X,S,Λ),…の多くが、g(X,S,Λ)の値と同程度の値を持つ場合は、Sが正解であることの確信度は小さくなる。この他、Sを構成する各シンボル毎に対応する部分特徴量系列の長さの妥当性や、Sを構成する各シンボルが同一シンボル系列内に共に存在することの妥当性も考慮して、Sが正解として信頼できる度合いを0〜1以下の数値θ(S)で表す。
と正例シンボル系列の相違度推定値Δ^(S)は、Sが正解として信頼できるほど、つまり数値θ(S)が1に近いほど0に近づく、Sが正解として信頼できないほど大きくなるように定める。この相違度推定値Δ^(S)は例えば式(12)で計算することが出来る。
Figure 2010250161
この相違度推定値Δ^(S)を用いることで、正例シンボル系列R(X)が明示的に与えられなくても識別的学習を実行することが可能である。従来の識別敵学習では、正例シンボル系列が与えられていなければ識別的学習を実行できない問題から、大量のデータの全てに正例シンボル系列を付与する必要があった。しかし、相違度推定値Δ^(S)を計算する相違度算出部13′を設けることで、手作業で正例シンボル系列を用意する必要が無くなる。
図3に、正例認識比較部14のより具体的な機能構成例を示して実施例1を更に詳しく説明する。図4のその動作フローを示す。図3はMMI学習法における目的関数f(X;Λ)の計算の実現例を示したものである。
正例認識比較部14は、識別関数平滑化・逆対数化手段140と、正例側荷重手段141と、認識側荷重手段142と、正例側統合・対数化手段143と、認識側統合・対数化手段144と、統合値比較手段145とを備える。なお、識別関数平滑化・逆対数化手段140と正例側荷重手段141と認識側荷重手段142とを、それぞれ一つずつ設ける例を示しているが、多数入力される認識シンボル系列S(S∈W′)にそれぞれ対応する各手段140,141,142を設けて識別関数値g(X,S;Λ)と相違度Δ(R(X),S)を同時に処理するようにしても良い。図3に示す例は、多数入力される認識シンボル系列S(S∈W′)を時間を分けて処理する方式の機能構成例である。
識別関数平滑化・逆対数化手段140は、識別関数平滑化値Aを式(13)で計算する(ステップS140)。
Figure 2010250161
識別関数平滑化値Aは、識別関数値g(X,S;Λ)に予め定められた正定数φを乗じた値の指数関数値である。
正例側荷重手段141は、正例側荷重値Bを式(14)で計算する(ステップS141)。
Figure 2010250161
正例側荷重値Bは、相違度Δ(R(X),S)に第1の減衰係数-σを乗じた値の指数関数値に、識別関数平滑化値Aを乗じた値である。
認識側荷重手段142は、認識側統合値Cを式(15)で計算する(ステップS142)。
Figure 2010250161
認識側荷重値Cは、相違度Δ(R(X),S)に第2の減衰係数-σを乗じた値の指数関数値に、識別関数平滑化値Aを乗じた値である。
正例側統合・対数化手段143は、正例側統合値Dを式(16)で計算する(ステップ
S143)。
Figure 2010250161
正例側統合値Dは、全ての認識シンボル系列S(S∈W′)に対する正例側荷重値Bの総和の対数関数値である。
認識側統合・対数化手段144は、認識側統合値Eを式(17)で計算する(ステップS144)。
Figure 2010250161
認識側統合値Eは、全ての認識シンボル系列S(S∈W′)に対応する認識側荷重値C
を累計した値の対数関数値であり、正例側統合値を補正するための統合値である。
統合値比較手段145は、正例側統合値Dと認識側統合値Cを入力として式(18)に示す目的関数f(X;Λ)を出力する(ステップS145)。
Figure 2010250161
式(18)において、例えば減衰係数σを十分大きくとり、σ=0として各種最適化手法によって最大化することで、従来のMMI学習法より小さい所要計算リソース量で従来のMMI学習法と同等の認識精度の向上が図れる。所要計算リソース量を削減する方法は実施例1の構成に限られない、他の方法を実施例2として説明する。
図5に実施例2の正例認識比較部50の機能構成例を示す。その動作フローを図6に示
す。正例認識比較部50は、識別関数平滑化・逆対数化手段140と、正例側荷重手段1
41と、正例側統合・対数化手段143と、負例側荷重手段242と、負例側統合・対数
化手段244と、統合値比較手段245とを備える。識別関数平滑化・逆対数化手段14
0と正例側荷重手段141と正例側統合・対数化手段143とは、実施例1の正例認識比
較部14と同じものであり、正例側統合・対数化手段143は正例側統合値D(式(16))を出力する。よって、この部分の説明は省略する。
負例側荷重手段242は、負例側統合値Kを式(19)で計算する(ステップS242)。
Figure 2010250161
負例側統合値Kは、相違度Δ(R(X),S)に第1の減衰係数σよりも小さな第2の減衰係数σを乗じた値の指数関数値に識別関数平滑化値Aを乗じた第1負例側荷重値と、第2減衰係数よりも大きな第3の減衰係数σを相違度Δ(R(X),S)に乗じた値の指数関数値に識別関数平滑化値Aを乗じた第2負例側荷重値とを計算し、第1負例側荷重値から第2負例側荷重値を減じた値を正例側統合値Dを補正するための統合値である負例側統合値として計算する。
負例側統合・対数化手段244は、負側統合値Lを式(20)で計算する(ステップS244)。
Figure 2010250161
負例側統合値Lは、全ての認識シンボル系列S(S∈W′)に対する負例側統合値Lの
総和の対数関数値である。
統合値比較手段245は、正例側統合値Dから負例側統合値Lを減じた識別尺度d(X;Λ)を式(21)で計算し、識別尺度d(X;Λ)を損失関数に通した目的関数loss(d(X;Λ))として出力する。損失関数は例えば上記した式(6)に示した様なものである。
Figure 2010250161
正例側統合値D内の減衰係数σを大きくとると共に、負例側統合値L内の減衰係数σ=0、例えばσ≒σとすれば、学習における対立シンボル系列として負例シンボル系列のみを用いることが出来る。つまり、減衰係数σ3を減衰係数σ1に近い値にすることにより、負例側シンボル系列から正例と正例に極近い負例シンボル系列を削除することが出来る。
このように正例認識比較部50を備えた相違度利用型識別的学習装置によれば、MCE
学習法より小さな所要計算リソース量でMCE学習法と同等の認識精度の向上が図れる。
〔評価実験〕
この発明の実施例1の相違度利用型識別的学習装置100を用いて、モデルパラメータ
を取得する実験を行った。実験は、日本語の学会講演約230時間分の音声を学習データ
として用いた。まず、既存技術である最大尤度学習法によって初期モデルを学習し、その
初期モデルをそのまま用いて連続単語音声認識装置を動作させた場合の単語誤り率は21.2%であった。
この21.2%に対して同じ学習データを用いて既存のMMI学習法によって得たモデ
ルパラメータを用いた場合の単語誤り率は18.6%であった。この単語誤り率を比較対象として、相違度利用型識別的学習装置100の第2の減衰係数σ=−4、第1の減衰係数σを1,2,3,4として得たモデルパラメータによる連続単語音声認識結果の単語誤り率を表1に示す。
Figure 2010250161
この発明の相違度利用型識別的学習装置100によるモデルパラメータで連続単語音声
認識装置を動作させた場合の単語誤り率は18.5%〜18.7%と、従来のMMI学習法による単語誤り率と同等の結果が得られた。なお、この発明の実施例2と従来のMCE学習法との比較実験は未実施であるが、MMI学習法の比較結果と同じように同水準の単語誤り率となると予測される。
以上説明した相違度利用型識別的学習装置は、例えば音声認識装置に利用することが可
能である。また、それ以外の用途として静止画像、動画画像等の時間軸上、空間軸上ある
いはその双方において変化し、何らかの概念情報を表現する特徴量系列をパターン認証対
象とする認識装置に適用することが可能である。具体例としては、手書き文字の画像情報
のパターン認識に用いることが出来る。
なお、正定数φ及び減衰係数σ〜σは正例認識比較部14,50に予め設定されている例で説明したが、これらの値を外部から与えるようにしても良い。また、上記方法及び装置において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
また、上記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (12)

  1. モデルパラメータを記録するモデルパラメータ記録部と、
    学習データの特徴量系列をパターン認識した認識シンボル系列を生成するパターン認識部と、
    上記モデルパラメータ記録部を参照して上記認識シンボル系列が上記学習データの特徴量系列に対応するか否かを評価する識別関数値を出力する識別関数値生成部と、
    上記認識シンボル系列と正例との相違度を算出する相違度算出部と、
    予め定められたN個(N≧2)の減衰係数と上記識別関数値と上記相違度とを入力とし、上記N個の減衰係数を用いて正例側統合値及びその正例側統合値を補正するための統合値を求め、上記正例側統合値を補正した目的関数を出力する正例認識比較部と、
    上記目的関数を用いて上記認識シンボル系列に対応する上記モデルパラメータを最適化するモデルパラメータ最適化部と、
    を具備する相違度利用型識別的学習装置。
  2. 請求項1の相違度利用型識別的学習装置において、
    上記正例認識比較部は2個の減衰係数を備え、
    上記正例認識比較部は、
    上記識別関数値に予め定められた正定数を乗じた値の指数関数値である識別関数平滑化値を求め、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて正例側荷重値とし、全ての認識シンボル系列に対する上記正例側荷重値の総和を任意の単調増加可逆関数に通して正例側統合値として求め、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて認識側荷重値とし、全ての認識シンボル系列に対する上記認識側荷重値の総和を任意の単調増加可逆関数に通して上記正例側統合値を補正するための統合値である認識側統合値を求め、
    上記正例統合値から上記認識側統合値を減じたものを目的関数として出力するものであることを特徴とする相違度利用型識別的学習装置。
  3. 請求項1又は2に記載の相違度利用型識別的学習装置において、
    上記正例認識比較部は、
    上記識別関数値に予め定められた正定数を乗じ、その値の指数関数値を識別関数平滑化値として計算する識別関数平滑化・逆対数化手段と、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた正例側荷重値を計算する正例側荷重手段と、
    全ての認識シンボル系列に対する上記正例側荷重値の総和の対数関数値を正例側統合値として計算する正例側統合・対数化手段と、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた認識側荷重値を計算する認識側荷重手段と、
    全ての認識シンボル系列に対応する上記認識側荷重値を累計した値の対数関数値を上記正例側統合値を補正するための統合値である上記認識側統合値として出力する認識側統合・対数化手段と、
    上記正例統合値から上記認識側統合値を減じたものを目的関数として出力する統合値比較手段と、
    を備えることを特徴とする相違度利用型識別的学習装置。
  4. 請求項1の相違度利用型識別的学習装置において、
    上記正例認識比較部は3個の減衰係数を備え、
    上記目的関数は、誤識別尺度を損失関数に通したものであり、
    上記正例認識比較部は、
    上記識別関数値に予め設定した正定数を乗じた値の指数関数値である識別関数平滑化値を求め、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて正例側荷重値とし、全ての認識シンボル系列に対する上記正例側荷重値の総和を任意の単調増加可逆関数に通して正例側統合値として求め、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた第1負例側荷重値と、第2減衰係数よりも大きな第3の減衰係数を上記相違度に乗じた値の指数関数値に上記識別関数平滑化値を乗じた第2負例側荷重値とを計算し、上記第1負例側荷重値から上記第2負例側荷重値を減じて負例側荷重値とし、全ての認識シンボル系列に対する上記負例側荷重値の総和を任意の単調増加可逆関数に通して上記正例側統合値を補正するための統合値である負例側統合値として求め、
    上記負例側統合値から上記正例側統合値を減じて上記識別尺度とするものであることを特徴とする相違度利用型識別的学習装置。
  5. 請求項1又は4に記載の相違度利用型識別的学習装置において、
    上記正例認識比較部は、
    上記識別関数値に予め定められた正定数を乗じ、その値の指数関数値を識別関数平滑化値として計算する識別関数平滑化・逆対数化手段と、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた正例側荷重値を計算する正例側荷重手段と、
    全ての認識シンボル系列に対する上記正例側荷重値の総和の対数関数値を正例側統合値として計算する正例側統合・対数化手段と、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑値を乗じた第1負例側荷重値と、第2減衰係数よりも大きな第3の減衰係数を上記相違度に乗じた値の指数関数値に上記識別関数平滑化値を乗じた第2負例側荷重値とを計算し、上記第1負例側荷重値から上記第2負例側荷重値を減じた値を計算する負例側荷重手段と、
    全ての認識シンボル系列に対応する上記負側荷重値を累計してその値の対数関数値を上記正例側統合値を補正するための統合値である負例側統合値として出力する負側統合・対数化手段と、
    上記負例統合値から上記正例側統合値を減じて上記識別尺度とし、その識別尺度を損失関数に通したものを目的関数として出力する統合値比較手段と、
    を備えることを特徴とする相違度利用型識別的学習装置。
  6. 請求項1乃至5の何れかに記載の相違度利用型識別的学習装置において、
    上記相違度算出部は、学習データの特徴量と上記認識シンボル系列と識別関数値とを入力として、上記相違度を、上記認識シンボル系列が正解として信頼できる度合いを表す尺度の確信度として推定した相違度推定値として出力するものであることを特徴とする相違度利用型識別的学習装置。
  7. パターン認識部が、学習データの特徴量系列をパターン認識した認識シンボル系列を生成するパターン認識過程と、
    識別関数値生成部が、モデルパラメータ記録部内のモデルパラメータを参照して上記認識シンボル系列が上記学習データの特徴量に対応するか否かを評価する識別関数値を出力する識別関数値生成過程と、
    相違度算出部が、上記認識シンボル系列と正例との相違度を算出する相違度算出過程と、
    正例認識比較部が、N個(N≧2)の減衰係数と上記識別関数値と上記相違度とを入力とし、上記N個の減衰係数を用いて正例側統合値及びその正例側統合値を補正するための統合値を求め、上記正例側統合値を補正した目的関数を出力する正例認識比較過程と、
    モデルパラメータ最適化部が、上記目的関数を用いて上記認識シンボル系列に対応する上記モデルパラメータを最適化するモデルパラメータ最適化過程と、
    を含み、
    上記正例認識比較過程は2個の減衰係数を備え、
    上記正例認識比較過程は、
    上記識別関数値に予め定められた正定数を乗じた値の指数関数値である識別関数平滑化値を求め、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて正例側荷重値とし、全ての認識シンボル系列に対する上記正例側荷重値の総和を任意の単調増加可逆関数に通して正例側統合値として求め、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて認識側荷重値とし、全ての認識シンボル系列に対する上記認識側荷重値の総和を任意の単調増加可逆関数に通して上記正例側統合値を補正するための統合値として認識側統合値として求め、
    上記正例統合値から上記認識側統合値を減じたものを目的関数として出力するものであることを特徴とする相違度利用型識別的学習方法。
  8. 請求項7の相違度利用型識別的学習方法において、
    上記正例認識比較過程は、
    識別関数平滑化・逆対数化手段が、上記識別関数値に正定数を乗じ、その値の指数関数値を識別関数平滑化値として計算する識別関数平滑化・逆対数化ステップと、
    正例側荷重手段が、上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた正例側荷重値を計算する正例側荷重ステップと、
    正例側統合・対数化手段が、全ての認識シンボル系列に対する上記正例側荷重値の総和の対数関数値を正例側統合値として計算する正例側統合・対数化ステップと、
    認識側荷重手段が、上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた認識側荷重値を計算する認識側荷重ステップと、
    認識側統合・対数化手段が、全ての認識シンボル系列に対応する上記認識側荷重値を累計してその値の対数関数値を上記正例側統合値を補正するための統合値である認識側統合値として出力する認識側統合・対数化ステップと、
    統合値比較手段が、上記正例統合値から上記認識側統合値を減じたものを目的関数として出力する統合値比較ステップと、
    を含むことを特徴とする相違度利用型識別的学習方法。
  9. 請求項7の相違度利用型識別的学習方法において、
    上記正例認識比較過程は3個の減衰係数を備え、
    上記目的関数は誤識別尺度を損失関数に通したものであり、
    上記正例認識比較過程は、
    上記識別関数値に予め設定した正定数を乗じた値の指数関数値である識別関数平滑化値を求め、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じて正例側荷重値とし、全ての認識シンボル系列に対する上記正例側荷重値の総和を任意の単調増加可逆関数に通して正例側統合値として求め、
    上記相違度に上記第1の減衰係数よりも小さな第2の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた第1負例側荷重値と、第2減衰係数よりも大きな第3の減衰係数を上記相違度に乗じた値の指数関数値に上記識別関数平滑化値を乗じた第2負例側荷重値とを計算し、上記第1負例側荷重値から上記第2負例側荷重値を減じて負例側荷重値とし、全ての認識シンボル系列に対する上記負例側荷重値の総和を任意の単調増加可逆関数に通して上記正例側統合値を補正するための統合値である負例側統合値として求め、
    上記負例側統合値から上記正例側統合値を減じて上記識別尺度とする過程であることを特徴とする相違度利用型識別的学習装置。
  10. 請求項7の相違度利用型識別的学習方法において、
    上記正例認識比較過程は、
    識別関数平滑化・逆対数化手段が、上記識別関数値に予め定められた正定数を乗じ、その値の指数関数値を識別関数平滑化値として計算する識別関数平滑化・逆対数化ステップと、
    上記相違度に第1の減衰係数を乗じた値の指数関数値に上記識別関数平滑化値を乗じた正例側荷重値を計算する正例側荷重ステップと、
    正例側統合・対数化手段が、全ての認識シンボル系列に対する上記正例側荷重値の総和の対数関数値を正例側統合値として計算する正例側統合・対数化ステップと、
    負例側荷重手段が、上記相違度に上記第1の減衰係数よりも小さな第2減衰係数を乗じた第1負例側荷重値と、第2減衰係数よりも大きな第3の減衰係数を上記相違度に乗じた値の指数関数値に上記識別関数平滑化値を乗じた第2負例側荷重値とを計算し、上記第1負例側荷重値から上記第2負例側荷重値を減じた値を上記正例側統合値を補正するための統合値である負例側統合値として計算する負例側荷重ステップと、
    負側統合・対数化手段が、全ての認識シンボル系列に対応する上記負側荷重値を累計してその値の対数関数値を負例側統合値として出力する負側統合・対数化ステップと、
    統合値比較手段が、上記負例統合値から上記正例側統合値を減じて上記識別尺度とし、その識別尺度を損失関数に通したものを目的関数として出力する統合値比較ステップと、
    を含むことを特徴とする相違度利用型識別的学習方法。
  11. 請求項7乃至10の何れかに記載の相違度利用型識別的学習方法において、
    上記相違度算出過程は、学習データの特徴量と上記認識シンボル系列と識別関数値とを入力として、上記相違度を、上記認識シンボル系列が正解として信頼できる度合いを表す尺度の確信度として推定した相違度推定値として出力するものであることを特徴とする相違度利用型識別的学習方法。
  12. 請求項1乃至6の何れかに記載した相違度利用型識別的学習装置としてコンピュータを機能させるための装置プログラム。
JP2009100865A 2009-04-17 2009-04-17 相違度利用型識別的学習装置とその方法、そのプログラム Active JP5113797B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009100865A JP5113797B2 (ja) 2009-04-17 2009-04-17 相違度利用型識別的学習装置とその方法、そのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009100865A JP5113797B2 (ja) 2009-04-17 2009-04-17 相違度利用型識別的学習装置とその方法、そのプログラム

Publications (2)

Publication Number Publication Date
JP2010250161A true JP2010250161A (ja) 2010-11-04
JP5113797B2 JP5113797B2 (ja) 2013-01-09

Family

ID=43312546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009100865A Active JP5113797B2 (ja) 2009-04-17 2009-04-17 相違度利用型識別的学習装置とその方法、そのプログラム

Country Status (1)

Country Link
JP (1) JP5113797B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039432A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
JP2013160998A (ja) * 2012-02-07 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> パラメタ推定装置、パラメタ推定方法、音声認識装置、音声認識方法及びプログラム
JP7479387B2 (ja) 2019-02-01 2024-05-08 コーニンクレッカ フィリップス エヌ ヴェ デプロイされた機械学習モデルの信頼尺度

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201553A (ja) * 2005-01-21 2006-08-03 Nippon Telegr & Teleph Corp <Ntt> 識別的学習方法、装置、プログラム、音声認識装置、プログラム、これらのプログラムを記録した記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006201553A (ja) * 2005-01-21 2006-08-03 Nippon Telegr & Teleph Corp <Ntt> 識別的学習方法、装置、プログラム、音声認識装置、プログラム、これらのプログラムを記録した記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200500785001; 中村 篤: '次世代音声認識のための音響モデル 学習とダイナミクス表現' 電子情報通信学会技術研究報告 SP2004-72 Vol.104 No.470, 20041119, pp.1-6 *
JPN6012051452; 中村 篤: '次世代音声認識のための音響モデル 学習とダイナミクス表現' 電子情報通信学会技術研究報告 SP2004-72 Vol.104 No.470, 20041119, pp.1-6 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039432A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
JP2013160998A (ja) * 2012-02-07 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> パラメタ推定装置、パラメタ推定方法、音声認識装置、音声認識方法及びプログラム
JP7479387B2 (ja) 2019-02-01 2024-05-08 コーニンクレッカ フィリップス エヌ ヴェ デプロイされた機械学習モデルの信頼尺度

Also Published As

Publication number Publication date
JP5113797B2 (ja) 2013-01-09

Similar Documents

Publication Publication Date Title
JP2775140B2 (ja) パターン認識方法、音声認識方法および音声認識装置
WO2008004666A1 (fr) Dispositif, procédé et programme de reconnaissance vocale
Kim et al. Sequential labeling for tracking dynamic dialog states
JP2018081169A (ja) 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
JP7409381B2 (ja) 発話区間検出装置、発話区間検出方法、プログラム
JP5113797B2 (ja) 相違度利用型識別的学習装置とその方法、そのプログラム
JP2005084436A (ja) 音声認識装置及びコンピュータプログラム
JP5079760B2 (ja) 音響モデルパラメータ学習装置、音響モデルパラメータ学習方法、音響モデルパラメータ学習プログラム
JP5852550B2 (ja) 音響モデル生成装置とその方法とプログラム
JP4533160B2 (ja) 識別的学習方法、装置、プログラム、識別的学習プログラムを記録した記録媒体
JP4328362B2 (ja) 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体
JP5738216B2 (ja) 特徴量補正パラメータ推定装置、音声認識システム、特徴量補正パラメータ推定方法、音声認識方法及びプログラム
JP6121187B2 (ja) 音響モデル補正パラメータ推定装置、その方法及びプログラム
JP4981850B2 (ja) 音声認識装置とその方法と、プログラムと記録媒体
JP5982265B2 (ja) 音声認識装置、音声認識方法、およびプログラム
WO2021044606A1 (ja) 学習装置、推定装置、それらの方法、およびプログラム
JP5308102B2 (ja) 誤り数別識別スコア・事後確率計算方法と、その方法を用いた誤り数重み付き識別学習装置とその方法と、その装置を用いた音声認識装置と、プログラムと記録媒体
JP4843646B2 (ja) 音声認識装置とその方法と、プログラムと記録媒体
JP5089651B2 (ja) 音声認識装置及び音響モデル作成装置とそれらの方法と、プログラムと記録媒体
JP5166195B2 (ja) 音響分析パラメータ生成方法とその装置と、プログラムと記録媒体
JP5369079B2 (ja) 音響モデル作成方法とその装置とプログラム
JP5694976B2 (ja) 分散補正パラメータ推定装置、音声認識システム、分散補正パラメータ推定方法、音声認識方法及びプログラム
JP5610304B2 (ja) モデルパラメータ配列装置とその方法とプログラム
JP4801108B2 (ja) 音声認識装置、方法、プログラム及びその記録媒体
JP4801107B2 (ja) 音声認識装置、方法、プログラム及びその記録媒体

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5113797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350