JP2011039785A - ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム - Google Patents

ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム Download PDF

Info

Publication number
JP2011039785A
JP2011039785A JP2009186668A JP2009186668A JP2011039785A JP 2011039785 A JP2011039785 A JP 2011039785A JP 2009186668 A JP2009186668 A JP 2009186668A JP 2009186668 A JP2009186668 A JP 2009186668A JP 2011039785 A JP2011039785 A JP 2011039785A
Authority
JP
Japan
Prior art keywords
score
linear
exponent
parameter
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009186668A
Other languages
English (en)
Other versions
JP5295037B2 (ja
Inventor
Takanobu Oba
隆伸 大庭
Takaaki Hori
貴明 堀
Atsushi Nakamura
篤 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009186668A priority Critical patent/JP5295037B2/ja
Publication of JP2011039785A publication Critical patent/JP2011039785A/ja
Application granted granted Critical
Publication of JP5295037B2 publication Critical patent/JP5295037B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】Conditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置において、学習精度を向上させ、モデル性能の向上を図る。
【解決手段】複数のシンボル系列の素性ベクトルと、対応する正解シンボル系列の素性ベクトルと、各シンボル系列のシンボル系列重みとからなるリストの集合を学習データとして取り込むリスト入力部11と、目的関数のパラメータ初期化部21と、パラメータと素性ベクトルの内積により線形スコアを算出し、その線形スコアとシンボル系列重みから指数スコアを算出するリスト内処理部22と、リスト内処理部22で算出された全ての指数スコア及び素性ベクトルを用いて目的関数及びその傾きを算出する目的関数算出部23と、前記傾きから目的関数の収束を判定する収束判定部24と、パラメータを更新するパラメータ更新部25とを備える。
【選択図】図3

Description

この発明は機械学習分野におけるConditional Random Fields(条件付確率場)やGlobal Conditional Log-linear Modelsに関し、特にそのパラメータの学習に関する。
Conditional Random Fields(条件付確率場:CRFs)やGlobal Conditional Log-linear Models(GCLMs)はシンボル系列の中から最も妥当と予測されるシンボル系列を決定するための学習機械(学習装置)である。用途は自然言語処理分野だけでもラベリング、形態系解析、音声認識や機械翻訳での誤り訂正など多岐に渡る。同様の用途に適用可能な学習機械もいくつか存在するが、CRFsやGCLMsは目的関数の凹性に基づく最適解への収束の保証などの利点を有しており、かつ最も精度の高いモデルを生成する学習機械のひとつとして挙げられる。
非特許文献1にはCRFsを日本語形態素解析に適用した例が記載されており、また非特許文献2にはGCLMsを音声認識の誤り訂正言語モデルに適用した例が記載されている。いずれも代替手法に比較し、高精度なモデル生成を実現している。
工藤拓、山本薫、松本裕治,「Conditional Random Fieldsを用いた日本語形態素解析」,情報処理学会研究報告 2004-NL-161,Vol.2004,No.47,pp.89-96(2004) Roark B., Saraclar M. and Collins M.「Discriminative n-gram language modeling」,Computer Speech and Language,Vol.21,No.2,pp.373-392(2007)
ところで、シンボル系列の中から最も妥当と予測されるシンボル系列を決定するための学習機械を使用する場合、学習データを利用して事前にモデル学習(モデルのパラメータ学習)を行う必要がある。学習データは複数のシンボル系列と、それに対応する正解シンボル系列の組からなるリストを大量に集めたものである。しかし、場合により、各シンボル系列のシンボル系列重み(重要度)が与えられる場合がある。
例えば、音声認識の誤り訂正言語モデルにおいて、正解単語列と対応するリスト内のシンボル系列の単語誤り率をシンボル系列重みとして与えることが下記参考文献に記載されている。
参考文献:小林彰夫、他5名,「単語ラティスの識別的スコアリングによる音声認識」 ,秋季音響学会講演論文集,pp.233-234(2007)
シンボル系列重みは人為的に与えられたモデル学習を助ける補助情報であるため、これを用いて学習を行うことは高精度なモデルの生成に繋がる。そのため、シンボル系列重みが与えられている場合にはシンボル系列重みを扱う枠組みを持つ学習機械を選択する必要がある。
しかるに、従来のConditional Random Fields(CRFs)やGlobal Conditional Log-linear Models(GCLMs)はシンボル系列重みを扱う枠組みを持たない学習機械であった。
この発明の目的はこのような状況に鑑み、Conditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置において、シンボル系列重みを扱う枠組みを持つようにした学習装置及びそのパラメータ学習方法、プログラムを提供することにある。
この発明によれば、Conditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置は、複数のシンボル系列の素性ベクトルと、それに対応する正解シンボル系列の素性ベクトルと、それら各シンボル系列のシンボル系列重みとからなるリストの集合を学習データとして取り込むリスト入力部と、目的関数のパラメータを初期化するパラメータ初期化部と、前記パラメータと前記素性ベクトルとの内積により線形スコアを算出し、その線形スコアと前記シンボル系列重みとから重み付けされた指数スコアを前記各シンボル系列に対して算出するリスト内処理部と、リスト内処理部で算出された全ての指数スコア及び前記素性ベクトルを用いて前記目的関数及びその傾きを算出する目的関数算出部と、前記傾きから前記目的関数の収束を判定する収束判定部と、前記パラメータを更新するパラメータ更新部とを備える。
上記構成において、リスト内処理部は、好ましくは前記線形スコアを算出する線形スコア算出部と、その線形スコア算出部で算出された線形スコアから指数スコアを算出する指数スコア算出部と、その指数スコア算出部で算出された指数スコアに前記シンボル系列重みを乗算して前記重み付けされた指数スコアを算出する重み乗算部とよりなるものとされる。
さらに、リスト内処理部は、前記線形スコアを算出する線形スコア算出部と、その線形スコア算出部で算出された線形スコアに前記シンボル系列重みを加算して重み付けされた線形スコアを算出する重み加算部と、その重み加算部で算出された重み付けされた線形スコアから前記重み付けされた指数スコアを算出する指数スコア算出部とよりなるものとしてもよい。
この発明によるConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置におけるパラメータ学習方法は、複数のシンボル系列の素性ベクトルと、それに対応する正解シンボル系列の素性ベクトルと、それら各シンボル系列のシンボル系列重みとからなるリストの集合を学習データとして取り込むリスト入力過程と、目的関数のパラメータを初期化するパラメータ初期化過程と、前記パラメータと前記素性ベクトルとの内積により線形スコアを算出し、その線形スコアと前記シンボル系列重みとから重み付けされた指数スコアを前記各シンボル系列に対して算出するリスト内処理過程と、リスト内処理過程で算出された全ての指数スコア及び前記素性ベクトルを用いて前記目的関数及びその傾きを算出する目的関数算出過程と、前記傾きから前記目的関数の収束を判定する収束判定過程と、前記パラメータを更新するパラメータ更新過程とを含む。
上記において、リスト内処理過程は、好ましくは前記線形スコアを算出する線形スコア算出過程と、その線形スコア算出過程で算出された線形スコアから指数スコアを算出する指数スコア算出過程と、その指数スコア算出過程で算出された指数スコアに前記シンボル系列重みを乗算して前記重み付けされた指数スコアを算出する重み乗算過程とよりなるものとされる。
さらに、リスト内処理過程は、前記線形スコアを算出する線形スコア算出過程と、その線形スコア算出過程で算出された線形スコアに前記シンボル系列重みを加算して重み付けされた線形スコアを算出する重み加算過程と、その重み加算過程で算出された重み付けされた線形スコアから前記重み付けされた指数スコアを算出する指数スコア算出過程とよりなるものとしてもよい。
この発明によれば、最適解への収束を保証したConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置において、シンボル系列重みを扱う枠組みを持つ学習装置及びそのパラメータ学習方法を実現することができる。
よって、この発明によればシンボル系列重みなしの学習に比べ、学習精度を向上させることができ、モデル性能の向上を図ることができる。
CRFsやGCLMsを用いる既存の学習装置の機能構成例を示すブロック図。 図1に示した学習装置におけるパラメータ学習方法の手順を説明するためのフローチャート。 この発明によるCRFsやGCLMsを用いる学習装置の一実施例の機能構成を示すブロック図。 図3に示した学習装置におけるパラメータ学習方法の手順を説明するためのフローチャート。 この発明によるCRFsやGCLMsを用いる学習装置の他の実施例の機能構成を示すブロック図。 図5に示した学習装置におけるパラメータ学習方法の手順を説明するためのフローチャート。
まず、最初に、既存のConditional Random Fields(CRFs)及びGlobal Conditional Log-linear Models(GCLMs)について説明する。
条件により呼称が異なるが、これらCRFs及びGCLMsは共に学習データが与えられたもとで次の目的関数Lを最小化するパラメータ(パラメータベクトル)wを求めることで学習が達成される学習機械である。
Figure 2011039785
学習において各シンボル系列は素性ベクトルにより表現されている。f i,0 はi番目のリスト(シンボル系列集合)の正解シンボル系列の素性ベクトルであり、f i,j はi番目のリストに属するj番目のシンボル系列の素性ベクトルである。正解はリストに含まれていてもいなくてもよい。〈w,f〉はパラメータwと素性ベクトルfの内積を表す。
式(1)を用いて学習を行うと、学習データに対しての性能は高いものの、過学習により異なるデータに対する性能の低いモデルが生成される恐れがある。これを防止するために、CRFsおよびGCLMsにおけるパラメータ推定は一般には下式のような正則化付きの目的関数の最小化として定式化される。
Figure 2011039785
この目的関数を最小化するwは準ニュートン法に基づく手法により求めることができるが、この説明は本発明の範疇外であるため、ここでは省略する。一般に、式(1)の形を持つ関数は、wに対して凹型であることが知られている。そのため、大局的最適解への収束が保証される。
図1は既存のCRFsやGCLMsを用いる学習装置の基本的な機能構成例を示したものであり、学習装置はリスト入力部11と条件入力部12とパラメータ推定部20とよりなり、パラメータ推定部20はパラメータ初期化部21とリスト内処理部22と目的関数算出部22と収束判定部24とパラメータ更新部25とによって構成されている。また、リスト内処理部22はこの例では線形スコア算出部22aと指数スコア算出部22bとによって構成されている。
図2は図1に示した学習装置におけるパラメータ学習の基本的な手順を示したものであり、以下、図1及び2を参照してパラメータ学習における各部の処理及び手順について説明する。
・リスト入力(ステップS1)
リスト入力部11は複数のシンボル系列の素性ベクトルと、それに対応する正解シンボル系列の素性ベクトルとからなるリストの集合を学習データとして取り込み、全てのi,jについてf i,0 及びf i,j が入力される。
・パラメータ初期化(ステップS2)
パラメータ初期化部21は式(2)に示した目的関数Lのパラメータwを初期化する。
・線形スコア算出(ステップS3)
リスト内処理部22の線形スコア算出部22aはパラメータwと素性ベクトルfとの内積により線形スコア〈w,f〉を算出する。
・指数スコア算出(ステップS4)
指数スコア算出部22bは線形スコア〈w,f〉から指数スコアexp(〈w,f〉)を算出する。各iにおいて、正解シンボル系列の指数スコアexp(〈w,f i,0 〉)を含む{exp(〈w,f i,j 〉)|j=0,1,…,n}が算出される。
・目的関数及びその傾き算出(ステップS5)
目的関数算出部23はリスト内処理部22で算出された全ての指数スコア及び素性ベクトルを用いて式(2)の目的関数L及びその傾きを算出する。傾きは、
Figure 2011039785
で表される。
・収束判定(ステップS6)
収束判定部24は式(3)に示した傾きから目的関数Lの収束を判定する。
・パラメータ更新(ステップS7)
パラメータ更新部25は収束判定部24で収束未と判定された時、パラメータwの更新を行う。
以降、最適解に収束するまでステップS3〜S7を繰り返し実行する。パラメータ学習は最適解への収束によって完了し、最適なパラメータwが推定される。なお、収束判定条件、パラメータ更新条件、式(2)における定数C等は条件入力部12よりパラメータ推定部20に入力される。
次に、上述した既存のCRFsやGCLMsを用いる学習装置及びそのパラメータ学習方法をベースにして、この発明の実施例を図面を参照して説明する。なお、各図において図1及び2と対応する部分には同一符号を付し、その詳細な説明を省略する。
図3はこの発明によるCRFsやGCLMsを用いる学習装置の実施例1の構成を示したものであり、図4は図3に示した学習装置におけるパラメータ学習の手順を示したものである。
この例ではリスト入力部11には重み付きリストが入力され(ステップS1)、即ち入力にはシンボル系列重みが加わっており、全てのi,jについて素性ベクトルf i,0 ,f i,j 及びシンボル系列重みsi,0 ,si,j が入力される。
リスト内処理部22は線形スコア算出部22aと指数スコア算出部22bと重み乗算部22cとよりなり、重み乗算部22cは指数スコア算出部22bで算出された指数スコアexp(〈w,f〉)に対してシンボル系列重みsを乗算し(ステップS11)、重み付けされた指数スコアs exp(〈w,f〉)を算出する。これにより、この例ではシンボル系列重みをCRFsやGCLMsに導入した学習装置及びその学習装置におけるパラメータ学習方法を実現することができる。
図5はこの発明によるCRFsやGCLMsを用いる学習装置の実施例2の構成を示したものであり、図6は図5に示した学習装置におけるパラメータ学習の手順を示したものである。
リスト入力部11には実施例1と同様、重み付きリストが入力される(ステップS1)。
リスト内処理部22はこの例では線形スコア算出部22aと重み加算部22dと指数スコア算出部22bとよりなる。重み加算部22dは線形スコア算出部22aで算出された線形スコア〈w,f〉に対してシンボル系列重みsを加算し(ステップS21)、重み付けされた線形スコア〈w,f〉+sを算出する。重み付けされた線形スコア〈w,f〉+sは指数スコア算出部22bに渡され、指数スコア算出部22bは重み付けされた指数スコアexp(〈w,f〉+s)を算出する。これにより、この例においても実施例1と同様、シンボル系列重みをCRFsやGCLMsに導入した学習装置及びその学習装置におけるパラメータ学習方法を実現することができる。
なお、上記においてリスト入力部11に入力されるリスト(重み付きリスト)はネットワーク表現化されたものも含むものとする。
以下、上述した実施例1及び2におけるシンボル系列重みsの導入(乗算,加算)が等価であること及びこの発明における目的関数Lも凹型であることについて説明する。
[等価な2種類のシンボル系列重みの導入]
実施例1における目的関数Lは次式となる。
Figure 2011039785
一方、実施例2における目的関数Lは次式となる。
Figure 2011039785
ここで、x=exp(log(x))及びexp(x)exp(y)=exp(x+y)であることを利用すると、式(4)は次式に変換できる。
Figure 2011039785
式(5)と式(6)はsがlog(s)に変換されただけであることがわかる。対数は単調増加関数であるから、両者はスケーリングの違いはあれど、大きな重みを持つシンボル系列の影響力が大きくなるように設計された関数である点において共通であり、シンボル系列重みsは役割の観点から等価な働きをしている。
[凹型な目的関数]
式(4)が凹型であることを示すために、等式変形された式(6)を用いて考える。今、w及びf i,j にそれぞれ新たな要素として、c及びlog(si,j )を追加する。追加されたものをそれぞれW及びF i,j と表記する。このとき、式(6)は
Figure 2011039785
となる。この式上では暗黙にc=1を要請しているが、cも推定の対象とすると、前述した通り、この形状の関数が凹型であることは知られている。但し、Wについて凹型である。CRFs及びGCLMsにおける学習は目的関数のパラメータwについての最小化である。従って、興味は式(7)がwに関して凹型であるかどうかである。しかし、LがWに関して凹型であるということは、あらゆるWの要素w及びcに対して凹型であることを意味する。つまり、wに関して凹型であることは保たれる。
式(5)も同様の理由からパラメータwに対して凹型であることがわかる。
以上説明したこの発明による学習装置及びその学習装置におけるパラメータ学習方法は、コンピュータと、コンピュータにインストールされたパラメータ学習プログラムによって実現することができる。
《学習により得られたモデルの使用方法》
リストから最適なシンボル系列を求める場合には、学習により得られたパラメータwと各シンボル系列の素性ベクトルfの内積〈w,f〉が最も大きなシンボル系列を選択する。
《検証》
日本語話し言葉コーパス(CSJ)を用い、本発明の効果を検証した。CSJは講演音声データとその書き起こしからなるデータベースである。下記の表に示したような学習用と2つの評価セットを用意した。
Figure 2011039785
講演を発話単位に分割し、音声認識システムで5000−bestリストを作成した。つまり、リストの数は発話数に一致する。そして、シンボル系列は音声認識結果であり、各リストに最大5000のシンボル系列が存在する。素性にはuni−,bi−,tri−gram boolean及び音声認識スコアを用いた。シンボル系列重み(重要度)には各シンボル系列のリスト中の順位(単語誤り率の昇順)を用いた。表中の単語誤り率は音声認識システムの出力した5000−bestリストのうち、最も大きな認識スコアを持つ認識結果に対して算出されたものである。
シンボル系列を〈w,f〉の大きい順に並べ替えることにより、最終的に最も高いスコアを持つシンボル系列を新たな音声認識結果とし、その単語誤り率を比較した。即ち、モデル学習の目的は、単語誤り率の低いシンボル系列に高いスコアを与えることにある。結果は以下の通りとなった。
Figure 2011039785
重み付き学習の効果でモデル性能が向上し、より低い単語誤り率を実現することができた。

Claims (7)

  1. Conditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置であって、
    複数のシンボル系列の素性ベクトルと、それに対応する正解シンボル系列の素性ベクトルと、それら各シンボル系列のシンボル系列重みとからなるリストの集合を学習データとして取り込むリスト入力部と、
    目的関数のパラメータを初期化するパラメータ初期化部と、
    前記パラメータと前記素性ベクトルとの内積により線形スコアを算出し、その線形スコアと前記シンボル系列重みとから重み付けされた指数スコアを前記各シンボル系列に対して算出するリスト内処理部と、
    前記リスト内処理部で算出された全ての指数スコア及び前記素性ベクトルを用いて前記目的関数及びその傾きを算出する目的関数算出部と、
    前記傾きから前記目的関数の収束を判定する収束判定部と、
    前記パラメータを更新するパラメータ更新部とを備えることを特徴とする学習装置。
  2. 請求項1記載のConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置において、
    前記リスト内処理部は、前記線形スコアを算出する線形スコア算出部と、その線形スコア算出部で算出された線形スコアから指数スコアを算出する指数スコア算出部と、その指数スコア算出部で算出された指数スコアに前記シンボル系列重みを乗算して前記重み付けされた指数スコアを算出する重み乗算部とよりなることを特徴とする学習装置。
  3. 請求項1記載のConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置において、
    前記リスト内処理部は、前記線形スコアを算出する線形スコア算出部と、その線形スコア算出部で算出された線形スコアに前記シンボル系列重みを加算して重み付けされた線形スコアを算出する重み加算部と、その重み加算部で算出された重み付けされた線形スコアから前記重み付けされた指数スコアを算出する指数スコア算出部とよりなることを特徴とする学習装置。
  4. Conditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置におけるパラメータ学習方法であって、
    複数のシンボル系列の素性ベクトルと、それに対応する正解シンボル系列の素性ベクトルと、それら各シンボル系列のシンボル系列重みとからなるリストの集合を学習データとして取り込むリスト入力過程と、
    目的関数のパラメータを初期化するパラメータ初期化過程と、
    前記パラメータと前記素性ベクトルとの内積により線形スコアを算出し、その線形スコアと前記シンボル系列重みとから重み付けされた指数スコアを前記各シンボル系列に対して算出するリスト内処理過程と、
    前記リスト内処理過程で算出された全ての指数スコア及び前記素性ベクトルを用いて前記目的関数及びその傾きを算出する目的関数算出過程と、
    前記傾きから前記目的関数の収束を判定する収束判定過程と、
    前記パラメータを更新するパラメータ更新過程とを含むことを特徴とするパラメータ学習方法。
  5. 請求項4記載のConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置におけるパラメータ学習方法において、
    前記リスト内処理過程は、前記線形スコアを算出する線形スコア算出過程と、その線形スコア算出過程で算出された線形スコアから指数スコアを算出する指数スコア算出過程と、その指数スコア算出過程で算出された指数スコアに前記シンボル系列重みを乗算して前記重み付けされた指数スコアを算出する重み乗算過程とよりなることを特徴とするパラメータ学習方法。
  6. 請求項4記載のConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置におけるパラメータ学習方法において、
    前記リスト内処理過程は、前記線形スコアを算出する線形スコア算出過程と、その線形スコア算出過程で算出された線形スコアに前記シンボル系列重みを加算して重み付けされた線形スコアを算出する重み加算過程と、その重み加算過程で算出された重み付けされた線形スコアから前記重み付けされた指数スコアを算出する指数スコア算出過程とよりなることを特徴とするパラメータ学習方法。
  7. 請求項1乃至3のいずれかに記載のConditional Random FieldsもしくはGlobal Conditional Log-linear Modelsを用いる学習装置としてコンピュータを機能させるためのパラメータ学習プログラム。
JP2009186668A 2009-08-11 2009-08-11 ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム Active JP5295037B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009186668A JP5295037B2 (ja) 2009-08-11 2009-08-11 ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009186668A JP5295037B2 (ja) 2009-08-11 2009-08-11 ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム

Publications (2)

Publication Number Publication Date
JP2011039785A true JP2011039785A (ja) 2011-02-24
JP5295037B2 JP5295037B2 (ja) 2013-09-18

Family

ID=43767490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009186668A Active JP5295037B2 (ja) 2009-08-11 2009-08-11 ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム

Country Status (1)

Country Link
JP (1) JP5295037B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039432A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
CN102929916A (zh) * 2012-09-19 2013-02-13 无锡华御信息技术有限公司 一种基于文档名称识别的备份文档的方法
CN113342525A (zh) * 2020-07-24 2021-09-03 北京一流科技有限公司 分布式数据处理系统及其方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013013899; 小林彰夫 外5名: '単語誤り最小化に基づく識別的リスコアリングによる音声認識' 電子情報通信学会技術研究報告(NLC2008-067,SP2008-122) 第108巻,第338号, 20081202, p.255-260, 一般社団法人電子情報通信学会 *
JPN6013013902; Zhengyu Zhou 外3名: 'A Comparative Study of Discriminative Methods for Reranking LVCSR N-Best Hypotheses in Domain Adapta' Proceedings of IEEE International Conference on Acoustics, Speech and Signal Processing 2006 (ICASSP Volume I, 20060519, p.141-144, IEEE *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039432A (ja) * 2009-08-18 2011-02-24 Nippon Telegr & Teleph Corp <Ntt> 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
CN102929916A (zh) * 2012-09-19 2013-02-13 无锡华御信息技术有限公司 一种基于文档名称识别的备份文档的方法
CN102929916B (zh) * 2012-09-19 2015-09-30 无锡华御信息技术有限公司 一种基于文档名称识别的备份文档的方法
CN113342525A (zh) * 2020-07-24 2021-09-03 北京一流科技有限公司 分布式数据处理系统及其方法

Also Published As

Publication number Publication date
JP5295037B2 (ja) 2013-09-18

Similar Documents

Publication Publication Date Title
CN107729322B (zh) 分词方法及装置、建立句子向量生成模型方法及装置
IE20170201A1 (en) Neural machine translation systems
US9747893B2 (en) Unsupervised training method, training apparatus, and training program for an N-gram language model based upon recognition reliability
JP6051004B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP5752060B2 (ja) 情報処理装置、大語彙連続音声認識方法及びプログラム
JP5276610B2 (ja) 言語モデル生成装置、そのプログラムおよび音声認識システム
JP5975938B2 (ja) 音声認識装置、音声認識方法及びプログラム
US20180061395A1 (en) Apparatus and method for training a neural network auxiliary model, speech recognition apparatus and method
JP5295037B2 (ja) ConditionalRandomFieldsもしくはGlobalConditionalLog−linearModelsを用いる学習装置及びその学習装置におけるパラメータ学習方法、プログラム
JP6366166B2 (ja) 音声認識装置、及びプログラム
JP2013117683A (ja) 音声認識装置、誤り傾向学習方法、及びプログラム
CN115860009A (zh) 一种引入辅助样本进行对比学习的句子嵌入方法及系统
JP6086714B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
KR20200074624A (ko) 도메인 기반의 음성 인식 모델의 최적화가 가능한 음성 인식 장치 및 그 동작 방법
JP5264649B2 (ja) 情報圧縮型モデルパラメータ推定装置、方法及びプログラム
Zhang et al. Character-Aware Sub-Word Level Language Modeling for Uyghur and Turkish ASR
JP2004348552A (ja) 音声文書検索装置および方法およびプログラム
JP2007317132A (ja) 概念ベクトル推定方法及び装置及びプログラム
Zhang et al. Discriminatively trained sparse inverse covariance matrices for speech recognition
JP5268825B2 (ja) モデルパラメータ推定装置、方法及びプログラム
JP5860439B2 (ja) 言語モデル作成装置とその方法、そのプログラムと記録媒体
CN109815483B (zh) 合成词识别方法、装置、可读存储介质及电子设备
JP2009063773A (ja) 音声特徴学習装置、音声認識装置、それらの方法、それらのプログラム、それらの記録媒体
CN111274392B (zh) 一种多频道联合处理方法和装置
JP5700566B2 (ja) スコアリングモデル生成装置、学習データ生成装置、検索システム、スコアリングモデル生成方法、学習データ生成方法、検索方法及びそのプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

R150 Certificate of patent or registration of utility model

Ref document number: 5295037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350