JP2011243147A - 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム - Google Patents

素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム Download PDF

Info

Publication number
JP2011243147A
JP2011243147A JP2010117237A JP2010117237A JP2011243147A JP 2011243147 A JP2011243147 A JP 2011243147A JP 2010117237 A JP2010117237 A JP 2010117237A JP 2010117237 A JP2010117237 A JP 2010117237A JP 2011243147 A JP2011243147 A JP 2011243147A
Authority
JP
Japan
Prior art keywords
feature
learning
features
weight
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010117237A
Other languages
English (en)
Other versions
JP5650440B2 (ja
Inventor
Hajime Tsukada
元 塚田
Do Kevin
ドゥ ケヴィン
Katsuto Sudo
克仁 須藤
Hideki Isozaki
秀樹 磯崎
Masaaki Nagata
昌明 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010117237A priority Critical patent/JP5650440B2/ja
Publication of JP2011243147A publication Critical patent/JP2011243147A/ja
Application granted granted Critical
Publication of JP5650440B2 publication Critical patent/JP5650440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】入力に対する尤もらしい上位N個の変換結果を、任意に設定した複数の素性に基づきスコアリングやリランキングする際に、当該複数の素性の中に疎な素性が含まれていても精度の高いスコアリングやリランキングを行うことを可能とする。
【解決手段】複数の学習用データを用い、任意に設定した複数の素性それぞれに対する重みを学習用データごとに別々のタスクとしてマルチタスク学習法により学習し、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を抽出し、この抽出した素性に絞り込んで素性重みを学習してスコアリングやリランキングを実行する。
【選択図】図1

Description

本発明は、機械翻訳や音声認識の手法により求めた上位N個の翻訳候補単語列や音声認識単語列候補を所定の素性に基づいて再順位付けする際に用いる素性重み学習装置、N-bestスコアリング装置、N-bestリランキング装置、それらの方法およびプログラムに関する。
機械翻訳や音声認識の手法により求めた、所定の入力単位(典型的には文)に対する最も尤もらしい上位N個の翻訳単語列候補や音声認識単語列候補 (ここではN-bestと呼ぶ)を、所定の素性(特徴量)に基づいて再順位付け(リランキング)し、よりよい候補を選び直す処理が広く行われている(例えば、非特許文献1)。それぞれの候補の各素性に対する該当性は数値(素性値)で表され、候補ごとに各素性値をベクトル化したものを当該候補の素性ベクトルと呼ぶ。素性や素性値の規定の仕方、素性の個数(素性ベクトルの次元数D)については設計者に裁量がある。素性としては、例えば非特許文献2で使われているものなどが挙げられる。
このように上位N個の候補を、所定の素性(特徴量)に基づき再順位付けして候補を選び直す処理をN-bestリランキングと呼ぶ。また、リランキングする装置やプログラムをリランカと呼ぶ。例えば、入力文fを機械翻訳する場合、リランカには次のような定式化が広く用いられている。
Figure 2011243147
ここで、N(f)は入力文fのN個の翻訳単語列候補ek(k=1、2、・・・、N)の集合、hv(ek,f)は翻訳単語列候補ekのD次元の素性ベクトル、wvはD次元の素性重みベクトルである。つまりリランカは、まず、入力文fのN個の翻訳単語列候補ekについて、それぞれ素性ベクトルhv(ek,f)と素性重みベクトルwvとの内積(スコア)を求め、このスコアが最大となる翻訳単語列候補ecを選ぶものとして定式化される。なお、式(1)において、N(f)を入力発話fのN個の音声認識単語列候補ekの集合に置き換えると音声認識のリランキングの例となる。
以上説明したリランカを具体化したN-bestリランキング装置100の構成例を図4に示す。N-bestリランキング装置100は、素性ベクトル生成部110とスコアリング部120と最適候補抽出部130とを備える。なお、必要に応じ、N-bestスコアリング装置101を素性ベクトル生成部110とスコアリング部120とから構成してもよい。
素性ベクトル生成部110は、入力文(入力発話)fとそのN個の翻訳単語列候補ekとが入力され、各ekについて、予め任意に設定されたD個の素性と照合して得られた各素性値からD次元の素性ベクトルhv(ek,f)を生成する。スコアリング部120は、前記予め任意に設定されたD個の素性に対応するD次元の素性重みベクトルwvと素性ベクトルhv(ek,f)との内積wv T・hv(ek,f)を求め、これを翻訳単語列候補ekのスコアとしてekに付して出力する。最適候補抽出部130は、スコアが最も大きな翻訳単語列候補ekをecとして選ぶ。
スコアリング部120で用いるD次元の素性重みベクトルwvは、例えば、非特許文献3で示される学習方法によって次式を最小とするwvとして生成することができる。
Figure 2011243147
ここで、Iは学習に用いる入力文(発話)fiの個数(i=1、2、・・・、I)である。L(・)はロス関数である。Hiは、入力文(入力発話)fiのN個の翻訳(音声認識)単語列候補ei kに対応するN個のD次元の素性ベクトルhv(ei k,fi)からなるD×N次元の行列である。yv iはN個のei kの各翻訳(音声認識)の良さ(正解との類似度)を実数値で表したN次元のベクトルであり、翻訳(音声認識)の良さを表すパラメータとしては、例えば1−BLEU値や候補としての順位(1〜N位)などを用いることができる。また、Ω(wv)は正則化項であり、λは正則化項の強さを調整する係数である。
各fiに対して正解及びN個の候補ei k(k=1、2、・・・、N)が定められている学習用データを用意し、N個の候補ei kに対し評価値ベクトルyv iを定義しておくことで、リランカは学習用データから素性ベクトル行列Hiを生成し、式(2)を用いて最適な素性重みベクトルwvを学習することができる。
素性重みベクトルwvの学習に用いる素性重み学習装置50の構成例を図5に示す。素性重み学習装置50は素性ベクトル生成部11と学習部55とから構成される。素性ベクトル生成部11は、I個の学習用の入力文(入力発話)fiとそれらそれぞれのN個の翻訳単語列候補ei kとが入力され、入力文(入力発話)fiと各ei kについて、D個の素性と照合して得られた各素性値からD次元の素性ベクトルhv(ei k,f)を生成し、生成されたN個のhv(ei k,f)から素性ベクトル行列Hiを構成する。なお、ここで用いるD個の素性(=N-bestリランキング装置100でいう「予め任意に設定されたD個の素性」)は、学習用データから抽出してもよいし、その他の方法により設定してもよい。学習部55は、素性ベクトル行列Hiと予め用意した評価値ベクトルyv iとを用い、式(2)により素性重みベクトルwvを学習して出力する。
Taro Watanabe, Jun Suzuki, Hajime Tsukada, and Hideki Isozaki, "NTT Statistical Machine Translation for IWSLT 2006", Proc. of the International Workshop on Spoken Language Translation, 2006, p.95-102 Taro Watanabe, Jun Suzuki, Hajime Tsukada, and Hideki Isozaki, "Online Large-Margin training for Statistical Machine Translation", Proc. of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, 2007, p.764-773 T. Joachims, "Training Linear SVMs in Linear Time", Proc. of the ACM Conference on Knowledge Discovery and Data Mining, 2006, p.217-226
従来の方法は、リランキングするN-bestは均質であり、各学習用データで同じような素性が現れるということを前提としている。しかし、素性が疎である場合は、各学習用データで共通して表れる素性はほとんど無い。例えば、仏英翻訳において
Figure 2011243147
という素性を考えると、この素性は入力文fiがMonsieurを含まない限り、決して1にはならない。このような疎な素性は、すべての学習データに万遍なく現れるわけではなく、非常に偏ったごく一部の学習データにしか現れない。そのため、均質な(素性が万遍なく現れる)学習データを前提とする学習法では、素性重みベクトルwvを適切に学習することができないという問題があった。
本発明の目的は、任意に設定した複数の素性の中に疎な素性が含まれていても精度の高いスコアリングやリランキングを行うことを可能とする素性重み学習装置、当該素性重み学習装置により得られた素性を用いるN-bestスコアリング装置、当該N-bestスコアリング装置により得られたスコアを用いたN-bestリランキング装置、それらの方法およびプログラムを提供することにある。
本発明の素性重み学習装置は、入力に対する尤もらしい上位N個の変換結果に複数の所定の素性に基づきそれぞれスコアを付与するために用いる前記所定の素性ごとに設定する重みを、複数の学習用データから学習することにより生成する素性重み学習装置であって、前記学習用データは、学習用の入力に対する尤もらしい上位N個の変換結果であり、任意に設定した複数の素性それぞれに対する重みを学習用データごとに別々のタスクとしてマルチタスク学習法により学習し、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を前記所定の素性として抽出し、その抽出した素性に対応する重みを学習する。
また、本発明の素性重み学習方法は、入力に対する尤もらしい上位N個の変換結果に複数の所定の素性に基づきそれぞれスコアを付与するために用いる前記所定の素性ごとに設定する重みを、複数の学習用データから学習することにより生成する素性重み学習方法であって、前記学習用データは、学習用の入力に対する尤もらしい上位N個の変換結果であり、任意に設定した複数の素性それぞれに対する重みを学習用データごとに別々のタスクとしてマルチタスク学習法により学習し、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を前記所定の素性として抽出し、その抽出した素性に対応する重みを学習する。
本発明の素性重み学習装置、N-bestスコアリング装置、N-bestリランキング装置、それらの方法およびプログラムは、複数の学習用データを用い、任意に設定した複数の素性それぞれに対する重みを学習用データごとにマルチタスクで学習する。そして、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を抽出し、この抽出した素性に絞り込んで、素性重みを生成しスコアリングやリランキングを実行する。このように素性を絞り込むことで、予め定められた複数の素性の中に疎な素性が含まれていてもスコアリングやリランキングに有効な素性だけが自動的に抽出されるため、精度の高いスコアリングやリランキングを行うことができる。
本発明の素性重み学習装置10の構成例を示すブロック図。 本発明の素性重み学習装置10の処理フロー例を示す図。 本発明の手法と従来手法との効果を比較するシミュレーション結果を示す図。 N-bestリランキング装置100及びN-bestスコアリング装置101の構成例を示すブロック図。 従来の素性重み学習装置50の構成例を示すブロック図。
図1は、本発明の素性重み学習装置10の構成例をブロック図である。また、図2はその処理フロー例である。素性重み学習装置10は、素性ベクトル生成部11とマルチタスク学習部12と共通素性抽出部13と素性ベクトル選択部14と学習部15とを備える。素性ベクトル生成部11と学習部15は、従来の素性重み学習装置50は同じものである。
従来の素性重み学習装置50は、I個の入力fiの各N-best(ei k)のリランキングを1つのタスクとして考えて1つの素性重みベクトルを学習する。これに対し、本発明の素性重み学習装置10は、まず各N-bestのリランキングを別々のタスクとして考えてI個の素性重みベクトルを学習し、各素性重みベクトルに共通して作用している素性を抜き出して、新たな1つの素性重みベクトルを学習する。マルチタスク学習部12と共通素性抽出部13と素性ベクトル選択部14はこの従来と異なる処理を行うブロックである。
以下、各構成について説明する。なお、ここでは入力が翻訳対象文(又は音声認識対象発話)、変換結果が翻訳候補(又は音声認識候補)である場合を例にとって説明するが、入力に対して複数の変換結果が得られるものであれば同様に適用可能である。
素性ベクトル生成部11は、学習用の入力文(入力発話)fiに対応するN個のD次元の素性ベクトルhv(ei k,f)からなる素性ベクトル行列Hiを生成する(S1)。
マルチタスク学習部12は、素性ベクトル生成部11で生成された素性ベクトル行列Hiと予め用意した評価値ベクトルyv iとを用い、学習用の各入力文(入力発話)fiに対応するD次元の素性重みベクトルwv i(各素性重みwi,j)を生成する(S2)。I個の素性重みベクトルwv iは、例えば参考文献1に示されるマルチタスク学習方法で次式を最小とするwv iとして生成することができる。
Figure 2011243147
ここで、i行目がwv i(=[wi,1,・・・,wi,j,・・・,wi,D])であるI×D次元の行列W(各要素がwi,j)を観念する。このとき、wv 1,wv 2,・・・,wv Iを求めることとWを求めることとは等価である。また、Ω(wv 1,wv 2,・・・,wv I)として、例えばWのL1/L2正則化を用いる。L1/L2正則化では、まずWの列に対してL2正則化を行い、生成されるD次元ベクトルに対してL1正則化を行う。
[参考文献1] Rie Ando and Tong Zhang, "A Framework for learning Predictive Structures from Multiple Tasks and Unlabeled Data", Journal of Machine Learning Research 6, 2005, p.1817-1853
共通素性抽出部13は、マルチタスク学習部12で生成されたI個のD次元の素性重みベクトルwv iから構成されるI×D次元の行列Wが入力され、すべてのi行についてwi,jが0でないj列(すなわち、すべてのfiについて共通して作用する素性)を抽出し、その抽出した列番号(又はそれに対応する素性)の集合hcを出力する(S3)。
素性ベクトル選択部14は、素性ベクトル生成部11で生成されたD×N次元の素性ベクトル行列Hiについて、集合hcに現れる素性だけに行を縮退し、縮退した素性ベクトル行列Hi cを出力する(S4)。共通素性抽出部13で列番号の集合を出力した場合には、Hiにおいて対応する行番号の行だけを残し、その他の行を削除するように縮退すればよい。
そして、学習部15が素性ベクトル選択部14で得られた素性ベクトル行列Hi cと予め用意した評価値ベクトルyv iとを用い、式(2)により素性重みベクトルwvを学習して出力する(S5)。
なお、素性ベクトル生成部11からマルチタスク学習部12及び素性ベクトル選択部14に提供される素性ベクトル行列Hiの次元数(素性数)Dが膨大な場合、後続の処理が困難になる場合がある。そこで、Hiをマルチタスク学習部12及び素性ベクトル選択部14に入力するのに先立ち、図1に点線で示すように次元圧縮部16を設け、Hiの次元圧縮(素性数Dを減らす)を行ってもよい。次元圧縮には、例えば参考文献2などに示される方法を利用することができる。
[参考文献2] Kilian Weinberger, Anirban Dasgupta, John Langford Alex Smola, and Josh Attenberg, "Feature Hashing for Large Scale Multitask Learning", Proc. of 26th International Conference on Machine Learning, 2009, p.1113-1120
以上のように本発明の素性重み学習装置10は、複数の学習用データを用い、任意に設定した複数の素性それぞれに対する重みを学習用データごとにマルチタスクで学習する。そして、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を抽出し、この抽出した素性に絞り込んで素性重みを生成する。このように素性を絞り込んで素性重みを生成し、スコアリングやリランキングを実行することで、予め定められた複数の素性の中に疎な素性が含まれていてもスコアリングやリランキングに有効な素性だけが自動的に抽出されるため、精度の高いスコアリングやリランキングを行うことができる。
上記の各種処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の各装置をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そのプログラムは、例えば、ハードディスク装置に格納されており、実行時には必要なプログラムやデータがRAM(Random Access Memory)に読み込まれる。その読み込まれたプログラムがCPUにより実行される。このようにして、コンピュータ上で各処理内容が実現される。なお、処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
〔効果の確認〕
統計翻訳手法の一つである階層的な句に基づく手法によって得られたN-best翻訳候補(N=100)をリランキングする実験を行った。素性重みベクトルwvの学習には式(2)を用い、リランカの素性としては非特許文献2で使われているものを用いた。本実験は、医療分野の文章の日本語から英語への翻訳に関するものである。リランキングに用いるN-bestデータは、公知の統計的機械翻訳システムにより17,000文の日英対訳データで学習した翻訳モデルを800,000文で学習した言語モデルを用いて生成した。翻訳モデルを学習したデータに含まれない1,500文のうち、500文で素性重みベクトルwvを学習し、残りの1,000文を2つに分けて、クロスバリデーションを行った。すなわち、一方の500文で学習に用いるλなどのハイパー・パラメータを調整し、もう一方の500文でテストを行うということを交互に行った。翻訳精度はBLEUで測定した(この値が大きいほど良い翻訳であることを意味する)。
実験結果を図3に示す。(a)リランキングされていない場合、(b)従来の素性重み学習装置50を用いてリランキングした場合、(c)素性を次元圧縮をして従来の素性重み学習装置50を用いてリランキングした場合、(d)学習用データに現れる素性を数え上げ10より多く現れる素性を用いてリランキングした場合、(e)本発明の素性重み学習装置10を用いてリランキングした場合、(f) 本発明の素性重み学習装置10で得られた素性と(d)で得られた素性とを併用してリランキングした場合、の6通りを比較した。この実験結果から、本発明の素性重み学習装置10を用いてリランキングした(e),(f)がBLUE値の1位、2位を占め、従来の素性重み学習装置50等を用いた場合と比較して、優れた翻訳精度が得られることがわかる(bootstrap sampling test, 1,000サンプル、p<0.05)。

Claims (7)

  1. 入力に対する尤もらしい上位N個の変換結果に、複数の所定の素性に基づきスコアを付与するために用いる前記所定の素性ごとに設定する重みを、複数の学習用データを用いて学習することにより生成する素性重み学習装置であって、
    前記学習用データは、学習用の入力に対する尤もらしい上位N個の変換結果であり、
    任意に設定した複数の素性それぞれに対する重みを学習用データごとに別々のタスクとしてマルチタスク学習法により学習し、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を前記所定の素性として抽出し、
    その抽出した素性に対応する重みを学習する
    ことを特徴とする素性重み学習装置。
  2. 入力に対する尤もらしい上位N個の変換結果に、複数の所定の素性に基づきスコアを付与するN-bestスコアリング装置であって、
    各候補にスコアを付与するために用いる前記所定の素性ごとに設定する重みを、請求項1に記載の素性重み学習装置により生成する
    ことを特徴とするN-bestスコアリング装置。
  3. 入力に対する尤もらしい上位N個の変換結果を、各候補に付されたスコアにより再順位付けするN-bestリランキング装置であって、
    前記スコアを、請求項2に記載のN-bestスコアリング装置により生成する
    ことを特徴とするN-bestリランキング装置。
  4. 入力に対する尤もらしい上位N個の変換結果に、複数の所定の素性に基づきスコアを付与するために用いる前記所定の素性ごとに設定する重みを、複数の学習用データを用いて学習することにより生成する素性重み学習方法であって、
    前記学習用データは、学習用の入力に対する尤もらしい上位N個の変換結果であり、
    任意に設定した複数の素性それぞれに対する重みを学習用データごとに別々のタスクとしてマルチタスク学習法により学習し、その重みの値を指標として、当該複数の素性のうち各学習用データに共通して作用している素性を前記所定の素性として抽出し、
    その抽出した素性に対する重みを学習する
    ことを特徴とする素性重み学習方法。
  5. 入力に対する尤もらしい上位N個の変換結果に、複数の所定の素性に基づきスコアを付与するN-bestスコアリング方法であって、
    各候補にスコアを付与するために用いる前記所定の素性ごとに設定する重みを、請求項4に記載の素性重み学習方法により生成する
    ことを特徴とするN-bestスコアリング方法。
  6. 入力に対する尤もらしい上位N個の変換結果を、各候補に付されたスコアにより再順位付けするN-bestリランキング方法であって、
    前記スコアを、請求項5に記載のN-bestスコアリング方法により生成する
    ことを特徴とするN-bestリランキング方法。
  7. 請求項1乃至3のいずれかに記載の装置としてコンピュータを機能させるためのプログラム。
JP2010117237A 2010-05-21 2010-05-21 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム Active JP5650440B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010117237A JP5650440B2 (ja) 2010-05-21 2010-05-21 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010117237A JP5650440B2 (ja) 2010-05-21 2010-05-21 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011243147A true JP2011243147A (ja) 2011-12-01
JP5650440B2 JP5650440B2 (ja) 2015-01-07

Family

ID=45409699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010117237A Active JP5650440B2 (ja) 2010-05-21 2010-05-21 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5650440B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013148697A (ja) * 2012-01-19 2013-08-01 Internatl Business Mach Corp <Ibm> 情報処理装置、大語彙連続音声認識方法及びプログラム
JP2014078138A (ja) * 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> システムパラメータ最適化装置、方法、及びプログラム
JP2018522338A (ja) * 2015-06-02 2018-08-09 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 適応及び動的シュリンキングを介したアニールスパース性
WO2019151503A1 (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 判定装置、判定方法及び判定プログラム
WO2019151506A1 (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
WO2021024491A1 (ja) * 2019-08-08 2021-02-11 日本電信電話株式会社 判定装置、学習装置、判定方法及び判定プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003642A (ja) * 2007-06-20 2009-01-08 Nippon Telegr & Teleph Corp <Ntt> 機械翻訳装置、機械翻訳方法、および生成規則作成装置、生成規則作成方法、ならびにそれらのプログラムおよび記録媒体
WO2010003117A2 (en) * 2008-07-03 2010-01-07 Google Inc. Optimizing parameters for machine translation

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009003642A (ja) * 2007-06-20 2009-01-08 Nippon Telegr & Teleph Corp <Ntt> 機械翻訳装置、機械翻訳方法、および生成規則作成装置、生成規則作成方法、ならびにそれらのプログラムおよび記録媒体
WO2010003117A2 (en) * 2008-07-03 2010-01-07 Google Inc. Optimizing parameters for machine translation

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CSNC201100879096; 谷垣宏一 外2名: '最大エントロピーモデルによる発話意図の同定と素性選択アルゴリズムの効率化' 日本音響学会研究発表会議講演論文集 秋I , 20011002, p.187-188, 社団法人日本音響学会 *
CSNG201000459178; 岡野原 大輔 外1名: '行列分解による多クラス分類とその応用' 言語処理学会第16回年次大会発表論文集 , 20100308, p.748-751, 言語処理学会 *
JPN6013049423; 谷垣宏一 外2名: '最大エントロピーモデルによる発話意図の同定と素性選択アルゴリズムの効率化' 日本音響学会研究発表会議講演論文集 秋I , 20011002, p.187-188, 社団法人日本音響学会 *
JPN6013049424; 岡野原 大輔 外1名: '行列分解による多クラス分類とその応用' 言語処理学会第16回年次大会発表論文集 , 20100308, p.748-751, 言語処理学会 *
JPN7013003691; Tony Jebara: 'Multi-Task Feature and Kernel Selection for SVMs' Proceeding of the 21st International Conference on Machine Learning,Banff Canada,2004 , 2004 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013148697A (ja) * 2012-01-19 2013-08-01 Internatl Business Mach Corp <Ibm> 情報処理装置、大語彙連続音声認識方法及びプログラム
US9165553B2 (en) 2012-01-19 2015-10-20 International Business Machines Corporation Information processing device, large vocabulary continuous speech recognition method and program including hypothesis ranking
JP2014078138A (ja) * 2012-10-10 2014-05-01 Nippon Telegr & Teleph Corp <Ntt> システムパラメータ最適化装置、方法、及びプログラム
JP2018522338A (ja) * 2015-06-02 2018-08-09 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 適応及び動的シュリンキングを介したアニールスパース性
WO2019151503A1 (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 判定装置、判定方法及び判定プログラム
JP2019133085A (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 判定装置、判定方法及び判定プログラム
WO2019151506A1 (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
JP2019133084A (ja) * 2018-02-02 2019-08-08 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
US11837222B2 (en) 2018-02-02 2023-12-05 Nippon Telegraph And Telephone Corporation Determination device, determination method, and determination program
WO2021024491A1 (ja) * 2019-08-08 2021-02-11 日本電信電話株式会社 判定装置、学習装置、判定方法及び判定プログラム
JPWO2021024491A1 (ja) * 2019-08-08 2021-02-11
JP7192995B2 (ja) 2019-08-08 2022-12-20 日本電信電話株式会社 判定装置、学習装置、判定方法及び判定プログラム

Also Published As

Publication number Publication date
JP5650440B2 (ja) 2015-01-07

Similar Documents

Publication Publication Date Title
CN110162627B (zh) 数据增量方法、装置、计算机设备及存储介质
CN109344236B (zh) 一种基于多种特征的问题相似度计算方法
Devika et al. Sentiment analysis: a comparative study on different approaches
US11328125B2 (en) Method and server for text classification using multi-task learning
JP5710581B2 (ja) 質問応答装置、方法、及びプログラム
US20130036076A1 (en) Method for keyword extraction
JP5650440B2 (ja) 素性重み学習装置、N−bestスコアリング装置、N−bestリランキング装置、それらの方法およびプログラム
US20180341686A1 (en) System and method for data search based on top-to-bottom similarity analysis
CN106777957A (zh) 不平衡数据集上生物医学多参事件抽取的新方法
Banik et al. Gru based named entity recognition system for bangla online newspapers
CN110879834A (zh) 一种基于循环卷积网络的观点检索系统及其观点检索方法
CN104317882A (zh) 一种决策级中文分词融合方法
AU2018226420A1 (en) Voice assisted intelligent searching in mobile documents
Kang et al. A short texts matching method using shallow features and deep features
Rosu et al. Nlp based deep learning approach for plagiarism detection
KR20200131736A (ko) 다중작업 학습을 이용한 텍스트 분류 방법 및 서버
Patel et al. Personality analysis using social media
Joshi et al. Word embeddings in low resource Gujarati language
CN115510230A (zh) 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法
Schirmer et al. A new dataset for topic-based paragraph classification in genocide-related court transcripts
Laatar et al. Word embedding for Arabic word sense disambiguation to create a historical dictionary for Arabic language
Vu et al. Building a vietnamese sentiwordnet using vietnamese electronic dictionary and string kernel
Das et al. Sentiment Analysis on Comments in Bengali Language Using Text Mining & Machine Learning Approach
Rachmawati et al. Transfer learning for closed domain question answering in COVID-19
Sun et al. Generalized abbreviation prediction with negative full forms and its application on improving chinese web search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141113

R150 Certificate of patent or registration of utility model

Ref document number: 5650440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150