JP2012037797A - 対話学習装置、要約装置、対話学習方法、要約方法、プログラム - Google Patents
対話学習装置、要約装置、対話学習方法、要約方法、プログラム Download PDFInfo
- Publication number
- JP2012037797A JP2012037797A JP2010179330A JP2010179330A JP2012037797A JP 2012037797 A JP2012037797 A JP 2012037797A JP 2010179330 A JP2010179330 A JP 2010179330A JP 2010179330 A JP2010179330 A JP 2010179330A JP 2012037797 A JP2012037797 A JP 2012037797A
- Authority
- JP
- Japan
- Prior art keywords
- hidden markov
- model
- domain
- markov model
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
【解決手段】本発明の対話学習装置は、各対話に含まれる発話にトピックラベルが付与されたN個の対話と各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルを用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルを学習し、隠れマルコフモデルのすべての状態をエルゴディックに接続して、隠れマルコフモデルを作成する。本発明の要約装置は、特徴量抽出部、トピックラベル付与部、ドメイン推定部、選択部を備える。トピックラベル付与部は、発話ごとに、当該発話に含まれる単語から尤もらしいトピックを推定して、トピックラベルとして当該発話に付与する。ドメイン推定部は、各発話のドメインを推定する。選択部は、対話とドメインが一致する発話を、当該対話の中から選択する。
【選択図】図2
Description
コンタクトセンタ(お客様センタ)に寄せられる対話データを要約する要約装置を例にとって説明する。コンタクトセンタは顧客のさまざまな要求に答える必要があるため、コンタクトセンタが扱う対話データの種類はさまざまである。ここで、種類とは、例えば、故障受付や集金処理などを指す。つまり、コンタクトセンタは複数の種類(ドメイン)に分かれた大量の対話データを扱っている。
CSHMMは、Speaker HMM(SHMM)を拡張し、系列の分類問題に適用できるようにしたものである(参考文献1:Toyomi Meguro, Ryuichiro Higashinaka, Kohji Dohsaka, Yasuhiro Minami, and Hideki Isozaki, “Analysis of listening-oriented dialogue for building listening agents”, In Proc. SIGDial, pp.124-127, 2009.)。SHMMは2つの状態を持ち、各状態はそれぞれ話者1、話者2の発話(発話内容を表すシンボル)を出力する。各状態はどの状態にも遷移可能である。このようなHMMは、対話行為列を話者のターン切り替えを考慮してHMMでモデル化する際に用いられる。例えば、参考文献1では、聞き役対話のモデル化にSHMMが使用されている。
対話学習では、以下のような処理を行う。入出力部110は、N個の対話の時系列データ(d1,…,dN)、各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)、各発話がどのドメインに該当するのかを示す情報を、学習データとして受け取る(S111)。学習データの各発話にトピックラベルが付与されていない場合には、次のステップS151、S160、S166を行う。特徴量抽出部150は、対話dnごとに、内容語である単語w1,…,wVとその単語の出現回数c1,…,cVの組<w1,c1>,…,<wV,cV>を生成して特徴量とする(S151)。なお、この特徴量は、いわゆるbag-of-wordsである。トピックモデル学習部160は、あらかじめトピックの数Tを定めておき、特徴量<wv,cv>から、単語wvごとにトピックztを生成する確率P(zt|wv)を示すトピックモデルを作成する(S160)。トピックラベル付与部165は、発話ごとに、当該発話に含まれる単語とトピックモデルから尤もらしいトピックを推定して、トピックラベルとして当該発話に付与する(S166)。具体的には、発話に含まれる単語についてのP(zt|wv)の合計が最大となるトピックztを当該発話のトピックとして推定すればよい。なお。学習データの各発話にトピックラベルが付与されている場合には、ステップS151、S160、S166は行う必要はない。ただし、この場合には、要約作成時のために構築済みのトピックモデルを用意しておくか、特徴量からトピックを推定する方法をあらかじめ定めておけばよい。
次に、要約作成の処理について説明する。入出力部110は、対話のドメインが既知で発話のドメインは未知の対話の時系列データdxを受け取る(S112)。特徴量抽出部150は、要約作成の対象である対話の時系列データdxに含まれる単語w1,…,wUとその単語の出現回数c1,…,cUの組<w1,c1>,…,<wU,cU>を生成して特徴量とする(S152)。トピックラベル付与部165は、対話の時系列データdxに含まれる発話ごとに、当該発話に含まれる単語から尤もらしいトピックを推定して、トピックラベルとして当該発話に付与する(S167)。尤もらしいトピックの推定では、トピックモデル学習部160が対話学習の処理(ステップS160)で学習したトピックモデルを用いてもよいし、あらかじめ作成した特徴量の条件とトピックとを対応つけた表などを用いて特徴量からトピックを求めてもよい。
式(1)を最大化する際には下記の4つの制約を使えばよい。
まず、対話学習について説明する。ステップS111、S151、S160、S166、S120は、実施例1と同じである。第2モデル学習部130は、すべての対話から話者の発話を出力する状態を持つ1つの隠れマルコフモデルM0を学習し、記録部190に記録する(S130)。モデル連結部140は、隠れマルコフモデルM0と隠れマルコフモデルME0のすべての状態をエルゴディックに接続して、隠れマルコフモデルME1を作成し、記録部190に記録する。本実施例の場合、記録部190に記録された隠れマルコフモデルME1が、評価のときに用いる隠れマルコフモデルMCとなる。
次に、要約作成の処理について説明する。ステップS112、S152、S167は実施例1と同じである。ドメイン推定部170の処理(ステップS170)自体は実施例1と同じであるが、利用する隠れマルコフモデルMCが異なる。例えば、エルゴディック1を使うことで、ある入力系列に対して最尤の状態系列が<1,4,5,6,3,2>である場合、それぞれのドメインから,<1,2,0,0,2,1>のように入力系列を分類することができる。ここで、状態5と状態6は共通状態であり、これらに対応する入力系列はドメイン1、ドメイン2のどちらにも属さず、共通の系列であるというように分類される。なお、ここでは共通状態を表すドメインをドメイン0としている。こうすることで、無理やりどちらかのドメインに入力系列を分類しなくても良いため、ドメイン分類の精度向上が期待できる。
実施例2の隠れマルコフモデルM0の場合、分布がブロード(なだらか,一様)になり、M0の状態におけるすべての対話行為の出力確率が平均化され、一様に低くなってしまう可能性がある。それゆえに、未知の対話の時系列データdxが与えられた時、推定される状態の系列が隠れマルコフモデルM0を全く通過しない可能性が出てくる。このような問題を解決するために、本変形例ではM0における状態数を増やす。そうすることで、シャープ(ブロードではない,尖った)な分布を持つ状態をM0が保持することができる。その結果、ビタビデコーディングによって得られる最尤の状態系列がM0を通過する可能性が出てくる。共通状態の状態数を2倍に増やした(話者ごとに2つの状態を持った)隠れマルコフモデルを「エルゴディック2」と呼ぶ。また、共通状態の状態数を3倍に増やした(話者ごとに3つの状態を割り当てた)隠れマルコフモデルを「エルゴディック3」と呼ぶ。
まず、対話学習について説明する。ステップS111、S151、S160、S166は、実施例1と同じである。第1モデル学習部320への入力は、実施例1と同じように各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データ(d1,…,dN)、各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)、各発話がどのドメインに該当するのかを示す情報である。そして、第1モデル学習部320は、これらの情報を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、記録部390に記録する(S320)。
次に、要約作成の処理について説明する。ステップS112、S152、S167は実施例1と同じである。ドメイン推定部170の処理(ステップS170)自体は実施例1と同じであるが、利用する隠れマルコフモデルMCが異なる。ステップS175も実施例1と同じである。また、実施例1と同じように目標とする要約率を定めたい場合には、ドメイン推定部170と選択部175の代わりにドメイン推定部170’と選択部175’を備え、ステップS170’とS175’を実行すればよい。
なお、実施例3の場合も、共通状態(M0に含まれる状態)を増やすことによって、最尤状態系列がより共通状態を通過しやすくなると考えられる。共通状態の状態数を2倍に増やした(話者ごとに2つの状態を持った)隠れマルコフモデルを「連結2」と呼ぶ。また、共通状態の状態数を3倍に増やした(話者ごとに3つの状態を割り当てた)隠れマルコフモデルを「連結3」と呼ぶ。
本発明に対する実験の前に、コンタクトセンタ対話のデータを収集した。実験に使用可能な実際のコンタクトセンタ対話のデータを持っていなかったため、コンタクトセンタ対話と同様の対話を独自に収集した。このデータ収集のため、90人の被験者(49人の男性と41人の女性)を用いた。彼らはオペレータやユーザ(電話をかける人、コーラーとも呼ぶ)に分かれて準備したシナリオにしたがって対話を行った。オペレータは実際にコンタクトセンタで応対経験をした人を用いた。
証券 5.60247606723102
生命 5.31479399477924
富田 4.96995350848751
通帳 4.94010054533783
事故 4.90932888667107
オンライントレード 4.90932888667107
志村 4.81088881385782
死亡 4.81088881385782
自賠責 4.77579749404655
実験では、隠れマルコフモデルMcによる要約の精度の向上を確認するためなので、7種類の評価対象の手法では、再選択部での要約率の調整は行わなかった。しかしながら、基準(ベースライン)となる従来技術はどちらも要約率を設定した上で動作する手法である。これらを同じ条件で比較するため、まず7つの隠れマルコフモデルMcを用いた要約装置それぞれに要約を出力させ、そこで出来た要約の要約率を用いて、従来技術の手法にも要約を出力させた。ただ、先にも触れたように、隠れマルコフモデルMcを用いる場合でも要約率を変更することは可能である。ここでは簡単のため、ビタビデコーディングの結果を用いて要約を得る方式を取っている。
要約の正解データを、それぞれの対話を収録する際に用いられたシナリオとした。シナリオは対話でユーザが話す内容を網羅していると考えられるため、シナリオに含まれるような内容を持つ要約を出力できれば、それは内容を網羅した要約といえるからである。評価指標としては内容語のF値を用いた。F値の算出には、まず内容語の適合率と再現率を算出し、これらの調和平均を取った。なおシナリオや要約には同じ単語が複数回出現することがあるが、それぞれ別の単語として適合率と再現率を計算した。
評価結果を図14に示す。テストデータは、上述のとおり第二回の307対話である。図中のアスタリスク、プラス、e0−e3、c1−c3はそれぞれ、本発明の方法がBL−TF、BL−DD、エルゴティック0〜3、連結1〜3に対して、ウィルコクシン順位符号検定で有意(p<0.01)に性能が高かったことを示す。適合率と再現率でも検定を行っているが、この検定は要約率が同じもの(すなわち,縦のカラム同士)についてのみ行った。
2:ふぐの
2:セットのほう注文したんですけど、確認メールっていうのが届いてないんですけども。
1:注文
1:注文がされたかの確認を行いますので、
1:下関直送ふぐセット十人前、
1:寄り合い、
1:とらふぐの切り身のアラが、二キログラム。
1:ヒレ酒用焼きヒレ
1:ふぐしょうゆ六百ミリリットル。
1:あと、もみじおろし。
1:配送希望日のほうは、二月十三日ということ
2:はい、全部小文字で、
2:これはアルファベットのほうのqですね。
2:ハイフン、g。
2:注文のほうは、ちゃんとできてるということなんですか。
1:はい、JDSコールセンタの、野村でした。
一方、この対話についてBL−DDが出力した要約は下記のとおりである。
1:JDS神奈川コールセンターの、野村です。
2:セットのほう注文したんですけど、確認メールっていうのが届いてないんですけども。
2:五八二七、
1:商品番号、
1:一五四八
1:下関直送ふぐセット十人前、
1:寄り合い、
1:ヒレ酒用焼きヒレ
1:配送希望日のほうは、二月十三日ということ
2:六月十四日です。
1:では、自宅のご自宅の電話番号、お願い
1:ご住所のほうを、郵便番号からお願い
2:六八二、
1:最後にですね、メールアドレスのほう、よろしく
2:はい、全部小文字で、
2:数字で〇三二九、
1:これはアルファベットのほうのqですね。
2:ハイフン、g。
1:では、ほんと、今回。
1:はい、JDSコールセンタの、野村でした。
2:はーい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
51、101、201、301、401 対話学習装置
90、190、390 記録部 110 入出力部
120、320 第1モデル学習部 130、230 第2モデル学習部
140、240 モデル連結部 150 特徴量抽出部
160 トピックモデル学習部 165 トピックラベル付与部
170、170’ ドメイン推定部 175、175’ 選択部
340、440 第1モデル連結部 350 再学習部
360 第2モデル連結部 370 繰返し判定部
Claims (13)
- 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習装置であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルMCを作成する第1モデル学習部
を備える対話学習装置。 - 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習装置であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルME0を作成する第1モデル学習部と、
すべての対話から話者の発話を出力する状態を持つ1つの隠れマルコフモデルM0を学習する第2モデル学習部と、
前記マルコフモデルM0と前記隠れマルコフモデルME0のすべての状態をエルゴディックに接続して、隠れマルコフモデルMCを作成するモデル連結部と
を備える対話学習装置。 - 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習装置であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルME0を作成する第1モデル学習部と、
すべての対話から話者の発話を出力する状態を持つ1つの隠れマルコフモデルM0を学習する第2モデル学習部と、
前記隠れマルコフモデルMkのそれぞれと前記マルコフモデルM0のコピーとをペアにし、前記ペア内のすべての状態を接続して、隠れマルコフモデルM1+0,…,MK+0を作成する第1モデル連結部と、
前記隠れマルコフモデルM1+0,…,MK+0を初期モデル、前記時系列データd1,…,dNと前記ドメインラベルDM(d1),…,DM(dN)を学習データとして与えて隠れマルコフモデルM1+0,…,MK+0を再学習する再学習部と、
再学習された隠れマルコフモデルM1+0,…,MK+0を連結し、1つの隠れマルコフモデルMCとする第2モデル連結部と、
隠れマルコフモデルM1+0,…,MK+0について、学習データに対して所定以上の尤度の改善があるかによって前記再学習部と前記第2モデル連結部の処理を繰り返すかを判定する繰返し判定部と
を備える対話学習装置。 - 請求項2または3記載の対話学習装置であって、
前記隠れマルコフモデルM0は、話者ごとに2つ以上の状態が対応している
ことを特徴とする対話学習装置。 - 請求項1から4のいずれかに記載の対話学習装置であって、
T、Vは2以上の整数、tは1以上T以下の整数、vは1以上V以下の整数とし、
前記の対話dnごとに、内容語である単語w1,…,wVとその単語の出現回数c1,…,cVの組<w1,c1>,…,<wV,cV>を生成して特徴量とする特徴量抽出部と、
あらかじめトピックの数Tを定めておき、前記特徴量<wv,cv>から、単語wvごとにトピックztの発生する確率P(zt|wv)を示すトピックモデルを作成するトピックモデル学習部と、
発話ごとに、当該発話に含まれる単語と前記トピックモデルから尤もらしいトピックを推定して、トピックラベルとして当該発話に付与するトピックラベル付与部も
備え、
前記の対話の時系列データd1,…,dNは、前記トピックラベル付与部によって各発話にトピックラベルが付与されたものである
ことを特徴とする対話学習装置。 - 請求項1から4のいずれかに記載の対話学習装置によって作成された隠れマルコフモデルMCを用いて、対話のドメインが既知で発話のドメインは未知の対話の要約を作成する要約装置であって、
要約作成の対象である前記対話の時系列データdxに含まれる発話ごとに、当該発話に含まれる単語から尤もらしいトピックを推定して、トピックラベルとして当該発話に付与するトピックラベル付与部と、
前記隠れマルコフモデルMCを用いて、前記対話の時系列データdxの各発話が隠れマルコフモデルMCのどのドメインの状態から出力されたかを推定することで各発話のドメインを推定するドメイン推定部と、
前記対話とドメインが一致する発話を、当該対話の中から選択する選択部と
を備える要約装置。 - 請求項5記載の対話学習装置によって作成された隠れマルコフモデルMCとトピックモデルとを用いて、対話のドメインが既知で発話のドメインは未知の対話の要約を作成する要約装置であって、
要約作成の対象である前記対話の時系列データdxに含まれる発話ごとに、当該発話に含まれる単語と前記トピックモデルから尤もらしいトピックを推定して、トピックラベルとして当該発話に付与するトピックラベル付与部と、
前記隠れマルコフモデルMCを用いて、前記対話の時系列データdxの各発話が隠れマルコフモデルMCのどのドメインの状態から出力されたかを推定することで各発話のドメインを推定するドメイン推定部と、
前記対話とドメインが一致する発話を、当該対話の中から選択する選択部と
を備える要約装置。 - 請求項6または7のいずれかに記載の要約装置であって、
前記ドメイン推定部は、各発話が各ドメインにどのくらい対応するかという確率値を算出し、
前記選択部は、目標要約率を取得し、前記確率値を各発話の重要度とみなし、重要なものから選択することで要約率が、当該目標要約率となるように調整する
ことを特徴とする要約装置。 - 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習方法であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
第1モデル学習部が、各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルME0を作成する第1モデル学習ステップを有し、
前記隠れマルコフモデルME0を隠れマルコフモデルMCとする対話学習方法。 - 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習方法であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
第1モデル学習部が、各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルME0を作成する第1モデル学習ステップと、
第2モデル学習部が、すべての対話から話者の発話を出力する状態を持つ1つの隠れマルコフモデルM0を学習する第2モデル学習ステップと、
モデル連結部が、前記マルコフモデルM0と前記隠れマルコフモデルME0のすべての状態をエルゴディックに接続して、隠れマルコフモデルMCを作成するモデル連結ステップと
を有する対話学習方法。 - 複数の発話で構成された対話の、発話ごとのドメインを推定するための隠れマルコフモデルMCを作成する対話学習方法であって、
K、Nは2以上の整数、kは1以上K以下の整数、nは1以上N以下の整数とし、
第1モデル学習部が、各対話に含まれる発話にトピックラベルが付与されたN個の対話の時系列データd1,…,dNと前記の各対話がK種類のドメインのいずれに該当するのかを示したドメインラベルDM(d1),…,DM(dN)を用いて、ドメインごとに、話者の発話を出力する状態を持つ隠れマルコフモデルM1,…,MKを学習し、前記隠れマルコフモデルM1,…,MKのすべての状態をエルゴディックに接続して、隠れマルコフモデルME0を作成する第1モデル学習ステップと、
第2モデル学習が、すべての対話から話者の発話を出力する状態を持つ1つの隠れマルコフモデルM0を学習する第2モデル学習ステップと、
第1モデル連結部が、前記隠れマルコフモデルMkのそれぞれと前記マルコフモデルM0のコピーとをペアにし、前記ペア内のすべての状態を接続して、隠れマルコフモデルM1+0,…,MK+0を作成する第1モデル連結ステップと、
再学習部が、前記隠れマルコフモデルM1+0,…,MK+0を初期モデル、前記時系列データd1,…,dNと前記ドメインラベルDM(d1),…,DM(dN)を学習データとして与えて隠れマルコフモデルM1+0,…,MK+0を再学習する再学習ステップと、
第2モデル連結部が、再学習された隠れマルコフモデルM1+0,…,MK+0を連結し、1つの隠れマルコフモデルMCとする第2モデル連結ステップと、
繰返し判定部が、隠れマルコフモデルM1+0,…,MK+0について、学習データに対して所定以上の尤度の改善があるかによって前記再学習部と前記第2モデル連結部の処理を繰り返すかを判定する繰返し判定ステップと
を有する対話学習方法。 - 請求項9から11のいずれかに記載の対話学習方法によって作成された隠れマルコフモデルMCを用いて、対話のドメインが既知で発話のドメインは未知の対話の要約を作成する要約方法であって、
トピックラベル付与部が、要約作成の対象である前記対話の時系列データdxに含まれる発話ごとに、当該発話に含まれる単語から尤もらしいトピックを推定して、トピックラベルとして当該発話に付与するトピックラベル付与ステップと、
ドメイン推定部が、前記隠れマルコフモデルMCを用いて、前記対話の時系列データdxの各発話が隠れマルコフモデルMCのどのドメインの状態から出力されたかを推定することで各発話のドメインを推定するドメイン推定ステップと、
選択部が、前記対話とドメインが一致する発話を、当該対話の中から選択する選択ステップと
を有する要約方法。 - 請求項1から5のいずれかに記載の対話学習装置、もしくは、請求項6から8のいずれかに記載の要約装置としてコンピュータを機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010179330A JP5346327B2 (ja) | 2010-08-10 | 2010-08-10 | 対話学習装置、要約装置、対話学習方法、要約方法、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010179330A JP5346327B2 (ja) | 2010-08-10 | 2010-08-10 | 対話学習装置、要約装置、対話学習方法、要約方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012037797A true JP2012037797A (ja) | 2012-02-23 |
JP5346327B2 JP5346327B2 (ja) | 2013-11-20 |
Family
ID=45849831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010179330A Active JP5346327B2 (ja) | 2010-08-10 | 2010-08-10 | 対話学習装置、要約装置、対話学習方法、要約方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5346327B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106551A (ja) * | 2012-11-22 | 2014-06-09 | Nippon Telegr & Teleph Corp <Ntt> | トークスクリプト抽出装置、方法、及びプログラム |
JP2017111190A (ja) * | 2015-12-14 | 2017-06-22 | 株式会社日立製作所 | 対話テキスト要約装置及び方法 |
CN109036381A (zh) * | 2018-08-08 | 2018-12-18 | 平安科技(深圳)有限公司 | 语音处理方法及装置、计算机装置及可读存储介质 |
JP2019016324A (ja) * | 2017-07-11 | 2019-01-31 | 日本電信電話株式会社 | 予測装置、予測方法および予測プログラム |
CN110309275A (zh) * | 2018-03-15 | 2019-10-08 | 北京京东尚科信息技术有限公司 | 一种对话生成的方法和装置 |
CN110634480A (zh) * | 2018-06-22 | 2019-12-31 | 株式会社日立制作所 | 语音对话系统与模型创建装置及其方法 |
WO2020158409A1 (ja) * | 2019-01-28 | 2020-08-06 | 日本電信電話株式会社 | 要約生成装置、方法、プログラム、及び記憶媒体 |
CN113761176A (zh) * | 2021-02-19 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 会话摘要提取方法、设备及存储介质 |
WO2022177165A1 (ko) * | 2021-02-19 | 2022-08-25 | 삼성전자주식회사 | 음성 인식 결과를 분석하는 전자 장치 및 방법 |
WO2023062851A1 (ja) * | 2021-10-11 | 2023-04-20 | Nttテクノクロス株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003126A (ja) * | 1998-03-23 | 2000-01-07 | Xerox Corp | 音声部を使用するテキスト要約方法 |
JP2004198597A (ja) * | 2002-12-17 | 2004-07-15 | Advanced Telecommunication Research Institute International | 音声認識装置および文分類装置としてコンピュータを動作させるコンピュータプログラム、階層化された言語モデルを作成する方法を実現する様にコンピュータを動作させるコンピュータプログラム、および記憶媒体 |
WO2005069158A2 (ja) * | 2004-01-16 | 2005-07-28 | Nec Corp | テキスト処理方法/プログラム/プログラム記録媒体/装置 |
JP2006139185A (ja) * | 2004-11-15 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法、この方法を実施する装置、プログラムおよびその記録媒体 |
JP2008058813A (ja) * | 2006-09-01 | 2008-03-13 | Honda Motor Co Ltd | 音声応答システム、音声応答プログラム |
JP2008070805A (ja) * | 2006-09-15 | 2008-03-27 | Honda Motor Co Ltd | 音声認識装置、音声認識方法、及び音声認識プログラム |
JP2009193533A (ja) * | 2008-02-18 | 2009-08-27 | Oki Electric Ind Co Ltd | 情報抽出装置、方法及びプログラム |
-
2010
- 2010-08-10 JP JP2010179330A patent/JP5346327B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003126A (ja) * | 1998-03-23 | 2000-01-07 | Xerox Corp | 音声部を使用するテキスト要約方法 |
JP2004198597A (ja) * | 2002-12-17 | 2004-07-15 | Advanced Telecommunication Research Institute International | 音声認識装置および文分類装置としてコンピュータを動作させるコンピュータプログラム、階層化された言語モデルを作成する方法を実現する様にコンピュータを動作させるコンピュータプログラム、および記憶媒体 |
WO2005069158A2 (ja) * | 2004-01-16 | 2005-07-28 | Nec Corp | テキスト処理方法/プログラム/プログラム記録媒体/装置 |
JP2006139185A (ja) * | 2004-11-15 | 2006-06-01 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識方法、この方法を実施する装置、プログラムおよびその記録媒体 |
JP2008058813A (ja) * | 2006-09-01 | 2008-03-13 | Honda Motor Co Ltd | 音声応答システム、音声応答プログラム |
JP2008070805A (ja) * | 2006-09-15 | 2008-03-27 | Honda Motor Co Ltd | 音声認識装置、音声認識方法、及び音声認識プログラム |
JP2009193533A (ja) * | 2008-02-18 | 2009-08-27 | Oki Electric Ind Co Ltd | 情報抽出装置、方法及びプログラム |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014106551A (ja) * | 2012-11-22 | 2014-06-09 | Nippon Telegr & Teleph Corp <Ntt> | トークスクリプト抽出装置、方法、及びプログラム |
JP2017111190A (ja) * | 2015-12-14 | 2017-06-22 | 株式会社日立製作所 | 対話テキスト要約装置及び方法 |
JP2019016324A (ja) * | 2017-07-11 | 2019-01-31 | 日本電信電話株式会社 | 予測装置、予測方法および予測プログラム |
CN110309275A (zh) * | 2018-03-15 | 2019-10-08 | 北京京东尚科信息技术有限公司 | 一种对话生成的方法和装置 |
CN110634480A (zh) * | 2018-06-22 | 2019-12-31 | 株式会社日立制作所 | 语音对话系统与模型创建装置及其方法 |
CN109036381A (zh) * | 2018-08-08 | 2018-12-18 | 平安科技(深圳)有限公司 | 语音处理方法及装置、计算机装置及可读存储介质 |
WO2020158409A1 (ja) * | 2019-01-28 | 2020-08-06 | 日本電信電話株式会社 | 要約生成装置、方法、プログラム、及び記憶媒体 |
JP2020118929A (ja) * | 2019-01-28 | 2020-08-06 | 日本電信電話株式会社 | 要約生成装置、方法、プログラム、及び記憶媒体 |
JP7028198B2 (ja) | 2019-01-28 | 2022-03-02 | 日本電信電話株式会社 | 要約生成装置、方法、プログラム、及び記憶媒体 |
CN113761176A (zh) * | 2021-02-19 | 2021-12-07 | 北京沃东天骏信息技术有限公司 | 会话摘要提取方法、设备及存储介质 |
WO2022177165A1 (ko) * | 2021-02-19 | 2022-08-25 | 삼성전자주식회사 | 음성 인식 결과를 분석하는 전자 장치 및 방법 |
WO2023062851A1 (ja) * | 2021-10-11 | 2023-04-20 | Nttテクノクロス株式会社 | 情報処理装置、情報処理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5346327B2 (ja) | 2013-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5346327B2 (ja) | 対話学習装置、要約装置、対話学習方法、要約方法、プログラム | |
US10827024B1 (en) | Realtime bandwidth-based communication for assistant systems | |
US11669918B2 (en) | Dialog session override policies for assistant systems | |
US11159767B1 (en) | Proactive in-call content recommendations for assistant systems | |
JP6967059B2 (ja) | 映像を生成するための方法、装置、サーバ、コンピュータ可読記憶媒体およびコンピュータプログラム | |
US11074416B2 (en) | Transformation of chat logs for chat flow prediction | |
JP2022551788A (ja) | 補助システムのためのプロアクティブコンテンツを生成すること | |
CN114556354A (zh) | 自动确定和呈现来自事件的个性化动作项 | |
CN109844708A (zh) | 通过聊天机器人推荐媒体内容 | |
CN109767787A (zh) | 情绪识别方法、设备及可读存储介质 | |
Wang et al. | Response selection for multi-party conversations with dynamic topic tracking | |
US11397952B2 (en) | Semi-supervised, deep-learning approach for removing irrelevant sentences from text in a customer-support system | |
JP2023531346A (ja) | 補助システムにおけるマルチパーソンコーリングのための単一の要求の使用 | |
US11886473B2 (en) | Intent identification for agent matching by assistant systems | |
US20200387534A1 (en) | Media selection based on content topic & sentiment | |
Zhou et al. | Odsum: New benchmarks for open domain multi-document summarization | |
Das | A multimodal approach to sarcasm detection on social media | |
CN111310453A (zh) | 一种基于深度学习的用户主题向量化表示方法和系统 | |
JP5562219B2 (ja) | 要約装置、要約作成方法及びプログラム | |
US20230289854A1 (en) | Multi-channel feedback analytics for presentation generation | |
US20210304760A1 (en) | System and Method for Structuring Chat History Using Machine-Learning-Based Natural Language Processing | |
KR20230146398A (ko) | 바트 모델을 활용한 시퀀셜 텍스트 요약 처리 장치 및 그 제어방법 | |
CN112597295A (zh) | 摘要提取方法、装置、计算机设备和存储介质 | |
CN113239164A (zh) | 多轮对话流程构建方法、装置、计算机设备及存储介质 | |
CN115577084B (zh) | 一种对话策略的预测方法及预测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20121101 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5346327 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |