JP7320248B2 - 興味推定方法、興味推定装置および興味推定プログラム - Google Patents
興味推定方法、興味推定装置および興味推定プログラム Download PDFInfo
- Publication number
- JP7320248B2 JP7320248B2 JP2019126817A JP2019126817A JP7320248B2 JP 7320248 B2 JP7320248 B2 JP 7320248B2 JP 2019126817 A JP2019126817 A JP 2019126817A JP 2019126817 A JP2019126817 A JP 2019126817A JP 7320248 B2 JP7320248 B2 JP 7320248B2
- Authority
- JP
- Japan
- Prior art keywords
- topic
- interest
- word
- utterance
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
(a)入力された文がどのようなトピックに属するかを、単語系列エンコーダ及びトピック別分類部により事前に推定するための事前学習を行うステップ、
(b)話者の発話に含まれる単語の系列から得られた単語ベクトル系列から、単語系列エンコーダにより隠れ状態ベクトル系列を作成するステップ隠れ状態ベクトル系列を作成するステップ、
(c)単語系列エンコーダにより作成された隠れ状態ベクトル系列から、単語アテンション部により発話ベクトルを作成するステップ、
(d)単語アテンション部により作成された発話ベクトルから、トピック別発話アテンション部により、興味トピックに関するコンテントベクトルを作成するステップ、
(e)トピック別発話アテンション部により作成されたコンテントベクトルから、興味推定部により興味トピックに対する発話者の興味度を求めるステップ。
本発明の実施の形態例では、まず、話者Sが他の話者(雑談対話システムを含む)との対話中に行ったときの、話者Sの発話集合Us=(u1、u2、・・・un)が与えられる。そして、この話者Sの発話集合Us=(u1、u2、・・・un)から、ある興味トピックT=(t1、t2、・・・、tm)に対する、話者Sの興味対象の度合い(興味度)Ys=(y1、y2、・・・、ym)が推定される。ここで、発話集合Usの各要素u1、u2、・・・unは、それぞれが異なる発話文を意味しており、各要素u1~unのそれぞれが後述する1つの発話文のベクトルX=(x1、x2、・・・xk)に相当する。
(i)その発話はどのようなトピックに関するものであるか
(ii)話者Sはそのトピックについてどの程度興味を持っているか
以上の2点を効率的に行うため、発明者は、ニューラルネットワークモデルと、このモデルの効率的な学習を行うための事前学習の手法を考えた。
図1、図2に示すように、本例の興味推定方法は、図1に示す4つの工程と図2に示す事前学習とに分けて説明される。すなわち、図1には、以下の4つの工程が示されている。
(1)単語系列エンコーダにより発話中の単語ベクトル系列から隠れ状態ベクトル系列を作成する工程、
(2)単語アテンション(Attention)部により、隠れ状態ベクトル系列から固定長ベクトルである発話ベクトルを作成する工程、
(3)トピック別発話アテンション(Attention)部により、入力された発話ベクトルからトピックごとに各トピックの重要度を示すコンテントベクトルを作成する工程、
(4)興味推定部により、トピック別発話アテンション部で作成されたコンテントベクトルから、各トピックの興味度を求める工程。
図2は、単語系列エンコーダの出力を、別に用意されたニューラルネットワークに供給して、どの発話がどのトピックに近いかを予め学習させるための事前学習の工程を示す。つまり、話者Sの発話から興味度を推定するには、話者Sの発話がどのトピックに対応しているのか予め知っておくとよい。このため事前学習では、入力文がどのトピックに関係しているかを事前に学習させる。この事前学習を導入することにより、後述するように、興味度の推定値が実際のユーザの興味に近いものとなる。
以下、単語系列エンコーダ1、事前学習のトピック別分類部5、単語アテンション部2、トピック別発話アテンション部3、興味推定部4の作用、機能等について、項目別に順に説明する。
最初に発話文を単語に分割し、分割されたk個の単語は、Word2Vecによってベクトルに変換され、k個の要素を持つ単語ベクトルの系列X=(x1、x2、・・・、xk)が得られる。ここで、Word2Vecは、「Word to Vector」を略記したものであり、単語からベクトルを生成するツールである。
上述の単語ベクトル系列の作成は、本例の提案方法において前処理として行われるものであるが、「話者が発話した発話文を単語に分割し、分割された単語を単語ベクトルに変換することで単語ベクトル系列を作成するステップ」として、また、本例の提案方法を実行する装置としては、「話者が発話した発話文を単語に分割し、分割された単語を単語ベクトルに変換することで単語ベクトル系列を作成する単語ベクトル系列作成部」として、本発明に組み入れられても良い。また、これらのステップを以下に記載の単語系列エンコーダの機能の1つとして組み入れても良い。
単語系列エンコーダ1は、話者Sの発話した単語ベクトルの系列X=(x1、x2、・・・、xk)をRNN(Recurrent Neural Network)を用いてエンコードする。
本例の提案方法では、RNNの中間層として双方向GRU(Bidirectional-Gated Recurrent Unit)が用いられる。
ここで、図2に示されるトピック別分類部5の機能と事前学習について説明する。ユーザがどのトピックにどれだけ興味を持つかを推定するためには、まずユーザからの発話がどのようなトピックに関するものかを予め推定することが重要である。
全ての発話に人手でアノテーションする、つまり注釈をつけることも可能であるが、その作業コストは極めて高いものとなる。また、トピックの情報が明示的に与えられない場合には、ユーザの発話情報と発話したユーザの興味度から間接的にトピックを推定しなければならない。そこで、本例の提案方法では、単語系列エンコーダ1に対して、事前学習の考え方を導入している。
この事前学習では、分類クラスを本例の興味推定方法の対象とする興味トピックYsと同一にすることが重要である。つまり、本例の興味推定方法において対象とする興味トピックYsと分類クラスを同一にすることによって、発話と興味推定対象トピックの対応関係を推定するための学習コストが下がり、興味推定によりフォーカスされた適切な学習が可能となる。
なお、ソフトマックス関数は、それぞれの出力を「0~1」の間の値に落とし込み、出力された値の合計が「1」になる関数である。
図2は、単語アテンション部2で用いられるニューラルネットワークとは別の異なるニューラルネットワークに単語系列エンコーダ1の隠れ状態ベクトル「hk」を入力して別の処理を行う事前学習について説明するための図である。
すなわち、トピック別分類部5は、数3式で計算した所属確率分布pから、入力される隠れ状態ベクトル「hk」がどのトピックに近いかを推定する。この事前学習により、入力される発話がどのトピックに近いかを予めニューラルネットワークに学習させることができる。
本例の提案手法では、「全ての単語が求めたい結果に平等に貢献するわけではない」という考えに基づき、単語アテンション部2が導入されている。
単語アテンション部2では、アテンション機構により単語ごとに異なる重み付けを行う。ここでアテンション機構とは、重要度が高い単語に注目させるためのニューラルネットワークの構造をいう。例えば、「私は野球が好きです」という発話の意味を理解するためには、「は」や「です」という単語よりも「野球」や「好き」という単語の方が、重要度が高い。したがって、単語アテンション部2は、「野球」や「好き」という単語に大きな重みを与える。
なお、単語の重要度を計算するための文脈ベクトル「vω」は、乱数により初期化され、他のパラメータと同様に学習により最適化される。
トピック別発話アテンション部3は、全てのトピック「ti」(i=1~m)に関するコンテントベクトル(content vector)「cti」を求める。以下、コンテントベクトル「cti」の生成について説明する。
トピック別発話アテンション部3には、単語系列エンコーダ1及び単語アテンション部2によって、発話集合Us=(u1、u2、・・・un)からエンコードされた発話ベクトル集合Zs=(z1、z2、・・・zn)が供給される。
すなわち、数7式は、単語アテンション部2の出力である、単語の重要度を表す発話ベクトル「zj」(j=1~n)が、別のニューラルネットワークのパラメータWr、brとハイパボリックタンジェント関数を用いて、異なる別のベクトル「vj」に変換される。
トピック別発話アテンション部3で求められた各トピック「ti」のコンテントベクトル 「cti」(i=1~m)は、興味推定部4に供給される。
興味推定部4は、このコンテントベクトル「cti」を用いて、トピック「ti」に対する興味度「dti」を数10式によって求める。
また、数10式の「+1」は、興味度「dti」を、正解である興味度「yi」と同じ「0~2」にスケーリングするための項である。
なお、学習の際の損失関数には、数11式で示されるように、正解である興味度「yi」と数10式で求めた興味度「dti」の平均二乗誤差Lを用いることとした。
本例の興味推定方法による処理を以下、実験例で示す。
以下、本例の興味推定方法(提案方法)の性能評価のために、2名の被験者が1対1で対話したチャットログから推定した興味度「dti」と、被験者が事前にアンケート回答した正解の興味度「yi」との相関性を評価した実験例について説明する。
この実験では、「機械学習用ライブラリチェイナー(Chainer)」を用いて評価した。なお、チェイナー(Chainer)はニューラルネットワークの計算および学習を行うためのオープンソフトウェアライブラリである。
すなわち、本例の提案方法では、図1に示すように、単語系列エンコーダ1、単語アテンション部2、興味推定部4のほかに、新たにトピック別発話アテンション部3を組み込んで、実験用モデルを構築した。
評価は、10分割交差検証により行った。なお、対話単位ではなく、データ単位(被験者単位)で交差検証を行ったため、学習データとテストデータの間で、同一の被験者による発話が使用されることはない。
本例の実験例では、各トピックに対するユーザ「s」の興味度Ysの値(0、1、2)を適合度とした。
1つ目の手法は、本例の提案手法における事前学習を行わないで、単語系列エンコーダ1の初期値を乱数として学習を行った「事前学習なし」である。この「事前学習なし」では、図2で説明した事前学習がないだけで、図1に示す単語系列エンコーダ1、単語アテンション部2、トピック別発話アテンション部3および興味推定部4のすべての処理を実施した。
本例の提案手法の次には、トピック別発話アテンションを適用しないで、事前学習を適用した比較例のNDCGが、良い結果だった。この結果から、トピック別発話アテンションはNDCGの向上に一定の役割を果たしている、つまり有効であると考えられる。
また、トピック頻度のベースラインは、K=1のときに、SVRよりも高いNDCGを示した。これはユーザが積極的に発言したトピックに対して、興味ありと正しく推定できたためであると考えられる。このトピック頻度のベースラインも、本例の提案手法や他のニューラルネットワークベースと比較すると劣る結果となり、トピック頻度のベースラインは、K≧4では、すべての手法の中で最低のNDCGになった。
上述したように、本例で提案した、トピック別発話アテンションと事前学習を同時に適応することにより、良い性能(NDCG)とMSEが得られることが判明した。
そこで、次に、トピック別発話アテンションの分析を行うため、数8式で求められる発話文の重要度「αjti」の値をトピック別に計算し、これを可視化した。図8は、事前学習を行った本例の提案手法によるトピック別発話アテンションを可視化したものである。これに対して、図9は事前学習を行わないで、トピック別発話アテンションを可視化したものである。図8、図9とも濃い色であるほど発話文の重要度「αjti」が高いことを示している。
ニューラルネットワークモデルの学習において、学習データの量は、モデルの性能を左右する極めて重要な要素の一つである。本例の提案方法を検証する実験(以下、「本実験」と称する)では、163名の被験者による408対話を収集したが、データとしては必ずしも十分な量ではなかった。したがって、学習データを追加することで、さらなる性能向上も期待できると考えられる。特に、学習データを追加するにあたり、1被験者当たりの発話数を増やすのか、もしくは被験者の数を増やすのかという収集方針の決定は、効率的なデータの収集という点で重要である。
図10から、発話数を制限するよりも、被験者数を制限した場合の方が、性能が落ちていることが分かる。特に、被験者数10%のNDCGは、性能が著しく低下している。一方、発話数を制限した場合には、全データを使用した場合と比べ、性能が低下しているものの、その影響は比較的小さいことが分かった。
以上から、学習データを追加する場合には、1被験者当たりの発話数を増やすよりも、被験者数を増加させることが性能向上に寄与することが確認された。
実験の結果は、すでに説明したとおり、本例の提案手法がベースライン手法に比べて、より的確に興味度を推定できることが確認された。また、本例で提案したトピック別発話アテンションとトピック別分類の事前学習を併用することが有効であることも確認された。
Claims (7)
- 入力された文がどのようなトピックに属するかを、単語系列エンコーダ及びトピック別分類部により事前に推定するための事前学習を行うステップと、
話者の発話に含まれる単語の系列から得られた単語ベクトル系列から、前記単語系列エンコーダにより隠れ状態ベクトル系列を作成するステップと、
前記単語系列エンコーダにより作成された前記隠れ状態ベクトル系列から、単語アテンション部により発話ベクトルを作成するステップと、
前記単語アテンション部により作成された前記発話ベクトルから、トピック別発話アテンション部により、興味トピックに関するコンテントベクトルを作成するステップと、
前記トピック別発話アテンション部により作成された前記コンテントベクトルから、興味推定部により前記興味トピックに対する発話者の興味度を求めるステップと、を含む
興味推定方法。 - 入力された文のトピック別分類を予め学習する前記事前学習において、前記文のトピックを分類する分類クラスを、興味推定対象のトピックと同じにする、
請求項1に記載の興味推定方法。 - 前記隠れ状態ベクトル系列は、双方向GRUからなる前記単語系列エンコーダにより、双方向GRUの中の順方向GRUの出力と逆方向GRUの出力を合成して作成される、
請求項1に記載の興味推定方法。 - 前記発話ベクトルは、単語ごとに異なる重みづけを行う前記単語アテンション部により作成される、
請求項1に記載の興味推定方法。 - 前記コンテントベクトルは、トピック別に発話の重要性を計算する前記トピック別発話アテンション部により作成される、
請求項1に記載の興味推定方法。 - 入力された文がどのようなトピックに属するかを事前に推定するための事前学習を行うトピック別分類部と、
入力された文がどのようなトピックに属するかを事前に推定するための事前学習を行うとともに、話者の発話に含まれる単語の系列から得られた単語ベクトル系列から隠れ状態ベクトル系列を作成する単語系列エンコーダと、
前記単語系列エンコーダにより作成された前記隠れ状態ベクトル系列から発話ベクトルを作成する単語アテンション部と、
前記単語アテンション部により作成された前記発話ベクトルから興味トピックに関するコンテントベクトルを作成するトピック別発話アテンション部と、
前記トピック別発話アテンション部により作成された前記コンテントベクトルから前記興味トピックに対する発話者の興味度を求める興味推定部と、を備える
興味推定装置。 - 入力された文がどのようなトピックに属するかを、単語系列エンコーダ及びトピック別分類部により事前に推定するための事前学習を行う処理と、
話者の発話に含まれる単語の系列から得られた単語ベクトル系列から、前記単語系列エンコーダにより隠れ状態ベクトル系列を作成する処理と、
前記単語系列エンコーダにより作成された前記隠れ状態ベクトル系列から、単語アテンション部により発話ベクトルを作成する処理と、
前記単語アテンション部により作成された前記発話ベクトルから、トピック別発話アテンション部により興味トピックに関するコンテントベクトルを作成する処理と、
前記トピック別発話アテンション部により作成された前記コンテントベクトルから前記興味トピックに対する発話者の興味度を求める処理と、
をコンピュータに実行させる興味推定プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018174398 | 2018-09-19 | ||
JP2018174398 | 2018-09-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020053015A JP2020053015A (ja) | 2020-04-02 |
JP7320248B2 true JP7320248B2 (ja) | 2023-08-03 |
Family
ID=69997467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019126817A Active JP7320248B2 (ja) | 2018-09-19 | 2019-07-08 | 興味推定方法、興味推定装置および興味推定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7320248B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329907A (zh) * | 2020-12-24 | 2021-02-05 | 北京百度网讯科技有限公司 | 对话处理方法、装置、电子设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180248895A1 (en) | 2017-02-27 | 2018-08-30 | Amazon Technologies, Inc. | Intelligent security management |
-
2019
- 2019-07-08 JP JP2019126817A patent/JP7320248B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180248895A1 (en) | 2017-02-27 | 2018-08-30 | Amazon Technologies, Inc. | Intelligent security management |
Non-Patent Citations (4)
Title |
---|
奥井 颯平,LSTMを用いたパーソナル対話技術,一般社団法人 人工知能学会 第32回全国大会論文集DVD [DVD-ROM] 2018年度 人工知能学会全国大会(第32回),(一社)人工知能学会,2018年06月05日,4G2-02 |
田中 昂志,雑談対話システムのための未知語に頑健な興味推定手法,情報処理学会 研究報告 自然言語処理(NL) 2018-NL-235 [online] ,情報処理学会,2018年05月06日,Internet<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=187523&file_id=1&file_no=1> |
稲葉 通将,雑談対話からのユーザの興味推定,第84回 言語・音声理解と対話処理研究会資料 (SIG-SLUD-B802) ,一般社団法人人工知能学会,2018年11月15日,pp.155~160,SIG-SLUD-B802-39 |
進藤 智則,パナソニックが深層学習で対話エンジン開発 対話技術コンテストで世界トップ級、ロボに応用へ,NIKKEI Robotics 第18号 ,日経BP社,2016年12月10日,pp.6~9 |
Also Published As
Publication number | Publication date |
---|---|
JP2020053015A (ja) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Meguro et al. | Learning to control listening-oriented dialogue using partially observable markov decision processes | |
Yoon et al. | Speech gesture generation from the trimodal context of text, audio, and speaker identity | |
US11176330B2 (en) | Generating recommendation information | |
US11823061B2 (en) | Systems and methods for continual updating of response generation by an artificial intelligence chatbot | |
Latif et al. | Unsupervised adversarial domain adaptation for cross-lingual speech emotion recognition | |
Levitan et al. | Automatic identification of gender from speech | |
CN110298436B (zh) | 基于指针生成网络的数据到文本的生成模型 | |
Wen et al. | Dynamic interactive multiview memory network for emotion recognition in conversation | |
JP7407968B2 (ja) | 音声認識方法、装置、設備及び記憶媒体 | |
CN111159368B (zh) | 一种个性化对话的回复生成方法 | |
JP6951712B2 (ja) | 対話装置、対話システム、対話方法、およびプログラム | |
CN109564572A (zh) | 生成用于自动聊天的问题-答案对 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
WO2018165932A1 (en) | Generating responses in automated chatting | |
US20230121711A1 (en) | Content augmentation with machine generated content to meet content gaps during interaction with target entities | |
CN105654250A (zh) | 一种满意度自动测评的方法和装置 | |
CN110008335A (zh) | 自然语言处理的方法及装置 | |
CN113326374B (zh) | 基于特征增强的短文本情感分类方法及系统 | |
JP5698105B2 (ja) | 対話モデル構築装置、方法、及びプログラム | |
CN110069611B (zh) | 一种主题增强的聊天机器人回复生成方法及装置 | |
CN113360610A (zh) | 基于Transformer模型的对话生成方法及系统 | |
JP7320248B2 (ja) | 興味推定方法、興味推定装置および興味推定プログラム | |
Huo et al. | TERG: topic-aware emotional response generation for chatbot | |
Chen et al. | Neural response generation with relevant emotions for short text conversation | |
WO2021229643A1 (ja) | 音声信号変換モデル学習装置、音声信号変換装置、音声信号変換モデル学習方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190726 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220629 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230626 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7320248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |