JP6962424B2 - 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム - Google Patents
対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム Download PDFInfo
- Publication number
- JP6962424B2 JP6962424B2 JP2020136311A JP2020136311A JP6962424B2 JP 6962424 B2 JP6962424 B2 JP 6962424B2 JP 2020136311 A JP2020136311 A JP 2020136311A JP 2020136311 A JP2020136311 A JP 2020136311A JP 6962424 B2 JP6962424 B2 JP 6962424B2
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- feature
- word
- question
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
(参考非特許文献1:東中竜一郎,船越孝太郎,“Project Next NLP対話タスクにおける雑談対話データの収集と対話破綻アノテーション”,人工知能学会 言語・音声理解と対話処理研究会 第72回,pp.45-50, 2014.)
まず、各実施形態で用いる用語について簡単に説明する。
対話の破綻に影響を及ぼす要因は様々あり、各要因に関連する特徴量も多様である。以下、対話が破綻しているか否かの特徴を示す特徴量について説明していく。その際、各特徴量の定義に加えて、各特徴量がどのような観点で対話破壊力に影響しているかについても説明する。なお、一般に、特徴量は、対話に含まれるいくつかの発話から抽出されるものであり、ベクトルとして表現される。
現在の対話システムでは、ユーザの発話と関係のない話題の発話を生成してしまい、対話を破綻させてしまう場合がある。また逆に、1つの話題に固執し何度も同じ内容や話題の発話を繰り返すことで、対話を破綻させてしまう場合もある。
単語組合せ特徴量とは、対話内の最後の発話とそれ以外の発話との間または最後の発話内において共起している単語Ngram、単語クラスNgram、単語集合、述語項構造のいずれかの組合せ(以下、単語組合せという)の出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量である。
(対話例1)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
発話間類似度特徴量とは、対話内の最後の発話とそれ以外の発話がどの程度似ているかを表す特徴量であり、後述する類似度のうち、1つ以上の類似度を要素として並べたベクトルである。ここで用いる各類似度は、発話と発話の間の類似の程度を測るものである。
(参考非特許文献2:T. Mikolov, K. Chen, G. Corrado, J. Dean, “Efficient Estimation of Word Representations in Vector Space”, arXiv preprint arXiv:1301.3781, 2013.)
(参考非特許文献3:M. J. Kusner, Y. Sun, N. I. Kolkin, K. Q. Weinberger, “From Word Embeddings To Document Distances”, Proceedings of the 32nd International Conference on Machine Learning (ICML-15), pp.957-966, 2015.)
(参考非特許文献4:平尾努,磯崎秀樹,須藤克仁,Duh Kevin,塚田元,永田昌明,“語順の相関に基づく機械翻訳の自動評価法”,自然言語処理,vol.21, no.3, pp.421-444, 2014.)
(参考非特許文献5:池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦,“日本語語彙大系”,岩波書店,1997.)
(対話例2)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
話題繰り返し数特徴量とは、対話内での話題の繰り返し数を表す特徴量である。ここで、話題とは、焦点となっている単語、焦点となっている述語項構造のことである。
(対話例3)
1 システム: こんにちは。熱中症に気をつけて。
2 ユーザ: はい。ありがとう。あなたも気を付けて。
3 システム: 熱中症に気をつけないんですか?
4 ユーザ: 小まめに水を飲んだりして、気を付けていますよ。
5 システム:熱中症に気をつけたいんでしょう?
対話行為特徴量とは、対話に含まれる発話が表す対話行為から生成される特徴量である。ここで、対話行為とは、質問・挨拶・自己開示・賞賛・謝罪などのユーザ等の発話意図のことである(参考非特許文献6)。対話行為は、後述するようにBag-of-wordsベクトルとして表すことができる。
(参考非特許文献6:T. Meguro, Y. Minami, R. Higashinaka, K. Dohsaka, “Controlling listening-oriented dialogue using partially observable Markov decision processes”, Proceedings of the 23rd international conference on computational linguistics. Association for Computational Linguistics (COLING 10), pp.761-769, 2010.)
対話行為列特徴量とは、対話に含まれる各発話が表す対話行為を推定した結果(以下、推定対話行為という)を要素とするベクトルとして表現される特徴量である。推定結果(推定対話行為)はBag-of-wordsベクトルとして表すことができる。具体的には、各発話の推定対話行為に対応するBag-of-wordsベクトルは、1bestの対話行為の値を1、それ以外の対話行為の値を0とする1-of-Kベクトルとしたり、推定された対話行為らしさを表す確率分布(確率分布ベクトル)としたりすることで表現できる。なお、対話行為を推定する最後の発話を含み発話は、最後の発話を含む直前のM個の発話である。なお、Mは1〜4程度が好ましい。
予測対話行為特徴量とは、対話に含まれる発話から最後の発話が持つべき対話行為を予測した結果(以下、予測対話行為という)を表す予測結果ベクトル、予測結果ベクトルと最後の発話が表す対話行為を推定した結果を表す推定結果ベクトルを並べたベクトル、予測結果ベクトルと推定結果ベクトルの差分ベクトル、予測結果ベクトルと推定結果ベクトルの1bestが一致しているか否かの真偽値のうち、いずれか1つ以上からなる特徴量である。予測結果ベクトルと推定結果ベクトルの1bestが一致するとは、各ベクトルの要素のうち最大となる要素の次元が一致することをいう。
文字列共起特徴量とは、対話内の最後の発話とそれ以外の発話との間において共起している文字列Ngram(ただし、Nは3以上の整数)の組合せの出現結果を要素とするBag-of-wordsベクトルとして表現される特徴量である。
(対話例4)
1 ユーザ: どこから来たんですか?
2 システム: フォレストアドベンチャーと竹田城跡なら、どちらに関心がありますか?
(3-1)質問タイプ特徴量
質問タイプ特徴量とは、対話内の最後の発話の直前の発話が質問である場合、推定される質問タイプを表す特徴量である。質問タイプの例として、話者の具体的な嗜好や経験を問うパーソナリティ質問、具体的な事物を問うファクトイド質問、(ニュースなど)ある事象の5W1Hを問う質問などが挙げられる。また、“レストランの場所”のように、話題に紐付いた形で質問タイプを定義してもよい。
質問クラス特徴量とは、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、回答(最後の発話)に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量である。推定される単語クラスを表すベクトル、回答に含まれる単語クラスを表すベクトルは、確率分布ベクトルや1-of-Kベクトルとして表現することができる。
(対話例5)
1 ユーザ: どこから来たんですか?
2 システム:京都から来ました
例えば、対話例5において、ユーザ発話が回答に要求している単語クラスが「場所」であると推定され、システム発話に「場所」の単語クラスが含まれていると推定された場合を考える。単語クラスの集合を固有物、場所、数量としたとき、ユーザ発話から得られる1-of-Kベクトル(つまり、質問が回答に要求していると推定される単語クラスを表すベクトル)は(0,1,0)となり、システム発話から得られる1-of-Kベクトル(つまり、回答(最後の発話)に含まれる単語クラスを表すベクトル)は(0,1,0)となる。例えば、これらのベクトルを結合したベクトルを質問クラス特徴量とすると、ベクトル(0,1,0,0,1,0)が質問クラス特徴量として得られることになる。
(4-1)パープレキシティ特徴量
パープレキシティ特徴量とは、対話に含まれる各発話について言語モデルを用いて計算したパープレキシティを表す特徴量である。パープレキシティは、単語間の連なりの自然さを表現しており、文法的に不自然な発話を検出することができる。また、言語モデルは、単語Ngramや文字Ngram(Nは1〜7程度が多い)を利用したもの、Recurrent Neural Networkを利用したものが知られている。パープレキシティを計算できるものであればどのような言語モデルを用いてもよい。パープレキシティ特徴量は、パープレキシティの値そのものを直接特徴量とする方法のほか、適当な個数に量子化した1-of-Kベクトルを特徴量としてもよい。
単語特徴量とは、対話に含まれる各発話の単語N-gram(Nは1〜5程度)を並べたBag-of-wordsベクトルとして表現される特徴量である。
(対話例6)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
単語クラス特徴量とは、対話に含まれる各発話の単語に対応する単語クラスを並べたBag-of-classesベクトルとして表現される特徴量である。単語クラスとは、その単語のおおまかな意味を表すものである。
(対話例7)
1 ユーザ: どこから来たんですか?
2 システム: 京都から来ました
例えば、対話例7において、単語クラスを人名、場所、金額に限定した場合を考える。このとき、ユーザ発話には単語クラスに変換可能な単語が含まれていないため、(0,0,0)が単語クラス特徴量として得られる。一方、システム発話には「場所」の単語クラスが含まれていると推定されるため、(0,1,0)が単語クラス特徴量として得られる。
単語ベクトル特徴量とは、対話に含まれる各発話の単語N-gram(Nは1〜5程度)を表すベクトルから生成されるベクトルとして表現される特徴量である。例えば、重み付き平均や要素ごとの掛け合わせを用いて生成することができる。
(対話例8)
1 ユーザ: こんにちは/。/旅行/は/好き/です/か/?
2 システム: はい/。/先日/京都/に/行き/まし/た/。
文長特徴量とは、対話内の最後の発話の単語長および文字長を表す特徴量である。
ターン数特徴量とは、対話開始からの経過ターン数を表す特徴量である。
(5-1)頻出単語列特徴量
頻出単語列特徴量とは、対話内に所定の頻度T以上出現する単語Ngramの文字列を要素とする特徴量である。ここで、Nは4〜7程度、Tは10以上が好ましい。
[対話破壊モデル学習装置100]
以下、図1〜図2を参照して対話破壊モデル学習装置100について説明する。図1に示すように対話破壊モデル学習装置100は、対話破壊特徴量抽出部110、モデル生成部120、記録部190を含む。記録部190は、対話破壊モデル学習装置100の処理に必要な情報を適宜記録する構成部である。例えば、学習中の対話破壊モデル(対話破壊モデルパラメータ)を記録する。
以下、図3〜図4を参照して対話破壊力推定装置200について説明する。図3に示すように対話破壊力推定装置200は、対話破壊特徴量抽出部110、対話破壊力計算部220を含む。
この発明は上述の実施形態に限定されるものではなく、この発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。上記実施形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
Claims (3)
- Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出部と
を含む対話破壊特徴量抽出装置であって、
前記対話破壊特徴量抽出部は、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算部を含み、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量、
ターン数特徴量を、対話開始からの経過ターン数を表す特徴量、
質問クラス特徴量を、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、最後の発話に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量、
話題繰り返し数特徴量を、対話内での話題の繰り返し数を表す特徴量、
質問タイプ特徴量を、具体的な事物を問うファクトイド質問であるか否か、または、ある事象の5W1Hを問う質問であるか否かを表す特徴量とし、
前記対話破壊特徴量は、文長特徴量、ターン数特徴量、質問クラス特徴量、話題繰り返し数特徴量、質問タイプ特徴量のうち、2つ以上の特徴量を含む組合せであり、
当該組合せに含まれる特徴量の1つは、質問タイプ特徴量であることを特徴とする対話破壊特徴量抽出装置。 - Jを1以上の整数、第j種特徴量(1≦j≦J)を対話が破綻しているか否かの特徴を示す特徴量とし、
対話破壊特徴量抽出装置が、一連の発話からなる対話から、前記第j種特徴量(1≦j≦J)の組合せである対話破壊特徴量を抽出する対話破壊特徴量抽出ステップと
を含む対話破壊特徴量抽出方法であって、
前記対話破壊特徴量抽出ステップは、1≦j≦Jを満たす各jについて、前記対話から前記第j種特徴量を計算する第j種特徴量計算ステップを含み、
文長特徴量を、対話内の最後の発話の単語長および文字長を表す特徴量、
ターン数特徴量を、対話開始からの経過ターン数を表す特徴量、
質問クラス特徴量を、対話内の最後の発話の直前の発話が質問である場合、質問が回答に要求していると推定される単語クラスを表すベクトル、最後の発話に含まれる単語クラスを表すベクトル、それらの差分ベクトル、それらの2つのベクトルが表す単語クラスが一致しているか否かを表す真偽値のうち、いずれか1つ以上からなる特徴量、
話題繰り返し数特徴量を、対話内での話題の繰り返し数を表す特徴量、
質問タイプ特徴量を、具体的な事物を問うファクトイド質問であるか否か、または、ある事象の5W1Hを問う質問であるか否かを表す特徴量とし、
前記対話破壊特徴量は、文長特徴量、ターン数特徴量、質問クラス特徴量、話題繰り返し数特徴量、質問タイプ特徴量のうち、2つ以上の特徴量を含む組合せであり、
当該組合せに含まれる特徴量の1つは、質問タイプ特徴量であることを特徴とする対話破壊特徴量抽出方法。 - 請求項1に記載の対話破壊特徴量抽出装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020136311A JP6962424B2 (ja) | 2019-07-31 | 2020-08-12 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019140495A JP6788077B2 (ja) | 2019-07-31 | 2019-07-31 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
JP2020136311A JP6962424B2 (ja) | 2019-07-31 | 2020-08-12 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019140495A Division JP6788077B2 (ja) | 2019-07-31 | 2019-07-31 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021002040A JP2021002040A (ja) | 2021-01-07 |
JP6962424B2 true JP6962424B2 (ja) | 2021-11-05 |
Family
ID=73994398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020136311A Active JP6962424B2 (ja) | 2019-07-31 | 2020-08-12 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6962424B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024069978A1 (ja) * | 2022-09-30 | 2024-04-04 | 日本電信電話株式会社 | 生成装置、学習装置、生成方法、学習方法、及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5195369B2 (ja) * | 2008-12-05 | 2013-05-08 | 富士通株式会社 | 対話選別プログラム、対話選別装置、および対話選別方法 |
JP6788077B2 (ja) * | 2019-07-31 | 2020-11-18 | 日本電信電話株式会社 | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム |
-
2020
- 2020-08-12 JP JP2020136311A patent/JP6962424B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021002040A (ja) | 2021-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cahn | CHATBOT: Architecture, design, & development | |
US11861307B2 (en) | Request paraphrasing system, request paraphrasing model and request determining model training method, and dialogue system | |
CN110782870A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN1321401C (zh) | 语音识别设备、语音识别方法、会话控制设备以及会话控制方法 | |
US7949531B2 (en) | Conversation controller | |
JP6630304B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
CN113239666B (zh) | 一种文本相似度计算方法及系统 | |
CN113254610A (zh) | 面向专利咨询的多轮对话生成方法 | |
Bokka et al. | Deep Learning for Natural Language Processing: Solve your natural language processing problems with smart deep neural networks | |
CN112185361B (zh) | 一种语音识别模型训练方法、装置、电子设备及存储介质 | |
JP6788077B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
El Janati et al. | Adaptive e-learning AI-powered chatbot based on multimedia indexing | |
Du et al. | Mutux at SemEval-2018 task 1: Exploring impacts of context information on emotion detection | |
JP6962424B2 (ja) | 対話破壊特徴量抽出装置、対話破壊特徴量抽出方法、プログラム | |
Hsueh et al. | A Task-oriented Chatbot Based on LSTM and Reinforcement Learning | |
Väth et al. | Conversational tree search: A new hybrid dialog task | |
KR102183284B1 (ko) | 교차언어 환경에서의 대화 상태 추적 방법 및 시스템 | |
CN114333762B (zh) | 基于表现力的语音合成方法、系统、电子设备及存储介质 | |
Kim et al. | Detecting multiclass emotions from labeled movie scripts | |
Elmadany et al. | Improving dialogue act classification for spontaneous Arabic speech and instant messages at utterance level | |
Fergus et al. | Natural language processing | |
Inui et al. | A case-based natural language dialogue system using dialogue act | |
JP7212888B2 (ja) | 自動対話装置、自動対話方法、およびプログラム | |
Pla et al. | Language understanding using two-level stochastic models with pos and semantic units | |
Wang et al. | Refbert: Compressing bert by referencing to pre-computed representations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210618 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210715 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210914 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6962424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |