JP7042701B2 - Evaluation device, evaluation method and evaluation program - Google Patents
Evaluation device, evaluation method and evaluation program Download PDFInfo
- Publication number
- JP7042701B2 JP7042701B2 JP2018113600A JP2018113600A JP7042701B2 JP 7042701 B2 JP7042701 B2 JP 7042701B2 JP 2018113600 A JP2018113600 A JP 2018113600A JP 2018113600 A JP2018113600 A JP 2018113600A JP 7042701 B2 JP7042701 B2 JP 7042701B2
- Authority
- JP
- Japan
- Prior art keywords
- session
- utterance
- evaluation
- index
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 506
- 230000004044 response Effects 0.000 claims description 207
- 238000000034 method Methods 0.000 claims description 165
- 230000008569 process Effects 0.000 claims description 103
- 230000002349 favourable effect Effects 0.000 description 402
- 238000012545 processing Methods 0.000 description 314
- 238000013210 evaluation model Methods 0.000 description 182
- 239000000284 extract Substances 0.000 description 169
- 238000000605 extraction Methods 0.000 description 133
- 238000010586 diagram Methods 0.000 description 70
- 230000002787 reinforcement Effects 0.000 description 48
- 230000007935 neutral effect Effects 0.000 description 37
- 230000003252 repetitive effect Effects 0.000 description 32
- 238000002474 experimental method Methods 0.000 description 31
- 238000013075 data extraction Methods 0.000 description 27
- 238000012854 evaluation process Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000005611 electricity Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000004308 accommodation Effects 0.000 description 5
- 238000012358 sourcing Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010038583 Repetitive speech Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
特許法第30条第2項適用 発行日 平成30年4月23日 ウェブサイトのアドレス https://www2018.thewebconf.org/proceedings/ 公開者 橋本 力 発行日 平成30年4月23日 ウェブサイトのアドレス https://dl.acm.org/citation.cfm?id=3185992 / 公開者 橋本 力 発行日 平成30年4月23日 ウェブサイトのアドレス https://www2018.thewebconf.org/ 公開者 橋本 力 発行日 平成30年3月5日 ウェブサイトのアドレス http://www.anlp.jp/nlp2018/ 公開者 橋本 力Patent Law Article 30,
本発明は、評価装置、評価方法および評価プログラムに関する。 The present invention relates to an evaluation device, an evaluation method and an evaluation program.
従来、利用者から音声若しくはテキストによるメッセージを受け付けると、受付けたメッセージに対応するメッセージを利用者に提供する対話システムが知られている。このような対話システムにおいて、利用者から受け付けたメッセージ(以下、「発話」と総称する。)に対し、発話に対応する多様な内容のメッセージ(以下、「応答」と総称する。)を利用者に対して提供する技術が適用されている。また、このような対話システムにおいて、発話と応答との流れに基づいて、対話を評価する技術が知られている。 Conventionally, a dialogue system is known in which when a voice or text message is received from a user, a message corresponding to the received message is provided to the user. In such a dialogue system, in response to a message received from a user (hereinafter collectively referred to as "utterance"), a message having various contents corresponding to the utterance (hereinafter collectively referred to as "response") is provided by the user. The technology provided to is applied. Further, in such a dialogue system, a technique for evaluating dialogue based on the flow of utterance and response is known.
しかしながら、上述した従来技術では、対話の評価を適切に行っているとは言えない場合がある。 However, in the above-mentioned conventional technique, it may not be possible to say that the evaluation of the dialogue is properly performed.
例えば、上述した従来技術では、各発話についての満足度を推定するため、対話の流れから対話の状態を推定し、推定した状態に応じた評価を行っているに過ぎない。このため、利用者が対話全体に対して満足しているか否かを必ずしも精度良く行うことができない場合がある。 For example, in the above-mentioned conventional technique, in order to estimate the satisfaction level for each utterance, the state of the dialogue is estimated from the flow of the dialogue, and the evaluation is performed according to the estimated state. Therefore, it may not always be possible to accurately determine whether or not the user is satisfied with the entire dialogue.
本願は、上記に鑑みてなされたものであって、対話に対する評価の精度を改善することを目的とする。 The present application has been made in view of the above, and an object thereof is to improve the accuracy of evaluation for dialogue.
本願に係る評価装置は、対話サービスにおける利用者の発話と当該発話に対する応答とを含むセッションを取得する取得部と、前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成部と、前記画像生成部により生成された画像に基づいて、前記取得部により取得されたセッションを評価する評価部とを有することを特徴とする。 The evaluation device according to the present application generates an image showing whether or not the characters of the utterance included in the session are the same as the acquisition unit that acquires the session including the utterance of the user in the dialogue service and the response to the utterance. It is characterized by having an image generation unit to be used, and an evaluation unit for evaluating a session acquired by the acquisition unit based on an image generated by the image generation unit.
実施形態の一態様によれば、対話に対する評価の精度を改善できる。 According to one aspect of the embodiment, the accuracy of evaluation for dialogue can be improved.
以下に、本願に係る評価装置、評価方法および評価プログラムを実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る評価装置、評価方法および評価プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, an evaluation device, an evaluation method, and an embodiment for implementing the evaluation program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the evaluation device, evaluation method and evaluation program according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.
[実施形態]
〔1.情報提供装置の概要について〕
まず、図1を用いて、抽出装置、評価装置、および学習装置の一例である情報提供装置が実行する処理の一例について説明する。図1は、実施形態に係る情報提供装置が実行する処理の一例を示す図である。
[Embodiment]
[1. About the outline of the information providing device]
First, with reference to FIG. 1, an example of processing executed by an information providing device, which is an example of an extraction device, an evaluation device, and a learning device, will be described. FIG. 1 is a diagram showing an example of processing executed by the information providing device according to the embodiment.
図1では、情報提供装置10は、インターネット等の所定のネットワークN(例えば、図2参照)を介して、対話装置200と相互に通信可能である。なお、情報提供装置10は、利用者が利用する端末装置100と通信可能であってもよい。また、情報提供装置10は、端末装置100や対話装置200以外にも、各種の外部サーバと相互に通信可能であるものとする。
In FIG. 1, the
端末装置100は、スマートフォンやタブレット等のスマートデバイスであり、3G(3rd Generation)やLTE(Long Term Evolution)等の無線通信網を介して任意のサーバ装置と通信を行うことができる携帯端末装置である。なお、端末装置100は、スマートデバイスのみならず、デスクトップPC(Personal Computer)やノートPC等の情報処理装置であってもよい。なお、端末装置100は、利用者が発生した音声(いわゆる「発話」)を取得すると、取得した発話音声を対話装置200へと送信し、対話装置200から送信される応答を取得すると、取得した応答を音声として出力する装置であれば、スマートスピーカ等、任意の装置が採用可能である。
The
対話装置200は、利用者との間の対話を実現する対話処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。例えば、対話装置200は、端末装置100から発話を受付けると、受付けた発話に応じた応答を生成し、生成した応答を音声で出力するためのデータを端末装置100へと送信する。
The
ここで、対話装置200が実現する対話処理の一例について説明する。なお、以下に示す対話処理は、あくまで一例であり、実施形態を限定するものではない。例えば、端末装置100は、利用者が発した音声を発話として取得する(ステップS1)。より具体的な例を挙げると、端末装置100は、ビームフォーミング等の各種音声抽出技術を用いて、発話の音声データを取得する。このような場合、端末装置100は、取得した音声データを所定の変換サーバ(図示は省略)へと送信する。このような場合、変換サーバは、音声データから発話のテキストデータを生成し、生成したテキストデータを端末装置100へと送信する。そして、端末装置100は、テキストデータを発話として対話装置200へと送信する(ステップS2)。
Here, an example of the dialogue processing realized by the
一方、対話装置200は、各種の意図解析技術を用いて、発話として受付けたテキストデータを解析し、発話が示す利用者の意図を推定する。そして、対話装置200は、推定した意図に応じた各種の処理を実行し、実行結果を示すテキストデータを生成する。すなわち、対話装置200は、応答を生成する(ステップS3)。そして、対話装置200は、応答として生成したテキストデータを端末装置100に送信する(ステップS4)。この結果、端末装置100は、テキストデータの読み上げを行ったり、テキストデータを画面上に表示することで、発話に対する応答を利用者に対して提供する(ステップS5)。
On the other hand, the
このような対話装置200が実現する対話処理においては、応答の内容に対して利用者が満足したか否かという評価が重要になる。例えば、ある応答に対して利用者が満足したか否かという情報は、対話装置200が実行する対話処理の精度を向上させるための情報として採用可能である。しかしながら、利用者に対して応答に満足したか否かを問い合わせた場合には、ユーザーエクスペリメンスを毀損する恐れがある。
In the dialogue processing realized by such a
ここで、対話に対して利用者が満足しているか否かを適切に評価するため、利用者が満足したか否かを示すラベルが付与されたラベル付き対話のデータを準備し、各種モデルにラベル付き対話のデータが有する特徴を教師あり若しくは教師なし学習により学習させ、学習済モデルを用いて対話の評価を行うといった手法が考えられる。しかしながら、このようなモデルの学習には、ラベル付き対話のデータが比較的多く必要となるが、ラベル付き対話のデータを作成するのは、手間がかかるという問題がある。 Here, in order to appropriately evaluate whether or not the user is satisfied with the dialogue, data of the labeled dialogue with a label indicating whether or not the user is satisfied is prepared and used in various models. A method is conceivable in which the characteristics of the labeled dialogue data are learned by supervised or unsupervised learning, and the dialogue is evaluated using a trained model. However, learning of such a model requires a relatively large amount of data of the labeled dialogue, but there is a problem that it is troublesome to create the data of the labeled dialogue.
例えば、ラベル付き対話のデータを作成するには、クラウドソージング等の手作業により作成される場合がある。しかしながら、対話の中には、多くの発話と応答とを含む対話(すなわち、長い対話)も存在するため、手作業によりラベルを付与するのは、困難となる場合がある。このため、学習に用いるラベル付き対話のデータを自動的に獲得することができれば、学習を効率的に行うことができ、対話処理の精度を向上させることができると考えられる。 For example, to create data for a labeled dialogue, it may be created manually, such as by cloud sourcing. However, it can be difficult to manually label a dialogue because some dialogues (ie, long dialogues) include many utterances and responses. Therefore, if the data of the labeled dialogue used for learning can be automatically acquired, it is considered that the learning can be performed efficiently and the accuracy of the dialogue processing can be improved.
そこで、情報提供装置10は、対話処理における利用者の発話と応答とを利用して、対話処理に対して利用者が満足したか否かを自動的に評価するための評価処理を実行する。また、情報提供装置10は、評価処理を行う際に用いる発話を抽出する抽出処理を実行する。また、情報提供装置10は、対話を行うためのモデルを学習する学習装置を実行する。そして、情報提供装置10は、抽出装置、評価装置、および学習装置に基づいて、対話装置200による対話処理の精度を向上させる。
Therefore, the
〔1-1.情報提供装置が実行する処理の一例〕
以下、情報提供装置10が実行する処理の一例について説明する。まず、情報提供装置10は、対話装置200から対話処理における発話と応答との履歴である対話履歴を取得する(ステップS6)。そして、情報提供装置10は、対話履歴に基づいて、対話を評価する(ステップS7)。
[1-1. An example of the processing executed by the information providing device]
Hereinafter, an example of the processing executed by the
より具体的には、情報提供装置10は、利用者による発話、その発話に対する応答、およびその応答に対する利用者の発話といった一連の連続する複数の発話と複数の応答とを含む対話履歴をセッションとして抽出する。ここで、情報提供装置10は、任意の基準により定められた複数の発話および応答を1つのセッションとして採用してよい。
More specifically, the
例えば、情報提供装置10は、利用者からの発話が無い状態が所定の時間(例えば、30分)以上経過した場合は、それまでに利用者から受付けた発話および利用者に提供した応答を1つのセッションに含まれる発話および応答としてもよい。また、情報提供装置10は、利用者が対話処理を行うためのアプリケーションを起動させてから、アプリケーションをスリープ若しくは終了させるまでに取得された発話および応答を1つのセッションとしてもよい。すなわち、セッションとは、利用者による評価単位となりえる一連の対話であれば、任意の単位でまとめられた発話および応答を含むものであってよい。
For example, when the
そして、情報提供装置10は、セッションにおける対話の評価を行う。より具体的には、情報提供装置10は、セッションにおける応答や発話に基づいて、セッションにおける対話に利用者が満足したか否かを推定する。例えば、情報提供装置10は、セッションに対する利用者の評価の指標となる複数の特徴のうち、それぞれ異なる種別の特徴に基づいてセッションを評価する複数のモデルの評価結果を用いて、セッションの評価を行う。
Then, the
例えば、1つのセッションの中に含まれる発話に同一若しくは類似する内容の発話が含まれている場合、そのセッションにおける対話に対して利用者が満足していないと推定される。例えば、利用者が旅館での求職を意図して「旅館の仕事」と発話した際に、対話装置200が「旅館」という単語から宿泊施設の検索を利用者が意図していると誤判定し、「宿泊施設を案内します」といった応答を返してしまう場合がある。このような意図に反する応答が出力された場合、利用者が音声認識が上手くいかなかったと推定して再度「旅館の仕事」と発話し、対話装置200が再度「宿泊施設を案内します」といった応答を返してしまう場合がある。このように、1つのセッションにおいて類似する発話の繰り返しは、そのセッションに対して利用者があまり満足していない旨を示唆していると考えられる。
For example, if the utterances contained in one session contain the same or similar utterances, it is presumed that the user is not satisfied with the dialogue in that session. For example, when a user utters "inn job" with the intention of seeking a job at an inn, the
そこで、情報提供装置10は、同一または類似する発話の繰り返しに基づいてセッションを評価するモデルを生成する(ステップS7-1)。例えば、情報提供装置10は、セッションに含まれる発話や応答の文字列を入力した際に、そのセッションに含まれる発話の繰り返しに基づいて、セッションに対して利用者がどれくらい満足していないか、すなわち、利用者の不満足度を示すスコアである第1不満足度を出力する繰り返し評価モデルM1を生成する。例えば、このような繰り返し評価モデルは、同一発話(あるいは同一文字列)が含まれるセッション、若しくは、類似発話(あるいは類似文字列)が含まれるセッションが入力された場合は、同一発話(あるいは同一文字列)が含まれないセッション、若しくは、類似発話(あるいは類似文字列)が含まれないセッションが含まれないセッションが入力された場合よりもより高い値の第1不満足度を出力する。ここで、「類似発話」とは、「旅館の仕事」と「ホテルの仕事」等、意味が類似する発話である。なお、繰り返し評価モデルM1は、セッションが有する文字列そのものではなく、文字列から生成した画像が有する特徴に基づいて、セッションの評価を行うが、このような処理の詳細については、後述する。
Therefore, the
また、例えば、「違う」といった発話に対して「申し訳ありません」や「ごめんなさい」等といった謝罪を示す応答が提供される場合がある。このような謝罪を示す応答(以下、「謝罪応答」と総称する場合がある。)がセッションに含まれている場合、そのセッションに対して利用者があまり満足していないと推定される。そこで、情報提供装置10は、謝罪応答が含まれているか否かに基づいて、セッションを評価するモデルを生成する(ステップS7-2)。例えば、情報提供装置10は、より多くの謝罪応答が含まれているセッションに対して、より高い値の第2不満足度を出力し、より謝罪応答が含まれていないセッションに対して、より低い値の第2不満足度を出力する謝罪評価モデルM2を生成する。
In addition, for example, a response indicating an apology such as "I'm sorry" or "I'm sorry" may be provided for an utterance such as "No". When a response indicating such an apology (hereinafter, may be collectively referred to as "apology response") is included in the session, it is presumed that the user is not very satisfied with the session. Therefore, the
また、利用者の発話には、セッションに対する利用者の印象を示唆する発話が含まれるが、このような利用者の印象を示唆する発話は、セッションの評価の指標となる発話、すなわち、指標発話として採用することができる。例えば、利用者の「使えない」や「アンインストール」等といった発話は、応答に対する利用者の非好意的な評価を示す発話、すなわち、unfavorableなフィードバックであると考えられる。このような非好意的な評価を示す発話(以下、「非好意的指標発話」と記載する。)が多く含まれるセッションは、利用者の満足度が低いと推定される。また、利用者の「すごいね」や「よくできる」といった発話は、応答に対する利用者の好意的な評価を示す発話、すなわち、favorableなフィードバックであると考えられる。このような好意的な評価を示す発話(以下、「好意的指標発話」と記載する。)が多く含まれるセッションは、利用者の満足度が高いと推定される。 In addition, the utterance of the user includes an utterance that suggests the user's impression of the session, and the utterance that suggests the user's impression is an utterance that serves as an index for evaluating the session, that is, an index utterance. Can be adopted as. For example, utterances such as "unusable" and "uninstall" by the user are considered to be utterances indicating the user's unfavorable evaluation of the response, that is, unfavorable feedback. It is presumed that the user's satisfaction is low in the session containing many utterances showing such unfavorable evaluation (hereinafter, referred to as "non-favorable index utterance"). In addition, utterances such as "wow" and "well done" by the user are considered to be utterances indicating the user's favorable evaluation of the response, that is, feedback feedback. It is presumed that the user's satisfaction is high in the session containing many utterances showing such a favorable evaluation (hereinafter, referred to as "favorable index utterance").
すなわち、このような好意的指標発話や非好意的指標発話(以下、「指標発話」と総称する場合がある。)は、セッションに対する利用者の満足度の指標となりえる。そこで、情報提供装置10は、好意的指標発話や非好意的指標発話といった各種指標発話に基づいて、セッションを評価するモデルを生成する。
That is, such favorable index utterances and non-favorable index utterances (hereinafter, may be collectively referred to as "index utterances") can be an index of user satisfaction with the session. Therefore, the
例えば、情報提供装置10は、非好意的指標発話に基づいてセッションを評価するモデルを生成する(ステップS7-3)。例えば、情報提供装置10は、セッションに含まれる発話に「使えない」や「アンインストール」等といったあらかじめ設定された非好意的指標発話がより多く含まれているセッションに対して、より高い値の第3不満足度を出力し、非好意的指標発話がより含まれていないセッションに対して、より低い値の第3不満足度を出力する非好意的指標発話評価モデルM3を生成する。
For example, the
また、情報提供装置10は、好意的指標発話に基づいてセッションを評価するモデルを生成する(ステップS7-4)。例えば、情報提供装置10は、セッションに含まれる発話に「すごいね」や「よくできている」等といったあらかじめ設定された好意的指標発話がより多く含まれているセッションに対して、より高い値の第1満足度を出力し、好意的指標発話がより含まれていないセッションに対して、より低い値の第1満足度を出力する好意的指標発話評価モデルM4を生成する。なお、上述した非好意的指標発話や好意的指標発話は、後述する処理により、セッションから適宜自動的に抽出された発話であってもよい。
Further, the
なお、情報提供装置10は、任意の公知技術を用いて、各モデルの学習を行ってよい。例えば、情報提供装置10は、バックプロパゲーションや強化学習、GAN(Generative Adversarial Network)等の技術を用いて、各モデルの学習を行えばよい。
The
そして、情報提供装置10は、各モデルが出力した各不満足度および満足度に基づいて、入力されたセッションを評価する(ステップS7-5)。例えば、情報提供装置10は、評価対象となるセッションを抽出し、抽出したセッションを繰り返し評価モデルM1、謝罪評価モデルM2、非好意的指標発話評価モデルM3、および好意的指標発話評価モデルM4のそれぞれに入力する。そして、情報提供装置10は、第1不満足度、第2不満足度、および第3不満足度の和から第1満足度を減算した値を不満足度スコアとして算出する。すなわち、情報提供装置10は、不満足度スコアとして、セッションに対して利用者が満足していない程高くなるスコアを算出する。なお、「不満足」とは、例えば、利用者がセッションにおける応答に対してイライラ(frustrated)している場合のみならず、利用者が呆れている場合等、セッションに対して非好意的な主観を有する任意の状態を含む概念である。
Then, the
また、情報提供装置10は、対話履歴から抽出される各セッションから不満足度スコアをそれぞれ算出する。そして、情報提供装置10は、各セッションのうち不満足度スコアが高い方から所定の数のセッションを抽出し、抽出したセッションを利用者の満足度が低いセッションである低満足セッションとする。また、情報提供装置10は、不満足度スコアが低い方から順に所定の数のセッションを抽出し、抽出したセッションを利用者の満足度が高いセッションである高満足セッションとする。なお、情報提供装置10は、不満足度スコアが所定の閾値を超えるセッションを低満足セッションとし、不満足度スコアが所定の閾値を下回るセッションを高満足セッションとしてもよい。このような処理を実行することで、情報提供装置10は、セッションに対して利用者が満足しているか否かを評価する処理を実現する。
Further, the
そして、情報提供装置10は、評価結果に基づいて、対話モデルを更新する(ステップS8)。例えば、情報提供装置10は、ある発話と、その発話に対する応答とが低満足セッションに含まれる場合、その発話に対してその応答を出力する確率を下げ、ある発話と、その発話に対する応答とが高満足セッションに含まれる場合、その発話に対してその応答を出力する確率を上げるように、応答を生成するための対話モデルを更新する。すなわち、情報提供装置10は、利用者がより満足するように、対話モデルの更新を行う。
Then, the
このように、情報提供装置10は、対話サービスにおける利用者の発話と応答とを含むセッションを取得し、セッションに対する利用者の評価の指標となる複数の特徴のうちそれぞれ異なる種別の特徴に基づいてセッションを評価する複数のモデルM1~M4の評価結果を用いて、セッションを評価する。この結果、情報提供装置10は、複数の観点から総合的にセッションを評価するので、評価の精度を向上させることができる。また、情報提供装置10は、クラウドソージング等といった人手によるセッションの評価を行わずとも、セッションの評価を自動で実現できるので、対話に対する評価を容易にすることができる。
As described above, the
〔1-2.情報提供装置が実行する処理について〕
なお、上述した例では、情報処理装置10が実行する処理の一例として、セッションに含まれる発話の繰り返しの有無、謝罪応答の有無、好意的指標発話や非好意的指標発話の有無に応じて、セッションの評価を行う処理の一例について記載した。しかしながら、実施形態は、これに限定されるものではない。
[1-2. About the processing executed by the information providing device]
In the above-mentioned example, as an example of the processing executed by the
例えば、以下に説明するように、情報提供装置10は、様々な観点からセッションの評価を行ってよい。また、情報提供装置10は、このようなセッションの評価を行うため、セッションに含まれる発話から各種の指標発話を自動的に抽出してもよい。また、情報提供装置10は、このようなセッションの評価を行うため、利用者が対話サービスを利用する期間や頻度(以下、「エンゲージメント」と記載する場合がある。)を推定してもよい。また、情報提供装置10は、対話の履歴に基づいて、発話から応答を生成するための対話モデルの学習を行ってもよい。
For example, as described below, the
すなわち、情報提供装置10は、以下に説明する各種の処理を組み合わせることで、図1に示すセッションの評価を実現すればよい。なお、以下に説明する各種の処理は、任意の組み合わせで実施してよい。
That is, the
〔1-3.利用者の主観について〕
上述した説明では、情報提供装置10は、応答に対する利用者の好意的な印象若しくは非好意的な印象を示す各種指標発話を用いて、セッションの評価を行った。ここで、「好意的な印象」や「非好意的な印象」とは、利用者の好きか嫌いかといった印象のみならず、応答が正しい若しくは正しくないといった印象等、応答に対する利用者の肯定的な各種の印象や否定的な各種の印象をも含む概念である。
[1-3. About user subjectivity]
In the above description, the
また、上述した説明では、情報提供装置10は、セッションに対して利用者が満足していたか否かを評価した。ここで、情報提供装置10は、満足したか否かという2値の評価のみならず、任意の態様の評価を行ってよい。例えば、情報提供装置10は、不満足度スコアの値そのものを評価結果としてもよい。また、情報提供装置10は、不満足度ではなく、利用者の満足度が高い程値が高くなり、満足度が低い程値が低くなるスコア、すなわち、満足度を算出するよう学習が行われたモデルM1~M3を利用してもよい。また、情報提供装置10は、不満足度スコアではなく、利用者が満足した度合を示す満足度スコアをセッションごとに算出してもよい。
Further, in the above description, the
なお、上述した説明では、情報提供装置10は、利用者がセッションに対して「満足」したか「不満足」であったかを評価した。ここで、「満足」や「不満足」という概念は、利用者がセッションに対してイライラしているか否か等、セッションに対する利用者の好意的な各種の印象もしくは非好意的な印象をも含む概念である。
In the above description, the
すなわち、上述した「好意的」や「満足」といった記載は、利用者による好意的な各種の印象を示すものであり、「非好意的」や「不満足」といった記載は、利用者による非好意的な各種の印象を示すものである。情報提供装置10は、応答に対する利用者の印象を示す各種指標発話に基づいて、セッションを評価するのであれば、利用者の印象の種別によらず、実施形態に記載した各種の処理により、任意の印象を軸とした評価を実現してよい。
That is, the above-mentioned statements such as "favorable" and "satisfied" indicate various favorable impressions by the user, and the statements such as "non-favorable" and "dissatisfied" are unfavorable by the user. It shows various impressions. If the
〔1-4.指標発話に基づく評価について〕
上述した説明では、情報提供装置10は、好意的指標発話や非好意的指標発話といった各種指標発話に基づいて、セッションに利用者が満足しているか否かの評価を行った。ここで、各種の指標発話は、その指標発話が出現するまでの対話や応答等といった対象に対して利用者が好意的な印象を有しているか否かといった発話であり、セッションの評価の指標となりうる発話である。
[1-4. Evaluation based on index utterances]
In the above description, the
ここで、指標発話は、指標発話が示す利用者の印象の対象によらず、セッションの評価の指標となりえる発話であれば、任意の対象に対する利用者の印象を示す発話が採用可能である。例えば、情報提供装置10は、単一の応答に対する利用者の印象を示す発話(すなわち、フィードバックとなる発話)を指標発話としてもよく、一連の対話やセッション全体に対する利用者の印象を示す発話を指標発話として採用してもよい。すなわち、情報提供装置10は、応答に対する対話サービスに対する利用者の評価を示す発話を指標発話とするのであれば、対話サービスにおける任意の対象に対する利用者の印象を示す発話を指標発話として採用してもよい。
Here, the index utterance can be an utterance showing the user's impression on any target as long as it can be an index for session evaluation, regardless of the target of the user's impression indicated by the index utterance. For example, the
〔2.情報提供装置の構成〕
以下、情報提供装置10が実行する各種の処理を実現する情報提供装置10が有する機能構成の一例について説明する。図2は、実施形態に係る情報提供装置の構成例を示す図である。図2に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Configuration of information providing device]
Hereinafter, an example of the functional configuration of the
〔2-1.通信部について〕
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100および対話装置200との間で情報の送受信を行う。
[2-1. Communication section]
The
〔2-2.記憶部について〕
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、セッションログデータベース31、セッション評価データベース32、指標発話データベース33、エンゲージメントデータベース34、およびモデルデータベース35を記憶する。
[2-2. About the memory part]
The storage unit 30 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. Further, the storage unit 30 stores the
以下、図3~図7を用いて、記憶部30が記憶する各データベース31~35の一例について説明する。セッションログデータベース31には、対話履歴がセッションごとに登録される。例えば、図3は、実施形態に係るセッションログデータベースに登録される情報の一例を示す図である。図3に示すように、セッションログデータベース31には、「セッションID(Identifier)」、「対話時刻」、「利用者ID」、および「対話内容」といった項目を有する情報が登録される。なお、図3に示す情報以外にも、対話処理における発話および応答に関する情報であれば、任意の情報がセッションログデータベース31に登録されていてよい。
Hereinafter, an example of each
ここで、「セッションID」とは、セッションを識別するための情報である。また、「対話時刻」とは、「セッションID」が示すセッションに含まれる対話が行われた日時を示す情報であり、例えば、セッションに含まれる最初の発話が取得された日時を示す情報である。また、「利用者ID」とは、「セッションID」が示すセッションに含まれる発話を行った利用者を識別する識別子である。また、「対話内容」とは、「セッションID」が示すセッションに含まれる発話および応答の内容を時系列順に並べた情報である。 Here, the "session ID" is information for identifying a session. Further, the "dialogue time" is information indicating the date and time when the dialogue included in the session indicated by the "session ID" was performed, and is, for example, information indicating the date and time when the first utterance included in the session was acquired. .. Further, the "user ID" is an identifier that identifies the user who made the utterance included in the session indicated by the "session ID". Further, the "dialogue content" is information in which the contents of utterances and responses included in the session indicated by the "session ID" are arranged in chronological order.
例えば、図3に示す例では、セッションID「セッション#1」、対話時刻「対話時刻#1」、利用者ID「利用者#1」、対話内容「Usr:旅館の仕事 sys:宿泊施設を案内します・・・(中略)・・・」といった情報が登録されている。このような情報は、セッションID「セッション#1」が示すセッションに含まれる対話が行われた日時が「対話時刻#1」であり、そのセッションにおいて発話した利用者が「利用者#1」が示す利用者である旨を示す。また、セッションID「セッション#1」が示すセッションには、利用者の発話「旅館の仕事」が含まれ、このような発話に対する応答が「宿泊施設を案内します」であった旨を示す。
For example, in the example shown in FIG. 3, the session ID “
なお、図3に示す例では、「セッション#1」、「対話時刻#1」、「利用者#1」といった概念的な値を記載したが、実際には、セッションを識別する文字列や数値、日時を示す数値、利用者を識別する文字列や数値等がセッションログデータベース31に登録されることとなる。
In the example shown in FIG. 3, conceptual values such as "
セッション評価データベース32には、セッションに対する評価結果が登録される。例えば、図4は、実施形態に係るセッション評価データベースに登録される情報の一例を示す図である。図4に示すように、セッション評価データベース32には、「セッションID」、「セッション種別」、および「不満足度スコア」といった項目を有する情報が登録される。なお、セッション評価データベース32に登録される情報は、これに限定されるものではなく、セッションに対する評価に関する情報であれば、任意の情報が登録されていてよい。また、セッション評価データベース32は、例えば、セッションログデータベース31と統合されていてもよい。
The evaluation result for the session is registered in the session evaluation database 32. For example, FIG. 4 is a diagram showing an example of information registered in the session evaluation database according to the embodiment. As shown in FIG. 4, information having items such as "session ID", "session type", and "dissatisfaction score" is registered in the session evaluation database 32. The information registered in the session evaluation database 32 is not limited to this, and any information may be registered as long as it is information related to the evaluation of the session. Further, the session evaluation database 32 may be integrated with the
ここで、「セッション種別」とは、対応付けられた「セッションID」が示すセッションにおける対話に対して利用者が満足したと推定されるか否かを示す情報であり、例えば、セッションに対して付与されるラベルである。例えば、「セッション種別」は、利用者が満足していない(例えば、不満足度スコアが高い)と推定される場合は、「低満足セッション」が、利用者が満足した(例えば、不満足度スコアが低い)と推定される場合は、「高満足セッション」が、そのどちらでもない(例えば、不満足度スコアが所定の範囲内に収まる場合)と推定される場合は、「中性セッション」が採用される。また、「不満足度スコア」とは、対応付けられた「セッションID」が示すセッションに対して付与された不満足度スコアの値である。 Here, the "session type" is information indicating whether or not the user is presumed to be satisfied with the dialogue in the session indicated by the associated "session ID", for example, for the session. The label to be given. For example, if it is estimated that the user is not satisfied with the "session type" (for example, the dissatisfaction score is high), the "low satisfaction session" is satisfied with the user (for example, the dissatisfaction score is high). If it is estimated to be low), then a "high satisfaction session" is adopted, and if it is estimated to be neither (eg, if the dissatisfaction score falls within a given range), then a "neutral session" is adopted. To. Further, the "dissatisfaction score" is a value of the dissatisfaction score given to the session indicated by the associated "session ID".
例えば、図4に示す例では、セッション評価データベース32には、セッションID「セッション#1」、セッション種別「低満足セッション」、および不満足度スコア「150」が対応付けて登録されている。このような情報は、セッションID「セッション#1」が示すセッションのセッション種別が「低満足セッション」であり、不満足度スコアが「150」であった旨を示す。なお、セッションの評価が行われていない場合は、セッション種別が「未評価」となり、不満足度スコアが算出されていない場合は、不満足度スコアが「未評価」となる。
For example, in the example shown in FIG. 4, the session ID “
指標発話データベース33には、各種の指標発話が登録される。例えば、図5は、実施形態に係る指標発話データベースに登録される情報の一例を示す図である。図5に示すように、指標発話データベース33には、「指標発話」、「指標種別」、「指標スコア」および「登録元」といった項目を有する情報が登録される。なお、図5に示す情報以外にも、指標発話データベース33には、指標発話に関する各種の情報が登録されていてよい。
Various index utterances are registered in the
ここで、「指標発話」とは、非好意的指標発話や好意的指標発話等、その発話が含まれるセッションにおける対話に対して利用者が満足しているか否かの指標となる発話の文字列である。また、「指標種別」とは、対応付けられた指標発話が非好意的指標発話であるか好意的指標発話であるかを示す情報である。また、「指標スコア」とは、対応付けられた「指標発話」が含まれるセッションにおける対話に対して利用者が満足していない度合を示すスコアである。また、「登録元」とは、対応付けられた指標発話が予め設定された指標発話、すなわち、シードとなる指標発話であるか、セッションから抽出処理によって自動的に抽出された指標発話であるかを示す情報であり、セッションから抽出された指標発話である場合、抽出元となったセッションのセッションIDが登録される。 Here, the "index utterance" is a character string of utterances that is an index of whether or not the user is satisfied with the dialogue in the session including the utterances such as unfavorable index utterances and favorable index utterances. Is. Further, the "index type" is information indicating whether the associated index utterance is a non-favorable index utterance or a favorable index utterance. The "index score" is a score indicating the degree to which the user is not satisfied with the dialogue in the session including the associated "index utterance". Further, the "registration source" is whether the associated index utterance is a preset index utterance, that is, a seed index utterance or an index utterance automatically extracted from the session by the extraction process. In the case of index utterances extracted from the session, the session ID of the session that is the extraction source is registered.
例えば、図5に示す例では、指標発話データベース33には、指標発話「よくできている」、指標種別「好意的」、指標スコア「-150」および登録元「事前登録」が対応付けて登録されている。このような情報は、「よくできている」という文字列が指標発話として登録されており、指標発話の種別が「好意的」、すなわち、好意的指標発話であり、指標スコアが「-150」である旨を示す。また、このような情報は、「よくできている」という好意的指標発話が、予め事前登録された指標発話、すなわち、シードとなる指標発話である旨を示す。
For example, in the example shown in FIG. 5, the
エンゲージメントデータベース34には、利用者による対話サービスの利用態様を示す情報が登録される。より具体的には、エンゲージメントデータベース34には、利用期間や利用頻度といった情報、すなわち、利用者がどれくらい対話サービスを利用するかを示すエンゲージメント情報が登録される。例えば、図6は、実施形態に係るエンゲージメントデータベースに登録される情報の一例を示す図である。図6に示すように、エンゲージメントデータベース34には、「利用者ID」、「エンゲージメント履歴」、および「予測エンゲージメント」といった項目を有する情報が登録される。なお、図6に示す情報以外にも、エンゲージメントに関する情報であれば、任意の情報がエンゲージメントデータベース34に登録されていてよい。 Information indicating the usage mode of the dialogue service by the user is registered in the engagement database 34. More specifically, in the engagement database 34, information such as a usage period and usage frequency, that is, engagement information indicating how much the user uses the dialogue service is registered. For example, FIG. 6 is a diagram showing an example of information registered in the engagement database according to the embodiment. As shown in FIG. 6, information having items such as "user ID", "engagement history", and "predicted engagement" is registered in the engagement database 34. In addition to the information shown in FIG. 6, any information may be registered in the engagement database 34 as long as it is information related to engagement.
ここで、「エンゲージメント履歴」とは、対応付けられた「利用者ID」が示す利用者による対話サービスの利用期間の履歴である履歴期間、および、利用者による対話サービスの利用頻度の履歴である「履歴頻度」を示す情報である。また、「予測エンゲージメント」とは、対応付けられた「利用者ID」が示す利用者による将来の利用期間である「予測期間」、および利用者による将来の利用頻度である「予測頻度」を示す情報である。 Here, the "engagement history" is a history period which is a history of the usage period of the dialogue service by the user indicated by the associated "user ID", and a history of the usage frequency of the dialogue service by the user. Information indicating "history frequency". Further, the "predicted engagement" indicates a "predicted period" which is a future usage period by the user indicated by the associated "user ID" and a "predicted frequency" which is a future usage frequency by the user. Information.
また、「履歴期間」とは、例えば、過去の所定の期間において利用者が連続して対話サービスを利用した期間を示す情報であり、例えば、所定の期間(例えば、数日間)を空けずに利用者が対話サービスを利用した最長の期間を示す情報である。また、「履歴頻度」とは、履歴期間の間に利用者が対話サービスを利用した頻度を示す情報であり、例えば、履歴期間の間に利用者が対話サービスを利用した回数(例えば、セッションの数)を履歴期間で除算した値である。また、「予測期間」とは、将来の所定の期間において利用者が連続して対話サービスを利用すると推定される期間を示す情報である。また、「予測頻度」とは、将来の所定の期間において利用者が対話サービスを利用すると推定される頻度を示す情報である。 Further, the "history period" is information indicating, for example, a period during which a user has continuously used the dialogue service in a predetermined period in the past, for example, without leaving a predetermined period (for example, several days). Information indicating the longest period of time that the user has used the dialogue service. The "history frequency" is information indicating the frequency with which the user used the dialogue service during the history period. For example, the number of times the user used the dialogue service during the history period (for example, of a session). The number) is divided by the history period. Further, the "predicted period" is information indicating a period in which the user is estimated to continuously use the dialogue service in a predetermined period in the future. Further, the "predicted frequency" is information indicating the frequency at which the user is estimated to use the dialogue service in a predetermined period in the future.
例えば、図6に示す例では、利用者ID「利用者#1」、エンゲージメント履歴「履歴期間#1 履歴頻度#1」、予測エンゲージメント「予測期間#1 予測頻度#1」が対応付けて登録されている。このような情報は、利用者ID「利用者#1」が示す利用者のエンゲージメント履歴が「履歴期間#1」および「履歴頻度#1」であり、予測エンゲージメントが「予測期間#1」および「予測頻度#1」である旨を示す。
For example, in the example shown in FIG. 6, the user ID "
なお、図6に示す例では、「履歴期間#1」、「履歴頻度#1」、「予測期間#1」、「予測頻度#1」といった概念的な値を記載したが、実際には、各種の期間や頻度を示す数値が登録されることとなる。
In the example shown in FIG. 6, conceptual values such as "
モデルデータベース35には、各種のモデルが登録される。例えば、図7は、実施形態に係るモデルデータベースに登録される情報の一例を示す図である。図7に示すように、モデルデータベース35には、「モデルID」、「モデル種別」、および「モデルデータ」といった項目を有する情報が登録される。なお、図7に示す情報以外にも、モデルデータベース35には、モデルに関する各種の情報が登録されていてよい。 Various models are registered in the model database 35. For example, FIG. 7 is a diagram showing an example of information registered in the model database according to the embodiment. As shown in FIG. 7, information having items such as "model ID", "model type", and "model data" is registered in the model database 35. In addition to the information shown in FIG. 7, various information related to the model may be registered in the model database 35.
ここで、「モデルID」とは、モデルを識別する識別子である。また、「モデル種別」とは、モデルがどのようなモデルであるかを示す情報である。また、「モデルデータ」とは、モデルのデータである。なお、図7に示す例では、「モデルデータ#1」といった概念的な値を記載したが、実際には、モデルを構成する各種のパラメータ等の情報が登録される。
Here, the "model ID" is an identifier that identifies the model. Further, the "model type" is information indicating what kind of model the model is. The "model data" is model data. In the example shown in FIG. 7, conceptual values such as "
例えば、図7に示す例では、モデルデータベース35には、セッションに繰り返しが含まれているか否かに基づいてセッションを評価する「繰り返し評価モデル」、セッションに謝罪応答が含まれているか否かに基づいてセッションを評価する「謝罪評価モデル」、セッションに非好意的指標発話が含まれているか否かに基づいてセッションを評価する「非好意的指標発話評価モデル」、およびセッションに好意的指標発話が含まれているか否かに基づいてセッションを評価する「好意的指標発話評価モデル」が登録されている。 For example, in the example shown in FIG. 7, the model database 35 includes a “repetition evaluation model” that evaluates a session based on whether or not the session contains iterations, and whether or not the session contains an apology response. An "apology evaluation model" that evaluates the session based on, a "non-favorable index utterance evaluation model" that evaluates the session based on whether the session contains non-favorable index utterances, and a favorable index utterance to the session. A "favorable index utterance evaluation model" that evaluates sessions based on whether or not is included is registered.
また、モデルデータベース35には、利用者が満足したと推定される対話、利用者が満足していないと推定される対話、および、そのどちらでもない対話の特徴を学習した「3値評価モデル」が登録されている。また、モデルデータベース35には、対話サービスの利用態様が所定の条件を満たす利用者の発話を含むセッションの特徴を学習した「エンゲージメントセッション評価モデル」が登録されている。また、モデルデータベース35には、疑似的に生成されたセッションであって、同一又は類似の発話を含むセッションの特徴を学習した「反復発話評価モデル」が登録されている。 Further, in the model database 35, a "ternary evaluation model" in which the characteristics of a dialogue presumed to be satisfied by the user, a dialogue presumed to be unsatisfied by the user, and a dialogue that is neither of them is learned. Is registered. Further, in the model database 35, an "engagement session evaluation model" is registered in which the characteristics of the session including the utterance of the user whose usage mode of the dialogue service satisfies a predetermined condition are learned. Further, in the model database 35, a "repetitive utterance evaluation model" which is a pseudo-generated session and learns the characteristics of a session including the same or similar utterances is registered.
また、モデルデータベース35には、対話装置200が使用するモデルであって、発話に対する応答を生成するための「対話モデル」が登録されている。また、モデルデータベース35には、利用者を疑似的に再現するモデルであって、応答が入力された場合に、その応答に対する発話を出力する「利用者模型モデル」が登録されている。
Further, in the model database 35, a "dialogue model" for generating a response to an utterance, which is a model used by the
なお、モデルデータベース35には、各モデルのモデルデータとして、任意の形式のモデルの情報が登録される。例えば、各モデルは、SVM(Support Vector Machine)やDNN(Deep Neural Network)により実現されてもよい。ここで、DNNは、CNN(Convolutional Neural Network)やRNN(Recurrent Neural Network)であってもよい。また、RNNは、LSTM(Long short-term memory)等であってもよい。すなわち、各モデルは、任意の形式のモデルが採用可能である。また、各モデルは、例えば、CNNとRNNとを組み合わせたモデル等、複数のモデルを組み合わせることで実現されるモデルであってもよい。 In the model database 35, information on a model of an arbitrary format is registered as model data of each model. For example, each model may be realized by SVM (Support Vector Machine) or DNN (Deep Neural Network). Here, the DNN may be a CNN (Convolutional Neural Network) or an RNN (Recurrent Neural Network). Further, the RNN may be an LSTM (Long short-term memory) or the like. That is, as each model, any type of model can be adopted. Further, each model may be a model realized by combining a plurality of models, for example, a model in which a CNN and an RNN are combined.
〔2-3.制御部について〕
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報提供装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
[2-3. About the control unit]
Returning to FIG. 2, the explanation will be continued. The control unit 40 is a controller, and for example, various programs stored in a storage device inside the
図2に示すように、制御部40は、セッション取得部41、利用態様特定部42、指標発話抽出処理部50、セッション評価処理部60、エンゲージメント予測処理部70、および強化学習処理部80を有する。
As shown in FIG. 2, the control unit 40 includes a session acquisition unit 41, a usage mode specifying unit 42, an index utterance extraction processing unit 50, a session
セッション取得部41は、セッションの取得を行う。例えば、セッション取得部41は、対話装置200から対話履歴を取得すると、取得した対話履歴をセッションごとに分割する。例えば、セッション取得部41は、処理対象となる利用者を選択し、選択した利用者の発話を含む発話履歴を抽出する。続いて、セッション取得部41は、抽出した発話履歴における各応答と発話との間の時間を特定する。そして、セッション取得部41は、ある応答から次の発話までの間の時間が所定の期間よりも長い場合は、その応答がセッションにおける最後の応答であると判定し、判定結果に基づいて、利用者との対話をセッションに分割する。そして、セッション取得部41は、各セッションにセッションIDと利用者の利用者IDとを付与して、セッションログデータベース31に登録する。
The session acquisition unit 41 acquires a session. For example, when the session acquisition unit 41 acquires the dialogue history from the
利用態様特定部42は、利用者の利用態様を特定する。例えば、利用態様特定部42は、処理対象となる利用者を選択し、所定の期間内(例えば、過去半年)における利用者の対話サービスの利用態様を特定する。より具体的には、利用態様特定部42は、所定の期間内における履歴期間と履歴頻度とを特定する。そして、利用態様特定部42は、特定した履歴期間と履歴頻度とをエンゲージメント履歴として、利用者の利用者IDと対応付けてエンゲージメントデータベース34に登録する。 The usage mode specifying unit 42 specifies the usage mode of the user. For example, the usage mode specifying unit 42 selects a user to be processed and specifies a usage mode of the user's dialogue service within a predetermined period (for example, the past six months). More specifically, the usage mode specifying unit 42 specifies the history period and the history frequency within a predetermined period. Then, the usage mode specifying unit 42 registers the specified history period and history frequency as the engagement history in the engagement database 34 in association with the user ID of the user.
〔2-4.抽出処理について〕
指標発話抽出処理部50は、セッションの評価に用いる指標発話をセッションから抽出する抽出処理を実行する。以下、図8~図11を用いて、指標発話抽出処理部50が実行する処理の概念、および、指標発話抽出処理部50が有する機能構成の一例を説明する。
[2-4. Extraction process]
The index utterance extraction processing unit 50 executes an extraction process for extracting index utterances used for session evaluation from the session. Hereinafter, with reference to FIGS. 8 to 11, an example of the concept of the process executed by the index utterance extraction processing unit 50 and the functional configuration of the index utterance extraction processing unit 50 will be described.
〔2-4-1.共起性に基づく抽出処理について〕
例えば、指標発話抽出処理部50は、指標発話との共起性に基づいて、新たな指標発話の抽出を行う。例えば、図8は、シードとなる指標発話から新たな指標発話を抽出する処理の概念を示す図である。例えば、あるセッションに好意的指標発話が含まれる場合、同一のセッションには好意的指標発話が含まれやすいと考えられる。また、あるセッションに非好意的指標発話が含まれる場合、同一のセッションには、非好意的指標発話が含まれやすいと推定される。すなわち、同一のセッション内においては、好意的指標発話同士が共起しやすく、非好意的指標発話同士が共起しやすいと考えられる。
[2-4-1. Extraction process based on co-occurrence]
For example, the index utterance extraction processing unit 50 extracts a new index utterance based on the co-occurrence with the index utterance. For example, FIG. 8 is a diagram showing a concept of a process of extracting a new index utterance from a seed index utterance. For example, if a session contains favorable indicator utterances, the same session is likely to contain favorable indicator utterances. Also, if a session contains non-favorable index utterances, it is presumed that the same session is likely to contain non-favorable index utterances. That is, it is considered that favorable index utterances are likely to co-occur and non-favorable index utterances are likely to co-occur within the same session.
そこで、指標発話抽出処理部50は、対話サービスにおける利用者の発話と発話に対する応答との履歴から、対話サービスに対する利用者の評価の指標となる発話であって、予め設定された指標発話を特定し、特定した指標発話との共起性に基づいて、利用者の発話から新たな指標発話の抽出を行う。例えば、指標発話抽出処理部50は、予め登録されたシード非好意的指標発話やシード好意的指標発話との共起性に基づいて、各発話から新たな指標発話を抽出し、指標発話データベース33に登録する。
Therefore, the index utterance extraction processing unit 50 identifies a preset index utterance, which is an index of the user's evaluation of the dialogue service, from the history of the user's utterance and the response to the utterance in the dialogue service. Then, based on the co-occurrence with the specified index utterance, a new index utterance is extracted from the user's utterance. For example, the index utterance extraction processing unit 50 extracts a new index utterance from each utterance based on the co-occurrence with the seed non-favorable index utterance and the seed favorable index utterance registered in advance, and the
例えば、「すごい」という文字列がシード好意的指標発話として指標発話データベース33に登録されている場合、指標発話抽出処理部50は、セッションログデータベース31から「すごい」という文字列が発話に含まれるセッションを全て抽出する。また、指標発話抽出処理部50は、抽出したセッションに含まれる発話ごとに、その発話が含まれるセッションの数を計数する。すなわち、指標発話抽出処理部50は、発話ごとに、シード好意的指標発話との共起回数を計数する。
For example, when the character string "wow" is registered in the
また、例えば、「馬鹿野郎」という文字列がシード非好意的指標発話として指標発話データベース33に登録されている場合、指標発話抽出処理部50は、セッションログデータベース31から「馬鹿野郎」という文字列が発話に含まれるセッションを全て抽出する。また、指標発話抽出処理部50は、抽出したセッションに含まれる発話ごとに、その発話が含まれるセッションの数を計数する。すなわち、指標発話抽出処理部50は、発話ごとに、シード非好意的指標発話との共起回数を計数する。
Further, for example, when the character string "stupid guy" is registered in the
そして、指標発話抽出処理部50は、計数した共起回数の比を発話ごとに算出する。より具体的には、指標発話抽出処理部50は、シード非好意的指標発話との共起回数をシード好意的指標発話との共起回数で除算した値を発話ごとに算出する。そして、指標発話抽出処理部50は、比率が上位N個(Nは、任意の数)の発話を新たな非好意的指標発話として抽出し、比率が下位N個の発話を新たな好意的指標発話として抽出する。また、指標発話抽出処理部50は、抽出した非好意的指標発話や好意的指標発話を指標発話データベース33に登録する。
Then, the index utterance extraction processing unit 50 calculates the ratio of the counted number of co-occurrences for each utterance. More specifically, the index utterance extraction processing unit 50 calculates a value obtained by dividing the number of co-occurrence with the seed-favorable index utterance by the number of co-occurrence with the seed-favorable index utterance for each utterance. Then, the index utterance extraction processing unit 50 extracts utterances having a high ratio of N (N is an arbitrary number) as new non-favorable index utterances, and extracts utterances having a low ratio of N as a new favorable index. Extract as an utterance. Further, the index utterance extraction processing unit 50 registers the extracted non-favorable index utterances and favorable index utterances in the
ここで、指標発話抽出処理部50は、共起ネットワーク上の活性伝播に基づいて、シード指標発話から新たな指標発話を抽出してもよい。例えば、指標発話抽出処理部50は、シード指標発話と同一のセッションに含まれる発話の共起ネットワークを生成する。例えば、指標発話抽出処理部50は、各発話をノードとし、同一のセッションに含まれる発話同士をリンクで接続したネットワークを生成する。なお、共起ネットワークの生成については、任意の公知技術が採用可能である。 Here, the index utterance extraction processing unit 50 may extract a new index utterance from the seed index utterance based on the activity propagation on the co-occurrence network. For example, the index utterance extraction processing unit 50 generates a co-occurrence network of utterances included in the same session as the seed index utterance. For example, the index utterance extraction processing unit 50 uses each utterance as a node and generates a network in which utterances included in the same session are connected by a link. Any known technique can be adopted for the generation of the co-occurrence network.
続いて、指標発話抽出処理部50は、共起ネットワークからシード指標発話と対応するノードを特定し、各ノードごとに、シード指標発話と対応するノードとの間の距離(例えば、リンクを辿るホップ数)を算出する。そして、指標発話抽出処理部50は、シード非好意的指標発話と対応するノードとの距離が近く、シード好意的指標発話と対応するノードとの距離が遠いノードと対応する発話を新たな非好意的指標発話とする。また、指標発話抽出処理部50は、シード好意的指標発話と対応するノードとの距離が近く、シード非好意的指標発話と対応するノードとの距離が遠いノードと対応する発話を新たな好意的指標発話とする。 Subsequently, the index utterance extraction processing unit 50 identifies a node corresponding to the seed index utterance from the co-occurrence network, and for each node, the distance between the seed index utterance and the corresponding node (for example, a hop following a link). Number) is calculated. Then, the index utterance extraction processing unit 50 newly unfavorable the utterance corresponding to the node in which the distance between the seed-favorable index utterance and the corresponding node is short and the distance between the seed-favorable index utterance and the corresponding node is long. The target index utterance. Further, the index utterance extraction processing unit 50 newly favors the utterance corresponding to the node in which the seed-favorable index utterance is close to the corresponding node and the seed non-favorable index utterance is far from the corresponding node. Use index utterances.
例えば、指標発話抽出処理部50は、シード好意的指標発話からの距離が所定の閾値未満となり、かつ、シード非好意的指標発話からの距離が所定の閾値以上となるノードを特定し、特定したノードと対応する発話を新たな好意的指標発話として抽出する。また、指標発話抽出処理部50は、シード好意的指標発話からの距離が所定の閾値以上となり、かつ、シード非好意的指標発話からの距離が所定の閾値未満となるノードを特定し、特定したノードと対応する発話を新たな非好意的指標発話として抽出する。そして、指標発話抽出処理部50は、抽出した各指標発話を指標発話データベース33に登録する。
For example, the index utterance extraction processing unit 50 identifies and identifies a node in which the distance from the seed-friendly index utterance is less than a predetermined threshold value and the distance from the seed-non-favorable index utterance is equal to or more than a predetermined threshold value. Extract the utterances corresponding to the nodes as new favorable index utterances. Further, the index utterance extraction processing unit 50 identifies and identifies a node in which the distance from the seed-friendly index utterance is equal to or greater than a predetermined threshold value and the distance from the seed-unfavorable index utterance is less than the predetermined threshold value. Extract the utterances corresponding to the nodes as new unfavorable index utterances. Then, the index utterance extraction processing unit 50 registers each extracted index utterance in the
なお、指標発話抽出処理部50は、上述した抽出処理によって抽出した指標発話を新たなシード指標発話とし、新たなシード指標発話を用いて上述した抽出処理を実行することで、さらに新たな指標発話の抽出を行ってもよい。 The index utterance extraction processing unit 50 uses the index utterance extracted by the above-mentioned extraction process as a new seed index utterance, and executes the above-mentioned extraction process using the new seed index utterance to further execute a new index utterance. May be extracted.
〔2-4-2.利用態様に基づく抽出処理について〕
また、例えば、指標発話抽出処理部50は、利用者の対話サービスにおける利用態様に基づいて、新たな指標発話の抽出を行う。例えば、図9は、対話サービスにおける利用態様に基づいて、新たな指標発話を抽出する処理の概念を示す図である。
[2-4-2. Extraction process based on usage mode]
Further, for example, the index utterance extraction processing unit 50 extracts a new index utterance based on the usage mode in the dialogue service of the user. For example, FIG. 9 is a diagram showing a concept of a process for extracting a new index utterance based on a usage mode in a dialogue service.
例えば、対話サービスを継続して利用する期間、すなわち、利用期間が長い利用者や、対話サービスの利用頻度が高い利用者は、対話サービスに満足していると推定される。このため、利用期間が長い利用者や利用頻度が高い利用者は、好意的(好意的)な発言、すなわち、好意的指標発話を多く発話すると推定される。一方、利用期間が短い利用者や利用頻度が短い利用者は、非好意的(非好意的)な発言、すなわち、非好意的指標発話を多く発話すると推定される。 For example, it is presumed that a user who continuously uses the dialogue service, that is, a user who has a long usage period or a user who frequently uses the dialogue service, is satisfied with the dialogue service. Therefore, it is presumed that a user who has a long usage period or a user who frequently uses the user makes a lot of favorable (favorable) remarks, that is, a favorable index utterance. On the other hand, it is presumed that users with a short usage period and users with a short usage frequency often make unfavorable (non-favorable) remarks, that is, non-favorable index utterances.
そこで、指標発話抽出処理部50は、対話サービスの利用態様が所定の条件を満たす利用者の発話を含むセッションを取得し、取得されたセッションにおける出現頻度に基づいて、対話サービスに対する利用者の評価の指標となる指標発話を抽出する。例えば、指標発話抽出処理部50は、エンゲージメントデータベース34を参照し、エンゲージメント履歴が所定の条件を満たす利用者を特定する。 Therefore, the index utterance extraction processing unit 50 acquires a session including utterances of a user whose usage mode of the dialogue service satisfies a predetermined condition, and evaluates the dialogue service by the user based on the frequency of appearance in the acquired session. Extract the index utterances that serve as the index of. For example, the index utterance extraction processing unit 50 refers to the engagement database 34 and identifies a user whose engagement history satisfies a predetermined condition.
例えば、指標発話抽出処理部50は、履歴期間と履歴頻度とがそれぞれ所定の閾値を超える利用者を好意的利用者として特定し、履歴期間と履歴頻度とがそれぞれ所定の閾値未満となる利用者を非好意的利用者として特定する。また、指標発話抽出処理部50は、好意的利用者の発話を含むセッションと、非好意的利用者の発話を含むセッションとを特定し、特定したセッションに含まれる発話を抽出する。 For example, the index utterance extraction processing unit 50 identifies a user whose history period and history frequency exceed a predetermined threshold value as a favorable user, and a user whose history period and history frequency are each less than a predetermined threshold value. As an unfavorable user. Further, the index utterance extraction processing unit 50 identifies a session including utterances of a favorable user and a session including utterances of a non-favorable user, and extracts utterances included in the specified session.
そして、指標発話抽出処理部50は、抽出した発話ごとに、好意的利用者のセッションにおける出現頻度と、非好意的利用者のセッションにおける出現頻度とをそれぞれ算出する。例えば、指標発話抽出処理部50は、発話が好意的利用者の発話を含むセッションに出現した回数を好意的利用者の発話を含むセッションの総数で除算した値を、好意的利用者のセッションにおける出現頻度として算出する。また、例えば、指標発話抽出処理部50は、発話が非好意的利用者の発話を含むセッションに出現した回数を非好意的利用者の発話を含むセッションの総数で除算した値を、非好意的利用者のセッションにおける出現頻度として算出する。 Then, the index utterance extraction processing unit 50 calculates the appearance frequency in the session of the favorable user and the appearance frequency in the session of the non-favorable user for each extracted utterance. For example, the index utterance extraction processing unit 50 divides the number of times the utterance appears in the session including the utterance of the favorable user by the total number of sessions including the utterance of the favorable user, and divides the value in the session of the favorable user. Calculated as the frequency of appearance. Further, for example, the index utterance extraction processing unit 50 divides the number of times the utterance appears in the session including the utterance of the unfavorable user by the total number of sessions including the utterance of the unfavorable user, and divides the value by the total number of sessions including the utterance of the unfavorable user. Calculated as the frequency of appearance in the user's session.
また、指標発話抽出処理部50は、非好意的利用者のセッションにおける出現頻度を好意的利用者のセッションにおける出現頻度で除算した値、すなわち、出現頻度の比率を発話ごとに算出する。そして、指標発話抽出処理部50は、算出した比率が上位N個の発話を新たな非好意的指標発話とし、下位N個の発話を新たな好意的指標発話として抽出する。 Further, the index utterance extraction processing unit 50 calculates a value obtained by dividing the appearance frequency in the session of the unfavorable user by the appearance frequency in the session of the favorable user, that is, the ratio of the appearance frequency for each utterance. Then, the index utterance extraction processing unit 50 extracts the utterances having the highest calculated ratio of N as new non-favorable index utterances and the utterances of the lower N as new favorable index utterances.
〔2-4-3.評価結果に基づく抽出処理について〕
また、例えば、指標発話抽出処理部50は、セッションの評価結果に基づいて、新たな指標発話の抽出を行う。例えば、図10は、セッションの評価結果に基づいて、新たな指標発話を抽出する処理の概念を示す図である。
[2-4-3. Extraction process based on evaluation results]
Further, for example, the index utterance extraction processing unit 50 extracts a new index utterance based on the evaluation result of the session. For example, FIG. 10 is a diagram showing the concept of a process for extracting a new index utterance based on the evaluation result of the session.
例えば、セッションには後述する評価処理によって評価結果が付与されている場合がある。また、セッションには、クラウドソージング等といった人手による評価結果が付与されている場合がある。このようなセッションに対する評価結果は、そのセッションに含まれる発話から指標発話を抽出する指標となりえる。 For example, the session may be given an evaluation result by an evaluation process described later. In addition, the session may be given a manual evaluation result such as cloud sourcing. The evaluation result for such a session can be an index for extracting index utterances from the utterances included in the session.
例えば、利用者による満足度が高いセッション(すなわち、高満足セッション)には、好意的指標発話が多く含まれていると推定される。一方、利用者による満足度が低いセッション(すなわち、低満足セッション)には、非好意的指標発話が多く含まれていると推定される。 For example, it is presumed that a session with high user satisfaction (that is, a high satisfaction session) contains a large number of favorable index utterances. On the other hand, it is presumed that the session with low user satisfaction (that is, the low satisfaction session) contains many unfavorable index utterances.
そこで、指標発話抽出処理部50は、評価が所定の条件を満たすセッションに含まれる発話のうち出現頻度が所定の条件を満たす発話を、発話が含まれるセッションに対する利用者の評価が好意的であるか否か、すなわち、セッションに対して利用者が満足しているか否かの指標となる指標発話として抽出する。例えば、指標発話抽出処理部50は、高満足セッションおよび低満足セッションに含まれる発話をそれぞれ抽出し、抽出した発話ごとに、低満足セッションにおける出現頻度と高満足セッションにおける出現頻度とを算出する。 Therefore, the index utterance extraction processing unit 50 favorably evaluates the utterances whose appearance frequency satisfies the predetermined condition among the utterances included in the session whose evaluation satisfies the predetermined condition, and the user's evaluation for the session including the utterance. It is extracted as an index utterance that is an index of whether or not the user is satisfied with the session. For example, the index utterance extraction processing unit 50 extracts utterances included in the high-satisfaction session and the low-satisfaction session, and calculates the appearance frequency in the low-satisfaction session and the appearance frequency in the high-satisfaction session for each extracted utterance.
そして、指標発話抽出処理部50は、低満足セッションにおける出現頻度を高満足セッションにおける出現頻度で除算した値を出現頻度の比率として算出する。そして、指標発話抽出処理部50は、算出した比率が上位N個の発話を新たな非好意的指標発話とし、下位N個の発話を新たな好意的指標発話として抽出する。 Then, the index utterance extraction processing unit 50 calculates a value obtained by dividing the appearance frequency in the low satisfaction session by the appearance frequency in the high satisfaction session as the ratio of the appearance frequency. Then, the index utterance extraction processing unit 50 extracts the utterances having the highest calculated ratio of N as new non-favorable index utterances and the utterances of the lower N as new favorable index utterances.
〔2-4-4.指標発話抽出処理部の機能構成について〕
次に、図11を用いて、指標発話抽出処理部50が有する機能構成の一例について説明する。図11は、実施形態に係る指標発話抽出処理部の機能構成の一例を示す図である。図11に示すように、指標発話抽出処理部50は、指標発話特定部51、発話抽出部52、およびネットワーク生成部53を有する。
[2-4-4. About the functional configuration of the index utterance extraction processing unit]
Next, an example of the functional configuration of the index utterance extraction processing unit 50 will be described with reference to FIG. FIG. 11 is a diagram showing an example of the functional configuration of the index utterance extraction processing unit according to the embodiment. As shown in FIG. 11, the index utterance extraction processing unit 50 includes an index utterance identification unit 51, an
指標発話特定部51は、対話サービスにおける利用者の発話と応答との履歴から、対話サービスに対する利用者の評価の指標となる発話であって、予め設定された指標発話を特定する。例えば、指標発話特定部51は、指標発話データベース33を参照し、指標発話を識別する。なお、指標発話特定部51は、予め登録された指標発話を識別してもよく、セッションから抽出された指標発話を識別してもよい。
The index utterance specifying unit 51 identifies a preset index utterance, which is an index of the user's evaluation of the dialogue service, from the history of the user's utterance and the response in the dialogue service. For example, the index utterance specifying unit 51 refers to the
そして、指標発話特定部51は、セッションログデータベース31を参照し、識別した指標発話を含むセッションを検索する。すなわち、指標発話特定部51は、セッションの履歴のうち、利用者の発話に好意的指標発話若しくは非好意的指標発話が含まれるセッションを特定する。そして、指標発話特定部51は、特定したセッション、すなわち、指標発話を含むセッションを発話抽出部52に通知する。
Then, the index utterance specifying unit 51 refers to the
なお、指標発話特定部51は、図8に示す共起ネットワークから指標発話を特定する場合、ネットワーク生成部53に対して、指標発話を含むセッションを通知する。そして、指標発話特定部51は、ネットワーク生成部53により生成された共起ネットワークに含まれる各ノードのうち、識別した指標発話と対応するノード、すなわち、指標発話データベース33に登録された好意的指標発話や非好意的指標発話と対応するノードを特定する。そして、指標発話特定部51は、共起ネットワークと、特定したノードとを発話抽出部52に通知する。
When the index utterance specifying unit 51 identifies the index utterance from the co-occurrence network shown in FIG. 8, the index utterance specifying unit 51 notifies the
発話抽出部52は、各セッションから指標発話を抽出する。例えば、発話抽出部52は、図8に示すように、シードとなる指標発話との共起性に基づいて、セッションの履歴に含まれる発話から新たな指標発話を抽出する。
The
例えば、発話抽出部52は、指標発話特定部51により特定されたセッション、すなわち、指標発話が含まれるセッションをセッションログデータベース31から抽出する。そして、発話抽出部52は、発話ごとに、好意的指標発話との共起性を特定し、好意的指標発話との共起性が所定の閾値を超える発話を新たな好意的指標発話として抽出する。また、発話抽出部52は、発話ごとに、非好意的指標発話との共起性を特定し、特定した共起性が所定の閾値を超える発話を新たな非好意的指標発話として抽出する。
For example, the
例えば、発話抽出部52は、抽出したセッションに含まれる発話ごとに、好意的指標発話が含まれるセッションでの出現回数、および、非好意的指標発話が含まれるセッションでの出現回数を計数する。すなわち、発話抽出部52は、好意的指標発話が同一のセッション内に含まれる回数と、非好意的指標発話が同一のセッション内に含まれる回数とを発話ごとに計数する。そして、発話抽出部52は、計数した各回数の比が所定の条件を満たす発話を新たな指標発話として抽出する。例えば、発話抽出部52は、非好意的指標発話が含まれるセッションでの出現回数を好意的指標発話が含まれるセッションでの出現回数で除算した値を比率として算出し、比率が上位N個の発話を新たな非好意的指標発話とし、比率が下位N個の発話を新たな好意的指標発話とする。
For example, the
なお、発話抽出部52は、単純に、好意的指標発話が含まれるセッションでの出現回数が所定の閾値を超える発話を新たな好意的指標発話としてもよい。また、発話抽出部52は、非好意的指標発話が含まれるセッションでの出現回数が所定の閾値を超える発話を新たな非好意的指標発話としてもよい。
The
また、発話抽出部52は、共起ネットワークと指標発話に対応するノードとの通知を受付けた場合、共起ネットワークに基づいて、指標発話との共起性が所定の条件を満たす発話を指標発話として抽出する。すなわち、発話抽出部52は、共起ネットワーク上における指標発話との距離が所定の条件を満たす発話を新たな指標発話として抽出する。
Further, when the
例えば、発話抽出部52は、共起ネットワーク上における好意的指標発話との距離が所定の閾値以下となる発話を新たな好意的指標発話として抽出してもよい。また、例えば、発話抽出部52は、共起ネットワーク上における非好意的指標発話との距離が所定の閾値以下となる発話を、非好意的指標発話として抽出してもよい。また、例えば、発話抽出部52は、好意的指標発話との距離が所定の閾値以下となり、かつ、非好意的指標発話との距離が所定の閾値以上となる発話を新たな好意的指標発話として抽出してもよい。また、例えば、発話抽出部52は、非好意的指標発話との距離が所定の閾値以下となり、かつ、好意的指標発話との距離が所定の閾値以上となる発話を新たな非好意的指標発話として抽出してもよい。
For example, the
例えば、発話抽出部52は、共起ネットワークに含まれるノードごとに、好意的指標発話と対応するノードとの距離、および、非好意的指標発話と対応するノードとの距離を特定する。そして、発話抽出部52は、非好意的指標発話と対応するノードとの距離が所定の閾値以下となり、かつ、好意的指標発話と対応するノードとの距離が所定の閾値を超えるノードと対応する発話を新たな非好意的指標発話とする。また、発話抽出部52は、好意的指標発話と対応するノードとの距離が所定の閾値以下となり、かつ、非好意的指標発話と対応するノードとの距離が所定の閾値を超えるノードと対応する発話を新たな好意的指標発話とする。
For example, the
また、発話抽出部52は、図9に示す処理を実行する場合、対話サービスの利用態様が所定の条件を満たす利用者の発話と応答とを含むセッションを取得し、取得したセッションにおける出現頻度に基づいて、指標発話を抽出する。例えば、発話抽出部52は、エンゲージメントデータベース34を参照し、所定の期間内における利用者のエンゲージメント履歴を特定する。より具体的な例を挙げると、発話抽出部52は、処理日時と直近の数か月間における履歴期間と履歴頻度とを特定する。
Further, when the
そして、発話抽出部52は、履歴期間が所定の閾値よりも長く、かつ、履歴頻度が所定の閾値よりも高い利用者を好意的利用者として特定する。また、発話抽出部52は、履歴期間が所定の閾値よりも短く、かつ、履歴頻度が所定の閾値よりも低い利用者を非好意的利用者として特定する。なお、発話抽出部52は、予測エンゲージメントとして登録された予測期間および予測頻度が所定の閾値を超えるか否かに基づいて、好意的利用者や非好意的利用者を特定してもよい。
Then, the
そして、発話抽出部52は、非好意的利用者のセッションにおける出現頻度を好意的利用者のセッションにおける出現頻度で除算した値を、発話ごとに算出する。そして、発話抽出部52は、算出した値が上位N個の発話を新たな非好意的指標発話とし、算出した値が下位N個の発話を新たな好意的指標発話として抽出する。
Then, the
すなわち、発話抽出部52は、利用態様が所定の条件を満たす利用者、すなわち、好意的利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話を、新たな好意的指標発話として抽出する。また、発話抽出部52は、利用態様が所定の条件を満たさない利用者、すなわち、非好意的利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話を、新たな非好意的指標発話として抽出する。
That is, the
また、発話抽出部52は、図10に示す処理を実行する場合、評価が所定の条件を満たすセッションから出現頻度が所定の条件を満たす発話を指標発話として抽出する。例えば、発話抽出部52は、セッション評価データベース32を参照し、高満足セッションと低満足セッションとを特定する。また、発話抽出部52は、セッションログデータベース31を参照し、高満足セッションと低満足セッションとを抽出する。
Further, when the process shown in FIG. 10 is executed, the
そして、発話抽出部52は、発話ごとに、低満足セッションにおける出現頻度と高満足セッションにおける出現頻度との割合を算出し、割合が所定の条件を満たす発話を新たな指標発話として抽出する。例えば、発話抽出部52は、低満足セッションにおける出現頻度を高満足セッションにおける出現頻度で除算した値を算出し、算出した値が上位N個の発話を新たな非好意的指標発話とし、算出した値が下位N個の発話を新たな好意的指標発話として抽出する。
Then, the
なお、発話抽出部52は、上述した各種の処理により抽出した指標発話を、指標発話データベース33に登録する。このように、指標発話データベース33に登録された指標発話は、登録後の処理において、シードとなる指標発話やセッションを評価するための指標発話として利用される。
The
ネットワーク生成部53は、発話と応答との履歴から、共起性を有する発話若しくは応答を接続する共起ネットワークを生成する。例えば、ネットワーク生成部53は、セッションログデータベース31を参照し、セッションに含まれている各発話を特定する。そして、ネットワーク生成部53は、各発話と対応するノードを設定し、各発話の共起性に基づいて、各発話と対応するノード間を接続した共起ネットワークを生成する。そして、ネットワーク生成部53は、共起ネットワークを指標発話特定部51に提供する。
The
〔2-5.評価処理について〕
図2に戻り、説明を続ける。セッション評価処理部60は、セッションを評価する評価処理を実行する。以下、図12~図21を用いてセッション評価処理部60が実行する評価の概念、および、セッション評価処理部60が有する機能構成の一例を説明する。
[2-5. Evaluation process]
Returning to FIG. 2, the explanation will be continued. The session
〔2-5-1.指標発話に基づく評価処理について〕
例えば、セッション評価処理部60は、セッションに含まれる指標発話に基づいて、セッションの評価を行う。例えば、図12は、指標発話に基づいてセッションを評価する処理の概念を示す図である。例えば、あるセッションに好意的指標発話が多く含まれる場合、そのセッションに含まれる各応答に対する利用者の印象が良いと推定されるので、そのセッションに対する利用者の満足度は高いと推定される。また、あるセッションに非好意的指標発話が多い場合、そのセッションに含まれる各応答に対する利用者の印象が悪いと推定されるので、そのセッションに対する利用者の満足度は低いと推定される。
[2-5-1. Evaluation processing based on index utterances]
For example, the session
そこで、セッション評価処理部60は、セッションに含まれる非好意的指標発話の出現頻度や好意的指標発話の出現頻度に基づいて、セッションの評価を行う。例えば、セッション評価処理部60は、セッション評価データベース32を参照し、評価が行われていないセッションを評価対象として選択する。なお、セッション評価処理部60は、評価が行われたセッションを評価対象として選択してもよい。例えば、セッション評価処理部60は、評価が行われてから所定の期間が経過したセッションを評価対象として選択し直してもよい。
Therefore, the session
続いて、セッション評価処理部60は、評価対象のセッションをセッションログデータベース31から抽出し、指標発話データベース33を参照して、抽出したセッションに含まれる指標発話を特定する。そして、セッション評価処理部60は、非好意的指標発話の出現頻度の合計と、好意的指標発話の出現頻度の合計との比率を算出する。例えば、セッション評価処理部60は、処理対象となるセッションに含まれる発話のうち、非好意的指標発話として登録された発話を全て特定し、特定した発話の総数を非好意的指標発話の出現頻度の合計として特定する。また、セッション評価処理部60は、処理対象となるセッションに含まれる発話のうち、好意的指標発話として登録された発話を全て特定し、特定した発話の総数を好意的指標発話の出現頻度の合計として特定する。
Subsequently, the session
そして、セッション評価処理部60は、非好意的指標発話の出現頻度の合計を、好意的指標発話の出現頻度の合計で除算した値を比率として算出する。また、セッション評価処理部60は、他のセッションに対しても同様に比率を算出し、算出した値が上位N個のセッションを低満足セッションとして抽出し、算出した値が下位N個のセッションを高満足セッションとして抽出する。
Then, the session
ここで、各指標発話が示唆する利用者の満足度には、差異があると考えられる。例えば、「すごいね」という発話を行った利用者は、「いいね」という発話を行った利用者よりも、対話サービスに満足しているとも考えられる。そこで、セッション評価処理部60は、指標発話が示唆する利用者の満足度の程度を考慮して、セッションの評価を行ってもよい。
Here, it is considered that there is a difference in the degree of user satisfaction suggested by each index utterance. For example, it is considered that the user who made the utterance "Wow" is more satisfied with the dialogue service than the user who made the utterance "Like". Therefore, the session
例えば、指標発話データベース33には、対応する指標発話を発した利用者がどれくらい対話サービスに満足しているか、若しくは、満足していないかを示す指標スコアが付与されている(例えば、図5参照)。このような指標スコアは、例えば、クラウドソージングにより人手で提供されたものでも良く、例えば、セッションに付与される不満足度スコアと各指標発話との出現頻度との関係性から自動的に算出されたものであってもよい。例えば、情報提供装置10は、不満足度スコアがより高いセッションに多く含まれる非好意的指標発話ほどより高い値の指標スコアを算出してもよく、不満足度スコアがより低いセッションに多く含まれる好意的指標発話ほどより高い値の指標スコアを算出してもよい。
For example, the
このような指標スコアが付与されている場合、セッション評価処理部60は、以下の処理を実行する。まず、セッション評価処理部60は、評価対象のセッションをセッションログデータベース31から抽出し、指標発話データベース33を参照して、抽出したセッションに含まれる指標発話を特定する。
When such an index score is given, the session
そして、セッション評価処理部60は、処理対象となるセッションに含まれる非好意的指標発話の指標スコアの合計と、好意的指標発話の指標スコアの合計との比率を算出する。例えば、セッション評価処理部60は、処理対象となるセッションに含まれる非好意的指標発話の指標スコアの合計を、好意的指標発話の指標スコアの合計で除算した値を比率として算出する。なお、セッション評価処理部60は、各指標発話の指標スコアの絶対値の合計から、比率の算出を行ってもよい。また、セッション評価処理部60は、他のセッションに対しても同様に比率を算出し、算出した値が上位N個のセッションを低満足セッションとし、算出した値が下位N個のセッションを高満足セッションとする。その後、セッション評価処理部60は、評価結果をセッション評価データベース32に登録する。
Then, the session
〔2-5-2.指標発話に基づく評価処理について〕
また、例えば、セッション評価処理部60は、セッションに含まれる指標発話に基づいて、セッションを評価するモデルを用いて、セッションの評価を行う。例えば、図13は、指標発話に基づいてセッションを評価する処理の概念を示す図である。
[2-5-2. Evaluation processing based on index utterances]
Further, for example, the session
例えば、セッション評価処理部60は、セッションログデータベース31を参照し、高満足セッションと高満足セッション以外のセッションとを学習データとして抽出する。例えば、セッション評価処理部60は、図12に示す処理による評価結果に基づいて、高満足セッションであると評価されたセッションをセッションログデータベース31から抽出する。また、セッション評価処理部60は、高満足セッションであると評価されたセッション以外のセッションをセッションログデータベース31から抽出する。
For example, the session
そして、セッション評価処理部60は、抽出した学習データを用いて、好意的指標発話評価モデルM4の学習を行う。例えば、セッション評価処理部60は、高満足セッションに含まれる発話および応答の文字列を入力した際に、所定の閾値よりも高い値の第1満足度を出力し、高満足セッション以外のセッションに含まれる発話および応答の文字列を入力した際に、所定の閾値よりも低い値の第1満足度を出力するように、好意的指標発話評価モデルM4の学習を行う。なお、セッション評価処理部60は、高満足セッションに含まれる発話および応答の文字列を入力した際に、高満足セッションである旨の値を出力し、高満足セッション以外のセッションに含まれる発話および応答の文字列を入力した際に、高満足セッションではない旨の値を出力するように、好意的指標発話評価モデルM4の学習を行ってもよい。
Then, the session
なお、高満足セッションには、好意的指標発話が多く含まれていると推定される。このため、上述した学習を行った場合、好意的指標発話評価モデルM4は、評価対象となる対象セッションに好意的指標発話が多く含まれるほど、より高い値の第1満足度を出力し、評価対象となる対象セッションに好意的指標発話が含まれないほど、より低い値の第1満足度を出力することとなる。 It is presumed that the high-satisfaction session contains many favorable index utterances. Therefore, when the above-mentioned learning is performed, the favorable index utterance evaluation model M4 outputs a higher value of the first satisfaction level as the target session to be evaluated contains more favorable index utterances and evaluates it. The lower the value of the first satisfaction is, the lower the target utterance is not included in the target session.
また、セッション評価処理部60は、セッションログデータベース31を参照し、低満足セッションと低満足セッション以外のセッションとを学習データとして抽出する。そして、セッション評価処理部60は、抽出した学習データを用いて、非好意的指標発話評価モデルM3の学習を行う。例えば、セッション評価処理部60は、低満足セッションに含まれる発話および応答の文字列を入力した際に、所定の閾値よりも高い値の第3不満足度を出力し、低満足セッション以外のセッションに含まれる発話および応答の文字列を入力した際に、所定の閾値よりも低い値の第3不満足度を出力するように、非好意的指標発話評価モデルM3の学習を行う。なお、セッション評価処理部60は、低満足セッションに含まれる発話および応答の文字列を入力した際に、低満足セッションである旨の値を出力し、低満足セッション以外のセッションに含まれる発話および応答の文字列を入力した際に、低満足セッションではない旨の値を出力するように、非好意的指標発話評価モデルM3の学習を行ってもよい。
Further, the session
なお、低満足セッションには、非好意的指標発話が多く含まれていると推定される。このため、上述した学習を行った場合、非好意的指標発話評価モデルM3は、評価対象となる対象セッションに非好意的指標発話が多く含まれるほど、より高い値の第3不満足度を出力し、評価対象となる対象セッションに非好意的指標発話が含まれないほど、より低い値の第3不満足度を出力することとなる。 It is presumed that the low-satisfaction session contains many unfavorable index utterances. Therefore, when the above-mentioned learning is performed, the non-favorable index utterance evaluation model M3 outputs a higher value of the third dissatisfaction as the target session to be evaluated contains more non-favorable index utterances. , The lower the third dissatisfaction level is output so that the target session to be evaluated does not include the unfavorable index utterance.
そして、セッション評価処理部60は、非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4を用いて、セッションを評価する。例えば、セッション評価処理部60は、評価対象となる対象セッションの発話や応答の文字列を非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4に入力し、第3不満足度および第1満足度を取得する。そして、セッション評価処理部60は、第3不満足度や第1満足度に基づいて、セッションを評価する。
Then, the session
例えば、セッション評価処理部60は、第3不満足度が所定の閾値を超える場合は、対象セッションを低満足セッションと評価してもよい。また、セッション評価処理部60は、第1満足度が所定の閾値を超える場合は、対象セッションを高満足セッションと評価してもよい。また、セッション評価処理部60は、第3不満足度が所定の閾値を超え、かつ、第1満足度が所定の閾値未満となる場合は、対象セッションを低満足セッションと評価してもよい。また、セッション評価処理部60は、第3不満足度が所定の閾値未満となり、かつ、第1満足度が所定の閾値以上となる場合は、対象セッションを高満足セッションと評価してもよい。また、セッション評価処理部60は、図1に示した処理により、対象セッションを評価してもよい。
For example, the session
〔2-5-3.3値学習に基づく評価処理について〕
ここで、セッションに限らず各種の対話において、好意的指標発話に先駆けて行われた対話は、利用者の満足度が高く、非好意的指標発話に先駆けて行われた対話は、利用者の満足度が低いと推定される。また、指標発話が示す利用者の印象は、指標発話よりも後の対話ではなく、指標発話の直前の対話に対するものであると考えられる。
[About evaluation processing based on 2-5-3.3 value learning]
Here, in various dialogues not limited to the session, the dialogue conducted prior to the favorable index utterance has a high degree of user satisfaction, and the dialogue conducted prior to the non-favorable index utterance is the user's dialogue. It is estimated that the satisfaction level is low. Further, it is considered that the user's impression indicated by the index utterance is not the dialogue after the index utterance but the dialogue immediately before the index utterance.
そこで、セッション評価処理部60は、指標発話と対応する一連の対話を抽出し、抽出した対話を用いて、入力された対話に対する利用者の評価を推定するモデルの学習を行ってもよい。例えば、セッション評価処理部60は、指標発話に先駆けてやり取りされた発話と応答とを抽出し、抽出した発話の特徴をモデルに学習させ、学習済のモデルを用いてセッションの評価を行ってもよい。また、セッション評価処理部60は、利用者による印象が好意的でも非好意的でもない(すなわち、満足もしていないが不満足でもない)中性的な対話の特徴を合わせてモデルに学習させてもよい。
Therefore, the session
例えば、図14は、3種類の対話の特徴を学習させた3値評価モデルを用いてセッションを評価する処理の一例を示す図である。例えば、セッション評価処理部60は、セッションログデータベース31を参照し、非好意的指標発話が含まれるセッションを特定する。続いて、セッション評価処理部60は、非好意的指標発話と、非好意的指標発話の直前に行われた所定の数の発話および応答とを非好意的対話例UDとしてセッションから抽出する。例えば、セッション評価処理部60は、「意味がわからない」という非好意的指標発話の直前に行われた2つの発話およびこれらの発話に対する応答とを抽出し、「意味がわからない」という非好意的指標発話とともに非好意的対話例UDとして抽出する。
For example, FIG. 14 is a diagram showing an example of a process of evaluating a session using a ternary evaluation model trained in the characteristics of three types of dialogue. For example, the session
また、セッション評価処理部60は、セッションログデータベース31を参照し、好意的指標発話が含まれるセッションを特定する。続いて、セッション評価処理部60は、好意的指標発話と、好意的指標発話の直前に行われた所定の数の発話および応答とを好意的対話例FDとしてセッションから抽出する。例えば、セッション評価処理部60は、「賢いね」という好意的指標発話の直前に行われた2つの発話およびこれらの発話に対する応答とを抽出し、「賢いね」という好意的指標発話とともに好意的対話例FDとして抽出する。
Further, the session
また、セッション評価処理部60は、指標発話ではない発話を中性発話として1つ選択し、選択した中性発話を含むセッションから、中性発話の直前に行われた所定の数の発話および応答とを中性対話例NDとしてセッションから抽出する。例えば、セッション評価処理部60は、「明日の天気」という中性発話の直前に行われた2つの発話およびこれらの発話に対する応答とを抽出し、「明日の天気」という中性発話とともに中性対話例NDとして抽出する。
Further, the session
そして、セッション評価処理部60は、非好意的対話例UD、中性対話例ND、および好意的対話例FDが有する特徴を3値評価モデルM5に学習させる。例えば、セッション評価処理部60は、非好意的対話例UDに含まれる発話および応答の文字列を入力した場合は、入力された発話および応答が非好意的対話例である旨を示す値を出力し、中性対話例NDに含まれる発話および応答の文字列を入力した場合は、入力された発話および応答が中性対話例である旨を示す値を出力し、好意的対話例FDに含まれる発話および応答の文字列を入力した場合は、入力された発話および応答が好意的対話例である旨を示す値を出力するように、3値評価モデルM5の学習を行う。すなわち、セッション評価処理部60は、入力された対話を、利用者が満足しているか(好意的対話であるか)、満足していないか(非好意的対話であるか)、それ以外であるか(中性対話であるか)の3つに分類するモデルを学習する。
Then, the session
そして、セッション評価処理部60は、生成した3値評価モデルM5を用いて、対象セッションの評価を行う。例えば、セッション評価処理部60は、3値評価モデルM5に対象セッションに含まれる発話および応答の文字列を入力し、3値評価モデルM5の出力に基づいて、対象セッションに利用者が満足しているか(すなわち、高満足セッションであるか)、利用者が満足していないか(すなわち、低満足セッションであるか)、それ以外であるか(すなわち、中性セッションであるか)を評価する。
Then, the session
なお、セッション評価処理部60は、各対話例を抽出する際、指標発話や中性発話の直前に行われた任意の数の発話および応答を抽出してよい。このように、指標発話や中性発話の直前に行われた発話および応答が有する特徴をモデルに学習させることで、モデルによる対話に対する評価、ひいては、セッションに対する評価の精度を向上させることができる。
When extracting each dialogue example, the session
〔2-5-4.エンゲージメントに基づく評価処理について〕
図15は、エンゲージメントに基づいてセッションを評価する処理の一例を示す図である。例えば、対話に対する満足度が高い利用者は、利用期間や利用頻度が高くなり、対話に対する満足度が低い利用者は、利用期間や利用頻度が低くなると考えられる。このため、利用期間や利用頻度等のエンゲージメントが高い利用者の発話を含むセッションは、満足度が高く、エンゲージメントが低い利用者の発話を含むセッションは、満足度が低いと推定される。そこで、セッション評価処理部60は、セッションに含まれる発話を行った利用者のエンゲージメントに基づいて、そのセッションを評価する。
[2-5-4. About engagement-based evaluation processing]
FIG. 15 is a diagram showing an example of a process of evaluating a session based on engagement. For example, it is considered that a user who is highly satisfied with the dialogue has a high usage period and frequency of use, and a user who is not satisfied with the dialogue has a low usage period and frequency of use. Therefore, it is presumed that the session including the utterance of the user with high engagement such as the usage period and the frequency of use has a high satisfaction level, and the session including the utterance of the user with low engagement has a low satisfaction level. Therefore, the session
例えば、セッション評価処理部60は、エンゲージメントデータベース34を参照し、所定期間内における履歴期間および履歴頻度が所定の閾値を超える利用者を特定する。続いて、セッション評価処理部60は、特定した利用者の発話を含むセッションをセッションログデータベース31から抽出し、抽出したセッションをエンゲージメントが高いユーザーのセッションとする。
For example, the session
一方、セッション評価処理部60は、エンゲージメントデータベース34を参照し、所定期間内における履歴期間および履歴頻度が所定の閾値未満となる利用者を特定する。続いて、セッション評価処理部60は、特定した利用者の発話を含むセッションをセッションログデータベース31から抽出し、抽出したセッションをエンゲージメントが低いユーザーのセッションとする。
On the other hand, the session
そして、セッション評価処理部60は、エンゲージメントが高いユーザーのセッションと、エンゲージメントが低いユーザーのセッションとが有する特徴をエンゲージメントセッション評価モデルM6に学習させる。例えば、セッション評価処理部60は、エンゲージメントが高いユーザーのセッションに含まれる発話および応答を入力した場合は、セッションに対する利用者の満足度が高い旨を示す値を出力し、エンゲージメントが低いユーザーのセッションに含まれる発話および応答を入力した場合は、セッションに対する利用者の満足度が低い旨を示す値を出力するように、エンゲージメントセッション評価モデルM6を学習する。
Then, the session
例えば、セッション評価処理部60は、エンゲージメントが高いユーザーのセッションに含まれる発話および応答を入力した場合は、所定の閾値よりも高い値の評価スコアを出力し、エンゲージメントが低いユーザーのセッションに含まれる発話および応答を入力した場合は、所定の閾値よりも低い値の評価スコアを出力するように、エンゲージメントセッション評価モデルM6を学習する。すなわち、セッション評価処理部60は、エンゲージメントに基づいて抽出された学習データを用いて、入力されたセッションを、利用者の満足度が高いセッション若しくは利用者の満足度が低いセッションに分類するエンゲージメントセッション評価モデルM6を学習する。
For example, when the session
そして、セッション評価処理部60は、エンゲージメントセッション評価モデルM6を用いて、対象セッションを評価する。例えば、セッション評価処理部60は、対象セッションに含まれる発話および応答の文字列を入力した際に、エンゲージメントセッション評価モデルM6が出力した評価スコアに基づいて、対象セッションに対して利用者が満足しているか否かを評価する。
Then, the session
〔2-5-5.繰り返し発話に基づく評価処理について〕
また、図16は、繰り返し発話に基づいてセッションを評価する処理の概念を示す図である。例えば、同一又は類似の発話がセッション内で繰り返されている場合、そのセッションに対する利用者の満足度は低く、同一又は類似の発話がセッション内で繰り返されていない場合、そのセッションに対する利用者の満足度は高いと推定される。そこで、セッション評価処理部60は、セッションに含まれる繰り返し発話に基づいて、セッションを評価してもよい。
[2-5-5. Evaluation processing based on repeated utterances]
Further, FIG. 16 is a diagram showing a concept of a process of evaluating a session based on repeated utterances. For example, if the same or similar utterances are repeated in a session, the user's satisfaction with the session is low, and if the same or similar utterances are not repeated in the session, the user's satisfaction with the session. The degree is estimated to be high. Therefore, the session
例えば、セッション評価処理部60は、対象セッションに含まれる発話から、表記が類似するペアの数を表記類似ペア数として計数する。例えば、セッション評価処理部60は、Jaccard係数、Dice係数、Simpson係数等といった類似度が所定の閾値を超えるペアの数や、レーベンシュタイン距離等の各種編集距離に基づく類似度が所定の閾値を超えるペアの数を計数する。また、セッション評価処理部60は、word2vecやGloVe等を用いて、意味の類似度が所定の閾値を超えるペアの数を意味類似ペア数として算出してもよい。
For example, the session
そして、セッション評価処理部60は、対象セッションから抽出された表記類似ペア数や意味類似ペア数の値が所定の閾値を超える場合は、対象セッションを低満足セッションと評価し、対象セッションから抽出された表記類似ペア数や意味類似ペア数の値が所定の閾値を下回る場合は、対象セッションを高満足セッションと評価する。
Then, when the value of the number of notation-like pairs or the number of semantic-similar pairs extracted from the target session exceeds a predetermined threshold value, the session
また、セッション評価処理部60は、繰り返し発話を含むセッションの特徴をモデルに学習させることで、対象セッションを評価する反復発話評価モデルM7の学習を行ってもよい。例えば、セッション評価処理部60は、繰り返し発話を含むセッション(例えば、各ペア数が所定の閾値を超えるセッション)を入力した際に、入力されたセッションが低満足セッションである旨を出力するように反復発話評価モデルM7を学習させてもよい。また、セッション評価処理部60は、このような反復発話評価モデルM7を用いて、対象セッションの評価を行ってもよい。
Further, the session
〔2-5-6.繰り返し発話の自動生成について〕
ここで、セッション評価処理部60は、繰り返し発話を含むセッションを自動生成し、生成したセッションの特徴を反復発話評価モデルM7に学習させてもよい。例えば、図17は、自動生成したデータの特徴を学習させたモデルを用いてセッションを評価する処理の概念を示す図である。例えば、セッション評価処理部60は、セッションログデータベース31を参照し、いずれかの発話をシード発話として抽出する。例えば、セッション評価処理部60は、「今日の天気は」といった発話をシード発話として抽出する。
[2-5-6. About automatic generation of repeated utterances]
Here, the session
続いて、セッション評価処理部60は、抽出したシード発話から、シード発話と類似する発話を複数生成する。例えば、セッション評価処理部60は、音声認識のミスやタイプミス等を模倣するため、「今日の天気は」といったシード発話の文字列に含まれる単語や文字をランダムに削除、若しくは音が類似する単語や文字列に置換した発話を複数生成する。より具体的な例を挙げると、セッション評価処理部60は、「今日の天気は」というシード発話の文字列から、「今日の電気は」、「業の電気は」、「今日を電気は」といった文字列を複製発話として生成する。
Subsequently, the session
また、セッション評価処理部60は、セッションログデータベース31からシード発話とは異なる発話を混在発話として1つ若しくは複数抽出する。例えば、セッション評価処理部60は、「牡羊座の運勢」といった発話を混在発話として抽出する。そして、セッション評価処理部60は、シード発話と、シード発話から生成した複数の複製発話と、混在発話とをランダムに並び替えて、疑似的な発話からなるセッションを反復セッションRSとして生成する。例えば、図17に示す例では、セッション評価処理部60は、シード発話である「今日の天気は」という文字列を利用者の発話「Usr:今日の天気は」として含み、複製発話である「今日の電気は」という文字列を利用者の発話「Usr:今日の電気は」として含み、混在発話である「牡羊座の運勢」という文字列を利用者の発話「Usr:牡羊座の運勢」として含み、シード発話である「今日の天気は」という文字列を利用者の発話「Usr:今日の天気は」として再度含み、複製発話である「業の天気は」という文字列および「今日を電気は」を利用者の発話「Usr:業の天気は」および「Usr:今日を電気は」として含む反復セッションRSを生成する。
Further, the session
すなわち、セッション評価処理部60は、疑似的に繰り返し発話を含むセッションを生成する。なお、セッション評価処理部60は、複数のシード発話を抽出し、各シード発話から複製発話を生成してもよい。
That is, the session
また、セッション評価処理部60は、セッションログデータベース31を参照し、ランダムに複数の発話を抽出する。そして、セッション評価処理部60は、抽出した発話をランダムに並び替えたセッションを非反復セッションNRSとして生成する。そして、セッション評価処理部60は、反復セッションRSと、非反復セッションNRSとを学習データとして、反復発話評価モデルM7の学習を行う。例えば、セッション評価処理部60は、反復セッションRSが入力された場合に、利用者が満足していない旨を示すスコアを出力し、非反復セッションNRSが入力された場合に、利用者が満足している旨を示すスコアを出力するように、反復発話評価モデルM7の学習を行う。
Further, the session
そして、セッション評価処理部60は、反復発話評価モデルM7を用いて、対象セッションを評価する。例えば、セッション評価処理部60は、対象セッションを入力した際に、反復発話評価モデルM7が出力するスコアの値に基づいて、対象セッションに対して利用者が満足しているか否かを評価する。
Then, the session
〔2-5-7.画像を用いた繰り返し発話の評価について〕
ここで、セッション評価処理部60は、画像を用いた繰り返し発話の評価を行ってもよい。例えば、図18は、画像を用いた繰り返し発話の評価の概念を示す図である。例えば、縦方向および横方向に同じ数の領域を設定した正方形の画像を設定し、あるセッションに含まれる発話の文字列の各文字を画像の縦方向および横方向に対応付け、縦方向および横方向に同じ文字が対応付けられた領域を塗りつぶした画像を生成した場合、かかる画像は、発話の文字列に含まれる同一文字の分布を示す分布画像となる。このような分布画像には、発話の文字列に繰り返しが含まれる場合、斜線を構成するように塗りつぶされた領域が含まれる。すなわち、あるセッションに類似する発話が含まれる場合、分布画像には斜線が現れることとなる。
[2-5-7. Evaluation of repeated utterances using images]
Here, the session
近年、画像解析技術の進歩により、DNN等を用いたモデルによる類似画像の判定精度が向上している。このため、単純にセッションに含まれる発話の文字列の特徴を学習するよりも、分布画像が有する特徴を学習した方が、繰り返し発話を含むセッションの特徴を精度良く学習できると考えられる。 In recent years, advances in image analysis technology have improved the accuracy of determining similar images using a model using DNN or the like. Therefore, it is considered that learning the characteristics of the distributed image can more accurately learn the characteristics of the session including the repeated utterances than simply learning the characteristics of the character string of the utterance included in the session.
そこで、セッション評価処理部60は、分布画像が有する特徴を繰り返し評価モデルM1に学習させ、繰り返し評価モデルM1を用いて、対象セッションの評価を行ってもよい。例えば、セッション評価処理部60は、図16に示すように、表記類似ペアや意味類似ペアの数が所定の閾値を超えるセッションを繰り返し発話を含むセッションとしてセッションログデータベース31から抽出する。なお、セッション評価処理部60は、図17に示す手法により生成した反復セッションRSを繰り返し発話を含むセッションとして取得してもよい。そして、セッション評価処理部60は、繰り返し発話を含むセッションの各発話から、分布画像を生成する。
Therefore, the session
一方、セッション評価処理部60は、図16に示すように、表記類似ペアや意味類似ペアの数が所定の閾値を下回るセッションを繰り返し発話を含まないセッションとしてセッションログデータベース31から抽出する。なお、セッション評価処理部60は、図17に示す手法により生成した非反復セッションNRSを繰り返し発話を含まないセッションとして取得してもよい。そして、セッション評価処理部60は、繰り返し発話を含まないセッションの各発話から、分布画像を生成する。
On the other hand, as shown in FIG. 16, the session
そして、セッション評価処理部60は、生成した分布画像が有する特徴を繰り返し評価モデルM1に学習させる。例えば、セッション評価処理部60は、繰り返し発話を含むセッションの各発話から生成した分布画像が入力された場合は、利用者が満足していない旨を示すスコアを出力し、繰り返し発話を含まないセッションの各発話から生成した分布画像が入力された場合は、利用者が満足している旨を示すスコアを出力するように、繰り返し評価モデルM1の学習を行う。
Then, the session
続いて、セッション評価処理部60は、対象セッションに含まれる各発話から、分布画像を生成し、生成した分布画像を繰り返し評価モデルM1に入力する。そして、セッション評価処理部60は、繰り返し評価モデルM1が出力スコアに基づいて、対象セッションに対して利用者が満足しているか否かを評価する。
Subsequently, the session
〔2-5-8.謝罪応答に基づいた評価について〕
また、図19は、謝罪応答に基づいてセッションを評価する処理の概念を示す図である。図19に示すように、謝罪応答が含まれるセッションに対する利用者の満足度は低く、謝罪応答が含まれないセッションに対する利用者の満足度は高いと推定される。そこで、セッション評価処理部60は、謝罪応答に基づいたセッションの評価を行ってもよい。
[2-5-8. Evaluation based on apology response]
Further, FIG. 19 is a diagram showing a concept of a process of evaluating a session based on an apology response. As shown in FIG. 19, it is estimated that the user's satisfaction with the session including the apology response is low, and the user's satisfaction with the session without the apology response is high. Therefore, the session
例えば、セッション評価処理部60は、セッションログデータベース31を参照し、予め登録された所定の謝罪応答が含まれるセッションを抽出する。また、セッション評価処理部60は、所定の謝罪応答が含まれないセッションを抽出する。そして、セッション評価処理部60は、抽出したセッションが有する特徴を謝罪評価モデルM2に学習させる。例えば、セッション評価処理部60は、謝罪応答を含むセッションが入力された場合は、利用者が満足していない旨を示すスコアを出力し、謝罪応答を含まないセッションが入力された場合は、利用者が満足している旨を示すスコアを出力するように、謝罪評価モデルM2の学習を行う。
For example, the session
続いて、セッション評価処理部60は、対象セッションを謝罪評価モデルM2に入力する。そして、セッション評価処理部60は、謝罪評価モデルM2が出力スコアに基づいて、対象セッションに対して利用者が満足しているか否かを評価する。
Subsequently, the session
〔2-5-9.各評価基準の組み合わせについて〕
なお、セッション評価処理部60は、上述した各評価手法を組み合わせることで、対象セッションの評価を行ってもよい。例えば、図20は、複数の評価手法を組み合わせてセッションを評価する処理の概念を示す図である。図20に示すように、セッション評価処理部60は、繰り返し評価モデルM1、謝罪評価モデルM2、非好意的指標発話評価モデルM3、好意的指標発話評価モデルM4、3値評価モデルM5、エンゲージメントセッション評価モデルM6、および反復発話評価モデルM7を生成する。そして、セッション評価処理部60は、各モデルM1~M7のそれぞれに対象セッションや対象セッションから生成した分布画像を入力し、対象セッションを評価する。
[2-5-9. About the combination of each evaluation standard]
The session
例えば、繰り返し評価モデルM1は、対象セッションの分布画像が繰り返しセッションの分布画像と類似する場合、すなわち、対象セッションに発話の繰り返しがあると、利用者の満足度が低い旨の評価を出力する。また、謝罪評価モデルM2は、対象セッションに謝罪発話が含まれると、利用者の満足度が低い旨の評価を出力する。また、非好意的指標発話評価モデルM3は、対象セッションに非好意的指標発話が含まれると、利用者の満足度が低い旨の評価を出力する。また、好意的指標発話評価モデルM4は、対象セッションに好意的指標発話が含まれると、利用者の満足度が高い旨の評価を出力する。 For example, the iterative evaluation model M1 outputs an evaluation that the user's satisfaction is low when the distributed image of the target session is similar to the distributed image of the repeated session, that is, when the target session has repeated utterances. Further, the apology evaluation model M2 outputs an evaluation that the user's satisfaction is low when the target session includes an apology utterance. Further, the non-favorable index utterance evaluation model M3 outputs an evaluation that the user's satisfaction is low when the target session includes the non-favorable index utterance. Further, the favorable index utterance evaluation model M4 outputs an evaluation that the user's satisfaction is high when the favorable index utterance is included in the target session.
また、3値評価モデルM5は、対象セッションに利用者が満足している対話と特徴が類似する対話が含まれると、利用者の満足度が高い旨の評価を出力する。また、エンゲージメントセッション評価モデルM6は、対象セッションの特徴が、エンゲージメントが高い利用者の発話を含むセッションと特徴が類似する場合、すなわち、満足度が高い利用者の発話を含むセッションと類似する場合は、利用者の満足度が高い旨の評価を出力する。また、反復発話評価モデルM7は、対象セッションに発話の繰り返しがあると、利用者の満足度が低い旨の評価を出力する。 Further, the ternary evaluation model M5 outputs an evaluation that the user's satisfaction is high when the target session includes a dialogue having similar characteristics to the dialogue that the user is satisfied with. Further, in the engagement session evaluation model M6, when the characteristics of the target session are similar to the session including the utterance of the user with high engagement, that is, when the characteristics are similar to the session including the utterance of the user with high satisfaction. , Outputs an evaluation that the user's satisfaction is high. Further, the repeated utterance evaluation model M7 outputs an evaluation indicating that the user's satisfaction level is low when the target session has repeated utterances.
セッション評価処理部60は、これら各モデルM1~M7による評価結果の組み合わせに基づいて、対象セッションを評価する。例えば、セッション評価処理部60は、対象セッションに対する利用者の満足度が高いと判定したモデルの数と、利用者の満足度が低いと判定したモデルの数とを計数し、満足度が高いと判定したモデルの数が満足度が低いと判定したモデルの数よりも多い場合は、対象セッションに対する利用者の満足度が高いと判定してもよい。すなわち、セッション評価処理部60は、多数決により、対象セッションの評価を行ってもよい。
The session
また、セッション評価処理部60は、各モデルM1~M7のうち、一部のモデルの評価結果を用いて、対象セッションの評価を行ってもよい。また、例えば、セッション評価処理部60は、各モデルM1~M7が出力するスコアを統合してもよい。例えば、セッション評価処理部60は、モデルM1、M2、M3、M7のスコアの和から、モデルM4~M6のスコアを減算したスコアを算出し、算出したスコアの値に基づいて、対象セッションを評価してもよい。
Further, the session
また、セッション評価処理部60は、各モデルM1~M7を用いた評価結果をさらに学習してもよい。例えば、セッション評価処理部60は、利用者の満足度が高いと評価されたセッションと、利用者の満足度が低いと評価されたセッションとを学習データとして、モデルに学習させ、かかるモデルを用いて、対象セッションの評価を行ってもよい。また、指標発話抽出処理部50は、このようなセッション評価処理部60による評価結果に基づいて、指標発話の抽出を行ってもよい。例えば、指標発話抽出処理部50は、セッション評価処理部60によって満足度が高いと評価されたセッション、すなわち、高満足セッションから好意的指標発話を抽出し、セッション評価処理部60によって満足度が低いと評価されたセッション、すなわち、低満足セッションから非好意的指標発話を抽出してもよい。
Further, the session
〔2-5-10.ラベル付きデータの自動拡張について〕
ここで、セッション評価処理部60は、各モデルM1~M7の学習に用いるセッションのデータを自動拡張してもよい。例えば、図21は、ラベル付きセッションを自動拡張する処理の概念を示す図である。
[2-5-10. About automatic expansion of labeled data]
Here, the session
例えば、セッション評価処理部60は、利用者の満足度が低いセッション、すなわち、低満足セッションに含まれる各発話をそれぞれ抽出し、セッションログデータベース31から、抽出した各発話と類似する他の発話を検索する。また、セッション評価処理部60は、低満足セッションに含まれる各応答をそれぞれ抽出し、セッションログデータベース31から、抽出した各応答と類似する他の応答を検索する。
For example, the session
そして、セッション評価処理部60は、検索した発話および応答とを組み合わせることで、新たなセッションを疑似的に生成し、生成した新たなセッションを低満足セッションとして、モデルM1~M7の学習時における学習データとして採用してもよい。
Then, the session
〔2-5-11.セッション評価処理部の機能構成について〕
次に、図22を用いて、セッション評価処理部60が有する機能構成の一例について説明する。図22は、実施形態に係るセッション評価処理部の機能構成の一例を示す図である。図22に示すように、セッション評価処理部60は、学習データ抽出部61、学習部62、画像生成部63、発話群生成部64、および評価部65を有する。
[2-5-11. About the functional configuration of the session evaluation processing unit]
Next, an example of the functional configuration of the session
学習データ抽出部61は、学習データとなるセッションの抽出を行う。例えば、学習データ抽出部61は、図12に示すように、好意的指標発話の出現頻度や、好意的指標発話の指標スコアの合計が所定の条件を満たすセッションを、好意的指標発話評価モデルM4の学習データとなる高満足セッションとして抽出する。また、学習データ抽出部61は、高満足セッション以外のセッションを、好意的指標発話評価モデルM4の学習データとなる高満足セッション以外のセッションとして抽出する。 The learning data extraction unit 61 extracts a session to be learning data. For example, as shown in FIG. 12, the learning data extraction unit 61 sets a session in which the frequency of appearance of favorable index utterances and the total of the index scores of favorable index utterances satisfy a predetermined condition in the favorable index utterance evaluation model M4. Extract as a highly satisfying session that will be the learning data of. Further, the learning data extraction unit 61 extracts the sessions other than the high satisfaction session as the sessions other than the high satisfaction session which is the learning data of the favorable index speech evaluation model M4.
また、例えば、学習データ抽出部61は、図12に示すように、非好意的指標発話の出現頻度や、非好意的指標発話の指標スコアの合計が所定の条件を満たすセッションを、非好意的指標発話評価モデルM3の学習データとなる高満足セッションとして抽出する。また、学習データ抽出部61は、低満足セッション以外のセッションを、非好意的指標発話評価モデルM3の学習データとなる低満足セッション以外のセッションとして抽出する。 Further, for example, as shown in FIG. 12, the learning data extraction unit 61 unfavorably sets a session in which the frequency of appearance of non-favorable index utterances and the total index score of non-favorable index utterances satisfy a predetermined condition. It is extracted as a highly satisfying session that is the learning data of the index utterance evaluation model M3. Further, the learning data extraction unit 61 extracts the sessions other than the low satisfaction session as the sessions other than the low satisfaction session which is the learning data of the unfavorable index speech evaluation model M3.
なお、学習データ抽出部61は、セッション評価データベース32を参照し、高満足セッションおよび低満足セッションを特定し、特定した高満足セッションおよび低満足セッションを非好意的指標発話評価モデルM3および好意的指標発話評価モデルM4の学習データとして、セッションログデータベース31から抽出してもよい。
The learning data extraction unit 61 refers to the session evaluation database 32, identifies the high-satisfaction session and the low-satisfaction session, and identifies the specified high-satisfaction session and low-satisfaction session as the non-favorable index speech evaluation model M3 and the favorable index. It may be extracted from the
また、学習データ抽出部61は、図15に示すように、利用者のエンゲージメントに基づいて、エンゲージメントセッション評価モデルM6の学習データとなるセッションの抽出を行ってもよい。例えば、学習データ抽出部61は、エンゲージメントデータベース34を参照し、各利用者の利用態様、すなわち、履歴期間と履歴頻度とを特定する。そして、学習データ抽出部61は、特定された利用態様が所定の条件を満たす利用者を特定し、特定した利用者の発話を含むセッションをセッションログデータベース31から抽出する。
Further, as shown in FIG. 15, the learning data extraction unit 61 may extract a session to be learning data of the engagement session evaluation model M6 based on the engagement of the user. For example, the learning data extraction unit 61 refers to the engagement database 34 and specifies the usage mode of each user, that is, the history period and the history frequency. Then, the learning data extraction unit 61 identifies a user whose specified usage mode satisfies a predetermined condition, and extracts a session including the utterance of the specified user from the
例えば、学習データ抽出部61は、履歴期間や履歴頻度が所定の閾値を超える利用者を特定し、特定した利用者の発話を含むセッションを、エンゲージメントが高いユーザーのセッションとして、セッションログデータベース31から抽出する。また、学習データ抽出部61は、履歴期間や履歴頻度が所定の閾値を下回る利用者を特定し、特定した利用者の発話を含むセッションを、エンゲージメントが低いユーザーのセッションとして、セッションログデータベース31から抽出する。そして、学習データ抽出部61は、抽出した各セッションを、エンゲージメントセッション評価モデルM6の学習データとしてもよい。
For example, the learning data extraction unit 61 identifies a user whose history period or history frequency exceeds a predetermined threshold value, and sets a session including the utterance of the specified user as a session of a user with high engagement from the
すなわち、学習データ抽出部61は、利用態様が前記所定の条件を満たす利用者の発話を含むセッションを、利用者の満足度が高いという第1属性を有する学習データとして抽出する。また、学習データ抽出部61は、利用態様が所定の条件を満たさない利用者の発話を含むセッションを、利用者の満足度が低いという第2属性を有する学習データとして抽出する。 That is, the learning data extraction unit 61 extracts the session including the utterance of the user whose usage mode satisfies the predetermined condition as the learning data having the first attribute that the user's satisfaction is high. Further, the learning data extraction unit 61 extracts a session including an utterance of a user whose usage mode does not satisfy a predetermined condition as learning data having a second attribute that the user's satisfaction level is low.
また、学習データ抽出部61は、図16に示すように、セッションログデータベース31から、表記類似ペアの数や意味類似ペアの数が多いセッションを低満足セッションとして抽出し、表記類似ペアの数や意味類似ペアの数が少ないセッションを高満足セッションとして抽出する。そして、学習データ抽出部61は、抽出したセッションを、繰り返し評価モデルM1や反復発話評価モデルM7の学習データの元となるセッションとしてもよい。 Further, as shown in FIG. 16, the learning data extraction unit 61 extracts from the session log database 31 a session having a large number of notation-like pairs and a large number of semantic-similar pairs as a low-satisfaction session, and the number of notation-like pairs and the number of notation-like pairs. Meaning Sessions with a small number of similar pairs are extracted as highly satisfied sessions. Then, the learning data extraction unit 61 may use the extracted session as a session that is the source of the learning data of the iterative evaluation model M1 and the iterative utterance evaluation model M7.
また、学習データ抽出部61は、図19に示すように、セッションログデータベース31から、謝罪応答が含まれるセッションと、謝罪応答が含まれないセッションとを、謝罪評価モデルM2の学習データとして抽出する。 Further, as shown in FIG. 19, the learning data extraction unit 61 extracts from the session log database 31 a session including an apology response and a session not including an apology response as learning data of the apology evaluation model M2. ..
なお、上述した処理に限らず、学習データ抽出部61は、各モデルM1~M7の学習に有用なセッションを学習データとして抽出してもよい。例えば、学習データ抽出部61は、セッション評価データベース32に登録されたセッションの評価結果に基づいて、高満足セッションや低満足セッションを各モデルM1~M7の学習データとして抽出してもよい。 In addition to the above-mentioned processing, the learning data extraction unit 61 may extract sessions useful for learning each of the models M1 to M7 as learning data. For example, the learning data extraction unit 61 may extract a high-satisfaction session or a low-satisfaction session as learning data of each model M1 to M7 based on the evaluation result of the session registered in the session evaluation database 32.
学習部62は、各モデルM1~M7の学習を行う。例えば、学習部62は、図13に示すように、学習データ抽出部61によって抽出された学習データとして、非好意的指標発話評価モデルM3および好意的指標発話評価モデルM4の学習を行う。
The
例えば、学習部62は、図13に示すように、評価が所定の条件を満たすセッションが有する特徴を非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4に学習させる。例えば、学習部62は、学習データ抽出部61により抽出された高満足セッションと、高満足セッション以外のセッションを学習データとして好意的指標発話評価モデルM4の学習を行う。すなわち、学習部62は、入力された対象セッションを高満足セッションとそれ以外のセッションとに分類する好意的指標発話評価モデルM4を学習する。
For example, as shown in FIG. 13, the
また、学習部62は、学習データ抽出部61により抽出された低満足セッションと、低満足セッション以外のセッションを学習データとして非好意的指標発話評価モデルM3の学習を行う。すなわち、学習部62は、入力された対象セッションを低満足セッションとそれ以外のセッションとに分類する非好意的指標発話評価モデルM3を学習する。
Further, the
また、学習部62は、発話群生成部64により生成された対話例を学習データとして、図14に示すように、3値評価モデルM5の学習を行う。すなわち、学習部62は、指標発話と対応する一連の対話を学習データとして、3値評価モデルM5の学習を行う。例えば、発話群生成部64は、非好意的指標発話の直前に行われた所定の数の発話および応答を非好意的対話例UDとして抽出し、好意的指標発話の直前に行われた所定の数の発話および応答とを好意的対話例FDとして抽出し、中性発話の直前に行われた所定の数の発話および応答とを中性対話例NDとして抽出する。このような場合、学習部62は、非好意的対話例UD、好意的対話例FD、および中性対話例NDを学習データとして、対象セッションの評価を行う3値評価モデルM5の学習を行う。すなわち、学習部62は、対象セッションにおける対話に対する利用者の評価を推定するモデルの学習を行う。
Further, the
例えば、学習部62は、非好意的対話例UDを、利用者による評価が非好意的である対話の学習データとする。また、学習部62は、好意的対話例FDを、利用者による評価が好意的である対話の学習データとする。また、学習部62は、中性対話例NDを、利用者による評価が中立的である対話の学習データとする。そして、学習部62は、学習データが有する特徴を3値評価モデルM5に学習させることで、利用者による評価が非好意的な対話、好意的な対話、あるいは中立的な対話へと入力された対話を分類するモデルを実現する。
For example, the
また、学習部62は、図15に示すように、学習データ抽出部61により抽出されたエンゲージメントが高いユーザーのセッションやエンゲージメントが低いユーザーのセッションを学習データとして、エンゲージメントセッション評価モデルM6の学習を行う。すなわち、学習部62は、入力された対象セッションを、エンゲージメントが高いユーザーによるセッションと類似するセッション(以下、「第1属性のセッション」と記載する。)、もしくは、エンゲージメントが低いユーザーによるセッションと類似するセッション(以下、「第2属性のセッション」と記載する。)に分類するエンゲージメントセッション評価モデルM6の学習を行う。
Further, as shown in FIG. 15, the
ここで、エンゲージメントが高いユーザーによるセッションは、利用者による満足度が高いと推定され、エンゲージメントが低いユーザーによるセッションは、利用者による満足度が低いと推定される。このため、第1属性のセッションは、利用者による評価が好意的なセッション、すなわち、高満足セッションであり、第2属性のセッションは、利用者による評価が非好意的なセッション、すなわち、低満足セッションであると言える。このため、学習部62は、対象コンテンツに対する利用者の印象が好意的であるか非好意的であるかを判定するエンゲージメントセッション評価モデルM6を学習することができる。
Here, a session by a user with high engagement is estimated to have a high degree of satisfaction by the user, and a session by a user with low engagement is estimated to have a low degree of satisfaction by the user. Therefore, the session of the first attribute is a session in which the evaluation by the user is favorable, that is, a high satisfaction session, and the session of the second attribute is a session in which the evaluation by the user is unfavorable, that is, low satisfaction. It can be said that it is a session. Therefore, the
また、学習部62は、図17や図18に示すように、繰り返し発話を含むセッションを学習データとして、反復発話評価モデルM7や繰り返し評価モデルM1の学習を行う。例えば、学習部62は、図17に示す手法により発話群生成部64がシード発話や混在発話から生成した反復セッションRSと、非反復セッションNRSとを取得すると、取得した反復セッションRSと、非反復セッションNRSとを学習データとして、反復発話評価モデルM7の学習を行う。すなわち、学習部62は、対象セッションを、繰り返し発話を含むセッション、または、繰り返し発話を含まないセッションに分類する反復発話評価モデルM7の学習を行う。
Further, as shown in FIGS. 17 and 18, the
ここで、繰り返し発話を含むセッションは、利用者の印象が非好意的であり、繰り返し発話を含まないセッションは、利用者の印象が好意的であると推定される。このため、学習部62は、対象コンテンツに対する利用者の印象が好意的であるか非好意的であるかを判定する反復発話評価モデルM7を学習することができる。
Here, it is presumed that the user's impression is unfavorable for the session including the repeated utterance, and the user's impression is favorable for the session not including the repeated utterance. Therefore, the
また、学習部62は、画像生成部63が繰り返し発話を含むセッションから生成した分布画像、および画像生成部63が繰り返し発話を含まないセッションから生成した分布画像を学習データとして取得する。このような場合、学習部62は、これらの分布画像を学習データとして、繰り返し評価モデルM1の学習を行う。より具体的には、学習部62は、入力された画像を、繰り返し発話を含むセッションから生成した分布画像に類似する画像、もしくは、繰り返し発話を含まないセッションから生成した分布画像に類似する画像に分類する繰り返し評価モデルM1の学習を行う。
Further, the
ここで、繰り返し発話を含むセッションの分布画像には、斜線が現れやすく、繰り返し発話を含まないセッションの分布画像には、斜線が表れにくい。さらに、繰り返し発話を含むセッションは、利用者の印象が非好意的であり、繰り返し発話を含まないセッションは、利用者の印象が好意的であると推定される。このため、学習部62は、対象セッションの発話文字列を縦横に対応付けた分布画像を分類することで、対象セッションに対する利用者の印象が好意的であるか非好意的であるかを判定する繰り返し評価モデルM1を学習することができる。
Here, diagonal lines are likely to appear in the distribution image of the session including the repeated utterances, and the diagonal lines are less likely to appear in the distribution image of the sessions not including the repeated utterances. Further, it is presumed that the user's impression is unfavorable for the session including the repeated utterance, and the user's impression is favorable for the session not including the repeated utterance. Therefore, the
また、学習部62は、図19に示すように、学習データ抽出部61が抽出したセッションを学習データとして、謝罪評価モデルM2の学習を行う。例えば、学習部62は、入力された対象セッションを、謝罪応答が含まれるセッションと類似するセッション、若しくは、謝罪応答が含まれないセッションと類似するセッションに分類する謝罪評価モデルM2の学習を行う。
Further, as shown in FIG. 19, the
ここで、謝罪応答を含むセッションは、利用者の印象が非好意的であり、謝罪応答を含まないセッションは、利用者の印象が好意的であると推定される。このため、学習部62は、謝罪応答に基づいて、対象セッションに対する利用者の印象が好意的であるか非好意的であるかを判定する謝罪評価モデルM2を学習することができる。
Here, it is presumed that the user's impression is unfavorable for the session including the apology response, and the user's impression is favorable for the session not including the apology response. Therefore, the
なお、学習部62は、図21に示すように、学習データとして取得した低満足セッションから、新たな低満足セッションを生成し、学習データに加えてもよい。例えば、学習部62は、学習データとして取得したセッションに含まれる各発話および各応答と類似する発話および応答をそれぞれセッションログデータベース31から抽出し、抽出した発話および応答を組み合わせることで、新たな学習データを生成してもよい。
As shown in FIG. 21, the
ここで、学習部62は、新たな学習データの生成に対し、生成元となった学習データと同じラベルを付与すればよい。例えば、学習部62は、好意的指標発話が多いセッション、エンゲージメントが高いユーザーのセッション、好意的対話例FD、非反復セッションNRS等、利用者の印象が好意的な対話例から、利用者の印象が好意的な対話例を新たに生成し、学習データとしてもよい。また、例えば、学習部62は、非好意的指標発話が多いセッション、エンゲージメントが低いユーザーのセッション、非好意的対話例ND、反復セッションRS等、利用者の印象が非好意的な対話例から、利用者の印象が非好意的な対話例を新たに生成し、学習データとしてもよい。
Here, the
画像生成部63は、分布画像の生成を行う。例えば、画像生成部63は、学習データ抽出部61によって抽出された繰り返し発話を含むセッションや、繰り返し発話を含まないセッションを取得する。また、画像生成部63は、発話群生成部64により、図17に示すように生成された反復セッションRSや非反復セッションNRSを取得する。なお、画像生成部63は、図21に示すように、取得したセッションから新たなセッションを生成してもよい。 The image generation unit 63 generates a distribution image. For example, the image generation unit 63 acquires a session including repeated utterances extracted by the learning data extraction unit 61 and a session not including repeated utterances. Further, the image generation unit 63 acquires the repetitive session RS and the non-repetitive session NRS generated as shown in FIG. 17 by the utterance group generation unit 64. As shown in FIG. 21, the image generation unit 63 may generate a new session from the acquired session.
そして、画像生成部63は、取得したセッションに含まれる発話の文字が相互に同一か否かを示す分布画像を生成する。すなわち、画像生成部63は、セッションにおける同一文字の分布を示す画像を生成する。例えば、画像生成部63は、セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成する。 Then, the image generation unit 63 generates a distribution image indicating whether or not the utterance characters included in the acquired session are the same as each other. That is, the image generation unit 63 generates an image showing the distribution of the same characters in the session. For example, when the image generation unit 63 associates the utterance character string included in the session with each area in the vertical direction and each area in the horizontal direction of the image, the same characters correspond to each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the attached area.
発話群生成部64は、非好意的対話例UD、好意的対話例FDおよび中性対話例NDの抽出を行う。すなわち、発話群生成部64は、対話サービスにおける履歴から指標発話を特定し、特定した指標発話と対応する一連の対話を対話群として抽出する。例えば、発話群生成部64は、指標発話から所定の数だけ前の応答および発話を学習データとして抽出する。なお、指標発話よりも前の応答や発話から、いくつの応答や発話を対話例として抽出するかについては、任意の設定が可能である。 The utterance group generation unit 64 extracts the non-favorable dialogue example UD, the favorable dialogue example FD, and the neutral dialogue example ND. That is, the utterance group generation unit 64 identifies the index utterance from the history in the dialogue service, and extracts a series of dialogues corresponding to the specified index utterance as the dialogue group. For example, the utterance group generation unit 64 extracts a predetermined number of previous responses and utterances from the index utterance as learning data. It should be noted that the number of responses and utterances to be extracted as dialogue examples from the responses and utterances prior to the index utterance can be arbitrarily set.
例えば、発話群生成部64は、セッションログデータベース31を参照し、好意的指標発話を含むセッションを特定する。続いて、発話群生成部64は、好意的指標発話から所定の数だけ前の応答および発話を好意的対話例FDとして抽出する。同様に、発話群生成部64は、非好意的指標発話を含むセッションを特定し、非好意的指標発話から所定の数だけ前の応答および発話を非好意的対話例UDとして抽出する。また、発話群生成部64は、中性発話を含むセッションを特定し、中性発話から所定の数だけ前の応答および発話を中性対話例NDとして抽出する。
For example, the utterance group generation unit 64 refers to the
また、発話群生成部64は、反復セッションRS(すなわち、第1発話群)および非反復セッションNRS(すなわち、第2発話群)を生成する。例えば、発話群生成部64は、対話サービスにおける履歴からいずれかの発話を選択し、選択した発話と同一又は類似する発話を複数含む発話群を生成する。 In addition, the utterance group generation unit 64 generates a repetitive session RS (that is, the first utterance group) and a non-repetitive session NRS (that is, the second utterance group). For example, the utterance group generation unit 64 selects one of the utterances from the history in the dialogue service, and generates an utterance group including a plurality of utterances that are the same as or similar to the selected utterance.
より具体的な例を挙げると、発話群生成部64は、シード発話をセッションログデータベース31から抽出し、シード発話と類似する複製発話を複数生成する。また、発話群生成部64は、セッションログデータベース31から混在発話を抽出する。そして、発話群生成部64は、シード発話と、複数の複製発話と、混在発話とをランダムに並び替えて、疑似的な発話からなるセッションを反復セッションRSとして生成する。また、発話群生成部64は、セッションログデータベース31を参照し、ランダムに複数の発話を抽出し、抽出した発話をランダムに並び替えたセッションを非反復セッションNRSとして生成する。
To give a more specific example, the utterance group generation unit 64 extracts the seed utterance from the
なお、発話群生成部64は、非好意的対話例UD、好意的対話例FDもしくは中性対話例ND(以下、「対話例」と総称する)に含まれる発話および応答と類似する発話および応答を抽出し、抽出した発話および応答を組み合わせることで、新たな対話例を生成してもよい。例えば、発話群生成部64は、図21に示す手法により、非好意的対話例UDから新たな非好意的対話例UDを生成してもよく、好意的対話例FDから新たな好意的対話例FDを生成してもよく、中性対話例NDから新たな中性対話例NDを生成してもよい。また、発話群生成部64は、反復セッションRSから新たな反復セッションRSを生成してもよく、非反復セッションNRSから新たな非反復セッションNRSを生成してもよい。 The utterance group generation unit 64 is an utterance and response similar to the utterance and response included in the non-favorable dialogue example UD, the favorable dialogue example FD, or the neutral dialogue example ND (hereinafter collectively referred to as “dialogue example”). May be generated and a new dialogue example may be generated by combining the extracted utterances and responses. For example, the utterance group generation unit 64 may generate a new non-favorable dialogue example UD from the non-favorable dialogue example UD by the method shown in FIG. 21, and a new favorable dialogue example from the favorable dialogue example FD. An FD may be generated, or a new neutral dialogue example ND may be generated from the neutral dialogue example ND. Further, the utterance group generation unit 64 may generate a new iterative session RS from the iterative session RS, or may generate a new non-repetitive session NRS from the non-repetitive session NRS.
評価部65は、セッションの評価を行う。例えば、評価部65は、セッションログデータベース31から評価対象となる対象セッションを選択する。そして、評価部65は、指標発話データベース33を参照し、指標発話抽出処理部50により抽出された指標発話やシードとなる指標発話の出現頻度に基づいて、対象セッションを評価する。
The
例えば、評価部65は、非好意的指標発話や好意的指標発話が含まれているか否かに基づいて、対象セッションを評価する。例えば、評価部65は、図12に示すように、対象セッションについて、非好意的指標発話の出現頻度と好意的指標発話の出現頻度との比に基づいて、対象セッションが低満足セッションであるか高満足セッションであるかを評価する。また、評価部65は、非好意的指標発話の指標スコアの合計と、好意的指標発話の指標スコアの合計との比に基づいて、対象セッションが低満足セッションであるか高満足セッションであるかを評価してもよい。
For example, the
ここで、セッションの評価に用いられる指標発話には、指標発話抽出処理部50により抽出された指標発話、すなわち、シードとなる指標発話との共起性により抽出された指標発話が含まれる。このため、評価部65は、例えば、非好意的指標発話との共起性が所定の条件を満たす発話の出現頻度や、好意的指標発話との共起性が所定の条件を満たす発話の出現頻度に基づいて、対象セッションの評価を行うこととなる。
Here, the index utterance used for the evaluation of the session includes the index utterance extracted by the index utterance extraction processing unit 50, that is, the index utterance extracted by co-occurrence with the seed index utterance. Therefore, in the
また、セッションの評価に用いられる指標発話には、指標発話抽出処理部50により利用者のエンゲージメントに基づいて抽出された指標発話が含まれる。すなわち、指標発話には、利用態様が所定の条件を満たす利用者のセッションでの出現頻度や、利用態様が所定の条件を満たさない利用者のセッションでの出現頻度に基づいて抽出された指標発話が含まれる。このため、評価部65は、利用態様が所定の条件を満たす利用者の発話と、利用態様が所定の条件を満たさない利用者の発話とに基づいて、対象セッションを評価することとなる。
Further, the index utterance used for the evaluation of the session includes the index utterance extracted by the index utterance extraction processing unit 50 based on the user's engagement. That is, the index utterance is an index utterance extracted based on the frequency of appearance in the session of the user whose usage mode satisfies the predetermined condition and the frequency of appearance in the session of the user whose usage mode does not satisfy the predetermined condition. Is included. Therefore, the
また、セッションの評価に用いられる指標発話には、低満足セッションにおける出現頻度と高満足セッションにおける出現頻度との比に基づいて抽出された指標発話が含まれる。このため、評価部65は、低満足セッションにおける出現頻度が所定の条件を満たす発話と、高満足セッションにおける出現頻度が所定の条件を満たす発話とに基づいて、対象セッションを評価することとなる。
In addition, the index utterances used to evaluate the session include index utterances extracted based on the ratio of the frequency of appearance in the low-satisfaction session to the frequency of appearance in the high-satisfaction session. Therefore, the
また、評価部65は、図13に示すように、高満足セッションが有する特徴を学習した好意的指標発話評価モデルM4を用いて、対象セッションを評価してもよい。また、評価部65は、低満足セッションが有する特徴を学習した非好意的指標発話評価モデルM3を用いて、対象セッションを評価してもよい。例えば、評価部65は、非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4をモデルデータベース35から読出し、非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4に対象セッションを入力する。そして、評価部65は、非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4が出力するスコアに基づいて、対象セッションの評価を行ってもよい。例えば、評価部65は、非好意的指標発話評価モデルM3により、非好意的指標発話が含まれるセッションに類似すると分類された場合は、対象セッションを低満足セッションと評価し、好意的指標発話評価モデルM4により、好意的指標発話が含まれるセッションに類似すると分類された場合は、対象セッションを高満足セッションと評価してもよい。
Further, as shown in FIG. 13, the
また、評価部65は、図14に示すように、非好意的対話例UD、中性対話例ND、および好意的対話例FDの特徴を学習した3値評価モデルM5を用いて、対象セッションの評価を行ってもよい。例えば、評価部65は、モデルデータベース35から読み出した3値評価モデルM5に対象セッションを入力し、3値評価モデルM5による分類結果に基づいて、対象セッションを評価してもよい。例えば、評価部65は、3値評価モデルM5により、対象セッションが非好意的対話例UDに類似すると分類された場合は、対象セッションを低満足セッションと評価し、好意的対話例FDに類似すると分類された場合は、対象セッションを高満足セッションと評価してもよい。
Further, as shown in FIG. 14, the
また、評価部65は、図15に示すように、利用態様が所定の条件を満たす利用者の発話を含むセッションとの類似性に基づいて、対象セッションを評価してもよい。例えば、評価部65は、エンゲージメントが高いユーザのセッションと、エンゲージメントが低いユーザーのセッションとの特徴を学習したエンゲージメントセッション評価モデルM6に対象セッションを入力し、エンゲージメントセッション評価モデルM6の分類結果に基づいて、対象セッションを評価してもよい。例えば、評価部65は、エンゲージメントセッション評価モデルM6により、対象セッションがエンゲージメントが高いユーザーのセッションに類似すると分類された場合は、対象セッションを高満足セッションと評価してもよい。
Further, as shown in FIG. 15, the
また、評価部65は、図16~18に示すように、繰り返し発話に基づいて、対象セッションを評価してもよい。例えば、評価部65は、対象セッションに同一又は類似の文字列が繰り返し出現している場合は、対象セッションを低満足セッションと評価し、対象セッションに同一又は類似の文字列が繰り返し出現していない場合は、対象セッションを高満足セッションと評価してもよい。
Further, as shown in FIGS. 16 to 18, the
また、評価部65は、文字列の類似度や意味的な類似度が所定の閾値を超える発話の対の数に基づいて、対象セッションを評価してもよい。例えば、評価部65は、図16に示すように、対象セッションに含まれる表記類似ペア数や意味類似ペア数の数が所定の閾値を超える場合は、対象セッションを低満足セッションと評価し、表記類似ペア数や意味類似ペア数の数が所定の閾値を下回る場合は、対象セッションを高満足セッションと評価してもよい。
Further, the
また、評価部65は、図17に示すように、繰り返し発話を含むセッションの特徴を学習した反復発話評価モデルM7を用いて、対象セッションを評価してもよい。例えば、評価部65は、反復発話評価モデルM7に対象セッションを入力し、反復発話評価モデルM7が、対象セッションを反復セッションRSに類似するセッションに分類した場合は、対象セッションを低満足セッションと評価し、対象セッションを非反復セッションNRSに類似するセッションに分類した場合は、対象セッションを高満足セッションと評価してもよい。
Further, as shown in FIG. 17, the
また、評価部65は、図18に示すように、繰り返し発話を含むセッションにおける発話から生成した分布画像の特徴を学習することで、繰り返し発話を含むセッションの特徴を学習した繰り返し評価モデルM1を用いて、対象セッションを評価してもよい。例えば、画像生成部63は、対象セッションに含まれる発話の分布画像を生成する。そして、画像生成部63は、分布画像に基づいて、対象セッションの評価を行う。
Further, as shown in FIG. 18, the
例えば、評価部65は、対象画像を繰り返し評価モデルM1に入力し、繰り返し評価モデルM1が、対象セッションの分布画像を、繰り返し発話を含むセッションの分布画像と類似する画像に分類した場合は、対象セッションを低満足セッションと評価してもよい。また、例えば、評価部65は、対象画像を繰り返し評価モデルM1に入力し、繰り返し評価モデルM1が、対象セッションの分布画像を、繰り返し発話を含まないセッションの分布画像と類似する画像に分類した場合は、対象セッションを高満足セッションと評価してもよい。
For example, when the
なお、評価部65は、公知の画像解析技術を用いて、対象セッションの分布画像に斜線が含まれているか否かを判定し、斜線が含まれていると判定した場合は、対象セッションを低満足セッションと評価してもよい。すなわち、評価部65は、繰り返し評価モデルM1を用いずに、対象セッションの分布画像から、対象セッションに繰り返し発話が含まれているか否かを判定し、判定結果に基づいて、対象セッションを評価してもよい。
The
また、評価部65は、謝罪応答が含まれているか否かに基づいて、対象セッションを評価してもよい。例えば、評価部65は、対象セッションに含まれる謝罪応答の数が所定の閾値を超える場合は、対象セッションを低満足セッションと評価してもよい。また、評価部65は、図19に示すように、謝罪評価モデルM2に対象セッションを入力し、謝罪評価モデルM2が対象セッションを謝罪応答が含まれるセッションに類似するセッションに分類した場合は、対象セッションを低満足セッションと評価してもよい。また、評価部65は、謝罪評価モデルM2が対象セッションを謝罪応答が含まれないセッションに類似するセッションに分類した場合は、対象セッションを高満足セッションと評価してもよい。
In addition, the
また、評価部65は、複数のモデルを用いて、対象セッションの評価を行ってもよい。例えば、評価部65は、図20に示すように、セッションに対する利用者の評価の指標となる複数の特徴のうちそれぞれ異なる種別の特徴に基づいてセッションを評価する複数のモデルM1~M7の評価結果を用いて、対象セッションを評価してもよい。
Further, the
なお、このように、複数のモデルM1~M7の評価結果を用いてセッションを評価する場合、任意のモデルの組み合わせが採用可能である。例えば、評価部65は、図1に示すように、繰り返し評価モデルM1、謝罪評価モデルM2、非好意的指標発話評価モデルM3、および好意的指標発話評価モデルM4のそれぞれに対象セッション(および対象セッションの対象画像)を入力し、各モデルM1~M3が出力したスコアの和から、好意的指標発話評価モデルM4が出力したスコアの値を減算した値を算出する。そして、評価部65は、対象セッションのうち、算出した値が高い方から所定の数のセッションを低満足セッションと評価し、算出した値が低い方から所定の数のセッションを高満足セッションと評価してもよい。
In this way, when evaluating a session using the evaluation results of a plurality of models M1 to M7, any combination of models can be adopted. For example, as shown in FIG. 1, the
なお、各モデルM1~M3が出力したスコアの和から、好意的指標発話評価モデルM4が出力したスコアの値を減算した値を算出した場合、対象セッションに対して利用者が満足している場合は、負の値が算出され、対象セッションに対して利用者が満足していない場合は、正の値が算出されることとなる。そこで、評価部65は、算出した値が正の値であるか負の値であるかに応じて、対象セッションを評価してもよい。
When the value obtained by subtracting the value of the score output by the favorable index speech evaluation model M4 from the sum of the scores output by each model M1 to M3 is calculated, the user is satisfied with the target session. Is calculated as a negative value, and if the user is not satisfied with the target session, a positive value is calculated. Therefore, the
また、評価部65は、例えば、セッションに含まれる発話に同一又は類似する発話が繰り返し含まれているか否かに基づいてセッションを評価する繰り返し評価モデルM1や反復発話評価モデルM7による評価結果を少なくとも用いてもよい。また、評価部65は、セッションに含まれる応答に謝罪を示す所定の応答が含まれているか否かに基づいてセッションを評価する謝罪評価モデルM2の評価結果を少なくとも用いてもよい。
Further, the
また、評価部65は、セッションに含まれる発話に非好意的指標発話が含まれているか否かに基づいてセッションを評価する非好意的指標発話評価モデルM3の評価結果を少なくとも用いてもよい。また、評価部65は、セッションに含まれる発話に好意的指標発話が含まれているか否かに基づいてセッションを評価する好意的指標発話モデルM4の評価結果を少なくとも用いてもよい。
Further, the
ここで、非好意的指標発話評価モデルM3や好意的指標発話評価モデルM4は、学習データとなるセッションを抽出する際に、指標発話をあらかじめ設定もしくは抽出しておく必要がある。しかしながら、このように指標発話の設定や抽出をあらかじめ行うのは、手間がかかる。そこで、評価部65は、繰り返し評価モデルM1と、謝罪評価モデルM2との評価結果のみに基づいて、対象コンテンツの評価を行ってもよい。例えば、評価部65は、繰り返し評価モデルM1のスコアと、謝罪評価モデルM2のスコアとの和を算出し、和の値が大きい方から順に所定の数の対象セッションを低満足セッションと評価し、和の値が小さい方から順に所定の数の対象セッションを高満足セッションと評価してもよい。
Here, in the non-favorable index utterance evaluation model M3 and the favorable index utterance evaluation model M4, it is necessary to set or extract the index utterance in advance when extracting the session to be the learning data. However, it is troublesome to set and extract the index utterance in advance in this way. Therefore, the
なお、複数のモデルM1~M7を用いて対象セッションを評価する場合、評価部65は、各モデルM1~M7の評価結果に所定の重みを設定してもよい。例えば、評価部65は、各モデルM1~M7出力するスコアの値に各モデルM1~M7ごとの所定の係数を積算し、係数を積算した各スコアの値を統合してもよい。なお、評価部65は、対象セッションの評価を行った場合は、評価結果をセッション評価データベース32に登録する。このような評価結果は、例えば、指標発話の抽出に利用されてもよく、他のセッションの評価に利用されてもよい。
When evaluating the target session using a plurality of models M1 to M7, the
〔2-6.予測処理について〕
図2に戻り、説明を続ける。エンゲージメント予測処理部70は、将来の利用者の対話サービスの利用態様を予測する予測処理を実行する。以下、図23~図25を用いて、エンゲージメント予測処理部70が実行する処理の概念、および、エンゲージメント予測処理部70が有する機能構成の一例を説明する。
[2-6. About prediction processing]
Returning to FIG. 2, the explanation will be continued. The engagement prediction processing unit 70 executes a prediction process for predicting the usage mode of the dialogue service of the future user. Hereinafter, with reference to FIGS. 23 to 25, the concept of the processing executed by the engagement prediction processing unit 70 and an example of the functional configuration of the engagement prediction processing unit 70 will be described.
〔2-6-1.指標発話に基づく予測処理について〕
例えば、エンゲージメント予測処理部70は、将来の対話サービスの利用態様の予測対象となる利用者(以下、「対象利用者」と記載する。)のセッションに含まれる指標発話に基づいて、予測処理を実行する。例えば、図23は、指標発話に基づいて将来の利用態様を予測する処理の概念を示す図である。
[2-6-1. Prediction processing based on index utterances]
For example, the engagement prediction processing unit 70 performs prediction processing based on the index utterance included in the session of the user (hereinafter referred to as “target user”) who is the prediction target of the usage mode of the future dialogue service. Execute. For example, FIG. 23 is a diagram showing a concept of a process for predicting a future usage mode based on an index utterance.
図23に示すように、好意的指標発話が多い利用者は、対話サービスに対して好意的な印象を有すると考えられる。このように、対話サービスに対して好意的な印象を有する利用者は、自ずと対話サービスを利用する結果、利用期間や利用頻度等のエンゲージメントが高い利用者になると推定される。一方、非好意的指標発話が多い利用者は、対話サービスに対して非好意的な印象を有すると考えられる。このように、対話サービスに対して非好意的な印象を有する利用者は、対話サービスを利用しなくなり、エンゲージメントが低い利用者になると推定される。 As shown in FIG. 23, a user who has a lot of favorable index utterances is considered to have a favorable impression of the dialogue service. In this way, it is presumed that a user who has a favorable impression of the dialogue service will naturally become a user who has a high engagement such as the period of use and the frequency of use as a result of using the dialogue service. On the other hand, users who often speak unfavorable indicators are considered to have an unfavorable impression of the dialogue service. In this way, it is presumed that users who have an unfavorable impression of the dialogue service will stop using the dialogue service and become users with low engagement.
そこで、エンゲージメント予測処理部70は、利用者の発話を含むセッションにおける指標発話の出現頻度に基づいて、その利用者の将来のエンゲージメントを予測する。例えば、エンゲージメント予測処理部70は、対象利用者の発話を含むセッションであって、予測処理の実行時から所定の期間内(以下、「観測期間」と記載する。)に行われた対話を含むセッションを抽出する。 Therefore, the engagement prediction processing unit 70 predicts the future engagement of the user based on the appearance frequency of the index utterance in the session including the user's utterance. For example, the engagement prediction processing unit 70 is a session including utterances of the target user, and includes a dialogue performed within a predetermined period (hereinafter, referred to as “observation period”) from the time of execution of the prediction processing. Extract the session.
続いて、エンゲージメント予測処理部70は、観測期間におけるセッションに含まれる好意的指標発話および非好意的指標発話を抽出し、観測期間における好意的指標発話の出現頻度の合計、および、観測期間における非好意的指標発話の出現頻度の合計を算出する。そして、エンゲージメント予測処理部70は、観測期間における好意的指標発話の出現頻度の合計を観測期間における非好意的指標発話の出現頻度の合計で除算したスコアを算出し、算出したスコアが高い程、将来におけるエンゲージメントが高い利用者であると判定する。 Subsequently, the engagement prediction processing unit 70 extracts the favorable index utterances and the non-favorable index utterances included in the session during the observation period, the total frequency of appearances of the favorable index utterances during the observation period, and the non-favorable index utterances during the observation period. Favor index Calculate the total frequency of utterances. Then, the engagement prediction processing unit 70 calculates a score obtained by dividing the total frequency of appearances of favorable index utterances in the observation period by the total frequency of appearances of non-favorable index utterances in the observation period, and the higher the calculated score, the higher the score. Judge that the user has high engagement in the future.
なお、エンゲージメント予測処理部70は、好意的指標発話や非好意的指標発話の指標スコアの値を考慮してもよい。例えば、エンゲージメント予測処理部70は、観測期間における好意的指標発話の指標スコアの合計、および、観測期間における非好意的指標発話の指標スコアの合計を算出する。そして、エンゲージメント予測処理部70は、観測期間における好意的指標発話の指標スコアの合計を観測期間における非好意的指標発話の指標スコアの合計で除算したスコアを算出し、算出したスコアが高い程、将来におけるエンゲージメントが高い利用者であると判定してもよい。そして、エンゲージメント予測処理部70は、予測結果をエンゲージメントデータベース34に登録する。 The engagement prediction processing unit 70 may consider the value of the index score of the favorable index utterance and the non-favorable index utterance. For example, the engagement prediction processing unit 70 calculates the total of the index scores of the favorable index utterances in the observation period and the total of the index scores of the non-favorable index utterances in the observation period. Then, the engagement prediction processing unit 70 calculates a score obtained by dividing the total of the index scores of the favorable index utterances in the observation period by the total of the index scores of the non-favorable index utterances in the observation period, and the higher the calculated score, the higher the score. It may be determined that the user has high engagement in the future. Then, the engagement prediction processing unit 70 registers the prediction result in the engagement database 34.
なお、このような処理によって予測された将来におけるエンゲージメントは、指標発話の抽出やセッションの評価に利用される。例えば、指標発話抽出処理部50は、図9に示す処理において、エンゲージメント予測処理部70によって予測された将来のエンゲージメントが高い利用者を好意的利用者とし、エンゲージメント予測処理部70によって予測された将来のエンゲージメントが低い利用者を非好意的利用者とすることで、各利用者の発話から指標発話の抽出を行ってもよい。また、例えば、セッション評価処理部60は、図15に示す処理おいて、エンゲージメント予測処理部70によって予測された将来のエンゲージメントが高い利用者のセッションや、他の利用者のセッションから、エンゲージメントセッション評価モデルM6を学習し、学習したエンゲージメントセッション評価モデルM6を用いて、対象セッションの評価を行ってもよい。
The future engagement predicted by such processing is used for extracting index utterances and evaluating sessions. For example, in the process shown in FIG. 9, the index utterance extraction processing unit 50 regards a user with high future engagement predicted by the engagement prediction processing unit 70 as a favorable user, and the engagement prediction processing unit 70 predicts the future. By setting users with low engagement as unfavorable users, index utterances may be extracted from the utterances of each user. Further, for example, in the process shown in FIG. 15, the session
〔2-6-2.評価結果に基づく予測処理について〕
また、例えば、エンゲージメント予測処理部70は、セッションの評価結果に基づいて、予測処理を実行してもよい。例えば、図24は、評価結果に基づいて将来の利用態様を予測する処理の概念を示す図である。
[2-6-2. About prediction processing based on evaluation results]
Further, for example, the engagement prediction processing unit 70 may execute the prediction processing based on the evaluation result of the session. For example, FIG. 24 is a diagram showing a concept of processing for predicting a future usage mode based on the evaluation result.
例えば、図24に示すように、評価処理によって満足度が高いと評価されたセッション、すなわち、高満足セッションが多い利用者は、対話サービスに対して好意的な印象を有すると推定されるため、将来におけるエンゲージメントが高くなると考えられる。一方、評価処理によって満足度が低いと評価されたセッション、すなわち低満足セッションが多い利用者は、対話サービスに対して非好意的な印象を有すると推定されるため、将来におけるエンゲージメントが低くなると考えられる。 For example, as shown in FIG. 24, a session evaluated to be highly satisfied by the evaluation process, that is, a user having many highly satisfied sessions is presumed to have a favorable impression on the dialogue service. Engagement in the future is expected to be higher. On the other hand, sessions evaluated as having low satisfaction by the evaluation process, that is, users with many low-satisfaction sessions, are presumed to have an unfavorable impression of the dialogue service, and therefore, it is considered that the engagement in the future will be low. Be done.
そこで、エンゲージメント予測処理部70は、対象利用者の発話を含むセッションに対する評価結果に基づいて、その利用者の将来のエンゲージメントを予測する。例えば、エンゲージメント予測処理部70は、対象利用者の発話を含むセッションであって、観測期間に行われた対話を含むセッションを抽出する。続いて、エンゲージメント予測処理部70は、抽出したセッションに対する評価結果を取得する。例えば、エンゲージメント予測処理部70は、セッション評価データベース32を参照し、セッション評価処理部60による評価結果を取得する。
Therefore, the engagement prediction processing unit 70 predicts the future engagement of the target user based on the evaluation result for the session including the utterance of the target user. For example, the engagement prediction processing unit 70 extracts a session including a dialogue performed during the observation period, which is a session including the utterance of the target user. Subsequently, the engagement prediction processing unit 70 acquires the evaluation result for the extracted session. For example, the engagement prediction processing unit 70 refers to the session evaluation database 32 and acquires the evaluation result by the session
そして、エンゲージメント予測処理部70は、評価結果に統計値に基づいて、予測期間における対象利用者のエンゲージメントを予測する。例えば、エンゲージメント予測処理部70は、抽出したセッションのうち高満足セッションの割合と低満足セッションとの割合とを算出する。そして、エンゲージメント予測処理部70は、高満足セッションの割合が高い程、対象利用者を将来におけるエンゲージメントが高い利用者であると判定してもよい。また、例えば、エンゲージメント予測処理部70は、抽出したセッションのうち高満足セッションの数が所定の閾値を超える場合は、対象利用者を将来におけるエンゲージメントが高い利用者であると判定してもよい。 Then, the engagement prediction processing unit 70 predicts the engagement of the target user in the prediction period based on the statistical value based on the evaluation result. For example, the engagement prediction processing unit 70 calculates the ratio of the high-satisfaction session and the ratio of the low-satisfaction session among the extracted sessions. Then, the engagement prediction processing unit 70 may determine that the higher the ratio of high-satisfaction sessions, the higher the engagement of the target user in the future. Further, for example, when the number of highly satisfied sessions among the extracted sessions exceeds a predetermined threshold value, the engagement prediction processing unit 70 may determine that the target user is a user with high engagement in the future.
また、例えば、エンゲージメント予測処理部70は、高満足セッションに正のスコアを、低満足セッションに負のスコアを割り当てるとともに、より新しいセッションにより大きな係数を設定する。そして、エンゲージメント予測処理部70は、各セッションのスコアと係数との積の値を合計したスコアが、所定の閾値を超えるか否かに基づいて、対象利用者の将来におけるエンゲージメントを推定してもよい。なお、エンゲージメント予測処理部70は、高満足セッションに負のスコアを、低満足セッションに正のスコアを割り当てるとともに、より新しいセッションにより大きな係数を設定し、各セッションのスコアと係数との積の値を合計したスコアが、所定の閾値以下となるか否かに基づいて、対象利用者の将来におけるエンゲージメントを推定してもよい。 Also, for example, the engagement prediction processing unit 70 assigns a positive score to a high satisfaction session and a negative score to a low satisfaction session, and sets a larger coefficient for a newer session. Then, the engagement prediction processing unit 70 may estimate the future engagement of the target user based on whether or not the score obtained by summing the product of the score and the coefficient of each session exceeds a predetermined threshold value. good. The engagement prediction processing unit 70 assigns a negative score to a high-satisfaction session and a positive score to a low-satisfaction session, sets a larger coefficient for a newer session, and sets a value of the product of the score and the coefficient of each session. The future engagement of the target user may be estimated based on whether or not the total score of the above is equal to or less than a predetermined threshold.
〔2-6-3.エンゲージメント予測処理部の機能構成について〕
次に、図25を用いて、エンゲージメント予測処理部70が有する機能構成の一例について説明する。図25は、実施形態に係るエンゲージメント予測処理部の機能構成の一例を示す図である。図25に示すように、エンゲージメント予測処理部70は、推定部71を有する。
[2-6-3. About the functional configuration of the engagement prediction processing unit]
Next, an example of the functional configuration of the engagement prediction processing unit 70 will be described with reference to FIG. 25. FIG. 25 is a diagram showing an example of the functional configuration of the engagement prediction processing unit according to the embodiment. As shown in FIG. 25, the engagement prediction processing unit 70 has an
推定部71は、対象利用者の発話を含むセッションに対する評価結果に基づいて、対象利用者による将来の対話サービスの利用態様を推定する。例えば、推定部71は、観測期間における好意的指標発話の指標スコアの合計、すなわち、利用者による評価がどれくらい好意的であるかを示す好意的スコアを算出する。また、推定部71は、観測期間における非好意的指標発話の指標スコアの合計、すなわち、利用者による評価がどれくらい非好意的であるかを示す非好意的スコアを算出する。そして、推定部71は、好意的好意的スコアおよび非好意的スコアの比に基づいて、対象利用者の将来のエンゲージメント、すなわち、利用態様の推定を行う。
The
また、推定部71は、対象利用者の観測期間における各セッションが高満足セッションであるか、低満足セッションであるかを特定する。そして、推定部71は、高満足セッションおよび低満足セッションの数や割合等に基づいて、対象利用者の将来の利用態様の推定を行う。
Further, the
〔2-7.各処理の関連性について〕
ここで、図26を用いて、指標発話抽出処理部50が実行する抽出処理、セッション評価処理部60が実行する評価処理、およびエンゲージメント予測処理部70が実行する予測処理の関連性について説明する。図26は、実施形態に係る情報提供装置が実行する処理の関連性の一例を示す図である。
[2-7. About the relevance of each process]
Here, with reference to FIG. 26, the relationship between the extraction process executed by the index utterance extraction processing unit 50, the evaluation process executed by the session
まず、抽出処理と評価処理との関係性について説明する。例えば、評価が高いセッションには、好意的指標発話が含まれやすく、低評価セッションには、非好意的指標発話が含まれやすいと推定される。このため、セッションの評価結果は、指標発話の抽出処理に利用することができる。より具体的には、情報提供装置10は、上述した評価処理によりセッションの評価を進めることで、指標発話の抽出量や抽出精度を向上させることができる。一方、好意的指標発話が含まれるセッションは、評価が高いと推定され、非好意的指標発話が含まれるセッションは、評価が低いと推定される。このため、指標発話の抽出結果は、セッションの評価処理に利用することができる。より具体的には、情報提供装置10は、上述した抽出処理により指標発話を抽出することで、セッションの評価精度を向上させることができる。
First, the relationship between the extraction process and the evaluation process will be described. For example, it is presumed that a session with a high evaluation is likely to include a favorable index utterance, and a session with a low evaluation is likely to include a non-favorable index utterance. Therefore, the evaluation result of the session can be used for the extraction process of the index utterance. More specifically, the
続いて、抽出処理と予測処理との関係性について説明する。例えば、エンゲージメントが高い利用者は好意的指標発話を発話した頻度が高く、エンゲージメントが低い利用者は、非好意的指標発話を発話した頻度が低いと推定される。このため、エンゲージメントの予測結果は、指標発話の抽出処理に利用することができる。より具体的には、情報提供装置10は、エンゲージメントの予測を行うことで、指標発話の抽出量や抽出精度を向上させることができる。一方、好意的指標発話が多い利用者はエンゲージメントが高く、非好意的指標発話が多い利用者はエンゲージメントが低いと推定される。このため、指標発話の抽出結果は、エンゲージメントの予測処理に利用することができる。より具体的には、情報提供装置10は、指標発話の抽出を行うことで、エンゲージメントの予測精度を向上させることができる。
Next, the relationship between the extraction process and the prediction process will be described. For example, it is presumed that users with high engagement have a high frequency of uttering favorable index utterances, and users with low engagement have a low frequency of uttering non-favorable index utterances. Therefore, the prediction result of engagement can be used for the extraction process of the index utterance. More specifically, the
続いて、評価処理と予測処理との関係性について説明する。例えば、評価が高いセッションが多い利用者のエンゲージメントは高く、評価が低いセッションが多い利用者のエンゲージメントは低いと推定される。このため、セッションの評価結果は、エンゲージメントの予測処理に利用することができる。より具体的には、情報提供装置10は、セッションの評価を行うことで、エンゲージメントの予測精度を向上させることができる。一方、エンゲージメントが高い利用者は、セッションの評価が高く、エンゲージメントが低い利用者は、セッションの評価が低いと推定される。このため、エンゲージメントの予測結果は、セッションの評価処理に利用することができる。より具体的には、情報提供装置10は、エンゲージメントの予測を行うことで、セッションの評価精度を向上させることができる。
Next, the relationship between the evaluation process and the prediction process will be described. For example, it is presumed that the engagement of users with many high-rated sessions is high, and the engagement of users with many low-rated sessions is low. Therefore, the evaluation result of the session can be used for the prediction processing of engagement. More specifically, the
このように、上述した各種の抽出処理、評価処理、および予測処理は、相互にブートストラップの関係性を有する。そこで、情報提供装置10は、各処理を順番に繰り返し実行することで、各処理の精度を漸進的に向上させることができる。例えば、情報提供装置10は、抽出処理と予測処理、抽出処理と評価処理、あるいは、評価処理と予測処理を交互に実行してもよい。また、情報提供装置10は、各処理を順番に繰り返し実行してもよい。
As described above, the various extraction processes, evaluation processes, and prediction processes described above have a bootstrap relationship with each other. Therefore, the
〔2-8.強化学習処理について〕
図2に戻り、説明を続ける。強化学習処理部80は、対話装置200が用いる対話モデルの強化学習を実行する。
[2-8. About reinforcement learning process]
Returning to FIG. 2, the explanation will be continued. The reinforcement learning processing unit 80 executes reinforcement learning of the dialogue model used by the
〔2-8-1.強化学習の一例について〕
例えば、図27は、対話モデルの強化学習を実行する処理の概念を示す図である。対話装置200は、対話モデルM10を用いて、利用者の発話に対する応答を生成する。ここで、対話サービスにおいては、応答に対し、利用者が全く新規な内容(それまでのセンテンスとは異なるセンテンス)の発話を行う場合もあれば、応答に対する評価を含む発話を行う場合もある。例えば、上述した好意的指標発話や非好意的指標発話は、直前に行われた応答に対する評価であると考えられる。すると、対話モデルM10を強化学習におけるエージェント、利用者を強化学習による環境と見做した場合、利用者が発話した各種の指標発話は、エージェントに対する報酬であると見做すことができる。
[2-8-1. About an example of reinforcement learning]
For example, FIG. 27 is a diagram showing the concept of a process for executing reinforcement learning of a dialogue model. The
そこで、強化学習処理部80は、対話モデルM10に対する指標発話に基づく報酬を設定することで、対話モデルM10の強化学習を実現する。より具体的には、強化学習処理部80は、応答モデルM10に対する発話のうち、対話サービスに対する評価の指標となる指標発話を取得し、取得した指標発話に基づく報酬を設定することで、応答モデルM10の強化学習を行う。 Therefore, the reinforcement learning processing unit 80 realizes reinforcement learning of the dialogue model M10 by setting a reward based on the index utterance for the dialogue model M10. More specifically, the reinforcement learning processing unit 80 acquires an index utterance that is an index of evaluation for the dialogue service among the utterances to the response model M10, and sets a reward based on the acquired index utterance to obtain a response model. Reinforcement learning of M10 is performed.
例えば、強化学習処理部80は、セッションログデータベース31を参照し、セッションに含まれる好意的指標発話および非好意的指標発話を特定する。そして、強化学習処理部80は、好意的指標発話が特定された場合、特定された好意的指標発話の直前の応答に対する報酬として、正の報酬を設定し、対話モデルM10の学習を行う。また、強化学習処理部80は、非好意的指標発話が特定された場合、特定された非好意的指標発話の直前の応答に対する報酬として、負の報酬を設定し、対話モデルM10の学習を行う。
For example, the reinforcement learning processing unit 80 refers to the
また、強化学習処理部80は、利用者の発話を模倣する利用者模型モデルM20を生成し、利用者模型モデルM20と対話モデルM10とに仮想的な対話を行わせ、利用者模型モデルM20が出力した指標発話に応じた報酬を設定し、対話モデルM10の強化学習を行ってもよい。例えば、強化学習処理部80は、所定の対話規則や、セッションログデータベース31に登録されたセッションを学習データとして、利用者模型モデルM20を生成する。続いて、強化学習処理部80は、利用者模型モデルM20が生成した発話を対話モデルM10に入力し、対話モデルM10が出力した応答を利用者模型モデルM20に入力する。
Further, the reinforcement learning processing unit 80 generates a user model model M20 that imitates the user's utterance, causes the user model model M20 and the dialogue model M10 to perform a virtual dialogue, and the user model model M20 performs a virtual dialogue. Rewards may be set according to the output index utterance, and the dialogue model M10 may be strengthened and learned. For example, the reinforcement learning processing unit 80 generates a user model model M20 using a predetermined dialogue rule and a session registered in the
また、強化学習処理部80は、対話モデルM10と利用者模型モデルM20との仮想的な対話を繰り返し実行させる。そして、強化学習処理部80は、利用者模型モデルM20が発話として指標発話を出力した場合は、指標発話に応じた報酬を設定し、設定した報酬に基づいて、対話モデルM10の強化学習を行う。 Further, the reinforcement learning processing unit 80 repeatedly executes a virtual dialogue between the dialogue model M10 and the user model model M20. Then, when the user model model M20 outputs an index utterance as an utterance, the reinforcement learning processing unit 80 sets a reward according to the index utterance, and performs reinforcement learning of the dialogue model M10 based on the set reward. ..
〔2-8-2.強化学習処理部が有する機能構成の一例〕
次に、図28を用いて、強化学習処理部80が有する機能構成の一例について説明する。図28は、実施形態に係る強化学習処理部の機能構成の一例を示す図である。図28に示すように、強化学習処理部80は、指標発話取得部81、報酬設定部82、および強化学習部83を有する。
[2-8-2. An example of the functional configuration of the reinforcement learning processing unit]
Next, an example of the functional configuration of the reinforcement learning processing unit 80 will be described with reference to FIG. 28. FIG. 28 is a diagram showing an example of the functional configuration of the reinforcement learning processing unit according to the embodiment. As shown in FIG. 28, the reinforcement learning processing unit 80 has an index utterance acquisition unit 81, a reward setting unit 82, and a reinforcement learning unit 83.
指標発話取得部81は、対話モデルM10に対する発話のうち、対話サービスに対する評価の指標となる指標発話を取得する。より具体的には、指標発話取得部81は、利用者や利用者模型モデルM20が出力した発話から、好意的指標発話や非好意的指標発話を取得する。例えば、指標発話取得部81は、セッションログデータベース31を参照し、指標発話を取得する。また、指標発話取得部81は、利用者模型モデルM20が出力した発話のうち、指標発話を取得する。
The index utterance acquisition unit 81 acquires the index utterance that is an index for evaluation of the dialogue service among the utterances for the dialogue model M10. More specifically, the index utterance acquisition unit 81 acquires favorable index utterances and non-favorable index utterances from the utterances output by the user and the user model model M20. For example, the index utterance acquisition unit 81 refers to the
報酬設定部82は、指標発話取得部18が取得した指標発話に応じた報酬を設定する。例えば、報酬設定部82は、取得された指標発話の指標スコアに応じた報酬を設定する。より具体的には、報酬設定部82は、取得された指標発話が好意的指標発話である場合は、正の報酬を設定し、取得された指標発話が非好意的指標発話である場合は、負の報酬を設定する。 The reward setting unit 82 sets a reward according to the index utterance acquired by the index utterance acquisition unit 18. For example, the reward setting unit 82 sets a reward according to the acquired index score of the index utterance. More specifically, the reward setting unit 82 sets a positive reward when the acquired index utterance is a favorable index utterance, and sets a positive reward when the acquired index utterance is a non-favorable index utterance. Set a negative reward.
強化学習部83は、報酬設定部82が設定した報酬を用いて、対話モデルM10の強化学習を行う。例えば、強化学習部83は、指標発話取得部81がセッションからある指標発話を抽出した場合、その指標発話の直前の応答を特定し、特定した応答を対話モデルM10が出力した際の報酬が、その指標発話に基づく報酬であるものとして、対話モデルM10の強化学習を行う。 The reinforcement learning unit 83 performs reinforcement learning of the dialogue model M10 using the reward set by the reward setting unit 82. For example, when the index utterance acquisition unit 81 extracts a certain index utterance from the session, the reinforcement learning unit 83 identifies the response immediately before the index utterance, and the reward when the dialogue model M10 outputs the specified response is the reward. Reinforcement learning of the dialogue model M10 is performed as a reward based on the index utterance.
また、例えば、強化学習部83は、対話モデルM10が生成した応答に対して指標発話を出力する発話モデル、すなわち、利用者模型モデルM20が出力した指標発話に基づく報酬を用いて、対話モデルM10の強化学習を行う。例えば、強化学習部83は、セッションログデータベース31に登録された各セッションの内容や、対話規則を用いて、利用者模型モデルM20の学習を行う。このような利用者模型モデルM20は、例えば、対話モデルM10の学習と同様の学習手法が採用可能である。
Further, for example, the reinforcement learning unit 83 uses an utterance model that outputs an index utterance in response to the response generated by the dialogue model M10, that is, a reward based on the index utterance output by the user model model M20, and the dialogue model M10. Reinforcement learning. For example, the reinforcement learning unit 83 learns the user model model M20 by using the contents of each session registered in the
続いて、強化学習部83は、利用者模型モデルM20と対話モデルM10とに仮想的な対話を実行させる。そして、強化学習部83は、利用者模型モデルM20が指標発話を出力した場合は、報酬設定部82が設定した報酬に基づいて、対話モデルM10の強化学習を実行する。 Subsequently, the reinforcement learning unit 83 causes the user model model M20 and the dialogue model M10 to execute a virtual dialogue. Then, when the user model model M20 outputs the index utterance, the reinforcement learning unit 83 executes the reinforcement learning of the dialogue model M10 based on the reward set by the reward setting unit 82.
〔3.情報提供装置が実行する処理の流れの一例〕
続いて、図29~図37を用いて、情報提供装置10が実行する各処理の流れの一例を説明する。
[3. An example of the flow of processing executed by the information providing device]
Subsequently, an example of the flow of each process executed by the
〔3-1.利用態様に基づく処理の流れの一例〕
まず、図29を用いて、情報提供装置10が利用態様に基づいて実行する処理の流れの一例を説明する。図29は、実施形態に係る情報提供装置が利用態様に基づいて実行する処理の流れの一例を示すフローチャートである。
[3-1. Example of processing flow based on usage mode]
First, with reference to FIG. 29, an example of the flow of processing executed by the
まず、情報提供装置10は、各利用者の対話サービスの利用態様を特定する(ステップS101)。続いて、情報提供装置10は、特定結果が所定の条件を満たす利用者を特定する(ステップS102)。そして、情報提供装置10は、特定した利用者の発話を含むセッションを抽出する(ステップS103)。また、情報提供装置10は、このようにして抽出したセッションを学習データとして、エンゲージメントセッション評価モデルM6の学習を行い(ステップS104)、処理を終了する。
First, the
なお、情報提供装置10は、抽出したセッションの評価を行ってもよい(ステップS105)。例えば、情報提供装置10は、エンゲージメントが高い利用者のセッションを抽出した場合、それらのセッションを高満足セッションであると評価してもよい。また、情報提供装置10は、このようにして抽出したセッションから指標発話を抽出してもよい(ステップS106)。例えば、情報提供装置10は、エンゲージメントが高い利用者のセッションにおける出現頻度が所定の条件を満たす発話を好意的指標発話として抽出し、エンゲージメントが低い利用者のセッションにおける出現頻度が所定の条件を満たす発話を非好意的指標発話として抽出してもよい。
The
〔3-2.指標発話を抽出する処理の流れの一例〕
次に、図30を用いて、情報提供装置10が指標発話を抽出する処理の流れの一例を説明する。図30は、実施形態に係る情報提供装置が指標発話を抽出する処理の流れの一例を示すフローチャートである。
[3-2. An example of the process flow for extracting index utterances]
Next, with reference to FIG. 30, an example of the flow of the process in which the
まず、情報提供装置10は、利用態様が所定の条件を満たす利用者のセッションを取得し(ステップS201)、取得したセッションにおける出現頻度に基づいて、指標発話を抽出する(ステップS202)。そして、情報提供装置10は、指標発話との共起性に基づいて、新たな指標発話をさらに抽出し(ステップS203)、処理を終了する。
First, the
なお、情報提供装置10は、抽出した指標発話に基づいて、セッションの評価を行ってもよい(ステップS204)。例えば、情報提供装置10は、好意的指標発話を多く含むセッションを高満足セッションと評価し、非好意的指標発話を多く含むセッションを低満足セッションと評価してもよい。また、情報提供装置10は、指標発話の出現頻度に基づいて、利用者の利用態様を推定してもよい(ステップS205)。例えば、情報提供装置10は、好意的指標発話を多く発話する利用者を、エンゲージメントが高い利用者と推定し、非好意的指標発話を多く含む利用者を、エンゲージメントが低い利用者と推定してもよい。
The
〔3-3.セッションを評価する処理の流れの一例〕
次に、図31を用いて、情報提供装置10がセッションを評価する処理の流れの一例を説明する。図31は、実施形態に係る情報提供装置がセッションを評価する処理の流れの一例を示すフローチャートである。
[3-3. An example of the process flow for evaluating a session]
Next, an example of the flow of the process in which the
まず、情報提供装置10は、評価対象となるセッションを取得し(ステップS301)、取得したセッションにおける指標発話の出現頻度に基づいて、セッションを評価する(ステップS302)。例えば、情報提供装置10は、好意的指標発話を多く含むセッションを高満足セッションと評価し、非好意的指標発話を多く含むセッションを低満足セッションと評価する。そして、情報提供装置10は、評価結果に対応するラベルが付与された学習データとして、セッションの特徴を学習し(ステップS303)、処理を終了する。例えば、情報提供装置10は、高満足セッションや低満足セッションの特徴を、各モデルM3、M4に学習させる。
First, the
なお、情報提供装置10は、セッションの評価結果に基づいて、セッションから新たな指標発話の抽出を行ってもよい(ステップS304)。例えば、情報提供装置10は、高満足セッションでの出現頻度が高い発話を好意的指標発話として抽出し、低満足セッションでの出現頻度が高い発話を非好意的指標発話として抽出してもよい。また、情報提供装置10は、セッションの評価結果に基づいて、利用者の利用態様を推定してもよい(ステップS305)。例えば、情報提供装置10は、高満足セッションが多い利用者をエンゲージメントが高い利用者とし、低満足セッションが多い利用者をエンゲージメントが低い利用者と推定してもよい。
The
〔3-4.画像に基づいてセッションを評価する処理の流れの一例〕
次に、図32を用いて、情報提供装置10が画像に基づいてセッションを評価する処理の流れの一例を説明する。図32は、実施形態に係る情報提供装置が画像に基づいてセッションを評価する処理の流れの一例を示すフローチャートである。
[3-4. An example of the process flow for evaluating a session based on an image]
Next, with reference to FIG. 32, an example of the flow of the process in which the
まず、情報提供装置10は、評価対象となるセッションを取得し(ステップS401)、取得したセッションに含まれる発話の文字が相互に同一か否かを示す画像、すなわち、分布画像を生成する(ステップS402)。そして、情報提供装置10は、生成した分布画像に基づいて、セッションを評価する(ステップS403)。例えば、情報提供装置10は、分布画像に斜線が含まれている場合は、繰り返し評価モデルM1によって繰り返しが含まれると分類された場合は、対象セッションを低満足セッションと評価する。そして、情報提供装置10は、評価結果に対応するラベルが付与された学習データとして、セッションの特徴を学習し(ステップS404)、処理を終了する。
First, the
なお、情報提供装置10は、セッションの評価結果に基づいて、セッションから新たな指標発話の抽出を行ってもよい(ステップS405)。また、情報提供装置10は、セッションの評価結果に基づいて、利用者の利用態様を推定してもよい(ステップS406)。
The
〔3-5.発話の繰り返しに基づいてセッションを評価する処理の流れの一例〕
次に、図33を用いて、情報提供装置10が発話の繰り返しに基づいてセッションを評価する処理の流れの一例を説明する。図33は、実施形態に係る情報提供装置が発話の繰り返しに基づいてセッションを評価する処理の流れの一例を示すフローチャートである。
[3-5. An example of the process flow that evaluates a session based on repeated utterances]
Next, with reference to FIG. 33, an example of a process flow in which the
まず、情報提供装置10は、評価対象となるセッションを取得し(ステップS501)、取得したセッションに含まれる発話の文字列の繰り返しに基づいて、セッションを評価する(ステップS502)。例えば、情報提供装置10は、文字列が同一または類似する発話の数や、意味が同一又は類似する発話の数が所定の閾値を超える場合は、低満足セッションであると評価する。そして、情報提供装置10は、評価結果に対応するラベルが付与された学習データとして、セッションの特徴を学習し(ステップS503)、処理を終了する。
First, the
なお、情報提供装置10は、セッションの評価結果に基づいて、セッションから新たな指標発話の抽出を行ってもよい(ステップS504)。また、情報提供装置10は、セッションの評価結果に基づいて、利用者の利用態様を推定してもよい(ステップS505)。
The
〔3-6.発話を報酬とした強化学習の処理の流れの一例〕
次に、図34を用いて、情報提供装置10が発話を報酬として実行する強化学習の流れの一例を説明する。図34は、実施形態に係る情報提供装置が発話を報酬として実行する強化学習の流れの一例を示すフローチャートである。
[3-6. An example of the flow of reinforcement learning processing using utterances as a reward]
Next, with reference to FIG. 34, an example of the flow of reinforcement learning in which the
まず、情報提供装置10は、対話モデルM10に対して発話を入力し(ステップS601)、対話モデルM10が出力した応答を利用者模型モデルM20に入力することで、応答に対する指標発話を取得する(ステップS602)。そして、情報提供装置10は、利用者模型モデルM20から取得した指標発話を報酬として、対話モデルM10の強化学習を実行し(ステップS603)、処理を終了する。
First, the
〔3-7.共起性に基づいて指標発話を抽出する処理の流れの一例〕
次に、図35を用いて、情報提供装置10が共起性に基づいて指標発話を抽出する処理の流れの一例を説明する。図35は、実施形態に係る情報提供装置が共起性に基づいて指標発話を抽出する処理の流れの一例を示すフローチャートである。
[3-7. An example of the process flow for extracting index utterances based on co-occurrence]
Next, with reference to FIG. 35, an example of the flow of the process in which the
まず、情報提供装置10は、セッションの履歴から指標発話を特定し(ステップS701)、発話ごとに、各セッションにおける指標発話との共起性を特定する(ステップS703)。そして、情報提供装置10は、特定した共起性に基づいて、新たな指標発話を抽出する(ステップS703)。例えば、情報提供装置10は、好意的指標発話との共起性が高い発話を新たな好意的指標発話として抽出し、非好意的指標発話との共起性が高い発話を新たな非好意的指標発話として抽出する。
First, the
なお、情報提供装置10は、このようにして新たに抽出した指標発話との共起性に基づいて、さらに新たな指標発話を抽出してもよい(ステップS704)。また、情報提供装置10は、このようにして新たに抽出した指標発話に基づいて、セッションを評価を行ってもよく(ステップS705)、指標発話の出現頻度に基づいて、利用者の利用態様を推定してもよい(ステップS706)。
The
〔3-8.3値評価モデルを用いて、セッションを評価する処理の流れの一例〕
次に、図36を用いて、3値評価モデルM5を用いてセッションを評価する処理の流れの一例を説明する。図36は、実施形態に係る情報提供装置が3値評価モデルを用いてセッションを評価する処理の流れの一例を示すフローチャートである。
[An example of the process flow for evaluating a session using a 3-8.3 value evaluation model]
Next, with reference to FIG. 36, an example of the flow of the process of evaluating the session using the ternary evaluation model M5 will be described. FIG. 36 is a flowchart showing an example of a flow of processing in which the information providing device according to the embodiment evaluates a session using a ternary evaluation model.
まず、情報提供装置10は、セッションの履歴から好意的指標発話、非好意的指標発話および中性発話を特定し(ステップS801)、各指標発話から所定の数だけ前の発話および応答を学習データとして抽出する(ステップS802)。すなわち、情報提供装置10は、好意的対話例FD、中性対話例ND、および非好意的対話例UDを生成する。また、情報提供装置10は、抽出した学習データに含まれる指標発話に応じたラベルを付与し(ステップS803)、学習データを用いて、3値評価モデルM5の学習を行う(ステップS804)。その後、情報提供装置10は、3値評価モデルM5を用いて、セッションの評価を行い(ステップS805)、処理を終了する。
First, the
〔3-9.複数のモデルを用いて、セッションを評価する処理の流れの一例〕
次に、図37を用いて、複数のモデルM1~M7を用いてセッションを評価する処理の流れの一例を説明する。図37は、実施形態に係る情報提供装置が複数のモデルを用いてセッションを評価する処理の流れの一例を示すフローチャートである。
[3-9. An example of the process flow for evaluating a session using multiple models]
Next, with reference to FIG. 37, an example of a process flow for evaluating a session using a plurality of models M1 to M7 will be described. FIG. 37 is a flowchart showing an example of a process flow in which the information providing device according to the embodiment evaluates a session using a plurality of models.
例えば、情報提供装置10は、評価対象となるセッションを取得し(ステップS901)、それぞれ異なる特徴を学習した複数のモデルM1~M7にセッションを評価させる(ステップS902)。そして、情報提供装置10は、各モデルM1~M7の評価結果を統合し、セッションを評価して(ステップS903)、処理を終了する。
For example, the
〔4.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4. others〕
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, and conversely, the processes described as being manually performed. It is also possible to automatically perform all or part of the above by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in any unit according to various loads and usage conditions. Can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔5.プログラム〕
また、上述した実施形態に係る情報提供装置10は、例えば図38に示すような構成のコンピュータ1000によって実現される。図38は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It is realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, a scanner, and the like, and is realized by, for example, USB.
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 The input device 1020 is, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), or a tape. It may be a device that reads information from a medium, a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be an external storage medium such as a USB memory.
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が情報提供装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。また、例えば、コンピュータ1000が端末装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the
〔6.実験結果について〕
次に、図39~図47を用いて、上述した情報提供装置10の実験結果の一例について説明する。
[6. About experimental results]
Next, an example of the experimental result of the above-mentioned
〔6-1.データについて〕
まず、情報提供装置10の実験に用いたセッションデータの一例について説明する。以下の実験においては、少なくとも2つ以上の発話や応答を含む4000個のセッションに対し、クラウドソージングによりラベルの付与を行った。具体的には、トレーニング用セッション(Training)を2000個、調整用セッション(Validation)を1000個、およびテスト用セッション(Test)を1000個準備した。また、7人の判定者に対して各セッションを提示し、利用者がイライラ(frustrated)していると判断される場合は、「Yes」、利用者がイライラしていないと判断される場合は、「No」のラベルを各セッションに付与させた。
[6-1. About data]
First, an example of session data used in the experiment of the
例えば、図39は、セッションデータに対するラベル付の結果の一例を示す図である。例えば、図39に示す例では、少なくとも1人の判定者が「Yes」のラベルを付与したセッションをFL(Frustration Level)1、少なくとも2人の判定者が「Yes」のラベルを付与したセッションをFL2、少なくとも3人の判定者が「Yes」のラベルを付与したセッションをFL3、少なくとも4人の判定者が「Yes」のラベルを付与したセッションをFL4と記載した。また、図39では、トレーニング用セッション、調整用セッション、およびテスト用セッションのうち、FL1~FL4に分類されたセッションの数を記載した。 For example, FIG. 39 is a diagram showing an example of the result of labeling the session data. For example, in the example shown in FIG. 39, a session in which at least one judge is labeled with “Yes” is defined as FL (Frustration Level) 1, and a session in which at least two judges are labeled with “Yes”. FL2, a session in which at least three judges labeled "Yes" was described as FL3, and a session in which at least four judges labeled "Yes" was described as FL4. In addition, FIG. 39 shows the number of sessions classified into FL1 to FL4 among the training sessions, the adjustment sessions, and the test sessions.
〔6-2.第1実験について〕
続いて、上述したセッションデータを用いた第1実験の内容について説明する。第1実験においては、実験対象としてProp_Dで示す方式およびProp_Uで示す方式を設定し、比較対象となるベースラインとして、BL_S1、BL_S2、およびBL_SSで示す方式を設定した。
[6-2. About the first experiment]
Subsequently, the contents of the first experiment using the above-mentioned session data will be described. In the first experiment, the method shown by Prop_D and the method shown by Prop_U were set as the experimental targets, and the methods shown by BL_S1, BL_S2, and BL_SS were set as the baselines to be compared.
ここで、Prop_Dは、図1に示すように、繰り返し評価モデルM1、謝罪評価モデルM2、非好意的指標発話評価モデルM3、および好意的指標発話評価モデルM4を用いた判定手法である。例えば、Prop_Dにおいては、テストセッションを各モデルM1~M4に入力して不満足度スコアを算出した。また、Prop_Dにおいては、算出した不満足度スコアの値が高い方から順に50万のセッションを低満足セッション(すなわち、ラベルが「Yes」)であると判定し、不満足度スコアの値が高い方から順に50万のセッションを高満足セッション(すなわち、ラベルが「No」)であると判定した。 Here, as shown in FIG. 1, Prop_D is a determination method using a repeated evaluation model M1, an apology evaluation model M2, a non-favorable index utterance evaluation model M3, and a favorable index utterance evaluation model M4. For example, in Prop_D, a test session was input to each model M1 to M4 to calculate a dissatisfaction score. Further, in Prop_D, 500,000 sessions are determined to be low-satisfaction sessions (that is, the label is “Yes”) in order from the one with the highest calculated dissatisfaction score value, and the one with the highest dissatisfaction score value is used first. In turn, 500,000 sessions were determined to be highly satisfied sessions (ie, the label is "No").
ここで、Prop_Dにおいては、繰り返し評価モデルM1の学習を行う際に、図17に示した手法を用いて、学習データを生成し、図18に示すように、生成した学習データの分布画像が有する特徴を繰り返し評価モデルM1に学習させた。また、Prop_Dにおいては、謝罪評価モデルM2の学習を行う際に、図19に示した手法を用いて、学習データを生成し、学習データが有する特徴を謝罪評価モデルM2に学習させた。また、Prop_Dにおいては、図13に示した手法を用いて、好意的指標発話評価モデルM3および非好意的指標発話評価モデルM4の学習を行った。また、Prop_Dにおいては、繰り返し評価モデルM1として画像分類を行うモデルを採用し、モデルM2~M4として、LSTMを用いて入力された情報の分類を行うモデルを採用した。 Here, in Prop_D, when learning the iterative evaluation model M1, the learning data is generated by using the method shown in FIG. 17, and as shown in FIG. 18, the distribution image of the generated learning data has. The features were repeatedly trained by the evaluation model M1. Further, in Prop_D, when learning the apology evaluation model M2, the learning data was generated by using the method shown in FIG. 19, and the features of the learning data were learned by the apology evaluation model M2. Further, in Prop_D, the favorable index utterance evaluation model M3 and the non-favorable index utterance evaluation model M4 were learned by using the method shown in FIG. Further, in Prop_D, a model for classifying images was adopted as the iterative evaluation model M1, and a model for classifying input information using LSTM was adopted as models M2 to M4.
また、Prop_Uは、図1に示す各モデルM1~M4のうち、繰り返し評価モデルM1および謝罪評価モデルM2のみを用いた判定手法である。このような判定手法は、モデルの学習に指標発話が必要ないため、予め人手でデータを作成する必要がなく、Unsupervisedな手法となる。例えば、Prop_Uでは、対象セッションを繰り返し評価モデルM1および謝罪評価モデルM2に入力し、各モデルM1、M2が出力した満足度の和を不満足度スコアとして算出した。また、Prop_Uでは、算出した不満足度スコアの値が高い方から順に50万のセッションを低満足セッション(すなわち、ラベルが「Yes」)であると判定し、不満足度スコアの値が高い方から順に50万のセッションを高満足セッション(すなわち、ラベルが「No」)であると判定した。 Further, Prop_U is a determination method using only the repeated evaluation model M1 and the apology evaluation model M2 among the models M1 to M4 shown in FIG. Since such a determination method does not require index utterance for model learning, it is not necessary to manually create data in advance, and it is an Unsupervised method. For example, in Prop_U, the target session was repeatedly input to the evaluation model M1 and the apology evaluation model M2, and the sum of the satisfactions output by the models M1 and M2 was calculated as the dissatisfaction score. In Prop_U, 500,000 sessions are determined to be low-satisfaction sessions (that is, the label is "Yes") in order from the one with the highest calculated dissatisfaction score value, and in order from the one with the highest dissatisfaction score value. The 500,000 sessions were determined to be highly satisfied sessions (ie, the label is "No").
また、BL_S1は、上述したトレーニング用セッションを用いて学習を行い、調整用セッションを用いて、調整を行ったモデルを用いた。また、BL_S1では、上述したProp_DやProp_Uと同様に、LSTMを用いて入力された情報の分類を行うモデルを採用した。 In addition, BL_S1 used a model in which learning was performed using the above-mentioned training session and adjustment was performed using the adjustment session. Further, in BL_S1, a model for classifying input information using LSTM is adopted as in the case of Prop_D and Prop_U described above.
また、BL_S2では、トレーニング用セッションを用いて学習を行い、調整用セッションを用いて調整を行ったSVMを用いた。また、BL_S2では、上述したBL_S1で利用したモデルのLSTM層の出力をSVMに入力し、SVMの出力を分類結果として採用した。 Further, in BL_S2, an SVM in which learning was performed using a training session and adjustment was performed using an adjustment session was used. Further, in BL_S2, the output of the LSTM layer of the model used in BL_S1 described above was input to the SVM, and the output of the SVM was adopted as the classification result.
また、BL_SSでは、トレーニング用セッションに加え、ラベルが付与されていない百万個のセッションを用いて学習が行われたトランスダクティブSVM(TSVM)を用いた。また、調整用セッションおよびテスト用セッションは、ラベルを無視することで、ラベルが付与されていないセッションとして学習に利用した。 In addition, in BL_SS, in addition to the training session, a transductive SVM (TSVM) in which learning was performed using one million unlabeled sessions was used. In addition, the adjustment session and the test session were used for learning as unlabeled sessions by ignoring the labels.
ここで、第1実験においては、上述した各種の手法によりFL1~FL4に分類されたセッションの分類を行い、分類結果のアキュラシー(正確性)、プレシジョン(適合率)、リコール(再現率)、および適合率と再現率との調和平均であるF1値を算出した。図40は、第1実験の結果を示す図である。なお、図40に示す例では、Prop_Dとの有意差がある手法にアスタリスクを、Prop_Uとの有意差がある手法にシャープを付した。図40に示すように、F1値を比較対象とした場合、FL1、FL2、およびFL3に分類されたセッションデータの分類結果においては、Prop_Dによる分類結果の精度が最も良くなった。 Here, in the first experiment, the sessions classified into FL1 to FL4 are classified by the various methods described above, and the accuracy (accuracy), precision (matching rate), recall (recall rate), and recall of the classification results are performed. And the F1 value which is the harmonic mean of the precision rate and the recall rate was calculated. FIG. 40 is a diagram showing the results of the first experiment. In the example shown in FIG. 40, an asterisk was added to the method having a significant difference from Prop_D, and a sharpening was added to the method having a significant difference from Prop_U. As shown in FIG. 40, when the F1 value is compared, the accuracy of the classification result by Prop_D is the best in the classification result of the session data classified into FL1, FL2, and FL3.
〔6-3.第2実験について〕
続いて、上述した各モデルが精度にどれくらい寄与しているかを判断するため、以下の第2実験を行った。第2実験においては、Prop_Dにおいて繰り返し評価モデルM1を取り除いたw/o-Rep、Prop_Dにおいて謝罪評価モデルM2を取り除いたw/o-Apo、Prop_Dにおいて非好意的指標発話評価モデルM3を取り除いたw/o-Unf、Prop_Dにおいて好意的指標発話評価モデルM4を取り除いたw/o-Favという方式を設定した。
[6-3. About the second experiment]
Subsequently, in order to determine how much each of the above-mentioned models contributes to the accuracy, the following second experiment was performed. In the second experiment, w / o-Rep in which the iterative evaluation model M1 was removed in Prop_D, w / o-Apo in which the apology evaluation model M2 was removed in Prop_D, and w in which the non-favorable index speech evaluation model M3 was removed in Prop_D. In / o-Unf and Prop_D, a method called w / o-Fav was set, in which the favorable index utterance evaluation model M4 was removed.
また、第2実験においては、図1に示す4つのモデルM1~M4を利用しないw/o-RAUFという方式を設定した。w/o-RAUFでは、50万個の高満足セッションと50万個の低満足セッションとを学習データとし、入力されたセッションを高満足セッション(すなわち、ラベルが「No」のセッション)もしくは低満足セッション(すなわち、ラベルが「Yes」のセッション)に分類するモデルの学習を行い、学習したモデルを用いてセッションの分類を行った。 Further, in the second experiment, a method called w / o-RAUF was set in which the four models M1 to M4 shown in FIG. 1 were not used. In w / o-RAUF, 500,000 high-satisfaction sessions and 500,000 low-satisfaction sessions are used as learning data, and the input sessions are either high-satisfaction sessions (that is, sessions with the label "No") or low satisfaction. We trained a model to classify into sessions (that is, sessions with the label "Yes"), and classified sessions using the trained model.
また、第2実験においては、w/o-CandRetという方式を設定した。w/o-CandRetでは、予め取得されたセッションの履歴に対し、上述した各モデルM1~M4を用いて不満足度スコアを算出し、算出したスコアが多い方から順に50万個のセッションをラベルが「Yes」のセッションとして抽出し、算出したスコアが低い方から順に50万個のセッションをラベルが「No」のセッションとして抽出した。そして、w/o-CandRetでは、生成した学習データを用いて、入力されたセッションを分類するモデルの学習を行い、学習したモデルを用いてセッションの分類を行った。 Further, in the second experiment, a method called w / o-CandRet was set. In w / o-CandRet, the dissatisfaction score is calculated using each of the above-mentioned models M1 to M4 for the session history acquired in advance, and 500,000 sessions are labeled in order from the one with the highest calculated score. The sessions were extracted as "Yes" sessions, and 500,000 sessions were extracted as the sessions with the label "No" in order from the one with the lowest calculated score. Then, in w / o-CandRet, the model for classifying the input session was trained using the generated learning data, and the session was classified using the trained model.
そして、第2実験においても、上述した各種の手法によりFL1~FL4に分類されたセッションの分類を行い、分類結果のアキュラシー(正確性)、プレシジョン(適合率)、リコール(再現率)、およびF1値を算出した。図41は、第2実験の結果を示す図である。図41に示すように、F1値を比較対象とした場合、Prop_Dの精度が最も高く、また、各モデルM1~M4のいずれかを利用しない場合に、精度が低下してしまうことが分かった。この結果、いずれのモデルM1~M4も、セッションの分類精度の向上に寄与していることが分かった。 Then, in the second experiment as well, the sessions classified into FL1 to FL4 are classified by the various methods described above, and the accuracy (accuracy), precision (correction rate), recall (recall rate), and recall (recall rate) of the classification results are performed. The F1 value was calculated. FIG. 41 is a diagram showing the results of the second experiment. As shown in FIG. 41, it was found that the accuracy of Prop_D was the highest when the F1 value was used as a comparison target, and the accuracy was lowered when any of the models M1 to M4 was not used. As a result, it was found that all the models M1 to M4 contributed to the improvement of the session classification accuracy.
〔6-4.第3実験について〕
続いて、上述したProp_Dにおいて、分類精度に対する学習データの量の寄与を判断するため、以下の第3実験を行った。なお、以下の説明では、使用した学習データの量を添え字のkで示すものとする。例えば、Prop_D_kは、k/2個の高満足セッションとk/2個の低満足セッションとを用いて各モデルM1~M4を学習し、学習した各モデルM1~M4を用いて、テストセッションの分類を行った旨を示す。また、第3実験においては、kの値を50万(500k)、100万(1M)、200万(2M)、300万(3M)、および400万(4M)と変更することで、学習データの量の各手法における精度への寄与を調べた。
[6-4. About the third experiment]
Subsequently, in the above-mentioned Prop_D, the following third experiment was performed in order to determine the contribution of the amount of training data to the classification accuracy. In the following description, the amount of training data used is indicated by the subscript k. For example, Prop_D_k learns each model M1 to M4 using k / 2 high-satisfaction sessions and k / 2 low-satisfaction sessions, and classifies test sessions using each of the learned models M1 to M4. Indicates that In the third experiment, the learning data was changed by changing the value of k to 500,000 (500k), 1 million (1M), 2 million (2M), 3 million (3M), and 4 million (4M). The contribution of the amount of to accuracy in each method was investigated.
図42は、第3実験におけるProp_Dの結果を示す図である。なお、図42では、kを1Mとした際との有意差を有する結果にアスタリスクを付与した。図42に示すように、Prop_Dにおいては、テストセッションの分類に係わらず、k=2Mとした場合に最も精度が高くなることがわかった。これは、学習データが200万よりも少ないと精度の向上の余地があり、学習データが200万を超えると過学習が生じてしまうためとも考えられる。 FIG. 42 is a diagram showing the results of Prop_D in the third experiment. In FIG. 42, an asterisk was added to the result having a significant difference from the case where k was set to 1M. As shown in FIG. 42, it was found that the accuracy of Prop_D was the highest when k = 2M regardless of the classification of the test session. It is also considered that this is because there is room for improvement in accuracy when the training data is less than 2 million, and overfitting occurs when the training data exceeds 2 million.
〔6-5.第4実験について〕
ここで、上述したProp_Dでは、繰り返し発話や謝罪、および指標発話に基づく評価を行うモデルとして、ニューラルネットワークを利用していた。ここで、各認識にニューラルネットワークを利用することの効果を検査するため、以下の第4実験を行った。例えば、第4実験では、Prop_Dの手法において、ニューラルネットワークの代わりに、編集距離を用いて繰り返し発話に基づくセッションの評価を行い、繰り返し発話や指標発話に基づく評価を文字列マッチングにより行う手法をProp_Sとして実行した。
[6-5. About the 4th experiment]
Here, in the above-mentioned Prop_D, a neural network is used as a model for performing evaluation based on repeated utterances, apologies, and index utterances. Here, in order to examine the effect of using the neural network for each recognition, the following fourth experiment was performed. For example, in the fourth experiment, in the Prop_D method, instead of the neural network, the session is evaluated based on repeated utterances using the editing distance, and the evaluation based on repeated utterances and index utterances is performed by character string matching. Run as.
図43は、第4実験におけるProp_Sの結果を示す図である。なお、図43では、FL2、FL3、FL4において、Prop_Dと有意差を有する結果が得られた。図40、図41に示すProp_Dの結果と図43に示すProp_Sの結果とを比較すると、Prop_Sにおいては、Prop_Dよりも適合率が高く、再現率およびF1値が低くなっている。すなわち、Prop_Sは、Prop_Dよりも精度が低くなっていると考えられる。このため、Prop_Dにおいて、セッションを評価する際にニューラルネットワークを利用することで、精度の向上を実現することができる。 FIG. 43 is a diagram showing the results of Prop_S in the fourth experiment. In addition, in FIG. 43, the results having a significant difference from Prop_D were obtained in FL2, FL3, and FL4. Comparing the results of Prop_D shown in FIGS. 40 and 41 with the results of Prop_S shown in FIG. 43, in Prop_S, the conformance rate is higher than that of Prop_D, and the recall rate and the F1 value are lower. That is, it is considered that Prop_S is less accurate than Prop_D. Therefore, in Prop_D, the accuracy can be improved by using the neural network when evaluating the session.
〔6-6.第5実験について〕
次に、Prop_Dにおいて評価に用いられる各モデルの出力を融合させ、汎化能力(未学習データに対する予測能力)を向上させたモデルを用いて、セッションの評価を行う第5実験を行った。より具体的には、第5実験においては、アンサンブルの手法を用いて、Prop_Dの精度をさらに向上させた手法をProp_Eとして実験した。
[6-6. About the 5th experiment]
Next, a fifth experiment was conducted in which the session was evaluated using a model in which the outputs of each model used for evaluation in Prop_D were fused and the generalization ability (prediction ability for unlearned data) was improved. More specifically, in the fifth experiment, a method in which the accuracy of Prop_D was further improved by using the method of the ensemble was experimented as Prop_E.
図44は、第5実験におけるProp_Eの結果を示す図である。なお、図44では、Prop_Eの結果と、Prop_D_2Mの結果とを並べて記載した。図44に示すように、Prop_Eの結果は、Prop_D_2Mの結果と比較して、F1値が高くなっている。このため、Prop_Eのように、アンサンブルの手法を用いることで、セッションを評価する精度をさらに向上させることができる。 FIG. 44 is a diagram showing the results of Prop_E in the fifth experiment. In FIG. 44, the result of Prop_E and the result of Prop_D_2M are shown side by side. As shown in FIG. 44, the result of Prop_E has a higher F1 value than the result of Prop_D_2M. Therefore, by using an ensemble method such as Prop_E, the accuracy of evaluating the session can be further improved.
〔7.実施形態の効果について〕
以下、上述した各処理を実行する情報提供装置10の効果の一例について説明する。
[7. About the effect of the embodiment]
Hereinafter, an example of the effect of the
〔7-1.利用態様に基づく学習データの抽出について〕
上述したように、情報提供装置10は、利用者による対話サービスの利用態様を特定する。そして、情報提供装置10は、対話サービスにおける発話と応答とを含むセッションを評価するための学習データとして、特定された利用態様が所定の条件を満たす利用者の発話を含むセッションを対話サービスの履歴から抽出する。
[7-1. Extraction of learning data based on usage mode]
As described above, the
このように、情報提供装置10は、各利用者のエンゲージメントに基づいて、セッションを評価するモデルを学習するための学習データを抽出する。このため、情報提供装置10は、例えば、セッションに対して利用者が満足しているか否かを判定するモデルを学習するための学習データを、人手を介さずに自動で抽出することができる。このような処理の結果、情報提供装置10は、多くの学習データを容易に準備することができるので、モデルの精度を向上させる結果、セッションの評価精度を改善することができる。
In this way, the
また、情報提供装置10は、利用態様として、利用者による対話サービスの利用期間を特定し、利用期間が所定の条件を満たす利用者の発話を含むセッションを学習データとして抽出する。また、情報提供装置10は、利用態様として、利用者による対話サービスの利用頻度を特定し、利用頻度が所定の条件を満たす利用者の発話を含むセッションを学習データとして抽出する。このため、情報提供装置10は、例えば、利用者の満足度が低いセッションを抽出することを目的として学習データを抽出する場合、エンゲージメントが高い利用者、すなわち、対話サービスに対する評価が高い利用者のセッションを不例として抽出し、エンゲージメントが低い利用者、すなわち、対話サービスに対する評価が低い利用者のセッションを正例として抽出するので、学習に適したデータを容易に準備することができる結果、セッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、抽出されたセッションが有する特徴をモデルに学習させる。このため、情報提供装置10は、セッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、利用態様が所定の条件を満たす利用者の発話を含むセッションを第1属性を有する学習データとして抽出するとともに、利用態様が所定の条件を満たさない利用者の発話を含むセッションを第2属性を有する学習データとして抽出する。そして、情報提供装置10は、抽出された学習データを用いて、入力されたセッションを第1属性を有するデータ若しくは第2属性を有するデータのいずれかに分類するモデルを学習する。
Further, the
例えば、情報提供装置10は、利用態様が所定の条件を満たす利用者の発話を含むセッションを、その利用者による評価が好意的な学習データとして抽出するとともに、利用態様が所定の条件を満たさない利用者の発話を含むセッションをその利用者による評価が非好意的な学習データとして抽出する。そして、情報提供装置10は、抽出された学習データを用いて、入力されたセッションに対する利用者の評価が好意的であるか非好意的であるかを判定するモデルを学習する。このため、情報提供装置10は、セッションの評価精度を改善することができる。
For example, the
また、情報提供装置10は、特定された利用態様に基づいて、利用者の発話を含むセッションを評価する。そして、情報提供装置10は、評価が所定の条件を満たすセッションを学習データとして抽出する。このため、情報提供装置10は、セッションの評価精度を改善することができる。
In addition, the
また、情報提供装置10は、評価が所定の条件を満たすセッションに含まれる発話と類似する発話、若しくは、そのセッションに含まれる応答と類似する応答を対話サービスの履歴から抽出し、抽出した発話若しくは応答を用いた新たなセッションを評価が所定の条件を満たすセッションとして生成する。そして、情報提供装置10は、生成された新たなセッションが有する特徴をモデルに学習させる。このように、情報提供装置10は、利用態様が所定の条件を満たすセッションから、類似するセッションを学習データとして生成し、生成した学習データを用いてモデルの学習を行う。このため、情報提供装置10は、モデルの判定精度を向上させる結果、セッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、評価が所定の条件を満たすセッションを対話サービスの履歴から抽出し、抽出したセッションに含まれる発話のうち出現頻度が所定の条件を満たす発話を、その発話が含まれるセッションに対する利用者の評価が好意的であるか否かの指標となる指標発話として抽出する。例えば、情報提供装置10は、評価が所定の条件を満たすセッションにおける出現頻度と、評価が所定の条件を満たさないセッションにおける出現頻度との比が所定の条件を満たす発話を指標発話として抽出する。このため、情報提供装置10は、利用者の利用態様に基づいて、指標発話の抽出を行うことができる。なお、このような指標発話は、セッションの評価に利用することができる。このため、情報提供装置10は、指標発話に基づいたセッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、利用者の利用態様に加えて、謝罪を示す所定の応答がセッションに含まれているか否かに基づいて、そのセッションを評価する。また、情報提供装置10は、利用者の利用態様に加えて、セッションに対する利用者の評価が好意的であるか否かの指標となる指標発話が含まれているか否かに基づいて、そのセッションを評価する。このため、情報提供装置10は、セッションの評価精度をさらに改善することができる。
Further, the
また、情報提供装置10は、利用者による対話サービスの利用態様を特定し、特定された利用態様に基づいて、その利用者の発話を含むセッションを評価する。このため、情報提供装置10は、人手を介さずにセッションを適切に評価することができる。
Further, the
〔7-2.利用態様に基づく指標発話の抽出について〕
また、情報提供装置10は、対話サービスの利用態様が所定の条件を満たす利用者の発話とその発話に対する応答とを含むセッションを取得する。そして、情報提供装置10は、取得されたセッションにおける出現頻度に基づいて、対話サービスに対する利用者の評価の指標となる指標発話を抽出する。このような指標発話は、セッションの評価に利用することができる。このため、情報提供装置10は、セッションの評価精度を改善することができる。
[7-2. Extraction of index utterances based on usage mode]
Further, the
また、情報提供装置10は、対話サービスの利用期間が所定の条件を満たす利用者の発話を含むセッションを取得する。また、情報提供装置10は、対話サービスの利用頻度が所定の条件を満たす利用者の発話を含むセッションを取得する。そして、情報提供装置10は、利用態様が所定の条件を満たす利用者の発話を含むセッションにおける出現頻度と、利用態様が所定の条件を満たさない利用者の発話を含むセッションにおける出現頻度との比が所定の条件を満たす発話を指標発話として抽出する。
Further, the
また、情報提供装置10は、利用態様が所定の条件を満たす利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話を、対話サービスを利用者が好意的に評価している旨を示す好意的指標発話として抽出する。また、情報提供装置10は、利用態様が所定の条件を満たさない利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話を、対話サービスを利用者が非好意的に評価している旨を示す非好意的指標発話として抽出する。これらの処理の結果、情報提供装置10は、利用者の発話から指標発話を適切に抽出することができるので、セッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、抽出された指標発話の出現頻度に基づいて、セッションを評価する。このため、情報提供装置10は、セッションの評価精度を改善することができる。
Further, the
また、情報提供装置10は、評価対象となるセッションについて、利用態様が所定の条件を満たす利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話と、利用態様が所定の条件を満たさない利用者の発話を含むセッションにおける出現頻度が所定の閾値を超える発話と基づいて、評価対象となるセッションを評価する。このため、情報提供装置10は、適切にセッションを評価することができる。
Further, the
また、情報提供装置10は、評価が所定の条件を満たすセッションが有する特徴をモデルに学習させる。このため、情報提供装置10は、セッションを評価するモデルを実現することができる。
Further, the
また、情報提供装置10は、対話サービスにおける履歴から抽出された指標発話を特定し、特定した指標発話に対応する一連の対話を学習データとして抽出する。そして、情報提供装置10は、抽出された学習データの特徴をモデルに学習させる。例えば、情報提供装置10は、非好意的対話例UDや好意的対話例FDの特徴をモデルに学習させる。このため、情報提供装置10は、セッションを評価するモデルを実現することができる。
Further, the
〔7-3.指標発話に基づくセッションの評価について〕
また、情報提供装置10は、対話サービスにおける利用者の発話と応答とを含むセッションを取得する。そして、情報提供装置10は、対話サービスに対する利用者の評価の指標となる指標発話に基づいて、取得されたセッションを評価する。このため、情報提供装置10は、セッションを自動的に精度良く学習することができる。
[7-3. About session evaluation based on index utterance]
Further, the
また、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話と、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話とに基づいて、セッションを評価する。そして、例えば、情報提供装置10は、好意的指標発話の出現頻度と、非好意的指標発話の出現頻度との比に基づいて、セッションを評価する。また、例えば、情報提供装置10は、好意的指標発話が含まれるセッションにおいて対話サービスに対する利用者の評価がどれくらい好意的であるかを示す好意的スコアと、非好意的指標発話が含まれるセッションにおいて対話サービスに対する利用者の評価がどれくらい非好意的であるかを示す非好意的スコアとの比に基づいて、セッションを評価する。このため、情報提供装置10は、セッションを自動的に精度良く学習することができる。
Further, the
また、情報提供装置10は、利用者による評価が好意的な高満足セッションであるか否かを評価する。そして、情報提供装置10は、高満足セッションが有する特徴をモデルに学習させる。また、情報提供装置10は、利用者による評価が非好意的な低満足セッションであるか否かを評価する。そして、情報提供装置10は、低満足セッションが有する特徴をモデルに学習させる。
Further, the
また、情報提供装置10は、対話サービスにおける履歴から指標発話を特定し、特定した指標発話から所定の数だけ前の応答および発話を学習データとして抽出する。そして、情報提供装置10は、抽出された学習データの特徴をモデルに学習させる。例えば、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話から所定の数だけ前の応答および発話を好意的対話例として抽出し、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話から所定の数だけ前の応答および発話を非好意的対話例として抽出し、対話サービスに対する利用者の評価が好意的でも非好意的でもない旨を示す中性発話から所定の数だけ前の応答および発話を中性対話例として抽出する。そして、情報提供装置10は、抽出された好意的対話例と、非好意的対話例と、中性対話例とが有する特徴をモデルに学習させる。
Further, the
また、情報提供装置10は、指標発話と、謝罪を示す所定の応答がセッションに含まれているか否かに基づいて、そのセッションを評価する。上述した各種の処理の結果、情報提供装置10は、様々な観点からセッションを適切に評価するモデルを学習することができる。この結果、情報提供装置10は、セッションの評価精度を向上させることができる。
In addition, the
また、情報提供装置10は、利用者の発話を含むセッションに対する評価結果に基づいて、その利用者による将来の対話サービスの利用態様を推定する。例えば、情報提供装置10は、評価として、利用者による評価がどれくらい好意的であるかを示す好意的スコア、若しくは、利用者による評価がどれくらい非好意的であるかを示す非好意的スコアを算出し、好意的スコアと非好意的スコアとの比に基づいて、利用者による将来の対話サービスの利用態様を推定する。このため、情報提供装置10は、利用者の利用態様を適切に推定することができる。
Further, the
また、情報提供装置10は、評価が所定の条件を満たすセッションから出現頻度が所定の条件を満たす発話を指標発話として抽出する。例えば、情報提供装置10は、セッションに対する利用者による評価が好意的であるか非好意的であるかを評価し、利用者による評価が好意的であると評価されたセッションにおける出現頻度と、利用者による評価が非好意的であると評価されたセッションにおける出現頻度との比が所定の条件を満たす発話を指標発話として抽出する。このため、情報提供装置10は、新たな指標発話を適切に抽出することができる。
Further, the
〔7-4.分布画像に基づくセッションの評価について〕
また、情報提供装置10は、対話サービスにおける利用者の発話とその発話に対する応答とを含むセッションを取得する。また、情報提供装置10は、セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する。そして、情報提供装置10は、生成された画像に基づいて、取得されたセッションを評価する。
[7-4. About session evaluation based on distribution images]
Further, the
ここで、セッションに同一または類似の発話が繰り返し含まれる場合、上述した画像には、所定の模様が含まれることとなる。すると、画像に所定の模様が含まれると推定される場合には、セッションに同一または類似の発話が繰り返し含まれると推定することができる。このように、同一または類似の発話が繰り返し含まれるセッションは、利用者による評価が低いと推定される。このため、情報提供装置10は、生成された画像に基づいて、取得されたセッションを適切に評価することができる。
Here, if the session repeatedly contains the same or similar utterances, the above-mentioned image will include a predetermined pattern. Then, when it is estimated that the image contains a predetermined pattern, it can be estimated that the session contains the same or similar utterances repeatedly. As described above, a session in which the same or similar utterances are repeatedly included is presumed to have a low evaluation by the user. Therefore, the
また、情報提供装置10は、画像として、セッションにおける同一文字の分布を示す画像を生成する。例えば、情報提供装置10は、セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成する。そして、情報提供装置10は、画像に基づいて、セッションに同一又は類似する文字列が繰り返し出現しているか否かを判定し、判定結果に基づいて、セッションを評価する。例えば、情報提供装置10は、セッションに同一又は類似する文字列が繰り返し出現している場合は、そのセッションに対して利用者による評価が非好意的である旨の評価を付与する。このため、情報提供装置10は、セッションを適切に評価することができる。
Further, the
また、情報提供装置10は、同一又は類似する文字列が繰り返し出現するセッションから生成された画像が有する特徴をモデルに学習させる。そして、情報提供装置10は、学習が行われたモデルを用いて、画像からその画像の元となったセッションを評価する。ここで、文字を学習させたモデルよりも、画像を学習させたモデルの方が判定精度を向上させやすいことが知られている。このため、情報提供装置10は、セッションの評価精度を向上させることができる。
Further, the
また、情報提供装置10は、対話サービスにおける履歴からいずれかの発話を選択し、選択した発話と同一又は類似する発話を複数含む発話群を生成する。そして、情報提供装置10は、生成された発話群から画像を生成し、生成した画像が有する特徴をモデルに学習させる。このため、情報提供装置10は、モデルの学習データを増大させる結果、モデルの精度を向上させることができる。
Further, the
〔7-5.繰り返し発話に基づくセッションの評価について〕
また、情報提供装置10は、対話サービスにおける利用者の発話とその発話に対する応答とを含むセッションを取得する。そして、情報提供装置10は、セッションに含まれる発話の文字列の繰り返しに基づいて、取得されたセッションを評価する。このため、情報提供装置10は、人手を介さずとも、セッションを精度良く評価することができる。
[7-5. Evaluation of sessions based on repeated utterances]
Further, the
例えば、情報提供装置10は、セッションから文字列の類似度が所定の閾値を超える発話の対を抽出し、抽出した対の数に基づいて、セッションを評価する。また、情報提供装置10は、セッションから意味的な類似度が所定の閾値を超える発話の対を抽出し、抽出した対の数に基づいて、セッションを評価する。そして、情報提供装置10は、セッションから抽出した対の数が所定の閾値を超える場合は、セッションに対して利用者による評価が非好意的である旨の評価を付与する。このため、情報提供装置10は、セッションを適切に評価することができる。
For example, the
また、情報提供装置10は、同一又は類似する文字列が繰り返し出現するセッションが有する特徴を学習したモデルを用いて、セッションを評価する。例えば、情報提供装置10は、対話サービスにおける履歴からいずれかの発話を選択し、選択した発話と同一又は類似する発話を複数含む発話群を生成する。また、情報提供装置10は、生成した発話群が有する特徴をモデルに学習させる。そして、情報提供装置10は、学習が行われたモデルを用いて、セッションを評価する。
Further, the
また、情報提供装置10は、選択した発話と同一又は類似する発話を複数含む第1発話群を生成するとともに、対話サービスにおける履歴からそれぞれ異なる複数の発話を選択し、選択した発話からなる第2発話群とを生成し、第1発話群が有する特徴と第2発話群が有する特徴とをモデルに学習させる。また、情報提供装置10は、発話群が有する特徴をモデルに学習させることで、入力されたセッションに対して利用者による評価が非好意的であるか否かを判定するモデルの学習を行う。このため、情報提供装置10は、精度良くセッションの評価を行うことができる。
Further, the
また、情報提供装置10は、評価が所定の条件を満たすセッションから、出現頻度が所定の条件を満たす発話を、対話サービスに対する利用者の評価となる指標となる指標発話として抽出する。このため、情報提供装置10は、新たな指標発話を自動で抽出することができる。
Further, the
〔7-6.発話を報酬とした強化学習について〕
また、情報提供装置10は、入力された発話に対する応答を生成することで対話サービスを実現する対話モデルに対する発話のうち、その対話サービスに対する評価の指標となる指標発話を取得し、取得された指標発話に基づく報酬を設定することで、対話モデルの強化学習を行う。このため、情報提供装置10は、人手を介さずとも、対話サービスを実現する対話モデルの学習を実現することができ、対話モデルの精度を向上させることができる。
[7-6. Reinforcement learning with utterances as a reward]
Further, the
また、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話、若しくは、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話を取得し、好意的指標発話が取得された場合は、対話モデルに対して正の報酬を設定し、非好意的指標発話が取得された場合は、対話モデルに対して負の報酬を設定する。このため、情報提供装置10は、適切に対話モデルの強化学習を実現することができる。
Further, the
また、情報提供装置10は、対話モデルが生成した応答に対して指標発話を出力する発話モデルが出力した指標発話を取得する。例えば、情報提供装置10は、発話モデルとして、対話サービスにおける利用者と対話モデルとの対話の履歴が有する特徴を学習したモデルが出力した指標発話を取得する。このため、情報提供装置10は、例えば、セッションの履歴が無くとも、対話モデルの強化学習を実現することができる。
Further, the
〔7-7.共起性に基づいた指標発話の抽出について〕
また、情報提供装置10は、対話サービスにおける利用者の発話とその発話に対する応答との履歴から、対話サービスに対する利用者の評価の指標となる発話であって、予め設定された指標発話を特定する。そして、情報提供装置10は、特定された指標発話との共起性に基づいて、履歴に含まれる発話から新たな指標発話を抽出する。上述したように、このような指標発話は、セッションの評価に用いることができる。この結果、情報提供装置10は、セッションの評価精度を向上させることができる。
[7-7. Extraction of index utterances based on co-occurrence]
Further, the
また、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話を特定し、好意的指標発話との共起性が所定の閾値を超える発話を新たな好意的指標発話として抽出する。また、情報提供装置10は、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話を特定し、非好意的指標発話との共起性が所定の閾値を超える発話を新たな非好意的指標発話として抽出する。
Further, the
また、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話が同一のセッション内に含まれる回数と、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話が同一のセッション内に含まれる回数とを利用者の発話ごとに計数し、計数した各回数の比が所定の条件を満たす発話を新たな指標発話として抽出する。
Further, in the
また、情報提供装置10は、発話と応答との履歴から、共起性を有する発話若しくは応答を接続する共起ネットワークを生成し、共起ネットワークから指標発話を特定し、共起ネットワーク上における指標発話との距離が所定の条件を満たす発話を新たな指標発話として抽出する。例えば、情報提供装置10は、共起ネットワークから対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話を特定し、共起ネットワーク上における好意的指標発話との距離が所定の閾値以下となる発話を新たな好意的指標発話として抽出する。また、情報提供装置10は、好意的指標発話との距離が所定の閾値以下となり、かつ、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話との共起ネットワーク上における距離が所定の閾値以上となる発話を、新たな好意的指標発話として抽出する。
Further, the
また、情報提供装置10は、共起ネットワークから対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話を特定し、共起ネットワーク上における非好意的指標発話との距離が所定の閾値以下となる発話を新たな非好意的指標発話として抽出する。例えば、情報提供装置10は、非好意的指標発話との距離が所定の閾値以下となり、かつ、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話との共起ネットワーク上における距離が所定の閾値以上となる発話を、新たな非好意的指標発話として抽出する。これらの処理の結果、情報提供装置10は、利用者の印象を示す指標発話を精度良く抽出することができる。
Further, the
また、情報提供装置10は、抽出された指標発話が含まれているか否かに基づいて、対話サービスにおける発話と応答とを含むセッションを評価する。このため、情報提供装置10は、セッションの評価精度を向上させることができる。
Further, the
〔7-8.対話例を用いたセッションの評価について〕
また、情報提供装置10は、対話サービスの履歴のうち、対話サービスに対する利用者の評価の指標となる指標発話に対応する一連の対話を抽出する。すなわち、情報提供装置10は、各種の対話例を抽出する。例えば、情報提供装置10は、指標発話から所定の数だけ前の発話および応答を対話例として抽出する。そして、情報提供装置10は、抽出された対話を用いて、入力された対話に対する利用者の評価を推定するモデルを学習する。
[7-8. About session evaluation using dialogue examples]
Further, the
このように、情報提供装置10は、セッションではなく、各種の対話例を抽出し、抽出した対話例の特徴をモデルに学習させる。このような対話例の抽出は、各種の指標発話があれば、セッションの抽出よりも容易に実現することができる。この結果、情報提供装置10は、容易にセッションの評価を実現することができる。
In this way, the
また、情報提供装置10は、対話サービスに対する利用者の評価が好意的である旨を示す好意的指標発話から所定の数だけ前の発話および応答を抽出し、抽出された発話および応答を、利用者による評価が好意的である対話の学習データとして、モデルの学習を行う。また、情報提供装置10は、対話サービスに対する利用者の評価が非好意的である旨を示す非好意的指標発話から所定の数だけ前の発話および応答を抽出し、抽出された発話および応答を、利用者による評価が非好意的である対話の学習データとして、モデルの学習を行う。また、情報提供装置10は、対話サービスに対する利用者の評価が中立的である旨を示す中立指標発話から所定の数だけ前の発話および応答を抽出し、抽出された発話および応答を、利用者による評価が中立的である対話の学習データとして、モデルの学習を行う。このため、情報提供装置10は、モデルによるセッションの評価精度を向上させることができる。
Further, the
また、情報提供装置10は、対話サービスにおける利用者の発話と応答とを含むセッションを取得する。そして、情報提供装置10は、学習が行われたモデルを用いて、取得されたセッションの評価を行う。このため、情報提供装置10は、セッションの評価を実現することができる。
Further, the
また、情報提供装置10は、評価が所定の条件を満たすセッションから出現頻度が所定の条件を満たす発話を、指標発話として抽出する。例えば、情報提供装置10は、セッションに対する利用者による評価が好意的であるか非好意的であるかを評価し、利用者による評価が好意的であると評価されたセッションにおける出現頻度と、利用者による評価が非好意的であると評価されたセッションにおける出現頻度との比が所定の条件を満たす発話を指標発話として抽出する。このため、情報提供装置10は、新たな指標発話の抽出を自動的に行うことができる。
Further, the
〔7-9.複数のモデルを用いたセッションの評価について〕
また、情報提供装置10は、対話サービスにおける利用者の発話と応答とを含むセッションを取得する。そして、情報提供装置10は、セッションに対する利用者の評価の指標となる複数の特徴のうちそれぞれ異なる種別の特徴に基づいてセッションを評価する複数のモデルの評価結果を用いて、セッションを評価する。このため、情報提供装置10は、セッションの評価精度を向上させることができる。
[7-9. About session evaluation using multiple models]
Further, the
また、情報提供装置10は、セッションに含まれる発話に同一又は類似する発話が繰り返し含まれているか否かに基づいて、セッションを評価するモデルの評価結果を少なくとも用いる。また、情報提供装置10は、セッションに含まれる応答に謝罪を示す所定の応答が含まれているか否かに基づいて、セッションを評価するモデルの評価結果を少なくとも用いる。また、情報提供装置10は、セッションに含まれる発話に、対話サービスを利用者が非好意的に評価している旨を示す非好意的指標発話が含まれているか否かに基づいて、セッションを評価するモデルの評価結果を少なくとも用いる。また、情報提供装置10は、セッションに含まれる発話に、対話サービスを利用者が好意的に評価している旨を示す好意的指標発話が含まれているか否かに基づいて、セッションを評価するモデルの評価結果を少なくとも用いる。このため、情報提供装置10は、セッションの評価精度を向上させることができる。
Further, the
また、情報提供装置10は、セッションに含まれる発話に同一又は類似する発話が繰り返し含まれているか否かに基づいてセッションを評価するモデルが出力した評価値と、セッションに含まれる応答に謝罪を示す所定の応答が含まれているか否かに基づいてセッションを評価するモデルが出力した評価値との和の値に基づいて、セッションを評価する。このため、情報提供装置10は、人手を介さずともセッションを評価可能な複数のモデルを用いて、セッションを評価することができる。
Further, the
また、情報提供装置10は、セッションに含まれる発話に同一又は類似する発話が繰り返し含まれているか否かに基づいてセッションを評価するモデルが出力した評価値と、セッションに含まれる応答に謝罪を示す所定の応答が含まれているか否かに基づいてセッションを評価するモデルが出力した評価値と、セッションに含まれる発話に対話サービスを利用者が非好意的に評価している旨を示す非好意的指標発話が含まれているか否かに基づいてセッションを評価するモデルが出力した評価値との和から、セッションに含まれる発話に対話サービスを利用者が好意的に評価している旨を示す好意的指標発話が含まれているか否かに基づいてセッションを評価するモデルが出力した評価値を減算した値に基づいて、セッションを評価する。例えば、情報提供装置10は、値が正の値であるか負の値であるかに応じて、セッションを評価する。このため、情報提供装置10は、精度良くセッションを評価することができる。
Further, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to carry out the present invention in other modified forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、抽出部は、抽出手段や抽出回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the extraction unit can be read as an extraction means or an extraction circuit.
10 情報提供装置
20 通信部
30 記憶部
31 セッションログデータベース
32 セッション評価データベース
33 指標発話データベース
34 エンゲージメントデータベース
35 モデルデータベース
40 制御部
41 セッション取得部
42 利用態様特定部
50 指標発話抽出処理部
51 指標発話特定部
52 発話抽出部
53 ネットワーク生成部
60 セッション評価処理部
61 学習データ抽出部
62 学習部
63 画像生成部
64 発話群生成部
65 評価部
70 エンゲージメント予測処理部
71 推定部
80 強化学習処理部
81 指標発話取得部
82 報酬設定部
83 強化学習部
100 端末装置
200 対話装置
10
Claims (14)
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成部と、
前記画像生成部により生成された画像に基づいて、前記取得部により取得されたセッションを評価する評価部と
を有し、
前記画像生成部は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成する
ことを特徴とする評価装置。 An acquisition unit that acquires a session including a user's utterance and a response to the utterance in the dialogue service, and an acquisition unit.
An image generation unit that generates an image indicating whether or not the utterance characters included in the session are the same as each other.
It has an evaluation unit that evaluates the session acquired by the acquisition unit based on the image generated by the image generation unit.
When the image generation unit associates the utterance character string included in the session with each area in the vertical direction and each area in the horizontal direction of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area
An evaluation device characterized by that.
ことを特徴とする請求項1に記載の評価装置。 The evaluation device according to claim 1, wherein the image generation unit generates an image showing the distribution of the same characters in the session as the image.
ことを特徴とする請求項1または2に記載の評価装置。 The claim is characterized in that the evaluation unit determines whether or not the same or similar character string appears repeatedly in the session based on the image, and evaluates the session based on the determination result. The evaluation device according to 1 or 2 .
ことを特徴とする請求項3に記載の評価装置。 The evaluation unit is characterized in that, when the same or similar character string appears repeatedly in the session, an evaluation indicating that the evaluation by the user is unfavorable is given to the session. The evaluation device according to claim 3 .
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成部と、
前記画像生成部により生成された画像に基づいて、前記取得部により取得されたセッションを評価する評価部と
を有し、
前記画像生成部は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成し、
前記評価部は、前記画像に前記所定の色彩の斜線が含まれているか否かに基づいて、前記セッションを評価する
ことを特徴とする評価装置。 An acquisition unit that acquires a session including a user's utterance and a response to the utterance in the dialogue service, and an acquisition unit.
An image generation unit that generates an image indicating whether or not the utterance characters included in the session are the same as each other.
An evaluation unit that evaluates the session acquired by the acquisition unit based on the image generated by the image generation unit.
Have,
When the image generation unit associates the utterance character string included in the session with each area in the vertical direction and each area in the horizontal direction of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area,
The evaluation unit is an evaluation device for evaluating the session based on whether or not the image contains diagonal lines of the predetermined color.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成部と、
前記画像生成部により生成された画像に基づいて、前記取得部により取得されたセッションを評価する評価部と
を有し、
同一又は類似する文字列が繰り返し出現するセッションから生成された画像が有する特徴をモデルに学習させる学習部
を有することを特徴とする評価装置。 An acquisition unit that acquires a session including a user's utterance and a response to the utterance in the dialogue service, and an acquisition unit.
An image generation unit that generates an image indicating whether or not the utterance characters included in the session are the same as each other.
An evaluation unit that evaluates the session acquired by the acquisition unit based on the image generated by the image generation unit.
Have,
An evaluation device characterized by having a learning unit that allows a model to learn the characteristics of an image generated from a session in which the same or similar character strings repeatedly appear.
ことを特徴とする請求項6に記載の評価装置。 The evaluation device according to claim 6 , wherein the evaluation unit evaluates a session from which the image is based from the image by using a model trained by the learning unit.
を有し、
前記画像生成部は、前記発話群生成部により生成された発話群から前記画像を生成し、
前記学習部は、前記画像生成部が前記発話群から生成した画像が有する特徴を前記モデルに学習させる
ことを特徴とする請求項6または7に記載の評価装置。 It has an utterance group generation unit that selects one of the utterances from the history in the dialogue service and generates an utterance group containing a plurality of utterances that are the same as or similar to the selected utterance.
The image generation unit generates the image from the utterance group generated by the utterance group generation unit.
The evaluation device according to claim 6 or 7 , wherein the learning unit causes the model to learn the characteristics of the image generated from the utterance group by the image generation unit.
対話サービスにおける利用者の発話と当該発話に対する応答とを含むセッションを取得する取得工程と、
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成工程と、
前記画像生成工程により生成された画像に基づいて、前記取得工程により取得されたセッションを評価する評価工程と
を有し、
前記画像生成工程は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成する
ことを特徴とする評価方法。 It is an evaluation method executed by the evaluation device.
The acquisition process of acquiring a session including the user's utterance and the response to the utterance in the dialogue service, and the acquisition process.
An image generation step of generating an image indicating whether or not the utterance characters included in the session are the same as each other, and
It has an evaluation step of evaluating the session acquired by the acquisition step based on the image generated by the image generation step.
In the image generation step, when the character string of the utterance included in the session is associated with each area in the vertical direction and each area in the horizontal direction of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area
An evaluation method characterized by that.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成手順と、
前記画像生成手順により生成された画像に基づいて、前記取得手順により取得されたセッションを評価する評価手順と
を有し、
前記画像生成手順は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成する
ことをコンピュータに実行させるための評価プログラム。 The acquisition procedure for acquiring a session including the user's utterance and the response to the utterance in the dialogue service, and the acquisition procedure.
An image generation procedure for generating an image indicating whether or not the spoken characters included in the session are identical to each other, and an image generation procedure.
It has an evaluation procedure for evaluating the session acquired by the acquisition procedure based on the image generated by the image generation procedure.
In the image generation procedure, when the utterance character string included in the session is associated with each vertical region and each horizontal region of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area
An evaluation program that lets a computer do things.
対話サービスにおける利用者の発話と当該発話に対する応答とを含むセッションを取得する取得工程と、The acquisition process of acquiring a session including the user's utterance and the response to the utterance in the dialogue service, and the acquisition process.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成工程と、An image generation step of generating an image indicating whether or not the utterance characters included in the session are the same as each other, and
前記画像生成工程により生成された画像に基づいて、前記取得工程により取得されたセッションを評価する評価工程とAn evaluation step of evaluating a session acquired by the acquisition step based on the image generated by the image generation step.
を有し、Have,
前記画像生成工程は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成し、In the image generation step, when the character string of the utterance included in the session is associated with each area in the vertical direction and each area in the horizontal direction of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area,
前記評価工程は、前記画像に前記所定の色彩の斜線が含まれているか否かに基づいて、前記セッションを評価するThe evaluation step evaluates the session based on whether or not the image contains diagonal lines of the predetermined color.
ことを特徴とする評価方法。An evaluation method characterized by that.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成手順と、An image generation procedure for generating an image indicating whether or not the spoken characters included in the session are identical to each other, and an image generation procedure.
前記画像生成手順により生成された画像に基づいて、前記取得手順により取得されたセッションを評価する評価手順とAn evaluation procedure for evaluating the session acquired by the acquisition procedure based on the image generated by the image generation procedure.
を有し、Have,
前記画像生成手順は、前記セッションに含まれる発話の文字列を画像の縦方向の各領域と横方向の各領域とに対応付けた場合に、縦方向と横方向とに同一の文字が対応付けられた領域に対して所定の色彩を付した画像を生成し、In the image generation procedure, when the utterance character string included in the session is associated with each vertical region and each horizontal region of the image, the same characters are associated with each other in the vertical direction and the horizontal direction. Generates an image with a predetermined color for the specified area,
前記評価手順は、前記画像に前記所定の色彩の斜線が含まれているか否かに基づいて、前記セッションを評価するThe evaluation procedure evaluates the session based on whether or not the image contains diagonal lines of the predetermined color.
ことをコンピュータに実行させるための評価プログラム。An evaluation program that lets a computer do things.
対話サービスにおける利用者の発話と当該発話に対する応答とを含むセッションを取得する取得工程と、The acquisition process of acquiring a session including the user's utterance and the response to the utterance in the dialogue service, and the acquisition process.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成工程と、An image generation step of generating an image indicating whether or not the utterance characters included in the session are the same as each other, and
前記画像生成工程により生成された画像に基づいて、前記取得工程により取得されたセッションを評価する評価工程とAn evaluation step of evaluating a session acquired by the acquisition step based on the image generated by the image generation step.
を有し、Have,
同一又は類似する文字列が繰り返し出現するセッションから生成された画像が有する特徴をモデルに学習させる学習工程A learning process that trains a model to learn the characteristics of an image generated from a session in which the same or similar character strings repeatedly appear.
を含むことを特徴とする評価方法。An evaluation method characterized by including.
前記セッションに含まれる発話の文字が相互に同一か否かを示す画像を生成する画像生成手順と、An image generation procedure for generating an image indicating whether or not the spoken characters included in the session are identical to each other, and an image generation procedure.
前記画像生成手順により生成された画像に基づいて、前記取得手順により取得されたセッションを評価する評価手順とAn evaluation procedure for evaluating the session acquired by the acquisition procedure based on the image generated by the image generation procedure.
を有し、Have,
同一又は類似する文字列が繰り返し出現するセッションから生成された画像が有する特徴をモデルに学習させる学習手順とA learning procedure that trains a model to learn the characteristics of an image generated from a session in which the same or similar character strings repeatedly appear.
をコンピュータに実行させるための評価プログラム。An evaluation program to make a computer run.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113600A JP7042701B2 (en) | 2018-06-14 | 2018-06-14 | Evaluation device, evaluation method and evaluation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018113600A JP7042701B2 (en) | 2018-06-14 | 2018-06-14 | Evaluation device, evaluation method and evaluation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215786A JP2019215786A (en) | 2019-12-19 |
JP7042701B2 true JP7042701B2 (en) | 2022-03-28 |
Family
ID=68918040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018113600A Active JP7042701B2 (en) | 2018-06-14 | 2018-06-14 | Evaluation device, evaluation method and evaluation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7042701B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276472A (en) | 1999-03-23 | 2000-10-06 | Adoin Kenkyusho:Kk | Method and device for similar information collation and recording medium for recording similar information collation program |
JP2010134233A (en) | 2008-12-05 | 2010-06-17 | Fujitsu Ltd | Interaction screening program, interaction screening device and interaction screening method |
US20130013604A1 (en) | 2011-07-04 | 2013-01-10 | Hitachi, Ltd. | Method and System for Making Document Module |
US20170148441A1 (en) | 2015-03-20 | 2017-05-25 | Kabushiki Kaisha Toshiba | Learning apparatus and method |
JP2017203808A (en) | 2016-05-09 | 2017-11-16 | 富士通株式会社 | Interaction processing program, interaction processing method, and information processing apparatus |
-
2018
- 2018-06-14 JP JP2018113600A patent/JP7042701B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276472A (en) | 1999-03-23 | 2000-10-06 | Adoin Kenkyusho:Kk | Method and device for similar information collation and recording medium for recording similar information collation program |
JP2010134233A (en) | 2008-12-05 | 2010-06-17 | Fujitsu Ltd | Interaction screening program, interaction screening device and interaction screening method |
US20130013604A1 (en) | 2011-07-04 | 2013-01-10 | Hitachi, Ltd. | Method and System for Making Document Module |
JP2013016036A (en) | 2011-07-04 | 2013-01-24 | Hitachi Ltd | Document component generation method and computer system |
US20170148441A1 (en) | 2015-03-20 | 2017-05-25 | Kabushiki Kaisha Toshiba | Learning apparatus and method |
JP2017203808A (en) | 2016-05-09 | 2017-11-16 | 富士通株式会社 | Interaction processing program, interaction processing method, and information processing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2019215786A (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6671020B2 (en) | Dialogue act estimation method, dialogue act estimation device and program | |
WO2019153737A1 (en) | Comment assessing method, device, equipment and storage medium | |
US20190139551A1 (en) | Methods and systems for transcription | |
US20200097820A1 (en) | Method and apparatus for classifying class, to which sentence belongs, using deep neural network | |
US20200007380A1 (en) | Context-aware option selection in virtual agent | |
CN114641779A (en) | Countermeasure training of machine learning models | |
US11610064B2 (en) | Clarification of natural language requests using neural networks | |
JP2019511036A (en) | System and method for linguistic feature generation across multiple layer word representations | |
US20190317986A1 (en) | Annotated text data expanding method, annotated text data expanding computer-readable storage medium, annotated text data expanding device, and text classification model training method | |
JP6370962B1 (en) | Generating device, generating method, and generating program | |
JP6224857B1 (en) | Classification device, classification method, and classification program | |
US12079573B2 (en) | Tool for categorizing and extracting data from audio conversations | |
US11809804B2 (en) | Text formatter | |
JP7013329B2 (en) | Learning equipment, learning methods and learning programs | |
JP6983729B2 (en) | Extractor, evaluation device, extraction method and extraction program | |
Mirhassani et al. | Age Estimation Based on Children’s Voice: A Fuzzy‐Based Decision Fusion Strategy | |
Lu et al. | A disassembly sequence planning approach with an advanced immune algorithm | |
JP7044642B2 (en) | Evaluation device, evaluation method and evaluation program | |
JP7057229B2 (en) | Evaluation device, evaluation method and evaluation program | |
JP7013331B2 (en) | Extractor, extraction method and extraction program | |
JP6082657B2 (en) | Pose assignment model selection device, pose assignment device, method and program thereof | |
JP7160571B2 (en) | Evaluation device, evaluation method and evaluation program | |
JP7042701B2 (en) | Evaluation device, evaluation method and evaluation program | |
JP5925140B2 (en) | Infant vocabulary comprehension difficulty assessment device, infant vocabulary search device, infant vocabulary classification device, methods and programs thereof | |
JP7013332B2 (en) | Learning equipment, learning methods and learning programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180919 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7042701 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |