JP6858721B2 - Dialogue controls, programs and methods capable of conducting content dialogue - Google Patents

Dialogue controls, programs and methods capable of conducting content dialogue Download PDF

Info

Publication number
JP6858721B2
JP6858721B2 JP2018018933A JP2018018933A JP6858721B2 JP 6858721 B2 JP6858721 B2 JP 6858721B2 JP 2018018933 A JP2018018933 A JP 2018018933A JP 2018018933 A JP2018018933 A JP 2018018933A JP 6858721 B2 JP6858721 B2 JP 6858721B2
Authority
JP
Japan
Prior art keywords
utterance
content
user
text
related text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018018933A
Other languages
Japanese (ja)
Other versions
JP2019139282A (en
Inventor
俊一 田原
俊一 田原
啓一郎 帆足
啓一郎 帆足
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018018933A priority Critical patent/JP6858721B2/en
Publication of JP2019139282A publication Critical patent/JP2019139282A/en
Application granted granted Critical
Publication of JP6858721B2 publication Critical patent/JP6858721B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ユーザ等との間で対話を行う対話システムの技術に関する。 The present invention relates to a technology of a dialogue system for having a dialogue with a user or the like.

近年、ユーザと対話を行い、当該ユーザに種々のサービスを提供可能な対話システムの開発が盛んに進められている。例えば、現在普及しているスマートフォンには、ユーザの発話による問合せに音声で回答し、検索結果等の情報を提供する対話応答機能が常備されているものも少なくない。また例えば、現在話題となっているコミュニケーションロボットは、そのようなタスク型の対話以外にも、ユーザとの間で雑談等の対話を行い、レクリエーションや介護等における様々なニーズに合わせたサービスを提供可能となっている。 In recent years, the development of a dialogue system capable of interacting with a user and providing various services to the user has been actively promoted. For example, many smartphones that are currently in widespread use are always equipped with a dialogue response function that responds to inquiries spoken by the user by voice and provides information such as search results. In addition to such task-type dialogues, communication robots, which are currently a hot topic, engage in dialogues such as chats with users and provide services that meet various needs in recreation and nursing care. It is possible.

このような対話システムの開発現場では現在、対話の結果としてユーザの得られる満足度を如何に向上させるかが1つの課題となっている。このような課題に対し、例えば特許文献1には、ユーザの発話に対して自己開示、共感、非共感を要素とする応答のタイプを決定し、データベースの中から応答のタイプに応じて単語を選択し、装置側の応答を生成する対話装置が開示されている。 At present, in the development site of such a dialogue system, how to improve the satisfaction obtained by the user as a result of the dialogue is one of the issues. In response to such a problem, for example, in Patent Document 1, the type of response having self-disclosure, empathy, and non-empathy as elements is determined for the user's utterance, and words are input from the database according to the response type. An interactive device that is selected and generates a response on the device side is disclosed.

具体的には、ユーザの発話を解析して対話行為タイプを決定し、ドメイン知識データベースを参照して応答可能な対話行為タイプ列を取得し、設定パラメータから自己開示および共感の対話行為を行う生起確率を算出している。その後、取得した対話行為タイプ列と生起確率とのそれぞれで表現される自己開示及び共感の特徴量を比較して、両特徴量が合致する対話行為タイプ列を選択し、付随情報を付加して対話行為列を生成し、生成した対話行為列を自然な文章に変換して、音声またはテキストによりユーザに提示するのである。 Specifically, the user's utterance is analyzed to determine the dialogue action type, the domain knowledge database is referred to to obtain a responsive dialogue action type sequence, and self-disclosure and empathy dialogue actions are performed from the setting parameters. The probability is calculated. After that, the acquired dialogue action type sequence and the feature amount of self-disclosure and empathy expressed by the occurrence probability are compared, the dialogue action type sequence in which both feature amounts match is selected, and the accompanying information is added. A dialogue action sequence is generated, and the generated dialogue action sequence is converted into a natural sentence and presented to the user by voice or text.

また、例えば非特許文献2には、ユーザの発話を特徴量に変換したものと、ユーザの発話に対するシステムの相槌とを分類機に学習させ、ユーザの発話に適した相槌を予測する対話システムが開示されている。 Further, for example, Non-Patent Document 2 includes a dialogue system in which a classifier learns a user's utterance converted into a feature amount and a system's aizuchi for the user's utterance, and predicts an aizuchi suitable for the user's utterance. It is disclosed.

さらに、例えば非特許文献3には、ユーザの発話内容に対し、同意を示す応答、又はユーザの発話の一部分を繰り返す応答、又は先行発話の詳細を問う応答を行うことが可能な対話システムが開示されている。 Further, for example, Non-Patent Document 3 discloses a dialogue system capable of giving a response indicating consent to the content of a user's utterance, a response of repeating a part of the user's utterance, or a response asking the details of the preceding utterance. Has been done.

特開2010−140282号公報Japanese Unexamined Patent Publication No. 2010-14582

山口貴史,井上昂治,吉野幸一郎,高梨克也,Nigel G. Ward,河原 達也,「傾聴対話システムのための言語情報と韻律情報に基づく多様な形態の相槌の生成」,人工知能学会論文誌,2016年,31巻,4号,ページ:C−G31 10Takashi Yamaguchi, Koji Inoue, Koichiro Yoshino, Katsuya Takanashi, Nigel G. Ward, Tatsuya Kawahara, "Generation of various forms of aizuchi based on linguistic and prosodic information for listening dialogue systems", Journal of the Japanese Society for Artificial Intelligence, 2016, Vol. 31, No. 4, Page: C-G31 10 石田真也,井上昂治,中村静,高梨克也,河原達也,「傾聴対話システムのための多様な聞き手応答の生成」,情報処理学会全国大会講演論文集,2016年,78巻,2号,2513〜2514頁Shinya Ishida, Koji Inoue, Shizuka Nakamura, Katsuya Takanashi, Tatsuya Kawahara, "Generation of Diverse Listener Responses for Listening Dialogue Systems", IPSJ National Convention Proceedings, 2016, Vol. 78, No. 2, 2513 ~ 2514 pages

しかしながら、上述したような従来技術をもってしても、ユーザの満足度が上がらず対話の活性化が促進しないといった問題を、十分に解消したとはいえないのが現状である。 However, even with the above-mentioned conventional technology, it cannot be said that the problem that the user's satisfaction is not increased and the activation of the dialogue is not promoted is sufficiently solved.

例えば特許文献1に開示された技術は、装置側の応答を生成する際、ドメイン知識データベースの中から単語を選択する手法を採用している。しかしながらこのような手法では、データベースに登録されている単語しか選択することができない。その結果、応答におけるバリエーションの数が限定されてしまう。 For example, the technique disclosed in Patent Document 1 employs a method of selecting a word from a domain knowledge database when generating a response on the device side. However, with such a method, only words registered in the database can be selected. As a result, the number of variations in the response is limited.

このような応答バリエーションの数が限定されてしまう問題は、非特許文献2に開示された技術でも同様に存在する。この技術では、ユーザの発話に適した相槌が予測され、システム側の応答に利用されている。しかしながら、学習機に学習させ得る相槌は、所定数分だけでありその数に限りがある。その結果、応答のバリエーションが乏しいことになってしまう。 The problem that the number of such response variations is limited also exists in the technique disclosed in Non-Patent Document 2. In this technology, an aizuchi suitable for the user's utterance is predicted and used for the response on the system side. However, the number of aizuchi that can be trained by the learning machine is limited to a predetermined number of minutes. As a result, the variation of the response is scarce.

いずれにしても、応答バリエーションの数が限定されることによって、バラエティ豊かな応答が実施できなくなり、そのような対話の結果として多くの場合、ユーザは共感を得ることができない。その結果、ユーザの満足度が低下し対話の活性化が妨げられる可能性が生じてしまう。 In any case, the limited number of response variations makes it impossible to implement a wide variety of responses, and in many cases the user is unable to empathize as a result of such dialogue. As a result, user satisfaction may decrease and the activation of dialogue may be hindered.

さらに、非特許文献3に開示された技術は、非特許文献2の技術も同様であるが、ユーザ側の肯定的又は否定的な発話に対し、システム側がそれに合わせて肯定的又は否定的に応答することができない。そのような対話の結果としても多くの場合、ユーザは共感を得ることができず、結果的に、ユーザの満足度が低下し対話の活性化が妨げられる可能性が生じてしまうのである。 Further, the technique disclosed in Non-Patent Document 3 is the same as that of Non-Patent Document 2, but the system side responds positively or negatively to the positive or negative utterance on the user side. Can not do it. In many cases, as a result of such a dialogue, the user cannot obtain empathy, and as a result, the satisfaction of the user may decrease and the activation of the dialogue may be hindered.

そこで、本発明は、対話におけるユーザの共感度がより向上する応答を実施することが可能な対話制御装置、対話制御プログラム、及び対話制御方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a dialogue control device, a dialogue control program, and a dialogue control method capable of carrying out a response in which the user's empathy in dialogue is further improved.

本発明によれば、コンテンツに関する対話を実施可能な対話制御装置であって、
当該コンテンツに関するテキストである関連テキストを取得する関連テキスト取得手段と、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、このユーザ側の発話における極性を決定する極性判定手段と、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取ったこの極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成する発話生成手段と、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させる発話制御手段と
を有する対話制御装置が提供される。
According to the present invention, it is a dialogue control device capable of carrying out dialogue regarding contents.
Related text acquisition means to acquire related text that is the text related to the content, and
A polarity determining means for determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
An utterance generation means that receives the polarity determined in the user's utterance regarding the content and generates a content-related text utterance that is the utterance related to the related text from the related text having the polarity determined based on the received polarity. ,
As a response to the user's utterance regarding the content, a dialogue control device including an utterance control means for outputting the content-related text utterance is provided.

また、本発明による対話制御装置の一実施形態において、発話生成手段は、当該コンテンツに関するユーザ側の発話において決定された極性と同じ極性を有する関連テキストから、当該コンテンツ関連テキスト発話を生成することも好ましい。 Further, in one embodiment of the dialogue control device according to the present invention, the utterance generation means may generate the content-related text utterance from the related text having the same polarity as the polarity determined in the user's utterance regarding the content. preferable.

さらに、本発明による対話制御装置の他の実施形態として、本装置は、当該コンテンツに関するユーザ側の発話と、取得された関連テキストとに含まれる所定の品詞の単語を抽出し、当該ユーザ側の発話と当該関連テキストとの間における当該単語の一致する度合いであるスコアを決定するスコア決定手段を更に有し、
発話生成手段は、当該コンテンツに関するユーザ側の発話との間で最も高い又は所定以上の当該スコアを示す関連テキストから、当該コンテンツ関連テキスト発話を生成することも好ましい。
Further, as another embodiment of the dialogue control device according to the present invention, the present device extracts words of a predetermined part of speech included in the utterance of the user side regarding the content and the acquired related text, and the device of the user side. It also has a scoring means for determining the score, which is the degree of matching of the word between the utterance and the relevant text.
It is also preferable that the utterance generation means generates the content-related text utterance from the related text indicating the highest or higher score than the user's utterance regarding the content.

また、本発明による対話制御装置の更なる他の実施形態として、本装置は、当該コンテンツに関するユーザ側の発話と、取得された関連テキストとにおいて、敬語表現が含まれているか否かを判定する敬語表現判定手段を更に有し、
発話生成手段は、当該コンテンツに関するユーザ側の発話における当該判定結果と同じ判定結果を有する関連テキストから、当該コンテンツ関連テキスト発話を生成することも好ましい。
Further, as a further embodiment of the dialogue control device according to the present invention, the device determines whether or not the honorific expression is included in the utterance on the user side regarding the content and the acquired related text. It also has a means of judging honorific expressions,
It is also preferable that the utterance generation means generates the content-related text utterance from the related text having the same determination result as the determination result in the user's utterance regarding the content.

さらに、本発明による対話制御装置において、発話生成手段は、当該コンテンツのデータにおけるタイトル又はサマリから、当該コンテンツを提示する発話であるコンテンツ提示発話を生成し、
発話制御手段は、当該コンテンツ提示発話を出力させ、当該出力の後に行われた、当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させることも好ましい。
Further, in the dialogue control device according to the present invention, the utterance generation means generates a content presentation utterance which is a utterance that presents the content from the title or summary in the data of the content.
It is also preferable that the utterance control means outputs the content presentation utterance and outputs the content-related text utterance as a response to the user's utterance regarding the content, which is performed after the output.

また、本発明による対話制御装置の更なる他の実施形態として、本装置は、所定のSNS(Social Networking Service)におけるユーザのプロフィール情報又は投稿に係る情報から、当該ユーザの趣味嗜好に係る情報を取得する又は決定するユーザ情報取得手段と、当該ユーザの趣味嗜好に係る情報に関連する又は対応付けられたコンテンツを取得するコンテンツ取得手段とを更に有し、
発話生成手段は、取得された当該コンテンツに係るコンテンツ提示発話を生成することも好ましい。
Further, as a further embodiment of the dialogue control device according to the present invention, the present device obtains information related to the user's hobbies and tastes from the user's profile information or information related to posting in a predetermined SNS (Social Networking Service). It further has a user information acquisition means for acquiring or determining, and a content acquisition means for acquiring content related to or associated with information related to the user's hobbies and tastes.
It is also preferable that the utterance generation means generates a content presentation utterance related to the acquired content.

さらに、本発明による対話制御装置の更なる他の実施形態として、本装置は、取得された関連テキストから、文字数に係る条件、及び/又は所定の文字若しくは記号を含むか否かに係る条件を満たす関連テキストを選別する関連テキスト選別手段を更に有し、
発話生成手段は、選別された関連テキストから、当該コンテンツ関連テキスト発話を生成することも好ましい。
Furthermore, as yet another embodiment of the dialogue control device according to the present invention, the device provides conditions relating to the number of characters and / or conditions relating to whether or not a predetermined character or symbol is included from the acquired related text. Further has a related text selection means for selecting related texts to be satisfied,
It is also preferable that the utterance generation means generates the content-related text utterance from the selected related texts.

また、本発明による対話制御装置の更なる他の実施形態として、本装置は、当該関連テキストが所定以上に連続した文字又は文字列を含む場合、当該関連テキストに対し当該文字又は文字列の連続する度合いを小さくする変更を行う関連テキスト変更手段を更に有することも好ましい。 Further, as a further embodiment of the dialogue control device according to the present invention, when the related text contains characters or character strings that are continuous more than a predetermined value, the device is such that the characters or character strings are continuous with respect to the related text. It is also preferable to have a related text changing means for making changes to a smaller degree.

さらに、本発明による対話制御装置の更なる他の実施形態として、本装置は、取得された関連テキストに含まれる一人称の単語を判別し、複数種の一人称の単語を含む関連テキストを、1種の一人称の単語を含むものへ変更する関連テキスト変更手段を更に有することも好ましい。 Further, as a further embodiment of the dialogue control device according to the present invention, the device discriminates the first-person words included in the acquired related texts, and obtains one type of related texts including a plurality of types of first-person words. It is also preferable to have a related text changing means for changing to one containing the first person word of.

また、本発明による対話制御装置において、関連テキスト取得手段は、当該関連テキストとして、当該コンテンツに係る投稿を、当該コンテンツに係る投稿を含む投稿サイト又は投稿データベースから取得することも好ましい。 Further, in the dialogue control device according to the present invention, it is also preferable that the related text acquisition means acquires the post related to the content as the related text from the posting site or the posting database including the posting related to the content.

本発明によれば、また、コンテンツに関する対話を実施可能な装置に搭載されたコンピュータを機能させるプログラムであって、
当該コンテンツに関するテキストである関連テキストを取得する関連テキスト取得手段と、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、このユーザ側の発話における極性を決定する極性判定手段と、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取ったこの極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成する発話生成手段と、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させる発話制御手段と
してコンピュータを機能させる対話制御プログラムが提供される。
According to the present invention, it is also a program for operating a computer mounted on a device capable of performing dialogue on contents.
Related text acquisition means to acquire related text that is the text related to the content, and
A polarity determining means for determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
An utterance generation means that receives the polarity determined in the user's utterance regarding the content and generates a content-related text utterance that is the utterance related to the related text from the related text having the polarity determined based on the received polarity. ,
As a response to the user's utterance regarding the content, a dialogue control program for operating the computer as an utterance control means for outputting the content-related text utterance is provided.

本発明によれば、さらに、コンテンツに関する対話を実施可能な装置に搭載されたコンピュータにおいて実施される対話制御方法であって、
当該コンテンツに関するテキストである関連テキストを取得するステップと、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、このユーザ側の発話における極性を決定するステップと、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取ったこの極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成するステップと、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させるステップと
を有する対話制御方法が提供される。
According to the present invention, further, it is a dialogue control method implemented in a computer mounted on a device capable of performing dialogue regarding contents.
Steps to get the related text, which is the text about the content,
The steps of determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
A step of receiving a polarity determined in the user's utterance regarding the content and generating a content-related text utterance which is an utterance related to the related text from the related text having the polarity determined based on the received polarity.
As a response to the user's utterance regarding the content, a dialogue control method including a step of outputting the content-related text utterance is provided.

本発明の対話制御装置、対話制御プログラム、及び対話制御方法によれば、対話におけるユーザの共感度がより向上する応答を実施することが可能となる。 According to the dialogue control device, the dialogue control program, and the dialogue control method of the present invention, it is possible to carry out a response in which the user's empathy in the dialogue is further improved.

本発明による対話制御装置の一実施形態における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure in one Embodiment of the dialogue control apparatus by this invention. 極性判定部による極性判定結果の取り扱いについての一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment about the handling of the polarity determination result by the polarity determination part. 敬語表現判定部による敬語表現判定結果の取り扱いについての一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment about the handling of the honorific expression determination result by the honorific expression determination unit. スコア決定部によるスコア決定処理の一実施形態を説明するための機能ブロック図である。It is a functional block diagram for demonstrating one Embodiment of the score determination process by a score determination part. ユーザインタフェースがタッチパネル・ディスプレイである場合の発話入出力例を示す模式図である。It is a schematic diagram which shows the example of the utterance input / output when the user interface is a touch panel display. 本発明による対話制御方法の一実施形態を概略的に示すフローチャートである。It is a flowchart which shows one Embodiment of the dialogue control method by this invention.

以下では、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[対話制御装置]
図1は、本発明による対話制御装置の一実施形態における機能構成を示す機能ブロック図である。
[Dialogue control device]
FIG. 1 is a functional block diagram showing a functional configuration according to an embodiment of the dialogue control device according to the present invention.

図1によれば、本発明の一実施形態としての対話制御装置1は、ユーザとの間で、スピーカ・マイクやタッチパネル・ディスプレイといったユーザインタフェース(UI)102を介して対話を実施可能な装置であり、特に、対話におけるユーザの共感度がより向上するような装置側の応答を出力可能となっている。 According to FIG. 1, the dialogue control device 1 as an embodiment of the present invention is a device capable of performing dialogue with a user via a user interface (UI) 102 such as a speaker / microphone or a touch panel display. In particular, it is possible to output a response on the device side that further improves the user's sympathy in dialogue.

また、本実施形態において実施される対話は、何らかのコンテンツに関する対話となる。ここでコンテンツとしては、ニュース記事や、解説記事、評論、さらにはエッセイといった何らかの事柄について述べられた内容のテキストを含むデータであって、例えば、通信ネットワークを介して取得されるウェブサイトやデータベース等のデータを採用することができる。 Moreover, the dialogue carried out in this embodiment is a dialogue concerning some kind of content. Here, the content is data including news articles, commentary articles, critiques, and texts containing some matters such as essays, such as websites and databases acquired via a communication network. Data can be adopted.

同じく図1に示すように、対話制御装置1は、本実施形態において通信インタフェース101を備えており、通信ネットワーク上に設置された、
(a)デジタルコンテンツ配信事業者の運営する種々のコンテンツ(例えばニュース記事データ)を配信・提供可能なコンテンツサーバ2や、
(b)SNS(Social Networking Service)投稿データを配信・提供可能なSNSサーバ3
と通信接続して、コンテンツやSNS投稿データを取得することができる。
Similarly, as shown in FIG. 1, the dialogue control device 1 includes the communication interface 101 in the present embodiment and is installed on the communication network.
(A) A content server 2 capable of distributing and providing various contents (for example, news article data) operated by a digital content distribution company, and
(B) SNS server 3 capable of distributing and providing SNS (Social Networking Service) posted data
You can get content and SNS post data by communicating with.

ちなみに、この後詳細に説明するが、対話制御装置1は、対話に係るコンテンツに関するテキストである「関連テキスト」を取得し、ユーザの共感度をより向上させる応答を生成する際、この「関連テキスト」を活用することを特徴としている。 Incidentally, as will be described in detail later, when the dialogue control device 1 acquires the "related text" which is the text related to the content related to the dialogue and generates a response for further improving the user's empathy, the "related text" is generated. It is characterized by utilizing.

ここで、この「関連テキスト」として、上記(b)のSNSサーバ3から取得されるSNS投稿を採用することができる。勿論他にも、種々の投稿サイトサーバ、ブログ(Web-log)サーバ、掲示板サーバや、レビューサイトサーバ、さらにはtwitter(登録商標)サイトサーバ等から取得される、投稿、ブログ、掲示板コメント・スレッドや、レビュー、さらにはツイート等を採用することも可能である。 Here, as the "related text", the SNS post acquired from the SNS server 3 in (b) above can be adopted. Of course, other posts, blogs, bulletin board comments and threads obtained from various posting site servers, blog (Web-log) servers, bulletin board servers, review site servers, and even twitter (registered trademark) site servers. , Reviews, and even tweets can be adopted.

また、投稿やコメント等を、配信・提供サーバから取得する以外にも、予め設置・準備された投稿・コメントデータベース(DB)から取得して「関連テキスト」とすることも可能である。さらに言えば、コンテンツと対応する「関連テキスト」とが対応付けて管理され、配信・公開されるサイトサーバ、例えばYouTube(登録商標)サイトサーバから、コンテンツ及び「関連テキスト」を取得することも好ましい。 In addition to acquiring posts and comments from the distribution / providing server, it is also possible to acquire posts / comments from a pre-installed / prepared post / comment database (DB) and use them as “related texts”. Furthermore, it is also preferable to acquire the content and the "related text" from a site server in which the content and the corresponding "related text" are managed in association with each other and distributed / published, for example, a YouTube (registered trademark) site server. ..

具体的に、対話制御装置1は、
(A)対話に係るコンテンツに関するテキストである「関連テキスト」を取得し、
(B)取得された「関連テキスト」から、当該「関連テキスト」に係る発話である「コンテンツ関連テキスト発話」を生成し、
(C)当該コンテンツに関するユーザ側の発話に対する応答として、生成した「コンテンツ関連テキスト発話」を出力する
ことに特徴を有している。
Specifically, the dialogue control device 1
(A) Acquire "related text", which is the text related to the content related to the dialogue.
(B) From the acquired "related text", a "content-related text utterance", which is an utterance related to the "related text", is generated.
(C) It is characterized in that the generated "content-related text utterance" is output as a response to the user's utterance regarding the content.

ここで(B)の「関連テキスト」は、上述したように、コンテンツに係る投稿を含む投稿サイト(例えばSNSサーバ3が提供するSNS投稿サイト)から取得可能である。例えば、「**選手が金メダルを獲得!」とのタイトルを含むニュース記事(コンテンツ)を見たユーザによる、その感想を述べた「**選手はメダルを獲ると思ってたよ」とのSNS投稿は、このニュース記事の「関連テキスト」となる。 Here, the "related text" of (B) can be obtained from a posting site (for example, an SNS posting site provided by the SNS server 3) including posts related to the content, as described above. For example, a user who saw a news article (content) containing the title "** Players won a gold medal!" Said their impressions and posted an SNS saying "** I thought players would win medals." Is the "related text" for this news article.

また、変更態様として、コンテンツに対してユーザが行った音声によるコメントをテキストデータに変換したものを、「関連テキスト」として採用することも可能である。例えば、テレビやラジオ等におけるニュース番組においてコメンテータが音声によるコメントを行った際、このコメントの音声データをテキストに落として「関連テキスト」としてもよい。 Further, as a modification mode, it is also possible to adopt a “related text” in which a voice comment made by the user on the content is converted into text data. For example, when a commentator makes a voice comment in a news program on television, radio, or the like, the voice data of this comment may be dropped into a text and used as a "related text".

さらには、ニュース記事のタイトル名となるようなキーワードを、twitter(登録商標)サイトサーバ等のAPI(Application Programing Interface)に入力し、ニュースサイトのニュース記事を取得するとともに、そのニュースに対するコメントに相当するツイートを「関連テキスト」として取得することも可能となる。 Furthermore, enter a keyword that will be the title name of a news article into the API (Application Programming Interface) of a twitter (registered trademark) site server, etc. to acquire the news article of the news site and correspond to a comment on the news. It is also possible to acquire the tweet to be done as "related text".

いずれにしても、このような「関連テキスト」は、対話における話題(又はその一部)となるコンテンツの内容に対し、種々の人間がそれぞれ感じること、想うことや、考えること、さらには思うことについて表明した内容を含んでいる。対話制御装置1は、そのような表明内容を有する「関連テキスト」から、対話先であるユーザの発話に対する応答用の「コンテンツ関連テキスト発話」を生成することによって、コンテンツの内容に対するユーザの感想や考えに応じた又は沿った応答、言い換えればユーザの共感度がより向上する応答を実施することを可能とするのである。 In any case, such "related texts" are what various people feel, think, think, and even think about the content that is the topic (or part of it) in the dialogue. Includes what was stated about. The dialogue control device 1 generates a "content-related text utterance" for responding to the utterance of the user who is the conversation destination from the "related text" having such an assertion content, thereby causing the user's impression of the content and the content. It makes it possible to carry out a response that is in line with or in line with the idea, in other words, a response that further improves the user's empathy.

また、特定のコンテンツの内容に関する対話において、ユーザ側の発話に対し、装置側がユーザに共感を持たせ得る応答を行うことは、ユーザの満足度を向上させ、本装置を用いたコミュニケーションを活性化させることにもつながるのである。 In addition, in a dialogue regarding the content of a specific content, the device side responding to the utterance on the user side so that the user can sympathize with the user, which improves the user's satisfaction and activates the communication using the device. It also leads to letting them do it.

さらに、「関連テキスト」として例えばSNS投稿等を採用した場合、対話の話題(又はその一部)となるようなコンテンツの内容に対し、通常は多数の、しかも(肯定的か否定的かを示す)極性に関して様々な内容の投稿が、適宜取得可能となっている。したがって、そのような投稿の中から極性等を勘案し、より好適な投稿を選択して応答生成に用いることにより、より高い共感度を実現することも可能となるのである。 Furthermore, when, for example, an SNS post is adopted as the "related text", it indicates whether the content is usually a large number and (positive or negative) with respect to the content that becomes the topic (or a part thereof) of the dialogue. ) Posts with various contents regarding polarity can be obtained as appropriate. Therefore, it is possible to realize higher empathy by selecting a more suitable post from such posts in consideration of polarity and the like and using it for response generation.

[装置機能構成]
同じく図1の機能ブロック図によれば、対話制御装置1は、通信インタフェース101と、ユーザインタフェース(UI)102と、コンテンツデータベース(DB)103と、SNS投稿DB104と、対話シナリオDB105と、プロセッサ・メモリとを有する。
[Device function configuration]
Similarly, according to the functional block diagram of FIG. 1, the dialogue control device 1 includes a communication interface 101, a user interface (UI) 102, a content database (DB) 103, an SNS posting DB 104, a dialogue scenario DB 105, and a processor. Has memory.

ここで、このプロセッサ・メモリは、本発明による対話制御プログラムの一実施形態を保存しており、また、コンピュータ機能を有していて、この対話制御プログラムを実行することによって、対話制御処理を実施する。したがって、対話制御装置1は、本発明による対話制御プログラムを搭載した、例えばスマートフォン、タブレット型若しくはノート型コンピュータ、ウェアラブル端末又はパーソナル・コンピュータ(PC)等とすることができる。ちなみに、この対話制御プログラムは、例えば装置1がスマートフォン等の端末である場合に、所定のアプリ配信サーバから配信された対話アプリであってもよい。 Here, the processor memory stores one embodiment of the dialogue control program according to the present invention, has a computer function, and executes the dialogue control process by executing the dialogue control program. To do. Therefore, the dialogue control device 1 can be, for example, a smartphone, a tablet-type or notebook-type computer, a wearable terminal, a personal computer (PC), or the like, which is equipped with the dialogue control program according to the present invention. Incidentally, this dialogue control program may be a dialogue application distributed from a predetermined application distribution server when, for example, the device 1 is a terminal such as a smartphone.

さらに、このプロセッサ・メモリは、機能構成部として、ユーザ情報取得部111と、コンテンツ取得部112と、関連テキスト取得手段としての投稿取得部113と、関連テキスト選別手段としての投稿選別部114と、関連テキスト変更手段としての投稿変更部115と、極性判定部116と、敬語表現判定部117と、スコア決定部118と、コンテンツ提示発話生成部121a及び(関連テキストに関連する発話生成手段としての)投稿発話生成部121bを含む発話生成部121と、発話制御部122と、入出力制御部123と、通信制御部131とを有する。 Further, the processor memory includes a user information acquisition unit 111, a content acquisition unit 112, a post acquisition unit 113 as a related text acquisition means, a post selection unit 114 as a related text selection means, and the like as a functional configuration unit. Post change unit 115 as related text changing means, polarity determination unit 116, honorable word expression determination unit 117, score determination unit 118, content presentation utterance generation unit 121a, and (as utterance generation means related to related text). It has an utterance generation unit 121 including a post utterance generation unit 121b, an utterance control unit 122, an input / output control unit 123, and a communication control unit 131.

なお、これらの機能構成部は、プロセッサ・メモリに保存された対話制御プログラムの機能と捉えることができ、また、図1における対話制御装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による対話制御方法の一実施形態としても理解される。 It should be noted that these functional components can be regarded as the functions of the dialogue control program stored in the processor memory, and the processes shown by connecting the functional components of the dialogue control device 1 in FIG. 1 with arrows. Is also understood as an embodiment of the dialogue control method according to the present invention.

同じく図1において、ユーザ情報取得部111は、対話先であるユーザについての、所定のSNSに登録されたプロフィール情報から、又は当該ユーザによるSNS投稿に係る情報から、当該ユーザの趣味嗜好に係る情報を取得若しくは決定する。この趣味嗜好に係る情報は、この後説明するコンテンツ取得部112において、対話の話題となるコンテンツを取得する際に使用される。 Similarly, in FIG. 1, the user information acquisition unit 111 describes information related to the user's hobbies and tastes from the profile information registered in a predetermined SNS or from the information related to the SNS posting by the user. To acquire or decide. The information related to the hobbies and tastes is used in the content acquisition unit 112, which will be described later, when acquiring the content that is the topic of dialogue.

具体的に、ユーザ情報取得部111は例えば、所定のSNSに係るサーバ(例えばSNSサーバ3)から、ユーザによって登録された当該ユーザのプロフィール情報のテキストデータと、ユーザによって投稿された投稿のテキストデータとを、例えば当該サーバが提供する所定のAPIを用いて又はブラウザによって取得する。 Specifically, the user information acquisition unit 111, for example, from a server related to a predetermined SNS (for example, SNS server 3), the text data of the profile information of the user registered by the user and the text data of the post posted by the user. And, for example, using a predetermined API provided by the server or by a browser.

次いで、ユーザ情報取得部111は、これらのテキストデータを合わせて1つの文書データとした上で、例えばTF−IDF(Term Frequency - Inverse Document Frequency)手法を用いてこの文書から特徴度を抽出し、tf-idfスコアが上位の単語の中から、例えば趣味嗜好に係る単語の辞書を用いて、ユーザの趣味嗜好に係る情報となるものを選択してもよい。 Next, the user information acquisition unit 111 combines these text data into one document data, and then extracts the feature degree from this document by using, for example, a TF-IDF (Term Frequency --Inverse Document Frequency) method. From the words having a high tf-idf score, for example, a dictionary of words related to hobbies and tastes may be used to select information related to the user's hobbies and tastes.

コンテンツ取得部112は、コンテンツサーバ2から、通信インタフェース101及び通信制御部131を介し、対話の話題となるコンテンツを取得する。または、外部から予め取得されたコンテンツを保存・管理しているコンテンツDB103から、コンテンツを取得してもよい。ここで、コンテンツ取得部112は例えば、話題に関連する所定のキーワードを検索キーとし、コンテンツサーバ2の提供する検索用APIを用いて、話題として好適なコンテンツを取得してもよい。 The content acquisition unit 112 acquires content that is a topic of dialogue from the content server 2 via the communication interface 101 and the communication control unit 131. Alternatively, the content may be acquired from the content DB 103 that stores and manages the content acquired in advance from the outside. Here, for example, the content acquisition unit 112 may acquire content suitable as a topic by using a predetermined keyword related to the topic as a search key and using the search API provided by the content server 2.

また1つの好適な実施態様として、コンテンツ取得部112は、ユーザ情報取得部111で取得されたユーザの趣味嗜好に係る情報に関連する又は対応付けられたコンテンツを取得することも好ましい。具体的には、コンテンツがタイトル、サマリや、本文等で構成されたテキストデータを含む場合、取得されたユーザの趣味嗜好に係る情報を表す単語を検索キーとして、所定のテキストデータ部分に当該単語を(例えば所定頻度以上)含むコンテンツを選択して取得してもよい。例えば、コンテンツがニュース記事や公開映画情報であって、ユーザの趣味嗜好が「自動車」の場合に、「自動車」や関連単語である「乗用車」等を検索キーとして検索を行い、当該記事や当該情報のタイトルにこれらの検索キーが含まれるものを1つ取得することができる。 Further, as one preferred embodiment, it is also preferable that the content acquisition unit 112 acquires the content related to or associated with the information related to the user's hobbies and tastes acquired by the user information acquisition unit 111. Specifically, when the content includes text data composed of a title, a summary, a text, etc., the word representing the acquired information related to the user's hobbies and tastes is used as a search key, and the word is added to a predetermined text data portion. (For example, a predetermined frequency or more) may be selected and acquired. For example, when the content is a news article or public movie information and the user's hobby / preference is "automobile", a search is performed using "automobile" or a related word "passenger car" as a search key, and the article or the relevant word is concerned. You can get one piece of information that includes these search keys in the title.

以上説明したように選択されたコンテンツに基づき、コンテンツ提示発話を出力することによって、ユーザが対話に積極的に参加し、自らの感情を表明する発話を行う可能性が高まるので、その後の応答によって対話における共感度を高め得る状況をつくることが可能となるのである。 By outputting the content presentation utterance based on the selected content as described above, it is more likely that the user actively participates in the dialogue and makes an utterance expressing his / her feelings. It is possible to create a situation that can increase empathy in dialogue.

さらに変更態様として、例えばコンテンツDB103に保存されているコンテンツ毎に、その内容を特徴づけるキーワードが予め付与されている場合に、コンテンツ取得部112は、ユーザの趣味嗜好に係る情報と一致する又は関連しているキーワードの付与されたコンテンツを、コンテンツDB103から取得することもできる。 Further, as a modification mode, for example, when a keyword characterizing the content is given in advance for each content stored in the content DB 103, the content acquisition unit 112 matches or is related to the information related to the user's hobbies and tastes. It is also possible to acquire the content to which the keyword is added from the content DB 103.

同じく図1において、発話生成部121のコンテンツ提示発話生成部121aは、コンテンツ取得部112で取得されたコンテンツから、当該コンテンツ(の内容)を提示する発話である「コンテンツ提示発話」を生成する。具体的には、例えば簡便な方法ではあるが、
(a)コンテンツのテキストデータにおけるタイトル若しくはサマリ、又はそこから(例えば時事用語を登録した辞書を用いて)抽出した単語(群)と、
(b)所定の発話テンプレートと
を用いてコンテンツ提示発話を生成してもよい。例えば、コンテンツがニュース記事であってそのタイトルが「**高速道路で車が炎上!」である場合、コンテンツ提示発話として「**高速道路で車が炎上!というニュースがあるよ」といった発話を生成することができる。また、「**高速道路について報道されているよ」といった発話も生成可能である。
Similarly, in FIG. 1, the content presentation utterance generation unit 121a of the utterance generation unit 121 generates a “content presentation utterance” which is an utterance that presents the content (content) from the content acquired by the content acquisition unit 112. Specifically, for example, although it is a simple method,
(A) A title or summary in the text data of the content, or a word (group) extracted from it (for example, using a dictionary in which current terms are registered).
(B) Content presentation utterances may be generated using a predetermined utterance template. For example, if the content is a news article and the title is "** Car is burning on the highway!", The content presentation utterance is "** There is news that the car is burning on the highway!" Can be generated. It is also possible to generate utterances such as "** The highway is being reported."

次いで、生成されたコンテンツ提示発話は、後に詳細に説明する発話制御部122、入出力制御部123及びUI102を介し、ユーザに向けて出力される。ここで、例えばUI102がタッチパネル・ディススレイである場合、コンテンツ提示発話は、入出力制御部123でディスプレイ表示データに変換されてディスプレイに発話文として表示されてもよい。また、UI102がスピーカ・マイクである場合は、入出力制御部123で音声データに変換されてスピーカから音声として出力されることもできる。 Next, the generated content presentation utterance is output to the user via the utterance control unit 122, the input / output control unit 123, and the UI 102, which will be described in detail later. Here, for example, when the UI 102 is a touch panel display, the content presentation utterance may be converted into display display data by the input / output control unit 123 and displayed as an utterance sentence on the display. When the UI 102 is a speaker / microphone, the input / output control unit 123 can convert it into voice data and output it as voice from the speaker.

さらに、発話制御部122は、上述したようにコンテンツ提示発話を出力させた後、この出力(装置側発話)を受けて行われた、当該コンテンツに関するユーザ側の発話を、UI102を介して受け取る。この際、UI102がタッチパネル・ディススレイである場合、このユーザ側の発話は、例えばユーザによるタッチパネル入力データとして入力され、入出力制御部123でテキストデータに変換されて発話制御部122へ出力される。また、UI102がスピーカ・マイクである場合は、ユーザ側の発話は、マイクを介して音声データとして入力され、入出力制御部123でテキストデータに変換されて発話制御部122へ出力されることになる。 Further, the utterance control unit 122 outputs the content presentation utterance as described above, and then receives the utterance on the user side regarding the content, which is made in response to this output (device side utterance), via the UI 102. At this time, when the UI 102 is a touch panel display, the utterance on the user side is input as, for example, touch panel input data by the user, converted into text data by the input / output control unit 123, and output to the utterance control unit 122. When the UI 102 is a speaker / microphone, the utterance on the user side is input as voice data via the microphone, converted into text data by the input / output control unit 123, and output to the utterance control unit 122. Become.

同じく図1において、投稿取得部113は、「関連テキスト」としてのSNS投稿を取得する関連テキスト取得手段である。ここで、対話の話題となるコンテンツに関する「関連テキスト」は、上述したように様々な手法で取得可能であるが、本実施形態において投稿取得部113は、当該コンテンツに係るコンテンツサイトにおけるウェブページ上のSNSリンクアイコンを介して生成されたSNS投稿を、関連テキストとして取得する。いずれにしても、投稿取得部113では通常、複数の(多くの場合多数の)SNS投稿(関連テキスト)が取得されることになる。 Similarly, in FIG. 1, the post acquisition unit 113 is a related text acquisition means for acquiring an SNS post as a “related text”. Here, the "related text" related to the content that is the topic of the dialogue can be acquired by various methods as described above, but in the present embodiment, the post acquisition unit 113 is on the web page of the content site related to the content. The SNS post generated via the SNS link icon of is acquired as the related text. In any case, the post acquisition unit 113 usually acquires a plurality of (often a large number) SNS posts (related texts).

投稿選別部114は、取得されたSNS投稿(関連テキスト)から、
(a)文字数に係る条件、及び
(b)所定の文字若しくは記号を含むか否かに係る条件
のうちのいずれか一方又は両方を満たすSNS投稿(関連テキスト)を選択する関連テキスト選別手段である。本実施形態において、後に説明する発話生成部121は、少なくともここで選別されたSNS投稿(関連テキスト)のうちのいずれかから、コンテンツ関連テキスト発話を生成するのである。
The post selection unit 114 is based on the acquired SNS posts (related texts).
It is a related text selection means for selecting an SNS post (related text) that satisfies either one or both of (a) a condition related to the number of characters and (b) a condition related to whether or not a predetermined character or symbol is included. .. In the present embodiment, the utterance generation unit 121, which will be described later, generates a content-related text utterance from at least one of the SNS posts (related texts) selected here.

具体的に上記条件(a)の例として、投稿選別部114は、構成する文字数が所定閾値(例えば60文字)以内のSNS投稿を選択する(所定閾値を超えるものを除外する)ことができる。これは、この後SNS投稿から生成されるコンテンツ関連テキスト発話のデータ量が増えて、ユーザが長文を読んだり相当量の音声を聞いたりする必要が生じ、対話の快適性が低下してしまう事態を回避するための措置である。ここで、この文字数閾値は、例えば、(趣味嗜好情報とともに取得された)ユーザの属性情報やコンテンツの種別によって異なる値が設定されてもよい。 Specifically, as an example of the above condition (a), the post selection unit 114 can select SNS posts whose number of constituent characters is within a predetermined threshold (for example, 60 characters) (exclude those exceeding the predetermined threshold). This is a situation in which the amount of content-related text utterance data generated from SNS posts increases after that, and the user needs to read a long sentence or listen to a considerable amount of voice, which reduces the comfort of dialogue. It is a measure to avoid. Here, the character number threshold value may be set to a different value depending on, for example, the attribute information of the user (acquired together with the hobby / preference information) or the type of content.

さらに、投稿選別部114は上記条件(b)の例として、URL(Uniform Resource Locator)を示すための「http://」等の文字を含むSNS投稿を除外する(含まないものを選択する)ことも好ましい。またURL以外にも、生成されるコンテンツ関連テキスト発話が装置側の発話として相応しくない内容となるような文字や記号、または発話化(言語化)が困難な文字や記号を含むSNS投稿を除外してもよい。 Further, as an example of the above condition (b), the post selection unit 114 excludes SNS posts containing characters such as "http: //" for indicating a URL (Uniform Resource Locator) (selects those not included). It is also preferable. In addition to the URL, SNS posts containing characters and symbols that make the generated content-related text utterances unsuitable as utterances on the device side, or characters and symbols that are difficult to utter (verbalize) are excluded. You may.

投稿変更部115は、取得された(または、更に投稿選別部114で選択された)SNS投稿(関連テキスト)について、
(a)当該SNS投稿(関連テキスト)が所定以上に連続した文字又は文字列を含む場合に、このSNS投稿(関連テキスト)に対し、これらの文字又は文字列の連続する度合いを小さくする変更を行う変更処理、及び
(b)当該SNS投稿(関連テキスト)に含まれる一人称の単語を判別して、複数種の一人称の単語を含むSNS投稿(関連テキスト)を、1種の一人称の単語を含むものへ変更する変更処理
のうちのいずれか一方又は両方を実施する関連テキスト変更手段である。
The post change unit 115 describes the acquired SNS post (related text) (or further selected by the post selection unit 114).
(A) When the SNS post (related text) contains characters or character strings that are continuous more than a predetermined value, the SNS post (related text) is changed to reduce the degree of continuity of these characters or character strings. The change processing to be performed, and (b) the SNS post (related text) containing a plurality of types of first-person words by discriminating the first-person words included in the SNS post (related text), including one type of first-person word A related text-changing means that implements one or both of the change processes to change to one.

具体的に上記条件(a)の例として、投稿変更部115は、SNS投稿において、文字又は文字列が所定閾値(例えば3つ)を超える数だけ連続して現れる部分(例えば「!!!!!!!」)が存在する場合、この連続した部分を、3つ分だけ連続したもの(例えば「!!!」)に変更することも好ましい。これにより、対話を進めるにあたり不要な表示や無駄な音声出力を抑制することができる。 Specifically, as an example of the above condition (a), the post change unit 115 is a portion (for example, "!!!!!") in which characters or character strings appear continuously by a number exceeding a predetermined threshold value (for example, three) in an SNS post. If "!!!") exists, it is also preferable to change this continuous part to a continuous one (for example, "!!!!!") by three. As a result, unnecessary display and unnecessary audio output can be suppressed in advancing the dialogue.

また、上記条件(b)として、投稿変更部115は例えば、SNS投稿の中に、「僕」及び「俺」といった異なる複数の一人称の単語が存在する場合、それらの一人称の単語を、1つの一人称の単語、例えば「私」に置換する変更処理を実施することも好ましい。これにより、装置側の発話に一貫性を持たせることが可能となる。例えば、「私もその件に関しては驚きました。」との装置側の発話の後に同じく装置側の発話として「僕も今後やってみようと思います。」を出力してしまい、話し相手が変わったような不自然さをユーザが感じてしまう事態を、回避することが可能となる。 Further, as the above condition (b), if there are a plurality of different first-person words such as "I" and "I" in the SNS post, for example, the post change unit 115 uses one of those first-person words. It is also preferable to carry out a change process that replaces the first person word, for example, "I". This makes it possible to make the utterances on the device side consistent. For example, after the device side utterance "I was surprised about the matter," the device side utterance "I will try it in the future." Was output, and the other party changed. It is possible to avoid a situation in which the user feels such unnaturalness.

同じく図1において、極性判定部116は、
(a)発話制御部122から出力されたコンテンツに関するユーザ側の発話と、
(b)取得された(または、更に投稿選別部114で選択され投稿変更部115を経た)SNS投稿(関連テキスト)と
のそれぞれにおける「極性」を判定する。
Similarly, in FIG. 1, the polarity determination unit 116 is
(A) The utterance on the user side regarding the content output from the utterance control unit 122, and
(B) The "polarity" of each of the acquired (or further selected by the post selection unit 114 and passed through the post change unit 115) SNS post (related text) is determined.

ここで本実施形態では、この「極性」として、ポジティブ(Pos)、ネガティブ(Neg)及びニュートラル(Neu)の3分類モデルを採用している。このうち、ポジティブのSNS投稿はコンテンツに対して肯定的な内容を有し、ネガティブのSNS投稿はコンテンツに対して否定的な内容を有し、ニュートラルのSNS投稿は、そのいずれでもない内容を有するものとなる。当然に、極性としてこれとは別の指標を採用してもよい。例えば、Ekmanの7分類モデルや、その他の公知の感情・表情カテゴリモデルが採用可能である。 Here, in the present embodiment, three classification models of positive (Pos), negative (Neg), and neutral (Neu) are adopted as the “polarity”. Of these, positive SNS posts have positive content for the content, negative SNS posts have negative content for the content, and neutral SNS posts have content that is neither of them. It becomes a thing. Naturally, another index may be adopted as the polarity. For example, Ekman's 7 classification model and other known emotion / facial expression category models can be adopted.

いずれにしても、この後詳細に説明を行うが、発話生成部121は、コンテンツに関するユーザ側の発話の極性に基づいて決定された極性を有するSNS投稿(関連テキスト)から、コンテンツ関連テキスト発話を生成するのである。 In any case, as will be described in detail later, the utterance generation unit 121 transmits the content-related text utterance from the SNS post (related text) having the polarity determined based on the polarity of the user's utterance regarding the content. It will generate.

ここで、上記(a)のユーザ側発話や、上記(b)のSNS投稿における極性判定は、
例えばSVM(Support Vector Machine)等の判定器を利用して行うことも好ましい。この場合、ユーザ側発話やSNS投稿のテキストデータと、当該データに対する正解としての極性との組を多数用意し、これらの組をもって判別器に予め学習させておき、この学習済みの判別器をもって極性判定を行うことになる。また、他の方法として、当該テキストデータに対し形態素解析を行い、単語の極性を収録した辞書を用いて、当該テキストデータを構成する単語の極性から、データ全体の極性判定を行うことも可能である。
Here, the polarity determination in the user-side utterance (a) and the SNS posting in (b) above is performed.
For example, it is also preferable to use a determination device such as SVM (Support Vector Machine). In this case, a large number of pairs of text data uttered by the user or posted on the SNS and polarity as the correct answer to the data are prepared, the discriminator is trained in advance with these pairs, and the learned discriminator is used for polarity. The judgment will be made. Alternatively, as another method, it is possible to perform morphological analysis on the text data and use a dictionary containing the polarity of the word to determine the polarity of the entire data from the polarity of the words constituting the text data. is there.

図2は、極性判定部116による極性判定結果の取り扱いについての一実施形態を示す模式図である。 FIG. 2 is a schematic view showing an embodiment regarding the handling of the polarity determination result by the polarity determination unit 116.

図2によれば、SNS投稿DB104(図1)は、極性判定部116による各SNS投稿に対する極性判定の結果を、極性判定部116から入力し、当該SNS投稿に紐づけて記録している。より具体的に、SNS投稿DB104は、コンテンツ(情報)毎に、当該コンテンツ(情報)に関連するSNS投稿(のテキストデータ)を対応付けて保存しているが、これらのSNS投稿の各々に、その極性判定結果を紐づけて記録(マーキング)しているのである。ここで、図2における「Pos」、「Neg」及び「Neu」はそれぞれ、極性がポジティブ、ネガティブ及びニュートラルであることを示している。 According to FIG. 2, the SNS posting DB 104 (FIG. 1) inputs the result of the polarity determination for each SNS posting by the polarity determination unit 116 from the polarity determination unit 116, and records the result in association with the SNS posting. More specifically, the SNS post DB 104 stores the SNS posts (text data) related to the contents (information) in association with each content (information), and each of these SNS posts is stored. The polarity determination results are linked and recorded (marking). Here, "Pos", "Neg", and "Neu" in FIG. 2 indicate that the polarities are positive, negative, and neutral, respectively.

なお、この図2に示したように、上記(b)のSNS投稿における極性判定は、取得された(または、更に投稿選別部114で選択され投稿変更部115を経た)複数の(多数の)SNS投稿に対して予め実施しておくことも好ましい。勿論、ユーザ側の発話を受けて応答を生成する際、応答発話生成用の候補となるSNS投稿の極性判定を、リアルタイムに実施することも可能である。 As shown in FIG. 2, the polarity determination in the SNS posting in (b) above is a plurality of (many) acquired (or further selected by the post selection unit 114 and passed through the post change unit 115). It is also preferable to carry out the SNS posting in advance. Of course, when a response is generated in response to an utterance on the user side, it is also possible to determine the polarity of the SNS post, which is a candidate for generating the response utterance, in real time.

しかしながら、複数の(多数の)SNS投稿に対する極性判定を予め行っておくことによって、ユーザ側発話を受けた際、直ちに応答発話生成用のSNS発話を選択し、より短時間で応答発話を出力して、より円滑な対話を実現することが可能となるのである。ちなみにこの場合、極性判定部116による極性判定処理が終了し、SNS投稿DB104に判定結果が登録された後に、発話制御部122が、コンテンツ提示発話をユーザに向けて出力させることも好ましい。 However, by performing the polarity determination for a plurality of (many) SNS posts in advance, when the user side utterance is received, the SNS utterance for generating the response utterance is immediately selected, and the response utterance is output in a shorter time. Therefore, it becomes possible to realize a smoother dialogue. Incidentally, in this case, it is also preferable that the utterance control unit 122 outputs the content presentation utterance to the user after the polarity determination process by the polarity determination unit 116 is completed and the determination result is registered in the SNS posting DB 104.

図1に戻って、敬語表現判定部117は、
(a)発話制御部122から出力されたコンテンツに関するユーザ側の発話と、
(b)取得された(または更に投稿選別部114で選択され投稿変更部115を経た、または更に極性判定処理を受けた)SNS投稿(関連テキスト)と
のそれぞれにおいて、敬語表現が含まれているか否かを判定する。
Returning to FIG. 1, the honorific expression determination unit 117
(A) The utterance on the user side regarding the content output from the utterance control unit 122, and
(B) Whether the honorific expression is included in each of the acquired SNS posts (related texts) that have been acquired (or further selected by the post selection unit 114, passed through the post change unit 115, or have undergone polarity determination processing). Judge whether or not.

ちなみにこの後詳細に説明を行うが、発話生成部121は、コンテンツに関するユーザ側の発話における敬語表現判定結果と同じ判定結果を有するSNS投稿(関連テキスト)から、コンテンツ関連テキスト発話を生成するのである。 Incidentally, as will be described in detail later, the utterance generation unit 121 generates the content-related text utterance from the SNS post (related text) having the same judgment result as the honorific expression judgment result in the user's utterance regarding the content. ..

例えば対話の中でユーザ側が敬語表現によって発話を行っている場合に、装置側が、敬語表現ではない例えば平常表現によって発話を出力することは、対話を不自然にしてしまう。またその逆に、平常表現に対し敬語表現を出力することも、同じく不自然な対話をもたらしてしまう。したがって、自然な対話を行うためには、ユーザ側が敬語表現/平常表現で発話したら、装置側もそれに合わせて敬語表現/平常表現の発話を出力すべきである。この点、上述したように敬語表現判定結果を利用して装置側発話を生成することによって、ユーザに違和感を覚えさせない自然な対話が実現可能となるのである。 For example, when the user side speaks in honorific expressions in a dialogue, the device side outputs the utterances in a normal expression other than the honorific expressions, which makes the dialogue unnatural. On the contrary, outputting honorific expressions to ordinary expressions also brings about an unnatural dialogue. Therefore, in order to have a natural dialogue, if the user side utters the honorific expression / normal expression, the device side should also output the honorific expression / normal expression utterance accordingly. In this respect, by generating the device-side utterance using the honorific expression determination result as described above, it is possible to realize a natural dialogue that does not make the user feel uncomfortable.

敬語表現判定部117は具体的に、上記(a)のユーザ側発話や上記(b)のSNS投稿の本文を構成する文(特に文末)における表現が敬語表現であるか否かの判定を行う。 The honorific expression determination unit 117 specifically determines whether or not the expression in the sentence (particularly at the end of the sentence) constituting the user-side utterance in (a) and the text of the SNS post in (b) above is an honorific expression. ..

ここで、例えばオープンソースの形態素解析エンジンであるMeCabを用いて当該本文のテキストを形態素に分解し、品詞が助動詞であって且つ原型が「です」や「ます」である形態素等、敬語表現に係る所定条件を満たす形態素が含まれているか否かを判定することも好ましい。この場合、そのような形態素が含まれていれば、当該コンテンツやSNS投稿は敬語表現を含む(敬)と判定され、一方、含まれていなければ敬語表現を含まない(平:平常表現)と判定されることになる。 Here, for example, the text of the text is decomposed into morphemes using MeCab, which is an open source morphological analysis engine, and used as honorific expressions such as morphemes whose part of speech is an auxiliary verb and whose prototype is "desu" or "masu". It is also preferable to determine whether or not a morpheme satisfying the predetermined condition is contained. In this case, if such a morpheme is included, the content or SNS post is determined to contain the honorific expression (respect), while if it is not included, the honorific expression is not included (normal: normal expression). It will be judged.

図3は、敬語表現判定部117による敬語表現判定結果の取り扱いについての一実施形態を示す模式図である。 FIG. 3 is a schematic diagram showing an embodiment regarding the handling of the honorific expression determination result by the honorific expression determination unit 117.

図3によれば、SNS投稿DB104(図1)は、敬語表現判定部117による各SNS投稿に対する敬語表現判定の結果を、敬語表現判定部117から入力し、当該SNS投稿に紐づけて記録している。 According to FIG. 3, the SNS posting DB 104 (FIG. 1) inputs the result of the honorific expression determination for each SNS post by the honorific expression determination unit 117 from the honorific expression determination unit 117, and records the result in association with the SNS post. ing.

より具体的に、SNS投稿DB104は、コンテンツ(情報)毎に、当該コンテンツ(情報)に関連するSNS投稿であって、各々上述した極性判定結果が紐づけられたSNS投稿(のテキストデータ)を対応付けて保存している。SNS投稿DB104は、これらのSNS投稿の各々に対しさらに、当該SNS投稿に対する敬語表現判定の結果を紐づけて記録(マーキング)しているのである。ここで、図3における「敬」は、当該SNS投稿が敬語表現を含むことを示しており、一方、「平」は、当該SNS投稿が敬語表現を含まないことを示している。 More specifically, the SNS post DB 104 is an SNS post related to the content (information) for each content (information), and the SNS post (text data) to which the above-mentioned polarity determination results are associated with each is displayed. It is saved in association with each other. The SNS post DB 104 further records (marks) each of these SNS posts in association with the result of the honorific expression determination for the SNS post. Here, "Kei" in FIG. 3 indicates that the SNS post includes the honorific expression, while "Pair" indicates that the SNS post does not include the honorific expression.

なお、この図3に示したように、上記(b)のSNS投稿における敬語表現判定は、取得された(または更に投稿選別部114で選択され投稿変更部115を経た、または更に極性判定処理を受けた)複数の(多数の)SNS投稿に対して予め実施しておくことも好ましい。勿論、ユーザ側の発話を受けて応答を生成する際、応答発話生成用の候補となるSNS投稿の敬語表現判定を、リアルタイムに実施することも可能である。 As shown in FIG. 3, the honorific expression determination in the SNS posting described in (b) above is obtained (or further selected by the post selection unit 114 and passed through the post change unit 115, or further subjected to polarity determination processing. It is also preferable to carry out in advance for a plurality of (many) SNS posts (received). Of course, when a response is generated in response to a user's utterance, it is also possible to determine the honorific expression of the SNS post, which is a candidate for generating the response utterance, in real time.

しかしながら、複数の(多数の)SNS投稿に対する敬語表現判定を予め行っておくことによって、ユーザ側発話を受けた際、直ちに応答発話生成用のSNS発話を選択し、より短時間で応答発話を出力して、より円滑な対話を実現することが可能となるのである。ちなみにこの場合も、敬語表現判定部117による敬語表現判定処理が終了し、SNS投稿DB104に判定結果が登録された後に、発話制御部122が、コンテンツ提示発話をユーザに向けて出力されることも好ましい。 However, by performing the honorific expression determination for a plurality of (many) SNS posts in advance, when the user side utterance is received, the SNS utterance for generating the response utterance is immediately selected and the response utterance is output in a shorter time. Therefore, it becomes possible to realize a smoother dialogue. By the way, also in this case, after the honorific expression determination process by the honorific expression determination unit 117 is completed and the determination result is registered in the SNS posting DB 104, the utterance control unit 122 may output the content presentation utterance to the user. preferable.

図1に戻って、スコア決定部118は、
(a)発話制御部122から出力されたコンテンツに関するユーザ側の発話と、
(b)取得された(または更に投稿選別部114で選択され投稿変更部115を経た、または更に極性判定処理及び/又は敬語表現判定処理を受けた)SNS投稿(関連テキスト)と
のそれぞれにおいて、含まれる所定の品詞の単語を抽出し、当該ユーザ側の発話と当該SNS投稿(関連テキスト)との間における当該単語の一致する度合いである「スコア」を決定する。
Returning to FIG. 1, the score determination unit 118
(A) The utterance on the user side regarding the content output from the utterance control unit 122, and
(B) In each of the acquired SNS posts (related texts) that have been acquired (or further selected by the post selection unit 114, passed through the post change unit 115, or further subjected to the polarity determination process and / or the honorific expression determination process). A word having a predetermined part of speech included is extracted, and a "score", which is the degree of matching of the word between the utterance on the user side and the SNS post (related text), is determined.

図4は、スコア決定部118によるスコア決定処理の一実施形態を説明するための機能ブロック図である。 FIG. 4 is a functional block diagram for explaining an embodiment of the score determination process by the score determination unit 118.

図4に示すように、スコア決定部118は機能構成部として、ユーザ発話動詞等抽出部118a、投稿動詞等抽出部118b及びスコア付与部118cを有する。このうち、ユーザ発話動詞等抽出部118a及び投稿動詞等抽出部118bは、それぞれ上記(a)のユーザ側発話のテキストデータ、及び上記(b)のSNS投稿のテキストデータ中に出現する、品詞が動詞、形容詞又は形容動詞である単語(スコア単語)を抽出する。 As shown in FIG. 4, the score determining unit 118 has a user-spoken verb extraction unit 118a, a posted verb extraction unit 118b, and a score giving unit 118c as functional constituent units. Of these, the user-spoken verb extraction unit 118a and the posted verb extraction unit 118b have part of speech that appears in the user-spoken text data of (a) and the SNS-posted text data of (b), respectively. Extract words (score words) that are verbs, adjectives, or adjective verbs.

次いで、スコア付与部118cは、SNS投稿から抽出された全てのスコア単語のうち、ユーザ側発話から抽出されたスコア単語のいずれかと一致するものの割合(例えば全てが一致すれば1であって一致するものがない場合には0となる値)を算出し、当該割合をスコアとして、このSNS投稿に付与(マーキング)する。 Next, the scoring unit 118c matches the ratio of all the score words extracted from the SNS post that match any of the score words extracted from the user's utterance (for example, 1 if all match). If there is nothing, a value that becomes 0) is calculated, and the ratio is used as a score and given (marked) to this SNS post.

ここで変更態様として、予め設定された類義語辞書を利用し、ユーザ側発話から抽出されたスコア単語のいずれかと一致又は類似するスコア単語の割合をスコアとすることも可能である。いずれにしても、SNS投稿に対するスコアは、図2の極性や図3の敬語表現と同様、SNS投稿DB104に保存されたSNS投稿の各々について、付与され登録されることも好ましい。 Here, as a modification mode, it is also possible to use a preset synonym dictionary and set the ratio of score words that match or are similar to any of the score words extracted from the user's utterance as the score. In any case, it is preferable that the score for the SNS post is given and registered for each of the SNS posts stored in the SNS post DB 104, as in the case of the polarity in FIG. 2 and the honorific expression in FIG.

ちなみに、スコア算出のための所定品詞として、動詞、形容詞及び形容動詞を設定したのは、通常の会話のテキスト中で、発話者の感情にかかわる単語の品詞は多くの場合、動詞、形容詞又は形容動詞であるからである。ユーザの抱く共感度とは、対話先(装置1)との間で感情を共有する感覚の度合いのことであるが、ユーザ側発話において感情表現が込められている可能性の高いこれらの品詞の単語を、装置側が繰り返す形で又は応じる形で応答することによって、ユーザの共感度をより高めることが可能となるのである。 By the way, verbs, adjectives and adjectives are set as predetermined parts of speech for score calculation in the text of ordinary conversation, and in many cases, the part of speech of words related to the speaker's emotions is the verb, adjective or adjective. Because it is a verb. The empathy held by the user is the degree of sensation of sharing emotions with the dialogue destination (device 1), and these part of speech that are likely to contain emotional expressions in the user's utterance. It is possible to further enhance the user's empathy by responding to the word in a manner that the device side repeats or responds to.

ただし、場合によっては、例えば発話者の感情にかかわる(「犬」や「猫」といった)対象物を指し示す名詞の単語が、装置側の発話でも繰り返されることによって対話の共感度が高まることもあり得る。したがって、スコア算出のための所定品詞として、動詞、形容詞及び形容動詞に、名詞も加えてスコア単語を抽出し、スコアを算出することも好ましい。 However, in some cases, for example, noun words that point to objects related to the speaker's emotions (such as "dog" and "cat") may be repeated in the utterance on the device side, increasing the empathy of the dialogue. obtain. Therefore, it is also preferable to extract a score word by adding a noun to a verb, an adjective, and an adjective verb as a predetermined part of speech for score calculation, and calculate the score.

次いで、以上に説明したスコア付け処理の後、発話生成部121は、当該コンテンツに関するユーザ側の発話との間で最も高い又は所定以上のスコアを示すSNS投稿(関連テキスト)から、コンテンツ関連テキスト発話を生成する。ここで、スコア決定部118は図4に示すように、スコア選択部118dを有し、このスコア選択部118dで最高スコア又は所定以上のスコアの付与されたSNS投稿を選択して発話生成部121へ手渡してもよい。勿論、発話生成部121がスコアによる選択を行うことも好ましい。 Next, after the scoring process described above, the utterance generation unit 121 utters the content-related text from the SNS post (related text) showing the highest or higher score with the utterance on the user side regarding the content. To generate. Here, as shown in FIG. 4, the score determination unit 118 has a score selection unit 118d, and the score selection unit 118d selects an SNS post to which the highest score or a predetermined score or higher is given and the utterance generation unit 121. You may hand it to. Of course, it is also preferable that the utterance generation unit 121 makes a selection based on the score.

図1に戻って、発話生成部121の投稿発話生成部121bは、取得された(または更に投稿選別部114で選択され投稿変更部115を経た、または更に極性判定処理、敬語表現判定処理及び/又はスコア付与処理を受けた)SNS投稿から、当該SNS投稿に係る発話である「コンテンツ関連投稿発話」(コンテンツ関連テキスト発話)を生成する。 Returning to FIG. 1, the posted utterance generation unit 121b of the utterance generation unit 121 has been acquired (or further selected by the post selection unit 114 and passed through the post change unit 115, or further polarity determination processing, honorific expression determination processing, and / Or, from the SNS post (which has undergone the score-giving process), a "content-related post utterance" (content-related text utterance), which is an utterance related to the SNS post, is generated.

ここで、投稿発話生成部121bは、当該SNS投稿の本文のテキストデータをそのままコンテンツ関連投稿発話とすることも可能であるが、当該SNS投稿の本文のテキストデータと所定の発話テンプレートとを用いて、コンテンツ関連投稿発話を生成してもよい。 Here, the post utterance generation unit 121b can use the text data of the text of the SNS post as it is as the content-related post utterance, but uses the text data of the text of the SNS post and a predetermined utterance template. , Content-related post utterances may be generated.

例えば、「**選手はメダルを獲ると思ってたよ」とのSNS投稿から、「そうだね!**選手はメダルを獲ると思ってたよ」とのコンテンツ関連投稿発話を生成することもできる。なお、上記の所定の発話テンプレートについては、例えば極性や敬語表現の有無に対応付けて予め複数種準備しておき、ユーザ側発話に付与された極性や敬語表現判定結果に合わせて好適なものを選択することも好ましい。 For example, from an SNS post saying "** players thought they would win medals", it is possible to generate content-related post utterances such as "Yes! ** I thought players would win medals." Regarding the above-mentioned predetermined utterance template, for example, a plurality of types are prepared in advance in association with the presence or absence of polarity and honorific expression, and a suitable one is selected according to the polarity and honorific expression determination result given to the user's utterance. It is also preferable to select.

具体的に投稿発話生成部121bは、SNS投稿毎に極性判定結果、敬語表現判定結果及びスコアが紐づけられて保存されているSNS投稿DB104から、ユーザ側発話で話題となっているコンテンツ(情報)に関連するとして対応付けられたSNS投稿であって、
(a)当該ユーザ側発話の極性と一致する極性が付与されていて、且つ
(b)当該ユーザ側発話の敬語表現判定結果(例えば「敬」)と一致する敬語表現判定結果(同じ「敬」)が付与されている
SNS投稿を検索する。
Specifically, the posted utterance generation unit 121b is the content (information) that has become a hot topic in the user's utterance from the SNS post DB 104 in which the polarity determination result, the honorific expression determination result, and the score are linked and saved for each SNS post. ) Is an SNS post associated with
(A) A polarity that matches the polarity of the user's utterance is given, and (b) a honorific expression determination result that matches the honorific expression determination result (for example, "respect") of the user's utterance (same "respect"). ) Is added to the search for SNS posts.

例えば、図3に示した実施例において、コンテンツ情報1に係る対話が行われており、ユーザ側発話の極性がポジティブ(Pos)であるとすると、SNS投稿DB104からSNS投稿1〜16が検索されることになる。 For example, in the embodiment shown in FIG. 3, assuming that the dialogue related to the content information 1 is performed and the polarity of the user-side utterance is positive (Pos), SNS posts 1 to 16 are searched from the SNS post DB 104. Will be.

次いで、投稿発話生成部121bは、検索したSNS投稿のうちで、
(c)最も高い又は所定閾値以上のスコアが付与されている
SNS投稿を1つ選択する。ここで、複数のスコアが選択可能な場合、例えばランダムに1つを決定してもよい。投稿発話生成部121bは、このように選択したSNS投稿からコンテンツ関連投稿発話を生成するのである。
Next, the post utterance generation unit 121b is among the searched SNS posts.
(C) Select one SNS post that has the highest score or a score equal to or higher than a predetermined threshold. Here, when a plurality of scores can be selected, for example, one may be randomly determined. The post utterance generation unit 121b generates content-related post utterances from the SNS posts selected in this way.

なお、以上に述べた実施形態では、好適な形態として上記条件(a)、(b)及び(c)の全てを満たすSNS投稿を選択しているが、上記条件(a)、(b)及び(c)のうちのいずれか1つ又は2つを満たすものを選択することもできる。また、最初に上記条件(c)で所定閾値以上のスコアのSNS投稿を検索した後、上記条件(a)及び/又は(b)を満たすSNS投稿に絞り込むことも可能である。 In the embodiment described above, the SNS posting satisfying all of the above conditions (a), (b) and (c) is selected as a suitable embodiment, but the above conditions (a), (b) and It is also possible to select one that satisfies any one or two of (c). It is also possible to first search for SNS posts with a score equal to or higher than the predetermined threshold under the above condition (c), and then narrow down to SNS posts that satisfy the above conditions (a) and / or (b).

さらに、上記条件(a)においては、好適な形態として極性一致が選択条件となっているが、変更態様として、ユーザ側発話の極性に応じて予め決定しておいた極性(例えばpos/negに対してはneg/pos、neuに対してはneu)を有するSNS投稿を選択することも可能である。または、ユーザ側発話の極性にかかわらず、予め決定しておいた極性(例えばpos)を有するSNS投稿を選択してもよい。 Further, in the above condition (a), polarity matching is a selection condition as a preferable form, but as a change mode, a polarity determined in advance according to the polarity of the user's utterance (for example, pos / neg) On the other hand, it is also possible to select an SNS post having neg / pos and neu for neu). Alternatively, SNS posts having a predetermined polarity (for example, pos) may be selected regardless of the polarity of the user's utterance.

なお、以上に説明した投稿発話生成部121bを含む発話生成部121は、対話シナリオDB105(又は装置1外部に設置された対話シナリオDB4)に保存された発話テキストデータを読み出して(又は通信により取り寄せて)、継続されるユーザとの対話に対応して適宜相応しい発話を生成することも好ましい。この対話シナリオDB105は、想定される装置1とユーザとの対話を構成する発話テキストデータ群を保存したデータベースとなっている。 The utterance generation unit 121 including the posted utterance generation unit 121b described above reads out the utterance text data stored in the dialogue scenario DB 105 (or the dialogue scenario DB 4 installed outside the device 1) (or obtains it by communication). It is also preferable to generate appropriate utterances in response to continuous dialogue with the user. This dialogue scenario DB 105 is a database that stores utterance text data groups that constitute a dialogue between the assumed device 1 and the user.

同じく図1において、発話制御部122は、(話題となっているコンテンツに関する)ユーザ側発話に対する応答として、生成されたコンテンツ関連テキスト発話を、入出力制御部123を介してUI102に出力させる。この際、当該ユーザ側発話を受けた通常の人間が応答するようなタイミングをもってコンテンツ関連テキスト発話をユーザに提示(例えば画面表示及び/又は音声提示)できるように、出力のタイミングが制御されることも好ましい。 Similarly, in FIG. 1, the utterance control unit 122 outputs the generated content-related text utterance to the UI 102 via the input / output control unit 123 as a response to the user-side utterance (related to the content being talked about). At this time, the output timing is controlled so that the content-related text utterance can be presented to the user (for example, screen display and / or voice presentation) at a timing such that a normal human who receives the user-side utterance responds. Is also preferable.

入出力制御部123は、ユーザインタフェース102から入力したユーザ側発話に係るデータを例えばテキストデータに変換して発話制御部122へ出力し、一方、発話制御部122から入力された発話に係る例えばテキストデータを、ユーザインタフェース102で出力可能な形に変換し、発話制御部122から指定されたタイミングや順序をもってUI102へ出力する。 The input / output control unit 123 converts the data related to the user-side utterance input from the user interface 102 into, for example, text data and outputs the data to the utterance control unit 122, while the input / output control unit 123, for example, the text related to the utterance input from the utterance control unit 122. The data is converted into a form that can be output by the user interface 102, and is output to the UI 102 at the timing and order specified by the utterance control unit 122.

例えば、UI102がタッチパネル・ディスプレイである場合、入出力制御部123は、発話をディスプレイ表示データに変換して出力する。また、タッチパネル経由で入力されたユーザ側発話を、例えばテキストデータに変換して発話制御部122へ出力することができる。さらに、UI102がスピーカ・マイクである場合、入出力制御部123は、発話を公知の音声データ化手段を用いて音声データに変換して出力する。またこの場合、マイク経由で入力されたユーザ側発話の音声データを、公知の音声認識手段を用いて例えばテキストデータに変換し、発話制御部122へ出力してもよい。 For example, when the UI 102 is a touch panel display, the input / output control unit 123 converts the utterance into display display data and outputs the utterance. Further, the user-side utterance input via the touch panel can be converted into, for example, text data and output to the utterance control unit 122. Further, when the UI 102 is a speaker / microphone, the input / output control unit 123 converts the utterance into voice data by using a known voice data conversion means and outputs the utterance. Further, in this case, the voice data of the user-side utterance input via the microphone may be converted into, for example, text data by using a known voice recognition means and output to the utterance control unit 122.

図5は、UI102がタッチパネル・ディスプレイである場合の発話入出力例を示す模式図である。 FIG. 5 is a schematic diagram showing an example of utterance input / output when the UI 102 is a touch panel display.

図5によれば、UI102の表示画面に、左端部からの吹き出しの形で装置1側の「コンテンツ提示発話」が表示され、次いでその下方に、右端部からの吹き出しの形で、提示されたコンテンツに関する「ユーザ側発話」が表示されている。また更にその下方には、
左端部からの吹き出しの形で装置1側の「コンテンツ関連テキスト発話」が表示されている。このように、装置1とユーザとの間でやり取りされる発話は、上から順に交互に表示され、対話の様子が一目して理解される。
According to FIG. 5, the “content presentation utterance” on the device 1 side is displayed on the display screen of the UI 102 in the form of a balloon from the left end, and then presented in the form of a balloon from the right end below it. "User utterance" related to the content is displayed. Further below that,
"Content-related text utterance" on the device 1 side is displayed in the form of a balloon from the left end. In this way, the utterances exchanged between the device 1 and the user are displayed alternately from the top, and the state of the dialogue can be understood at a glance.

このうち、ユーザ側発話の入力は、タッチパネルを用い、例えば図5のUI102の表示画面の下部に設けられた入力フォームへ文字を入力し、送信アイコンをタップすることで行われることも好ましい。この入力後、「ユーザ側発話」が直ちに画面に表示される。また他の方法として、ユーザ側発話の入力は、UI102に備えられたマイクを介したユーザによる音声入力であってもよい。 Of these, it is also preferable that the input of the utterance on the user side is performed by using a touch panel, for example, by inputting characters into the input form provided at the bottom of the display screen of the UI 102 of FIG. 5 and tapping the transmission icon. After this input, "user-side utterance" is immediately displayed on the screen. As another method, the input of the user's utterance may be a voice input by the user via a microphone provided in the UI 102.

さらに、装置1側の発話も、ディスプレイ表示と合わせて又は当該表示無しで、UI102に備えられたスピーカを用い音声として出力されてもよい。勿論、発話の入出力をともに音声入出力だけとしてもよい。ちなみに例えば、対話制御装置1が、本発明による対話制御プログラムである対話アプリをダウンロードしたスマートフォンである場合、このアプリの機能として以上に述べた入出力を実現することが可能となる。 Further, the utterance on the device 1 side may be output as voice by using the speaker provided in the UI 102 together with or without the display display. Of course, both the input and output of the utterance may be only the voice input and output. Incidentally, for example, when the dialogue control device 1 is a smartphone that has downloaded the dialogue application, which is the dialogue control program according to the present invention, it is possible to realize the input / output described above as a function of this application.

なお、UI102の他の実施形態として、キーボードを備えたものや点字入出力器を備えたものを採用し、入出力制御部123も、それに合わせて構成されていてもよい。 As another embodiment of the UI 102, one provided with a keyboard or one provided with a Braille input / output device may be adopted, and the input / output control unit 123 may be configured accordingly.

[対話制御方法]
図6は、本発明による対話制御方法の一実施形態を概略的に示すフローチャートである。なお、本実施形態では、コンテンツ及び関連テキストとして、それぞれニュース記事及びSNS投稿が採用されている。
[Dialogue control method]
FIG. 6 is a flowchart schematically showing an embodiment of the dialogue control method according to the present invention. In this embodiment, news articles and SNS posts are adopted as the contents and related texts, respectively.

(S101)ユーザ情報に基づき、ニュース記事を取得する。
(S102)取得したニュース記事に紐づいた(例えばリンクアイコンでリンクした)複数のSNS投稿を取得する。
(S103)取得した複数のSNS投稿から、文字数等に係る所定条件を満たすSNS投稿を選択する。
(S101) Acquire a news article based on user information.
(S102) Acquire a plurality of SNS posts linked to the acquired news article (for example, linked with a link icon).
(S103) From the acquired plurality of SNS posts, select an SNS post that satisfies a predetermined condition related to the number of characters and the like.

(S104)選択されたSNS投稿のうち、所定以上の連続文字等を含むSNS投稿に対し、その連続度を落とす変更処理を実施する。
(S105)上記変更処理を施したSNS投稿のうち、一人称の単語を複数種含むSNS投稿を、1種の一人称単語を含むものに変更する処理を実施する。
(S106)各SNS投稿に対し、極性及び敬語表現に係る判定を実施し、動詞、形容詞及び形容動詞を抽出する。
(S104) Among the selected SNS posts, a change process for reducing the degree of continuity is performed on the SNS posts containing a predetermined number of consecutive characters or more.
(S105) Among the SNS posts subjected to the above-mentioned change processing, a process of changing an SNS post containing a plurality of types of first-person words to one containing one type of first-person word is performed.
(S106) For each SNS post, a determination relating to polarity and honorific expressions is performed, and verbs, adjectives, and adjective verbs are extracted.

(S107)取得したニュース記事からニュース記事提示発話(コンテンツ提示発話)を生成し、UI102を介しユーザに向けて出力する。
(S108)ユーザ側発話を、UI102を介して入力する。
(S107) A news article presentation utterance (content presentation utterance) is generated from the acquired news article and output to the user via the UI 102.
(S108) The user-side utterance is input via the UI 102.

(S109)入力されたユーザ側発話の極性を判定し、当該極性と同一の極性を有するSNS投稿を、ステップS106の段階で準備されたSNS投稿の中から選択する。
(S110)入力されたユーザ側発話に対し敬語表現判定を実施し、選択されたSNS投稿の中から、このユーザ側発話における敬語表現判定結果と同じ敬語表現判定結果を有するSNS投稿を更に選択する。
(S109) The polarity of the input user-side utterance is determined, and an SNS post having the same polarity as the polarity is selected from the SNS posts prepared in the step S106.
(S110) Performs honorific expression determination for the input user-side utterance, and further selects an SNS post having the same honorific expression determination result as the honorific expression determination result in this user-side utterance from the selected SNS posts. ..

(S111)入力されたユーザ側発話に含まれた動詞、形容詞及び形容動詞を抽出し、選択された各SNS投稿について、このユーザ側発話との間で、抽出された動詞、形容詞及び形容動詞の比較を行い、スコアを算出する。
(S112)算出されたスコアに基づき、選択されたSNS投稿の中から、ニュース記事関連投稿発話(コンテンツ関連投稿発話)生成用のSNS投稿を決定する。
(S113)決定したSNS投稿から、ニュース記事関連投稿発話を生成し、UI102を介しユーザに向けて出力する。
(S111) The verbs, adjectives, and adjective verbs included in the input user-side utterance are extracted, and for each selected SNS post, the extracted verbs, adjectives, and adjective verbs are combined with the user-side utterance. Make a comparison and calculate the score.
(S112) Based on the calculated score, the SNS post for generating the news article-related post utterance (content-related post utterance) is determined from the selected SNS posts.
(S113) From the determined SNS post, a news article-related post utterance is generated and output to the user via the UI 102.

以上、ステップS101〜S113によって、ニュース記事提示発話を生成して出力して、ユーザ側発話を入力し、その後、ニュース記事関連発話を生成して出力する1つの対話フローが実施される。この対話フローは、一連の対話の中で適宜繰り返し実施されてもよい。 As described above, in steps S101 to S113, one dialogue flow is carried out in which news article presentation utterances are generated and output, user-side utterances are input, and then news article-related utterances are generated and output. This dialogue flow may be repeated as appropriate in a series of dialogues.

また、ユーザ側発話を入力し、ニュース記事関連発話を生成して出力するステップS107〜S113のフローが、あるコンテンツの内容を話題とした一連の対話の中で適宜繰り返し実施されてもよい。さらに変更態様として例えば、ユーザ側発話の中に別のコンテンツ情報を見出して、予め当該コンテンツ情報に対応付けて登録されたSNS投稿、又は当該コンテンツ情報を受けて検索したSNS投稿に基づき、応答としてのコンテンツ関連投稿発話を出力することも可能である。 Further, the flow of steps S107 to S113 for inputting the utterance on the user side and generating and outputting the utterance related to the news article may be appropriately repeated in a series of dialogues on the content of a certain content. Further, as a modification mode, for example, as a response based on an SNS post in which another content information is found in the user's utterance and registered in advance in association with the content information, or an SNS post searched in response to the content information. It is also possible to output the content-related post utterances of.

以上詳細に説明したように、本発明に係る「関連テキスト」は、対話における話題(又はその一部)となるコンテンツの内容に対し、種々の人間がそれぞれ感じること、想うことや、考えること、さらには思うことについて表明した内容を含んでいる。本発明によれば、そのような表明内容を有する関連テキストから、コンテンツについてのユーザ側発話に対する応答としての装置側発話を生成することによって、コンテンツの内容に対するユーザの感想や考えに応じた又は沿った応答、言い換えればユーザの共感度がより向上する応答を実施することが可能となるのである。 As described in detail above, the "related text" according to the present invention refers to the feelings, thoughts, and thoughts of various human beings with respect to the content that is the topic (or a part thereof) in the dialogue. It also includes content that expresses what you think. According to the present invention, by generating a device-side utterance as a response to a user-side utterance about the content from a related text having such an assertion content, the user's impressions and thoughts about the content are met or followed. In other words, it is possible to carry out a response in which the user's empathy is further improved.

また、特定のコンテンツの内容に関する対話において、ユーザ側の発話に対し、装置側がユーザに共感を持たせ得る応答を行うことは、ユーザの満足度を向上させ、本装置を用いたコミュニケーションを活性化させることにもつながる。 In addition, in a dialogue regarding the content of a specific content, the device side responding to the utterance on the user side so that the user can sympathize with the user, which improves the user's satisfaction and activates the communication using the device. It also leads to letting.

以上に述べた本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 With respect to the various embodiments of the present invention described above, various changes, modifications and omissions within the scope of the technical idea and viewpoint of the present invention can be easily made by those skilled in the art. The above explanation is just an example and does not attempt to restrict anything. The present invention is limited only to the scope of claims and their equivalents.

1 対話制御装置
101 通信インタフェース
102 ユーザインタフェース(UI)
103 コンテンツデータベース(DB)
104 SNS投稿DB
105 対話シナリオDB
111 ユーザ情報取得部
112 コンテンツ取得部
113 投稿取得部(関連テキスト取得手段)
114 投稿選別部(関連テキスト選別手段)
115 投稿変更部(関連テキスト変更手段)
116 極性判定部
117 敬語表現判定部
118 スコア決定部
118a ユーザ発話動詞等抽出部
118b 投稿動詞等抽出部
118c スコア付与部
118d スコア選択部
121 発話生成部
121a コンテンツ提示発話生成部
121b 投稿発話生成部(コンテンツ関連テキスト発話生成手段)
122 発話制御部
123 入出力制御部
131 通信制御部
2 コンテンツサーバ
3 SNSサーバ
4 対話シナリオDB

1 Dialogue control device 101 Communication interface 102 User interface (UI)
103 Content database (DB)
104 SNS Post DB
105 Dialogue scenario DB
111 User information acquisition unit 112 Content acquisition unit 113 Post acquisition unit (related text acquisition means)
114 Post Sorting Department (Related Text Sorting Means)
115 Post change section (related text change means)
116 Polarity judgment unit 117 Respectful expression judgment unit 118 Score determination unit 118a User utterance verb extraction unit 118b Post verb extraction unit 118c Score assignment unit 118d Score selection unit 121 Utterance generation unit 121a Content presentation utterance generation unit 121b Post utterance generation unit ( Content-related text utterance generation means)
122 Speech control unit 123 Input / output control unit 131 Communication control unit 2 Content server 3 SNS server 4 Dialogue scenario DB

Claims (12)

コンテンツに関する対話を実施可能な対話制御装置であって、
当該コンテンツに関するテキストである関連テキストを取得する関連テキスト取得手段と、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、該ユーザ側の発話における極性を決定する極性判定手段と、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取った該極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成する発話生成手段と、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させる発話制御手段と
を有することを特徴とする対話制御装置。
A dialogue control device that can perform dialogues related to content.
Related text acquisition means to acquire related text that is the text related to the content, and
A polarity determination means for determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
An utterance generation means that receives the polarity determined in the user's utterance regarding the content and generates the content-related text utterance that is the utterance related to the related text from the related text having the polarity determined based on the received polarity. ,
A dialogue control device comprising: an utterance control means for outputting a text utterance related to the content as a response to the utterance on the user side regarding the content.
前記発話生成手段は、当該コンテンツに関するユーザ側の発話において決定された極性と同じ極性を有する関連テキストから、当該コンテンツ関連テキスト発話を生成することを特徴とする請求項に記載の対話制御装置。 The dialogue control device according to claim 1 , wherein the utterance generation means generates the content-related text utterance from the related text having the same polarity as the polarity determined in the user's utterance regarding the content. 当該コンテンツに関するユーザ側の発話と、取得された関連テキストとに含まれる所定の品詞の単語を抽出し、当該ユーザ側の発話と当該関連テキストとの間における当該単語の一致する度合いであるスコアを決定するスコア決定手段を更に有し、
前記発話生成手段は、当該コンテンツに関するユーザ側の発話との間で最も高い又は所定以上の当該スコアを示す関連テキストから、当該コンテンツ関連テキスト発話を生成する
ことを特徴とする請求項1又は2に記載の対話制御装置。
A word with a predetermined part of speech included in the user's utterance related to the content and the acquired related text is extracted, and the score, which is the degree of matching of the word between the user's utterance and the related text, is obtained. It also has a means of determining the score to determine,
The utterance generating means according to claim 1 or 2 , wherein the utterance generating means generates the content-related text utterance from the related text showing the highest score or a predetermined score or more with the user's utterance related to the content. The interactive control device described.
当該コンテンツに関するユーザ側の発話と、取得された関連テキストとにおいて、敬語表現が含まれているか否かを判定する敬語表現判定手段を更に有し、
前記発話生成手段は、当該コンテンツに関するユーザ側の発話における当該判定結果と同じ判定結果を有する関連テキストから、当該コンテンツ関連テキスト発話を生成する
ことを特徴とする請求項1からのいずれか1項に記載の対話制御装置。
Further, it has a honorific expression determination means for determining whether or not the honorific expression is included in the utterance on the user side regarding the content and the acquired related text.
Any one of claims 1 to 3 , wherein the utterance generation means generates the content-related text utterance from the related text having the same determination result as the determination result in the user's utterance regarding the content. The interactive control device according to.
前記発話生成手段は、当該コンテンツのデータにおけるタイトル又はサマリから、当該コンテンツを提示する発話であるコンテンツ提示発話を生成し、
前記発話制御手段は、当該コンテンツ提示発話を出力させ、当該出力の後に行われた、当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させる
ことを特徴とする請求項1からのいずれか1項に記載の対話制御装置。
The utterance generation means generates a content presentation utterance, which is a utterance that presents the content, from a title or a summary in the data of the content.
From claim 1, the utterance control means outputs the content presentation utterance, and outputs the content-related text utterance as a response to the user's utterance regarding the content, which is performed after the output. The dialogue control device according to any one of 4.
所定のSNS(Social Networking Service)におけるユーザのプロフィール情報又は投稿に係る情報から、当該ユーザの趣味嗜好に係る情報を取得する又は決定するユーザ情報取得手段と、
当該ユーザの趣味嗜好に係る情報に関連する又は対応付けられたコンテンツを取得するコンテンツ取得手段と
を更に有し、
前記発話生成手段は、取得された当該コンテンツに係るコンテンツ提示発話を生成する
ことを特徴とする請求項に記載の対話制御装置。
A user information acquisition means for acquiring or determining information on a user's hobbies and tastes from a user's profile information or posting information on a predetermined SNS (Social Networking Service).
It further has a content acquisition means for acquiring content related to or associated with information related to the user's hobbies and tastes.
The dialogue control device according to claim 5 , wherein the utterance generation means generates a content presentation utterance related to the acquired content.
取得された関連テキストから、文字数に係る条件、及び/又は所定の文字若しくは記号を含むか否かに係る条件を満たす関連テキストを選別する関連テキスト選別手段を更に有し、
前記発話生成手段は、選別された関連テキストから、当該コンテンツ関連テキスト発話を生成する
ことを特徴とする請求項1からのいずれか1項に記載の対話制御装置。
Further having a related text selection means for selecting related texts that satisfy the conditions related to the number of characters and / or the conditions related to whether or not a predetermined character or symbol is included from the acquired related texts.
The dialogue control device according to any one of claims 1 to 6 , wherein the utterance generation means generates the content-related text utterance from the selected related text.
当該関連テキストが所定以上に連続した文字又は文字列を含む場合、当該関連テキストに対し当該文字又は文字列の連続する度合いを小さくする変更を行う関連テキスト変更手段を更に有することを特徴とする請求項1からのいずれか1項に記載の対話制御装置。 When the related text contains characters or character strings that are continuous more than a predetermined value, the claim is characterized by further having a related text changing means for changing the related text to reduce the degree of continuity of the characters or character strings. Item 2. The dialogue control device according to any one of Items 1 to 7. 取得された関連テキストに含まれる一人称の単語を判別し、複数種の一人称の単語を含む関連テキストを、1種の一人称の単語を含むものへ変更する関連テキスト変更手段を更に有することを特徴とする請求項1からのいずれか1項に記載の対話制御装置。 It is characterized by having a related text changing means for discriminating the first-person word contained in the acquired related text and changing the related text containing a plurality of types of first-person words to one containing one type of first-person word. The dialogue control device according to any one of claims 1 to 8. 前記関連テキスト取得手段は、当該関連テキストとして、当該コンテンツに係る投稿を、当該コンテンツに係る投稿を含む投稿サイト又は投稿データベースから取得することを特徴とする請求項1からのいずれか1項に記載の対話制御装置。 The related text acquisition means according to any one of claims 1 to 9 , characterized in that, as the related text, a post relating to the content is acquired from a posting site or a posting database including the posting relating to the content. The interactive control device described. コンテンツに関する対話を実施可能な装置に搭載されたコンピュータを機能させるプログラムであって、
当該コンテンツに関するテキストである関連テキストを取得する関連テキスト取得手段と、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、該ユーザ側の発話における極性を決定する極性判定手段と、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取った該極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成する発話生成手段と、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させる発話制御手段と
してコンピュータを機能させることを特徴とする対話制御プログラム。
A program that allows a computer installed in a device that can engage in content dialogue to function.
Related text acquisition means to acquire related text that is the text related to the content, and
A polarity determination means for determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
An utterance generation means that receives the polarity determined in the user's utterance regarding the content and generates the content-related text utterance that is the utterance related to the related text from the related text having the polarity determined based on the received polarity. ,
A dialogue control program characterized in that a computer functions as an utterance control means for outputting a text utterance related to the content as a response to the utterance on the user side regarding the content.
コンテンツに関する対話を実施可能な装置に搭載されたコンピュータにおいて実施される対話制御方法であって、
当該コンテンツに関するテキストである関連テキストを取得するステップと、
取得された関連テキストにおける極性を決定し、また、当該コンテンツに関するユーザ側の発話を受け取った際、該ユーザ側の発話における極性を決定するステップと、
当該コンテンツに関するユーザ側の発話において決定された極性を受け取り、受け取った該極性に基づき決定された極性を有する関連テキストから、当該関連テキストに係る発話であるコンテンツ関連テキスト発話を生成するステップと、
当該コンテンツに関するユーザ側の発話に対する応答として、当該コンテンツ関連テキスト発話を出力させるステップと
を有することを特徴とする対話制御方法。
A dialogue control method implemented on a computer mounted on a device capable of performing dialogue on content.
Steps to get the related text, which is the text about the content,
A step of determining the polarity of the acquired related text and determining the polarity of the user's utterance when the user's utterance regarding the content is received.
A step of receiving a polarity determined in the user's utterance regarding the content and generating a content-related text utterance which is an utterance related to the related text from the related text having the polarity determined based on the received polarity.
A dialogue control method comprising a step of outputting a text utterance related to the content as a response to a utterance on the user side regarding the content.
JP2018018933A 2018-02-06 2018-02-06 Dialogue controls, programs and methods capable of conducting content dialogue Active JP6858721B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018018933A JP6858721B2 (en) 2018-02-06 2018-02-06 Dialogue controls, programs and methods capable of conducting content dialogue

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018018933A JP6858721B2 (en) 2018-02-06 2018-02-06 Dialogue controls, programs and methods capable of conducting content dialogue

Publications (2)

Publication Number Publication Date
JP2019139282A JP2019139282A (en) 2019-08-22
JP6858721B2 true JP6858721B2 (en) 2021-04-14

Family

ID=67693915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018018933A Active JP6858721B2 (en) 2018-02-06 2018-02-06 Dialogue controls, programs and methods capable of conducting content dialogue

Country Status (1)

Country Link
JP (1) JP6858721B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7105749B2 (en) * 2019-09-27 2022-07-25 Kddi株式会社 Agent program, device and method for uttering text corresponding to character

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6103813B2 (en) * 2012-04-06 2017-03-29 サターン ライセンシング エルエルシーSaturn Licensing LLC Information processing apparatus, information processing method, and program
JP2015219583A (en) * 2014-05-14 2015-12-07 日本電信電話株式会社 Topic determination device, utterance device, method, and program
JP6161656B2 (en) * 2015-05-22 2017-07-12 日本電信電話株式会社 Language expression rewriting device, method, and program
JP2017068359A (en) * 2015-09-28 2017-04-06 株式会社デンソー Interactive device and interaction control method

Also Published As

Publication number Publication date
JP2019139282A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
Bouazizi et al. A pattern-based approach for sarcasm detection on twitter
CN109314660B (en) Method and device for providing news recommendation in automatic chat
CN107944027B (en) Method and system for creating semantic key index
US11729120B2 (en) Generating responses in automated chatting
KR102032091B1 (en) Method And System of Comment Emotion Analysis based on Artificial Intelligence
JP2019504413A (en) System and method for proposing emoji
JP2022130635A (en) Conference support system, conference support device, method for supporting conference, and program
CN105138710A (en) Chat agent system and method
CN107391521A (en) Expand message exchange topic automatically based on message category
Sayers et al. The Dawn of the Human-Machine Era: A forecast of new and emerging language technologies.
Kaushik et al. Automatic sentiment detection in naturalistic audio
JP7096172B2 (en) Devices, programs and methods for generating dialogue scenarios, including utterances according to character.
Shen et al. Kwickchat: A multi-turn dialogue system for aac using context-aware sentence generation by bag-of-keywords
Svikhnushina et al. User expectations of conversational chatbots based on online reviews
Krommyda et al. Emotion detection in Twitter posts: a rule-based algorithm for annotated data acquisition
CN115062627A (en) Method and apparatus for computer-aided uniform system based on artificial intelligence
El Hefny et al. Towards a generic framework for character-based chatbots
Matsuyama et al. Automatic expressive opinion sentence generation for enjoyable conversational systems
JP5420874B2 (en) Digital story providing system, digital story providing method, and computer program for causing computer system to execute this method
JP6858721B2 (en) Dialogue controls, programs and methods capable of conducting content dialogue
CN111490929A (en) Video clip pushing method and device, electronic equipment and storage medium
WO2014068293A1 (en) Text analysis
US20220292261A1 (en) Methods for Emotion Classification in Text
Manaswi et al. Developing chatbots
JP6821542B2 (en) Dialogue control devices, programs and methods that can carry out multiple types of dialogue in succession.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210324

R150 Certificate of patent or registration of utility model

Ref document number: 6858721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150