JP2020170239A - Output program, output device and output method - Google Patents

Output program, output device and output method Download PDF

Info

Publication number
JP2020170239A
JP2020170239A JP2019069877A JP2019069877A JP2020170239A JP 2020170239 A JP2020170239 A JP 2020170239A JP 2019069877 A JP2019069877 A JP 2019069877A JP 2019069877 A JP2019069877 A JP 2019069877A JP 2020170239 A JP2020170239 A JP 2020170239A
Authority
JP
Japan
Prior art keywords
information
output
user
reaction
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019069877A
Other languages
Japanese (ja)
Other versions
JP7409781B2 (en
Inventor
伸裕 鍜治
Nobuhiro Kaji
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2019069877A priority Critical patent/JP7409781B2/en
Publication of JP2020170239A publication Critical patent/JP2020170239A/en
Application granted granted Critical
Publication of JP7409781B2 publication Critical patent/JP7409781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To output appropriate information regardless of input to an interactive system by a user.SOLUTION: An output program causes a computer to execute: an acquisition procedure of acquiring reaction information which is character information generated as reaction for second information other than first information inputted to an interactive system by a user; and an output procedure of outputting the reaction information acquired by the acquisition procedure to the user. Moreover, the acquisition procedure acquires the reaction information for the second information other than the first information inputted to the interactive system which is a non-task-oriented type interactive system by the user.SELECTED DRAWING: Figure 1

Description

本発明は、出力プログラム、出力装置及び出力方法に関する。 The present invention relates to an output program, an output device and an output method.

従来、人からの話しかけに応答する装置に関する技術が知られている。例えば、景色や風景から連想可能な発話で人と対話する装置に関する技術が提案されている。 Conventionally, a technique related to a device that responds to a human conversation has been known. For example, a technology related to a device that interacts with a person by utterances that can be associated with scenery or landscape has been proposed.

特開2018−147145号公報JP-A-2018-147145

しかしながら、上記の従来技術では、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。例えば、上記の従来技術では、あらかじめ登録された発話コンテンツの中から、景色や風景から連想可能な発話文を選択するにすぎず、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。 However, in the above-mentioned conventional technique, it is not always possible to output appropriate information without depending on the input by the user to the dialogue system. For example, in the above-mentioned conventional technology, only the utterance sentence that can be associated with the scenery or the landscape is selected from the utterance contents registered in advance, and appropriate information is output without depending on the input by the user to the dialogue system. It is not always possible to do so.

本願は、上記に鑑みてなされたものであって、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができる出力プログラム、出力装置及び出力方法を提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide an output program, an output device, and an output method capable of outputting appropriate information without depending on input by a user to an interactive system. ..

本願に係る出力プログラムは、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得手順と、前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、をコンピュータに実行させることを特徴とする。 The output program according to the present application includes an acquisition procedure for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and the acquisition procedure acquired by the acquisition procedure. It is characterized in that a computer executes an output procedure for outputting reaction information to the user.

実施形態の一態様によれば、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるといった効果を奏する。 According to one aspect of the embodiment, there is an effect that appropriate information can be output without depending on the input by the user to the dialogue system.

図1は、実施形態に係る出力処理の一例を示す図である。FIG. 1 is a diagram showing an example of output processing according to the embodiment. 図2は、実施形態に係る出力装置の構成例を示す図である。FIG. 2 is a diagram showing a configuration example of the output device according to the embodiment. 図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of the sensor information storage unit according to the embodiment. 図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a content storage unit according to the embodiment. 図5は、実施形態に係る反応情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of the reaction information storage unit according to the embodiment. 図6は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 6 is a diagram showing an example of a model information storage unit according to the embodiment. 図7は、実施形態に係るモデルの一例を示す図である。FIG. 7 is a diagram showing an example of a model according to the embodiment. 図8は、実施形態に係る学習データ記憶部の一例を示す図である。FIG. 8 is a diagram showing an example of the learning data storage unit according to the embodiment. 図9は、実施形態に係る出力処理手順を示すフローチャートである。FIG. 9 is a flowchart showing an output processing procedure according to the embodiment. 図10は、実施形態に係るコンテンツ配信装置の構成例を示す図である。FIG. 10 is a diagram showing a configuration example of the content distribution device according to the embodiment. 図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 11 is a diagram showing an example of a user information storage unit according to the embodiment. 図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。FIG. 12 is a diagram showing an example of a content storage unit according to the embodiment. 図13は、変形例に係る出力処理の一例を示す図である。FIG. 13 is a diagram showing an example of output processing according to a modified example. 図14は、変形例に係る出力処理の一例を示す図である。FIG. 14 is a diagram showing an example of output processing according to a modified example. 図15は、出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram showing an example of a computer that realizes the function of the output device.

以下に、本願に係る出力プログラム、出力装置及び出力方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力プログラム、出力装置及び出力方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing the output program, output device, and output method according to the present application (hereinafter, referred to as “embodiments”) will be described in detail with reference to the drawings. The output program, output device, and output method according to the present application are not limited by this embodiment. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

〔1.出力処理の一例〕
まず、図1を用いて、実施形態に係る出力処理の一例について説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に例示するように、出力処理システム1には、コンテンツ配信装置20と、出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した出力処理システム1には、任意の数のコンテンツ配信装置20と任意の数の出力装置100とが含まれていてもよい。
[1. Example of output processing]
First, an example of output processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing according to the embodiment. As illustrated in FIG. 1, the output processing system 1 includes a content distribution device 20 and an output device 100. These various devices are communicably connected by wire or wirelessly via a network N (for example, the Internet). The output processing system 1 shown in FIG. 2 may include an arbitrary number of content distribution devices 20 and an arbitrary number of output devices 100.

コンテンツ配信装置20は、コンテンツを配信する情報処理装置である。図1に示す例において、コンテンツ配信装置20は、出力装置100からの配信要求に応じて、出力装置100において表示されるコンテンツの一例であるニュース記事を配信する。 The content distribution device 20 is an information processing device that distributes content. In the example shown in FIG. 1, the content distribution device 20 distributes a news article, which is an example of the content displayed on the output device 100, in response to a distribution request from the output device 100.

出力装置100は、ユーザとの雑談や他愛のない会話といった非タスク志向型の対話を行うシステムである非タスク志向型対話システム(non-task-oriented dialogue systems)である。なお、タスク志向型対話システムは、ユーザの要求に応じて、検索やニュース読み上げや予約代行などのタスクを行うシステムを指す。出力装置100は、テキストや音声を通じてユーザとの対話を自動的に行うプログラムであるチャットボット(chatbot)の一種である。出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得し、取得した反応情報をユーザに対して出力する情報処理装置である。 The output device 100 is a non-task-oriented dialogue systems, which is a system for conducting non-task-oriented dialogues such as chats with users and conversations without love. The task-oriented dialogue system refers to a system that performs tasks such as search, news reading, and reservation agency in response to a user's request. The output device 100 is a type of chatbot, which is a program that automatically interacts with a user through text or voice. The output device 100 acquires reaction information which is character information generated as a reaction to a second information other than the first information input by the user to the dialogue system, and outputs the acquired reaction information to the user. It is a device.

また、出力装置100は、周囲の音を取得するマイク等の取得装置と、任意の音を出力可能なスピーカー等の出力装置とを有する入出力装置とを有する入出力装置であり、例えば、スマートスピーカーと呼ばれるデバイスである。また、出力装置100は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置100は、音の入力を受付ける受付機能を有しユーザが発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。なお、出力装置100は、スマートスピーカー以外にも、スマートフォンやタブレット等といった各種の情報処理装置であってもよい。図1では、出力装置100がスマートフォンである例を示す。また、出力装置100は、必ずしもスピーカー等の出力装置を有する必要はない。例えば、出力装置100は、音声に代えて、文字列等の情報を表示することで各種の情報をユーザに対して出力してもよい。 Further, the output device 100 is an input / output device having an acquisition device such as a microphone for acquiring ambient sound and an input / output device having an output device such as a speaker capable of outputting an arbitrary sound. For example, a smart It is a device called a speaker. Further, the output device 100 is a device capable of outputting music and providing information by voice. Further, the output device 100 has a reception function for receiving sound input, and has an output function of outputting a sound according to the content of the acquired voice when the voice emitted by the user is acquired. The output device 100 may be various information processing devices such as smartphones and tablets, in addition to the smart speaker. FIG. 1 shows an example in which the output device 100 is a smartphone. Further, the output device 100 does not necessarily have to have an output device such as a speaker. For example, the output device 100 may output various information to the user by displaying information such as a character string instead of the voice.

また、出力装置100は、出力装置100を利用するユーザの物理的な状態を検知するセンサである物理センサを備える。例えば、出力装置100は、ジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意の物理センサを備える。出力装置100は、物理センサによって出力装置100を利用するユーザの物理的な状態を検知する。また、出力装置100は、物理センサによってユーザの物理的な状態に関する情報であるセンサ情報を取得する。出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングを判定する。図1に示す例では、出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を音声によって出力するタイミングであるか否かを判定する。 Further, the output device 100 includes a physical sensor which is a sensor for detecting the physical state of the user who uses the output device 100. For example, the output device 100 includes an arbitrary physical sensor such as a gyro sensor, an image sensor, an acceleration sensor, a temperature sensor, a volume sensor, and a brightness sensor. The output device 100 detects the physical state of the user who uses the output device 100 by a physical sensor. Further, the output device 100 acquires sensor information which is information on the physical state of the user by the physical sensor. The output device 100 determines the timing of outputting the reaction information to the user based on the acquired sensor information. In the example shown in FIG. 1, the output device 100 determines whether or not it is the timing to output the reaction information to the user by voice based on the acquired sensor information.

ここから、図1を用いて、出力処理の流れについて説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に示す例では、出力装置100は、音量センサによって、ユーザによる発話を示すユーザの音声に関する音声情報を取得する(ステップS11)。出力装置100は、音声情報を取得すると、取得した音声情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS12)。具体的には、出力装置100は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。例えば、出力装置100は、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、出力装置100は、ユーザに対して反応情報を出力するタイミングであると判定した場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS13)。 From here, the flow of output processing will be described with reference to FIG. FIG. 1 is a diagram showing an example of output processing according to the embodiment. In the example shown in FIG. 1, the output device 100 acquires voice information regarding the user's voice indicating the utterance by the user by the volume sensor (step S11). When the output device 100 acquires the voice information, the output device 100 determines whether or not it is the timing to output the reaction information to the user based on the acquired voice information (step S12). Specifically, the output device 100 determines whether or not a predetermined period has elapsed from the user's utterance to the dialogue system. For example, when the output device 100 determines that a predetermined period (for example, 30 seconds) has elapsed from the user's utterance to the dialogue system based on the acquired voice information, the output device 100 outputs reaction information to the user. Judge that it is time to do. Subsequently, when the output device 100 determines that it is time to output the reaction information to the user, the output device 100 transmits a content distribution request to the content distribution device 20 (step S13).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から受け付ける。コンテンツ配信装置20は、コンテンツの配信要求を受け付けると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS14)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、ネット通販会社であるA社で労働組合が結成されたことに関するニュース記事であるコンテンツ#1を出力装置100に配信する。 The content distribution device 20 receives a content distribution request from the output device 100. When the content distribution device 20 receives the content distribution request, the content distribution device 20 identifies a user who uses the output device 100 of the request source. Subsequently, when the content distribution device 20 identifies the user, the content distribution device 20 selects the content according to the user (step S14). When the content distribution device 20 selects the content, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes the content # 1, which is a news article about the formation of a labor union by the online shopping company A, to the output device 100.

出力装置100は、コンテンツ配信装置20からコンテンツ#1を取得する(ステップS15)。出力装置100は、コンテンツ#1を取得すると、取得したコンテンツ#1をモデルM1に入力することにより、コンテンツ#1に対する反応を示す文字情報である反応情報#1を生成する(ステップS16)。具体的には、出力装置100は、コンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、出力装置100は、ユーザとのコンテンツ#1に関連する対話の契機となる文字情報である契機情報R12を生成する。より具体的には、出力装置100は、コンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。出力装置100は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。出力装置100は、反応情報#1を生成すると、生成した反応情報#1を取得する。なお、図1では、反応情報#1がサマリ情報R11と契機情報R12の両方を含む文字情報である例について説明したが、反応情報#1はサマリ情報R11を含まなくてもよい。すなわち、反応情報#1が契機情報R12であってもよい。 The output device 100 acquires the content # 1 from the content distribution device 20 (step S15). When the output device 100 acquires the content # 1, the acquired content # 1 is input to the model M1 to generate reaction information # 1 which is character information indicating a reaction to the content # 1 (step S16). Specifically, the output device 100 generates summary information R11 that is text information corresponding to the summary of the content # 1, "It seems that a labor union was formed by company A." Further, the output device 100 generates the trigger information R12 which is the character information that triggers the dialogue related to the content # 1 with the user. More specifically, the output device 100 generates the trigger information R12, which is character information requesting the user for an opinion on the content # 1, "Does a strike occur?". The output device 100 generates reaction information # 1 including summary information R11 and trigger information R12. When the output device 100 generates the reaction information # 1, the output device 100 acquires the generated reaction information # 1. Although FIG. 1 has described an example in which the reaction information # 1 is character information including both the summary information R11 and the trigger information R12, the reaction information # 1 may not include the summary information R11. That is, the reaction information # 1 may be the trigger information R12.

出力装置100は、反応情報#1を取得すると、反応情報#1を音声出力する(ステップS17)。具体的には、出力装置100は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。 When the output device 100 acquires the reaction information # 1, the output device 100 outputs the reaction information # 1 by voice (step S17). Specifically, the output device 100 outputs the summary information R11 by voice and then outputs the trigger information R12 by voice.

上述したように、出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。また、出力装置100は、取得した反応情報をユーザに対して出力する。これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。 As described above, the output device 100 acquires reaction information which is character information generated as a reaction to the second information other than the first information input by the user to the dialogue system. Further, the output device 100 outputs the acquired reaction information to the user. As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the news article or the like, even if the user does not act on the dialogue system. That is, the output device 100 can spontaneously and appropriately talk to a person from the device. Therefore, the output device 100 can output appropriate information without depending on the input by the user to the dialogue system.

〔2.出力装置の構成〕
次に、図2を用いて、実施形態に係る出力装置100の構成について説明する。図2は、実施形態に係る出力装置100の構成例を示す図である。図2に示すように、出力装置100は、通信部110と、記憶部120と、入力部130と、表示部140と、物理センサ150と、制御部160とを有する。
[2. Output device configuration]
Next, the configuration of the output device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the output device 100 according to the embodiment. As shown in FIG. 2, the output device 100 includes a communication unit 110, a storage unit 120, an input unit 130, a display unit 140, a physical sensor 150, and a control unit 160.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、コンテンツ配信装置20との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the content distribution device 20.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、出力プログラム等を記憶する。また、記憶部14は、図2に示すように、センサ情報記憶部121とコンテンツ記憶部122と反応情報記憶部123とモデル情報記憶部124と学習データ記憶部125とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, an output program or the like. Further, as shown in FIG. 2, the storage unit 14 includes a sensor information storage unit 121, a content storage unit 122, a reaction information storage unit 123, a model information storage unit 124, and a learning data storage unit 125.

(センサ情報記憶部121)
センサ情報記憶部121は、物理センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部121は、物理センサにより検知されたセンサ情報を記憶する。図3を用いて、実施形態に係るセンサ情報記憶部の一例について説明する。図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。図3に示す例では、センサ情報記憶部121は、「ログID」、「種別」、「センサ情報」、「日時」、「位置」といった項目を有する。
(Sensor information storage unit 121)
The sensor information storage unit 121 stores various information related to detection by the physical sensor. For example, the sensor information storage unit 121 stores the sensor information detected by the physical sensor. An example of the sensor information storage unit according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing an example of the sensor information storage unit according to the embodiment. In the example shown in FIG. 3, the sensor information storage unit 121 has items such as "log ID", "type", "sensor information", "date and time", and "position".

「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図3では「センサ情報」に「SN11」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。 The "log ID" indicates identification information for identifying the acquired sensor information. “Type” indicates information regarding the type of detected sensor information. “Sensor information” indicates the detected sensor information. In FIG. 3, an example in which conceptual information such as “SN11” is stored in “sensor information” is shown, but in reality, specifically detected information (sensor data) or a file indicating the storage location thereof is shown. The path name and the like may be stored.

例えば、センサ情報の種別「画像」である場合、「センサ情報」には、ユーザの姿をとらえた静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、ユーザの発話を示す音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。 For example, in the case of the type of sensor information "image", the "sensor information" stores a still image or a moving image that captures the user's appearance, or a file path name indicating the storage location thereof. Further, for example, in the case of the sensor information type "utterance", the "sensor information" includes voice data indicating the user's utterance, character information after converting the voice data, or a file path name indicating the storage location thereof. Etc. are stored.

「日時」は、センサ情報が検知された日時を示す。図3では「日時」を「dt11」等のように抽象的に図示するが、「2019年3月23日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2019年3月23日22時31分」や「2019年3月23日22時30−31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、図3では「位置」を「LC11」といった抽象的な符号で図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報が記憶されてもよい。 “Date and time” indicates the date and time when the sensor information was detected. In FIG. 3, the “date and time” is abstractly illustrated as “dt11” or the like, but a specific date and time such as “March 23, 2019 22:31:52” may be stored. The "date and time" is not limited to the time point, and may be a predetermined period such as "March 23, 2019 22:31" or "March 23, 2019 22:30-31". Further, the "position" indicates the position where the corresponding action was performed. Although the "position" is illustrated by an abstract code such as "LC11" in FIG. 3, information indicating latitude and longitude and information indicating an address such as "B intersection in Z town, Y city, X prefecture" are stored. You may.

(コンテンツ記憶部122)
コンテンツ記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツ配信装置20から取得したコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツを形成するHTMLファイルや、コンテンツに表示される文字情報や静止画像や動画像を記憶する。図4を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。図4に示す例では、コンテンツ記憶部122は、「コンテンツID」、「コンテンツ」、「取得日時」といった項目を有する。
(Content storage unit 122)
The content storage unit 122 stores various information related to the content. For example, the content storage unit 122 stores information about the content acquired from the content distribution device 20. For example, the content storage unit 122 stores information related to news articles, posted information in SNS (Social Networking Service), advertisements, reviews of movies, and the like. For example, the content storage unit 122 stores an HTML file forming the content, character information displayed on the content, a still image, and a moving image. An example of the content storage unit according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of a content storage unit according to the embodiment. In the example shown in FIG. 4, the content storage unit 122 has items such as "content ID", "content", and "acquisition date and time".

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図4では「コンテンツ」に「コンテンツ#11」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「取得日時」は、コンテンツが取得された日時を示す。 The "content ID" indicates identification information for identifying the content. "Content" indicates text information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. In FIG. 4, an example in which conceptual information such as "content # 11" is stored in "content" is shown, but in reality, specific content (HTML file forming) or its storage location is shown. The file path name and the like may be stored. Further, the "content" may store a still image or a moving image displayed in a news article, posted information on an SNS, an advertisement, a movie review, or the like. Alternatively, the "content" may store character information extracted from these image information as a result of analyzing image information displayed in news articles, posted information in SNS, and reviews of advertisements, movies, and the like. "Acquisition date and time" indicates the date and time when the content was acquired.

(反応情報記憶部123)
反応情報記憶部123は、反応情報に関する各種情報を記憶する。例えば、反応情報記憶部123は、出力装置100が生成した反応情報を記憶する。図5を用いて、実施形態に係る反応情報記憶部の一例について説明する。図5は、実施形態に係る反応情報記憶部の一例を示す図である。図5に示す例では、反応情報記憶部123は、「反応ID」、「反応情報」、「ユーザによる応答」、「生成日時」、「コンテンツID」といった項目を有する。
(Reaction information storage unit 123)
The reaction information storage unit 123 stores various information related to the reaction information. For example, the reaction information storage unit 123 stores the reaction information generated by the output device 100. An example of the reaction information storage unit according to the embodiment will be described with reference to FIG. FIG. 5 is a diagram showing an example of the reaction information storage unit according to the embodiment. In the example shown in FIG. 5, the reaction information storage unit 123 has items such as "reaction ID", "reaction information", "response by user", "generation date and time", and "content ID".

「反応ID」は、反応情報を識別するための識別情報を示す。「反応情報」は、コンテンツIDで識別されるコンテンツに対する反応を示す文字情報を示す。「コンテンツID」は、反応の対象となるコンテンツを識別するための識別情報を示す。「ユーザによる応答」は、反応情報に対するユーザの応答の有無を示す。具体的には、反応情報に対するユーザによる応答があった場合は「1」を、反応情報に対するユーザによる応答がなかった場合は「0」が格納される。「生成日時」は、反応情報が生成された日時を示す。 The "reaction ID" indicates identification information for identifying the reaction information. The "reaction information" indicates character information indicating a reaction to the content identified by the content ID. The "content ID" indicates identification information for identifying the content to be reacted. "Response by the user" indicates whether or not the user responds to the reaction information. Specifically, "1" is stored when there is a response from the user to the reaction information, and "0" is stored when there is no response from the user to the reaction information. "Generation date and time" indicates the date and time when the reaction information was generated.

(モデル情報記憶部124)
モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成するモデルに関する各種情報を記憶する。例えば、モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルを記憶する。図6を用いて、実施形態に係るモデル情報記憶部の一例について説明する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示す例では、モデル情報記憶部124は、「モデルID」、「モデルデータ」といった項目を有する。
(Model information storage unit 124)
The model information storage unit 124 stores various information related to the model that generates reaction information, which is character information indicating a reaction to the second information other than the first information input by the user to the dialogue system. For example, the model information storage unit 124 stores a model that outputs reaction information, which is character information indicating a reaction to the second information, when the second information other than the first information input by the user is input to the dialogue system. An example of the model information storage unit according to the embodiment will be described with reference to FIG. FIG. 6 is a diagram showing an example of a model information storage unit according to the embodiment. In the example shown in FIG. 6, the model information storage unit 124 has items such as "model ID" and "model data".

「モデルID」は、反応情報を生成するモデルを識別するための識別情報を示す。「モデルデータ」は、モデルのモデルデータを示す。例えば、「モデルデータ」には、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するためのデータが格納される。 The "model ID" indicates identification information for identifying a model that generates reaction information. "Model data" indicates model data of a model. For example, the "model data" stores data for generating reaction information, which is character information indicating a reaction to the second information from the second information other than the first information input by the user to the dialogue system.

ここで、図7を用いて、実施形態に係るモデルの一例について説明する。図7に、実施形態に係るモデルの一例を示す。図7では、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するモデルM1がSeq2Seq(Sequence to Sequence Model)である例について説明する。Seq2Seqは、語句の並び(文字列)を入力して、別の語句の並び(文字列)を出力するルールを学習するモデルである。具体的には、Seq2Seqは、RNN(Recurrent Neural Network)の一種であるLSTM(Long Short Term Memory)を構成要素とするEncoder-Decoderモデルである。 Here, an example of the model according to the embodiment will be described with reference to FIG. 7. FIG. 7 shows an example of the model according to the embodiment. In FIG. 7, an example in which the model M1 that generates reaction information, which is character information indicating a reaction to the second information from the second information other than the first information input by the user to the dialogue system, is a Seq2Seq (Sequence to Sequence Model). Will be described. Seq2Seq is a model for learning a rule for inputting a sequence of words (character string) and outputting another sequence of words (character string). Specifically, Seq2Seq is an Encoder-Decoder model whose component is LSTM (Long Short Term Memory), which is a kind of RNN (Recurrent Neural Network).

図7に示す例では、「ABC」という文字列を入力して、「WXYZ」という文字列を出力する例を示す。図1に示す例に当てはめると、「ABC」は、「ネット通販大手A社で労働組合が結成された。「恣意的な人事評価」の廃止を訴えている。」というニュース記事であるコンテンツ#1の文字情報である。また、「WXYZ」は、「A社で労働組合が結成されたみたいです。ストが起きますかね?」というコンテンツ#1に対する反応を示す文字情報である。このような「ABC」(ニュース記事であるコンテンツ#1)と「WXYZ」(コンテンツ#1に対する応答を示す反応情報#1)の組があった場合、Seq2SeqであるモデルM1は、図7の「ABC」が入力されているEncoder側で「ABC」をベクトル化し、図7の「WXYZ」が出力されているDecoder側で「WXYZ」を生成するようにRNNの学習を行う。 In the example shown in FIG. 7, an example in which the character string "ABC" is input and the character string "WXYZ" is output is shown. Applying the example shown in Fig. 1, "ABC" is appealing for the abolition of "arbitrary personnel evaluation", "a labor union was formed by a major online shopping company A." This is the character information of the content # 1 which is a news article. In addition, "WXYZ" is textual information that indicates the reaction to content # 1 such as "It seems that a labor union was formed at company A. Will a strike occur?" When there is such a pair of "ABC" (content # 1 which is a news article) and "WXYZ" (reaction information # 1 indicating a response to the content # 1), the model M1 which is Seq2Seq is the model M1 of FIG. The RNN is trained so that the "ABC" is vectorized on the Encoder side where "ABC" is input and the "WXYZ" is generated on the Decoder side where the "WXYZ" in FIG. 7 is output.

モデルデータMDT1は、第2情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に応じて、入力層に入力された第2情報に対する反応を示す反応情報を出力層から出力するよう、出力装置100を機能させてもよい。 The model data MDT1 includes an input layer into which the second information is input, an output layer, a first element which is any layer from the input layer to the output layer and belongs to a layer other than the output layer, and the first element. Reaction information that includes a second element whose value is calculated based on the weight of the first element, and indicates a reaction to the second information input to the input layer according to the second information input to the input layer. The output device 100 may be made to function so as to output from the output layer.

ここで、モデルデータMDT1が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the model data MDT1 is realized by the regression model represented by "y = a1 * x1 + a2 * x2 + ... + ai * xi". In this case, the first element included in the model data MDT1 corresponds to input data (xi) such as x1 and x2. Further, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element corresponds to any node of the input layer, and the second element can be regarded as the node of the output layer.

また、モデルデータMDT1がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the model data MDT1 is realized by a neural network having one or a plurality of intermediate layers such as DNN (Deep Neural Network). In this case, the first element included in the model data MDT1 corresponds to either the node of the input layer or the intermediate layer. Further, the second element corresponds to a node in the next stage, which is a node to which a value is transmitted from a node corresponding to the first element. Further, the weight of the first element corresponds to a connection coefficient which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.

出力装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、反応情報の出力を行う。具体的には、モデルデータMDT1は、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するように係数が設定される。出力装置100は、このようなモデルデータMDT1を用いて、第2情報に対する反応を示す反応情報を出力する。 The output device 100 outputs reaction information using a model having an arbitrary structure such as the regression model and the neural network described above. Specifically, the model data MDT1 is set with a coefficient so as to output reaction information indicating a reaction to the second information when the second information is input. The output device 100 uses such model data MDT1 to output reaction information indicating a reaction to the second information.

なお、上記例では、モデルデータMDT1が、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するモデル(以下、モデルXという。)である例を示した。しかし、実施形態に係るモデルデータMDT1は、モデルXにデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルデータMDT1は、第2情報を入力とした際に、モデルXが出力した第2情報に対する反応を示す反応情報を入力して学習されたモデル(以下、モデルYという。)であってもよい。または、モデルデータMDT1は、第2情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, the model data MDT1 is a model (hereinafter referred to as model X) that outputs reaction information indicating a reaction to the second information when the second information is input. However, the model data MDT1 according to the embodiment may be a model generated based on the result obtained by repeating the input / output of data to the model X. For example, the model data MDT1 is a model (hereinafter referred to as model Y) learned by inputting reaction information indicating a reaction to the second information output by the model X when the second information is input. May be good. Alternatively, the model data MDT1 may be a model trained to input the second information and output the output value of the model Y.

また、出力装置100がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルデータMDT1は、GANの一部を構成するモデルであってもよい。 Further, when the output device 100 performs the estimation process using GAN (Generative Adversarial Networks), the model data MDT1 may be a model forming a part of GAN.

(学習データ記憶部125)
学習データ記憶部125は、モデルの学習データ(正解データ)に関する各種情報を記憶する。例えば、学習データ記憶部125は、コンテンツと、そのコンテンツに対する反応を示す文字情報である反応情報を記憶する。図8を用いて、実施形態に係る学習データ記憶部の一例について説明する。図8は、実施形態に係る学習データ記憶部の一例を示す図である。図8に示す例では、学習データ記憶部125は、「学習データID」、「コンテンツ」、「反応情報」、「日時」といった項目を有する。
(Learning data storage unit 125)
The learning data storage unit 125 stores various information related to the learning data (correct answer data) of the model. For example, the learning data storage unit 125 stores the content and the reaction information which is the character information indicating the reaction to the content. An example of the learning data storage unit according to the embodiment will be described with reference to FIG. FIG. 8 is a diagram showing an example of the learning data storage unit according to the embodiment. In the example shown in FIG. 8, the learning data storage unit 125 has items such as “learning data ID”, “content”, “reaction information”, and “date and time”.

「学習データID」は、学習データを識別するための識別情報を示す。「コンテンツ」は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画のレビュー等のコンテンツに含まれる文字情報を示す。図8では「コンテンツ」に「コンテンツ#1-1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「反応情報」は、コンテンツに対する反応を示す文字情報を示す。「日時」は、モデルが学習データを学習した日時を示す。 The "learning data ID" indicates identification information for identifying the learning data. “Content” indicates text information included in content such as news articles, posted information on SNS (Social Networking Service), advertisements, and movie reviews. In FIG. 8, an example in which conceptual information such as “content # 1-1” is stored in “content” is shown, but in reality, specific content (HTML file forming) or its storage location is shown. A file path name indicating the above may be stored. Further, the "content" may store a still image or a moving image displayed in a news article, posted information on an SNS, an advertisement, a movie review, or the like. Alternatively, the "content" may store character information extracted from these image information as a result of analyzing image information displayed in news articles, posted information in SNS, and reviews of advertisements, movies, and the like. "Reaction information" indicates character information indicating a reaction to the content. "Date and time" indicates the date and time when the model learned the training data.

(入力部130)
入力部130は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部130は、キーボードやマウスや操作キー等によって実現される。
(Input unit 130)
The input unit 130 is an input device that receives various operations from the user. For example, the input unit 130 is realized by a keyboard, a mouse, operation keys, or the like.

(表示部140)
表示部140は、各種情報を表示するための表示装置であり、すなわち、画面である。例えば、表示部140は、液晶ディスプレイ等によって実現される。なお、出力装置100にタッチパネルが採用される場合には、入力部130と表示部140とは一体化される。また、以下の説明では、表示部140を画面と記載する場合がある。
(Display unit 140)
The display unit 140 is a display device for displaying various information, that is, a screen. For example, the display unit 140 is realized by a liquid crystal display or the like. When a touch panel is adopted for the output device 100, the input unit 130 and the display unit 140 are integrated. Further, in the following description, the display unit 140 may be described as a screen.

(物理センサ150)
物理センサ150は、出力装置100を利用するユーザの物理的な状態を検知するセンサである。例えば、物理センサ150は、出力装置100の3軸方向の傾きを測定するジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意のセンサが適用可能である。
(Physical sensor 150)
The physical sensor 150 is a sensor that detects the physical state of the user who uses the output device 100. For example, as the physical sensor 150, any sensor such as a gyro sensor, an image sensor, an acceleration sensor, a temperature sensor, a volume sensor, and a brightness sensor that measures the inclination of the output device 100 in the three axial directions can be applied.

物理センサ150は、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。物理センサ150は、センサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部121に格納する。具体的には、音量センサである物理センサ150は、ユーザによる発話を示すユーザの音声に関する音声情報を取得する。音量センサである物理センサ150は、音声情報を取得すると、取得した音声情報をセンサ情報記憶部121に格納する。また、画像センサである物理センサ150は、ユーザの画像に関する画像情報を取得する。画像センサである物理センサ150は、画像情報を取得すると、取得した画像情報をセンサ情報記憶部121に格納する。また、加速度センサである物理センサ150は、ユーザの動きに伴う加速度に関する加速度情報を取得する。加速度センサである物理センサ150は、加速度情報を取得すると、取得した加速度情報をセンサ情報記憶部121に格納する。 The physical sensor 150 acquires sensor information that is information about the physical state of the user who uses the output device 100. When the physical sensor 150 acquires the sensor information, the physical sensor 150 stores the acquired sensor information in the sensor information storage unit 121. Specifically, the physical sensor 150, which is a volume sensor, acquires voice information regarding the user's voice indicating an utterance by the user. When the physical sensor 150, which is a volume sensor, acquires voice information, the acquired voice information is stored in the sensor information storage unit 121. Further, the physical sensor 150, which is an image sensor, acquires image information related to the user's image. When the physical sensor 150, which is an image sensor, acquires image information, the acquired image information is stored in the sensor information storage unit 121. Further, the physical sensor 150, which is an acceleration sensor, acquires acceleration information regarding acceleration accompanying the movement of the user. When the physical sensor 150, which is an acceleration sensor, acquires acceleration information, the acquired acceleration information is stored in the sensor information storage unit 121.

(制御部160)
制御部160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、出力装置100内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザと呼ばれるアプリケーションプログラムに該当する。また、制御部160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 160)
In the control unit 160, various programs (corresponding to an example of the output program) stored in the storage device inside the output device 100 are executed by the CPU (Central Processing Unit), MPU (Micro Processing Unit), etc. using the RAM as a work area. It is realized by being done. For example, these various programs correspond to application programs called web browsers. Further, the control unit 160 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部160は、判定部161と、要求部162と、生成部163と、取得部164と、出力部165とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部160の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 2, the control unit 160 includes a determination unit 161, a request unit 162, a generation unit 163, an acquisition unit 164, and an output unit 165, and functions and operations of information processing described below. To realize or execute. The internal configuration of the control unit 160 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it is a configuration for performing information processing described later.

(判定部161)
判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。具体的には、判定部161は、センサ情報記憶部121を参照して、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。続いて、判定部161は、センサ情報を取得すると、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。
(Judgment unit 161)
The determination unit 161 determines whether or not it is time to output reaction information to the user. Specifically, the determination unit 161 refers to the sensor information storage unit 121 to acquire sensor information which is information on the physical state of the user who uses the output device 100. Subsequently, when the sensor information is acquired, the determination unit 161 determines whether or not it is the timing to output the reaction information to the user based on the acquired sensor information.

また、判定部161は、対話システムに対するユーザによる第2情報の要求以外のタイミングであるか否かを判定する。より具体的には、出力部165は、ユーザのコンテキストに基づくタイミングであるか否かを判定する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。図1に示す例では、判定部161は、センサ情報記憶部121を参照して、ログLG1等の音声情報を取得する。続いて、判定部161は、音声情報を取得すると、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであるか否かを判定する。判定部161は、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。 Further, the determination unit 161 determines whether or not the timing is other than the request of the second information by the user to the dialogue system. More specifically, the output unit 165 determines whether or not the timing is based on the user's context. In the example shown in FIG. 1, the output unit 165 determines whether or not it is the timing when a predetermined period has elapsed from the user's utterance to the dialogue system. In the example shown in FIG. 1, the determination unit 161 refers to the sensor information storage unit 121 to acquire voice information such as the log LG1. Subsequently, when the determination unit 161 acquires the voice information, it determines whether or not a predetermined period (for example, 30 seconds) has elapsed from the user's utterance to the dialogue system based on the acquired voice information. .. When the determination unit 161 determines that a predetermined period (for example, 30 seconds) has elapsed from the user's utterance to the dialogue system, it determines that it is the timing to output the reaction information to the user.

なお、判定部161は、ユーザの位置情報に基づいてユーザに対して反応情報を出力するタイミングであるか否かを判定してもよい。例えば、判定部161は、センサ情報記憶部121の「位置」に格納された位置情報を参照して、出力装置100を利用するユーザの位置情報を取得する。続いて、判定部161は、取得した位置情報に基づいて、ユーザが屋内にいるか屋外にいるかを判定する。例えば、判定部161は、ユーザがユーザの自宅にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。また、判定部161は、ユーザが公園にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。 The determination unit 161 may determine whether or not it is the timing to output the reaction information to the user based on the user's position information. For example, the determination unit 161 refers to the position information stored in the “position” of the sensor information storage unit 121, and acquires the position information of the user who uses the output device 100. Subsequently, the determination unit 161 determines whether the user is indoors or outdoors based on the acquired position information. For example, when the determination unit 161 determines that the user is at the user's home, it may determine that it is the timing to output the reaction information to the user. Further, when the determination unit 161 determines that the user is in the park, it may determine that it is the timing to output the reaction information to the user.

(要求部162)
要求部162は、コンテンツの配信を要求する。具体的には、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する。また、要求部162は、コンテンツ配信装置20からコンテンツを受信する。要求部162は、コンテンツを受信すると、受信したコンテンツをコンテンツ記憶部122に格納する。
(Request unit 162)
The request unit 162 requests the distribution of the content. Specifically, the request unit 162 transmits a content distribution request to the content distribution device 20 when the determination unit 161 determines that it is time to output the reaction information to the user. In addition, the request unit 162 receives the content from the content distribution device 20. When the request unit 162 receives the content, the request unit 162 stores the received content in the content storage unit 122.

(生成部163)
生成部163は、第2情報から反応情報を生成する。具体的には、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を取得する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報を取得する。また、生成部163は、ユーザに応じて選択される第2情報を取得する。例えば、生成部163は、所定のコンテンツである第2情報を取得する。図1に示す例では、生成部163は、ニュース記事である第2情報を取得する。より具体的には、生成部163は、コンテンツ記憶部122を参照して、ニュース記事であるコンテンツ#1を取得する。
(Generator 163)
The generation unit 163 generates reaction information from the second information. Specifically, the generation unit 163 acquires the second information other than the first information input by the user to the dialogue system. More specifically, the generation unit 163 acquires the second information other than the first information input by the user to the dialogue system which is a non-task-oriented dialogue system. In addition, the generation unit 163 acquires the second information selected according to the user. For example, the generation unit 163 acquires the second information which is a predetermined content. In the example shown in FIG. 1, the generation unit 163 acquires the second information which is a news article. More specifically, the generation unit 163 refers to the content storage unit 122 to acquire the content # 1 which is a news article.

続いて、生成部163は、第2情報を取得すると、取得した第2情報を所定のモデルに入力することにより、反応情報を生成する。生成部163は、反応情報を生成すると、生成した反応情報を反応情報記憶部123に格納する。より具体的には、生成部163は、第2情報を取得すると、モデル情報記憶部124を参照して、モデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するSeq2SeqであるモデルM1を取得する。続いて、生成部163は、モデルM1を取得すると、取得したモデルM1に第2情報を入力する。生成部163は、モデルM1の出力情報を反応情報として取得する。このようにして、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を生成する。また、生成部163は、ユーザに応じて選択される第2情報に対する反応情報を生成する。例えば、生成部163は、所定のコンテンツである第2情報に対する反応情報を生成する。図1に示す例では、生成部163は、ニュース記事である第2情報に対する反応情報を生成する。より具体的には、生成部163は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を生成する。 Subsequently, when the generation unit 163 acquires the second information, the generation unit 163 generates reaction information by inputting the acquired second information into a predetermined model. When the generation unit 163 generates the reaction information, the generated reaction information is stored in the reaction information storage unit 123. More specifically, when the generation unit 163 acquires the second information, it refers to the model information storage unit 124 and acquires the model M1. For example, when the generation unit 163 inputs the second information other than the first information input by the user into the dialogue system, the generation unit 163 acquires the model M1 that outputs the reaction information which is the character information indicating the reaction to the second information. For example, when the generation unit 163 inputs the second information other than the first information input by the user into the dialogue system, the generation unit 163 acquires the model M1 which is the Seq2Seq which outputs the reaction information which is the character information indicating the reaction to the second information. To do. Subsequently, when the generation unit 163 acquires the model M1, the generation unit 163 inputs the second information to the acquired model M1. The generation unit 163 acquires the output information of the model M1 as reaction information. In this way, the generation unit 163 generates reaction information which is character information indicating a reaction to the second information other than the first information input by the user to the dialogue system. More specifically, the generation unit 163 generates reaction information for the second information other than the first information input by the user to the dialogue system which is a non-task-oriented dialogue system. In addition, the generation unit 163 generates reaction information for the second information selected according to the user. For example, the generation unit 163 generates reaction information for the second information which is a predetermined content. In the example shown in FIG. 1, the generation unit 163 generates reaction information for the second information which is a news article. More specifically, the generation unit 163 generates reaction information indicating a reaction to the content # 1, which is a news article selected according to the user by the content distribution device 20.

また、生成部163は、第2情報の要約であるサマリ情報を生成する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、生成部163は、ユーザとの第2情報に関連する対話の契機となる反応情報を生成する。例えば、生成部163は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。生成部163は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。なお、図1では、生成部163が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を生成する例について説明したが、サマリ情報R11を含まない反応情報#1を生成してもよい。すなわち、生成部163は、契機情報R12である反応情報#1を生成してもよい。 In addition, the generation unit 163 generates summary information which is a summary of the second information. In the example shown in FIG. 1, the generation unit 163 generates summary information R11, which is text information corresponding to a summary of content # 1 which is a news article, "It seems that a labor union was formed at company A." In addition, the generation unit 163 generates reaction information that triggers a dialogue related to the second information with the user. For example, the generation unit 163 acquires reaction information that requests the user to give an opinion on the second information. In the example shown in FIG. 1, the generation unit 163 generates the trigger information R12, which is character information requesting the user for an opinion on the content # 1 which is a news article, "Does a strike occur?". The generation unit 163 generates reaction information # 1 including summary information R11 and trigger information R12. Note that, in FIG. 1, an example in which the generation unit 163 generates reaction information # 1 including both summary information R11 and trigger information R12 has been described, but even if reaction information # 1 not including summary information R11 is generated, Good. That is, the generation unit 163 may generate the reaction information # 1 which is the trigger information R12.

(取得部164)
取得部164は、生成部163により生成された反応情報を取得する。具体的には、取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。より具体的には、取得部164は、具体的には、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。例えば、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。より具体的には、取得部164は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を取得する。
(Acquisition unit 164)
The acquisition unit 164 acquires the reaction information generated by the generation unit 163. Specifically, the acquisition unit 164 acquires reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system. More specifically, the acquisition unit 164 acquires reaction information to the second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system. To do. For example, the acquisition unit 164 acquires reaction information with respect to the second information which is a predetermined content. In addition, the acquisition unit 164 acquires reaction information for the second information selected according to the user. In the example shown in FIG. 1, the acquisition unit 164 acquires reaction information to the second information which is a news article. More specifically, the acquisition unit 164 acquires reaction information indicating a reaction to the content # 1, which is a news article selected according to the user by the content distribution device 20.

また、取得部164は、第2情報の要約であるサマリ情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を取得する。また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。例えば、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を取得する。取得部164は、サマリ情報R11と契機情報R12とを含む反応情報#1を取得する。なお、図1では、取得部164が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を取得する例について説明したが、サマリ情報R11を含まない反応情報#1を取得してもよい。すなわち、取得部164は、契機情報R12である反応情報#1を取得してもよい。 In addition, the acquisition unit 164 acquires summary information which is a summary of the second information. In the example shown in FIG. 1, the acquisition unit 164 acquires the summary information R11 that is the text information corresponding to the summary of the content # 1 which is a news article, "It seems that a labor union was formed at company A." In addition, the acquisition unit 164 acquires reaction information that triggers a dialogue related to the second information with the user. For example, the acquisition unit 164 acquires reaction information that requests the user to give an opinion on the second information. In the example shown in FIG. 1, the acquisition unit 164 acquires the trigger information R12, which is character information requesting the user for an opinion on the content # 1 which is a news article, "Does a strike occur?". The acquisition unit 164 acquires reaction information # 1 including summary information R11 and trigger information R12. In addition, in FIG. 1, an example in which the acquisition unit 164 acquires the reaction information # 1 including both the summary information R11 and the trigger information R12 has been described, but even if the reaction information # 1 not including the summary information R11 is acquired, Good. That is, the acquisition unit 164 may acquire the reaction information # 1 which is the trigger information R12.

(出力部165)
出力部165は、取得部164により取得された反応情報をユーザに対して出力する。具体的には、出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合に、取得部164により取得された反応情報をユーザに対して出力する。より具体的には、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。例えば、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。
(Output unit 165)
The output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user. Specifically, the output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user when the determination unit 161 determines that it is the timing to output the reaction information to the user. More specifically, the output unit 165 outputs reaction information at a timing other than the user's request for the second information to the dialogue system. For example, the output unit 165 outputs reaction information at a timing based on the user's context. In the example shown in FIG. 1, the output unit 165 outputs reaction information at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.

また、出力部165は、サマリ情報と反応情報とを出力する。より具体的には、出力部165は、サマリ情報を出力した後に反応情報を出力する。また、出力部165は、反応情報を音声出力する。図1に示す例では、出力部165は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。 Further, the output unit 165 outputs summary information and reaction information. More specifically, the output unit 165 outputs the reaction information after outputting the summary information. Further, the output unit 165 outputs the reaction information by voice. In the example shown in FIG. 1, the output unit 165 outputs the summary information R11 by voice and then outputs the trigger information R12 by voice.

〔3.出力処理のフロー〕
次に、図9を用いて、実施形態に係る出力処理の手順について説明する。図9は、第1の実施形態に係る出力処理手順を示すフローチャートである。図9に示す例では、出力装置100は、センサ情報に基づいて、反応情報を出力するタイミングであるか否かを判定する(ステップS101)。出力装置100は、反応情報を出力するタイミングでないと判定した場合(ステップS101;No)、処理を終了する。
[3. Output processing flow]
Next, the procedure of output processing according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an output processing procedure according to the first embodiment. In the example shown in FIG. 9, the output device 100 determines whether or not it is the timing to output the reaction information based on the sensor information (step S101). When the output device 100 determines that it is not the timing to output the reaction information (step S101; No), the output device 100 ends the process.

一方、出力装置100は、反応情報を出力するタイミングであると判定した場合(ステップS101;Yes)、コンテンツ配信装置20から所定のコンテンツを取得する(ステップS102)。続いて、出力装置100は、所定のコンテンツを取得すると、所定のコンテンツに対する反応情報を生成する(ステップS103)。続いて、出力装置100は、反応情報を生成すると、生成した反応情報を出力する(ステップS104)。 On the other hand, when the output device 100 determines that it is the timing to output the reaction information (step S101; Yes), the output device 100 acquires the predetermined content from the content distribution device 20 (step S102). Subsequently, when the output device 100 acquires the predetermined content, the output device 100 generates reaction information for the predetermined content (step S103). Subsequently, when the output device 100 generates the reaction information, the output device 100 outputs the generated reaction information (step S104).

〔4.コンテンツ配信装置の構成〕
次に、図10を用いて、実施形態に係るコンテンツ配信装置20の構成について説明する。図10は、実施形態に係るコンテンツ配信装置20の構成例を示す図である。図10に示すように、コンテンツ配信装置20は、通信部21と、記憶部22と、制御部23とを有する。
[4. Configuration of content distribution device]
Next, the configuration of the content distribution device 20 according to the embodiment will be described with reference to FIG. FIG. 10 is a diagram showing a configuration example of the content distribution device 20 according to the embodiment. As shown in FIG. 10, the content distribution device 20 includes a communication unit 21, a storage unit 22, and a control unit 23.

(通信部21)
通信部21は、例えば、NIC等によって実現される。そして、通信部21は、ネットワークNと有線または無線で接続され、出力装置100との間で情報の送受信を行う。
(Communication unit 21)
The communication unit 21 is realized by, for example, a NIC or the like. Then, the communication unit 21 is connected to the network N by wire or wirelessly, and transmits / receives information to / from the output device 100.

(記憶部22)
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部14は、図10に示すように、ユーザ情報記憶部221とコンテンツ記憶部222とを有する。
(Memory unit 22)
The storage unit 22 is realized by, for example, a semiconductor memory element such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. Further, as shown in FIG. 10, the storage unit 14 has a user information storage unit 221 and a content storage unit 222.

(ユーザ情報記憶部221)
ユーザ情報記憶部221は、ユーザに関する各種情報を記憶する。図11を用いて、実施形態に係るユーザ情報記憶部の一例について説明する。図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。図11に示す例では、ユーザ情報記憶部221は、「ユーザID」、「ユーザ情報」といった項目を有する。
(User information storage unit 221)
The user information storage unit 221 stores various information about the user. An example of the user information storage unit according to the embodiment will be described with reference to FIG. FIG. 11 is a diagram showing an example of a user information storage unit according to the embodiment. In the example shown in FIG. 11, the user information storage unit 221 has items such as "user ID" and "user information".

「ユーザID」は、ユーザを識別するための識別情報を示す。「ユーザ情報」は、ユーザに関する情報を示す。例えば、「ユーザ情報」は、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードである。なお、「ユーザ情報」には、ユーザの年齢、性別、居住地、家族のライフサイクル、所得、職業といったユーザのデモグラフィック情報が含まれてもよい。また、「ユーザ情報」は、ユーザの価値観、ライフスタイル、性格、好みなどのサイコグラフィック情報が含まれてもよい。 The "user ID" indicates identification information for identifying the user. "User information" indicates information about the user. For example, "user information" is a keyword related to a genre or topic, hobby or preference that the user is interested in. The "user information" may include user demographic information such as the user's age, gender, place of residence, family life cycle, income, and occupation. Further, the "user information" may include psychographic information such as a user's sense of values, lifestyle, personality, and preference.

(コンテンツ記憶部222)
コンテンツ記憶部222は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部222は、ニュース記事、SNSにおける投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部222は、コンテンツを形成するHTMLファイルや、コンテンツに表示される静止画像や動画像を記憶する。図12を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。図12に示す例では、コンテンツ記憶部222は、「コンテンツID」、「コンテンツ」、「種別」といった項目を有する。
(Content storage unit 222)
The content storage unit 222 stores various information related to the content. For example, the content storage unit 222 stores information related to content that is a review of news articles, posted information on SNS, advertisements, movies, and the like. For example, the content storage unit 222 stores an HTML file forming the content, and a still image or a moving image displayed on the content. An example of the content storage unit according to the embodiment will be described with reference to FIG. FIG. 12 is a diagram showing an example of a content storage unit according to the embodiment. In the example shown in FIG. 12, the content storage unit 222 has items such as "content ID", "content", and "type".

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図12では「コンテンツ」に「コンテンツ#1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「種別」は、コンテンツの種別を示す。例えば、「種別」は、そのコンテンツがニュース記事であるか、SNSにおける投稿情報であるか、広告であるか、映画のレビューであるかといった種別を示す。 The "content ID" indicates identification information for identifying the content. "Content" indicates text information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. In FIG. 12, an example in which conceptual information such as "content # 1" is stored in "content" is shown, but in reality, specific content (HTML file forming) or its storage location is shown. The file path name and the like may be stored. Further, the "content" may store a still image or a moving image displayed in a news article, posted information on an SNS, an advertisement, a movie review, or the like. Alternatively, the "content" may store character information extracted from these image information as a result of analyzing image information displayed in news articles, posted information in SNS, and reviews of advertisements, movies, and the like. "Type" indicates the type of content. For example, the "type" indicates a type such as whether the content is a news article, posted information on SNS, an advertisement, or a movie review.

(制御部23)
制御部23は、例えば、CPUやMPU等によって、コンテンツ配信装置20内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 23)
The control unit 23 is realized by, for example, the CPU, MPU, or the like executing various programs stored in the storage device inside the content distribution device 20 using the RAM as a work area. Further, the control unit 23 is realized by, for example, an integrated circuit such as an ASIC or FPGA.

図10に示すように、制御部23は、受付部231と、選択部232と、配信部233とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図10に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 10, the control unit 23 includes a reception unit 231, a selection unit 232, and a distribution unit 233, and realizes or executes an information processing function or operation described below. The internal configuration of the control unit 23 is not limited to the configuration shown in FIG. 10, and may be another configuration as long as it is a configuration for performing information processing described later.

(受付部231)
受付部231は、コンテンツの配信要求を受け付ける。受付部231は、コンテンツの配信要求を受信する。具体的には、受付部231は、出力装置100からコンテンツの配信要求を受信する。
(Reception Department 231)
The reception unit 231 receives the content distribution request. The reception unit 231 receives the content distribution request. Specifically, the reception unit 231 receives the content distribution request from the output device 100.

(選択部232)
選択部232は、ユーザに応じたコンテンツを選択する。具体的には、選択部232は、受付部231によってコンテンツの配信要求が受け付けられると、要求元の出力装置100を利用するユーザを特定する。例えば、選択部232は、ユーザ情報記憶部221を参照して、要求元の出力装置100を利用するユーザを特定する。続いて、選択部232は、ユーザを特定すると、ユーザ情報記憶部221を参照して、特定したユーザに紐づくユーザ情報を取得する。選択部232は、ユーザ情報を取得すると、取得したユーザ情報に基づいて、ユーザに応じたコンテンツを選択する。例えば、選択部232は、ユーザ情報に基づいて、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたコンテンツをユーザに応じたコンテンツとして選択する。
(Selection unit 232)
The selection unit 232 selects the content according to the user. Specifically, the selection unit 232 identifies the user who uses the output device 100 of the request source when the content distribution request is received by the reception unit 231. For example, the selection unit 232 refers to the user information storage unit 221 to identify a user who uses the request source output device 100. Subsequently, when the selection unit 232 identifies the user, the selection unit 232 refers to the user information storage unit 221 and acquires the user information associated with the specified user. When the selection unit 232 acquires the user information, the selection unit 232 selects the content according to the user based on the acquired user information. For example, the selection unit 232 acquires keywords related to genres, topics, hobbies, and tastes that the user is interested in, based on the user information. Subsequently, the selection unit 232 refers to the content storage unit 222 and selects the content in which the acquired keyword is set as the content according to the user.

図1に示す例では、選択部232は、ユーザU1を特定すると、ユーザ情報記憶部221を参照して、特定したユーザU1に紐づくユーザ情報#1を取得する。続いて、選択部232は、ユーザ情報#1を取得すると、取得したユーザ情報#1に基づいて、ユーザU1が興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたニュース記事であるコンテンツ#1をユーザU1に応じたコンテンツとして選択する。 In the example shown in FIG. 1, when the user U1 is specified, the selection unit 232 refers to the user information storage unit 221 and acquires the user information # 1 associated with the specified user U1. Subsequently, when the user information # 1 is acquired, the selection unit 232 acquires keywords related to the genre, topic, hobby, or preference that the user U1 is interested in, based on the acquired user information # 1. Subsequently, the selection unit 232 refers to the content storage unit 222 and selects the content # 1, which is a news article in which the acquired keyword is set, as the content according to the user U1.

(配信部233)
配信部233は、選択部232によって選択されたコンテンツを配信する。具体的には、配信部233は、選択部232によって選択されたコンテンツを出力装置100に配信する。図1に示す例では、配信部233は、選択部232によって選択されたコンテンツ#1を出力装置100に配信する。
(Distribution Department 233)
The distribution unit 233 distributes the content selected by the selection unit 232. Specifically, the distribution unit 233 distributes the content selected by the selection unit 232 to the output device 100. In the example shown in FIG. 1, the distribution unit 233 distributes the content # 1 selected by the selection unit 232 to the output device 100.

〔5.変形例〕
上述した実施形態に係る出力処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、出力処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[5. Modification example]
The output processing system 1 according to the above-described embodiment may be implemented in various different forms other than the above-described embodiment. Therefore, another embodiment of the output processing system 1 will be described below. The same parts as those in the embodiment are designated by the same reference numerals, and the description thereof will be omitted.

〔5−1.対話システムの感想を示す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図13では、出力装置100が対話システムの第2情報に対する感想を示す反応情報を出力する例について説明する。図13に示す例では、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。
[5-1. Output processing of reaction information showing the impression of the dialogue system]
FIG. 1 has described an example in which the output device 100 outputs the trigger information R12, which is character information requesting the user for an opinion on the content # 1, "Does a strike occur?", But the reaction information gives an opinion on the content. It is not limited to the character information requested from the user. FIG. 13 describes an example in which the output device 100 outputs reaction information indicating an impression of the second information of the dialogue system. In the example shown in FIG. 13, the acquisition unit 164 acquires reaction information indicating an impression of the second information of the dialogue system.

ここから、図13を用いて、変形例に係る出力処理の一例について説明する。図13は、変形例に係る出力処理の一例を示す図である。図13に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの画像に関する画像情報を取得する(ステップS21)。判定部161は、画像情報を取得すると、取得した画像情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS22)。具体的には、判定部161は、取得した画像情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS23)。 From here, an example of output processing according to a modified example will be described with reference to FIG. FIG. 13 is a diagram showing an example of output processing according to a modified example. In the example shown in FIG. 13, the determination unit 161 refers to the sensor information storage unit 121 to acquire image information regarding the user's image (step S21). When the image information is acquired, the determination unit 161 determines whether or not it is the timing to output the reaction information to the user based on the acquired image information (step S22). Specifically, when the determination unit 161 determines that the user is in a stationary state for a predetermined time or longer (for example, 5 minutes or longer) based on the acquired image information, the determination unit 161 outputs the reaction information to the user at the timing. Judge that there is. Subsequently, the request unit 162 transmits a content distribution request to the content distribution device 20 when the determination unit 161 determines that it is time to output the reaction information to the user (step S23).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS24)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、政府が被災地の全避難所を対象にタブレット端末を配布することに関するニュース記事であるコンテンツ#2を出力装置100に配信する。 The content distribution device 20 acquires a content distribution request from the output device 100. When the content distribution device 20 acquires a content distribution request, the content distribution device 20 identifies a user who uses the output device 100 of the request source. Subsequently, when the content distribution device 20 identifies the user, the content distribution device 20 selects the content according to the user (step S24). When the content distribution device 20 selects the content, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes the content # 2, which is a news article about the government distributing tablet terminals to all evacuation centers in the disaster area, to the output device 100.

生成部163は、コンテンツ配信装置20からコンテンツ#2を取得する(ステップS25)。生成部163は、コンテンツ#2を取得すると、取得したコンテンツ#2をモデルM1に入力することにより、コンテンツ#2に対する反応を示す文字情報である反応情報#2を生成する(ステップS26)。具体的には、生成部163は、コンテンツ#2の要約に相当する文字情報である「政府は全避難所を対象にタブレット端末を配布するそうです。」というサマリ情報R21を生成する。また、生成部163は、ユーザとのコンテンツ#2に関連する対話の契機となる文字情報である契機情報R22を生成する。より具体的には、生成部163は、対話システムのコンテンツ#2に対する感想を示す文字情報である「停電しても使えるようなものであってほしいです。」という契機情報R22を生成する。生成部163は、サマリ情報R21と契機情報R22とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#2を取得する。なお、図13では、生成部163が、サマリ情報R21と契機情報R22の両方を含む反応情報#2を生成する例について説明したが、サマリ情報R21を含まない反応情報#2を生成してもよい。すなわち、生成部163は、契機情報R22である反応情報#2を生成してもよい。 The generation unit 163 acquires the content # 2 from the content distribution device 20 (step S25). When the content # 2 is acquired, the generation unit 163 inputs the acquired content # 2 into the model M1 to generate reaction information # 2, which is character information indicating a reaction to the content # 2 (step S26). Specifically, the generation unit 163 generates summary information R21, which is text information corresponding to the summary of content # 2, "The government seems to distribute tablet terminals to all evacuation centers." In addition, the generation unit 163 generates the trigger information R22, which is the character information that triggers the dialogue related to the content # 2 with the user. More specifically, the generation unit 163 generates the trigger information R22, which is character information indicating the impression of the content # 2 of the dialogue system, "I want it to be usable even if there is a power failure." The generation unit 163 generates reaction information # 2 including summary information R21 and trigger information R22. The acquisition unit 164 acquires the reaction information # 2 generated by the generation unit 163. Note that, in FIG. 13, an example in which the generation unit 163 generates reaction information # 2 including both summary information R21 and trigger information R22 has been described, but even if reaction information # 2 not including summary information R21 is generated, Good. That is, the generation unit 163 may generate the reaction information # 2, which is the trigger information R22.

出力部165は、取得部164によって取得された反応情報#2を音声出力する(ステップS27)。具体的には、出力装置100は、サマリ情報R21を音声出力した後に契機情報R22を音声出力する。 The output unit 165 outputs the reaction information # 2 acquired by the acquisition unit 164 as voice (step S27). Specifically, the output device 100 outputs the summary information R21 by voice and then outputs the trigger information R22 by voice.

〔5−2.ユーザの行動を促す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を含む反応情報#1を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図14では、出力装置100がユーザに第2情報に関連する行動を促す反応情報を出力する例について説明する。図14に示す例では、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。具体的には、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。
[5-2. Output processing of reaction information that encourages user actions]
FIG. 1 has described an example in which the output device 100 outputs reaction information # 1 including the trigger information R12, which is character information requesting the user for an opinion on the content # 1, "Does a strike occur?". The information is not limited to textual information that requires the user to give an opinion on the content. FIG. 14 describes an example in which the output device 100 outputs reaction information that prompts the user to take an action related to the second information. In the example shown in FIG. 14, the acquisition unit 164 acquires reaction information that prompts the user to take an action related to the second information. Specifically, the acquisition unit 164 acquires reaction information that urges the user to take an action other than responding to the reaction information.

また、図1では、出力装置100がニュース記事であるコンテンツ#1に対する反応情報#2を取得する例について説明したが、出力装置100が広告である第2情報に対する反応情報を取得してもよい。図14に示す例では、取得部164は、広告である第2情報に対する反応情報を取得する。 Further, in FIG. 1, an example in which the output device 100 acquires the reaction information # 2 for the content # 1 which is a news article has been described, but the output device 100 may acquire the reaction information for the second information which is an advertisement. .. In the example shown in FIG. 14, the acquisition unit 164 acquires reaction information with respect to the second information which is an advertisement.

ここから、図14を用いて、変形例に係る出力処理の一例について説明する。図14は、変形例に係る出力処理の一例を示す図である。図14に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの動きに伴う加速度に関する加速度情報を取得する(ステップS31)。判定部161は、加速度情報を取得すると、取得した加速度情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS32)。具体的には、判定部161は、取得した加速度情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS33)。 From here, an example of output processing according to a modified example will be described with reference to FIG. FIG. 14 is a diagram showing an example of output processing according to a modified example. In the example shown in FIG. 14, the determination unit 161 refers to the sensor information storage unit 121 and acquires acceleration information regarding acceleration accompanying the movement of the user (step S31). When the determination unit 161 acquires the acceleration information, it determines whether or not it is the timing to output the reaction information to the user based on the acquired acceleration information (step S32). Specifically, when the determination unit 161 determines that the user is in a stationary state for a predetermined time or longer (for example, 5 minutes or longer) based on the acquired acceleration information, the determination unit 161 outputs the reaction information to the user at the timing. Judge that there is. Subsequently, the request unit 162 transmits a content distribution request to the content distribution device 20 when the determination unit 161 determines that it is time to output the reaction information to the user (step S33).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS34)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、商品Cが新発売されたことに関する広告であるコンテンツ#3を出力装置100に配信する。 The content distribution device 20 acquires a content distribution request from the output device 100. When the content distribution device 20 acquires a content distribution request, the content distribution device 20 identifies a user who uses the output device 100 of the request source. Subsequently, when the content distribution device 20 identifies the user, the content distribution device 20 selects the content according to the user (step S34). When the content distribution device 20 selects the content, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes the content # 3, which is an advertisement regarding the newly released product C, to the output device 100.

生成部163は、コンテンツ配信装置20からコンテンツ#3を取得する(ステップS35)。生成部163は、コンテンツ#3を取得すると、取得したコンテンツ#3をモデルM1に入力することにより、コンテンツ#3に対する反応を示す文字情報である反応情報#3を生成する(ステップS36)。具体的には、生成部163は、コンテンツ#3の要約に相当する文字情報である「商品Cが発売されたみたいですね。」というサマリ情報R31を生成する。また、生成部163は、ユーザとのコンテンツ#3に関連する対話の契機となる文字情報である契機情報R32を生成する。より具体的には、生成部163は、ユーザにコンテンツ#3に関連する行動を促す文字情報である契機情報R32を生成する。例えば、生成部163は、ユーザに反応情報#3への応答以外の行動を促す文字情報である「今度一緒に買いに行ってみませんか?」という契機情報R32を生成する。生成部163は、サマリ情報R31と契機情報R32とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#3を取得する。なお、図14では、生成部163が、サマリ情報R31と契機情報R32の両方を含む反応情報#3を生成する例について説明したが、サマリ情報R31を含まない反応情報#3を生成してもよい。すなわち、生成部163は、契機情報R32である反応情報#3を生成してもよい。 The generation unit 163 acquires the content # 3 from the content distribution device 20 (step S35). When the content # 3 is acquired, the generation unit 163 inputs the acquired content # 3 into the model M1 to generate reaction information # 3, which is character information indicating a reaction to the content # 3 (step S36). Specifically, the generation unit 163 generates summary information R31 that is character information corresponding to the summary of the content # 3, "It seems that the product C has been released." In addition, the generation unit 163 generates the trigger information R32, which is the character information that triggers the dialogue related to the content # 3 with the user. More specifically, the generation unit 163 generates the trigger information R32, which is character information for urging the user to perform an action related to the content # 3. For example, the generation unit 163 generates the trigger information R32, which is character information prompting the user to take an action other than the response to the reaction information # 3, "Why don't you go buy it together next time?". The generation unit 163 generates reaction information # 2 including summary information R31 and trigger information R32. The acquisition unit 164 acquires the reaction information # 3 generated by the generation unit 163. In FIG. 14, an example in which the generation unit 163 generates reaction information # 3 including both summary information R31 and trigger information R32 has been described, but even if reaction information # 3 not including summary information R31 is generated, Good. That is, the generation unit 163 may generate the reaction information # 3, which is the trigger information R32.

出力部165は、取得部164によって取得された反応情報#3を音声出力する(ステップS37)。具体的には、出力装置100は、サマリ情報R31を音声出力した後に契機情報R32を音声出力する。 The output unit 165 outputs the reaction information # 3 acquired by the acquisition unit 164 as voice (step S37). Specifically, the output device 100 outputs the summary information R31 by voice and then outputs the trigger information R32 by voice.

なお、図14では、出力装置100がニュース記事以外のコンテンツとして、広告であるコンテンツ#2に対する反応情報#2を取得する例について説明したが、ニュース記事以外のコンテンツは広告に限られない。具体的には、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。 Although FIG. 14 has described an example in which the output device 100 acquires reaction information # 2 for content # 2, which is an advertisement, as content other than news articles, the content other than news articles is not limited to advertisements. Specifically, the acquisition unit 164 acquires reaction information with respect to the second information which is the posted information in a predetermined SNS (Social Networking Service).

〔5−3.プッシュ通知に関するタイミングでの出力〕
出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。具体的には、判定部161は、対話システムにおけるプッシュ通知に関する情報を取得する。例えば、判定部161は、対話システムにおけるプッシュ通知に関する情報として、あらかじめプログラムされた所定の期間毎にプッシュ通知を行うという情報を取得する。続いて、判定部161は、プッシュ通知に関する情報を取得すると、取得したプッシュ通知に関する情報に基づいて、対話システムにおけるプッシュ通知に関するタイミングであるか否かを判定する。出力部165は、判定部161によって対話システムにおけるプッシュ通知に関するタイミングであると判定された場合、反応情報を出力する。
[5-3. Output at the timing related to push notification]
The output unit 165 outputs reaction information at the timing related to the push notification in the dialogue system. Specifically, the determination unit 161 acquires information regarding push notifications in the dialogue system. For example, the determination unit 161 acquires information on performing push notifications at predetermined period programmed in advance as information on push notifications in the dialogue system. Subsequently, when the determination unit 161 acquires the information related to the push notification, it determines whether or not it is the timing related to the push notification in the dialogue system based on the acquired information related to the push notification. The output unit 165 outputs reaction information when the determination unit 161 determines that the timing is related to the push notification in the dialogue system.

〔5−4.検索が行われたタイミングでの出力〕
出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。具体的には、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。より具体的には、判定部161は、ユーザの検索行動に関する検索情報を検索サーバ(図示略)から取得する。続いて、判定部161は、検索情報を取得すると、取得した検索情報に基づいて、ユーザが第2情報に関連する検索を行ったタイミングであるか否かを判定する。出力部165は、判定部161によってユーザが第2情報に関連する検索を行ったタイミングであると判定された場合、反応情報を出力する。
[5-4. Output at the timing of the search]
The output unit 165 outputs reaction information at the timing when the user's action related to the second information is performed, which is the user's action other than the action for the dialogue system. Specifically, the output unit 165 outputs reaction information at the timing when the user performs a search related to the second information. More specifically, the determination unit 161 acquires search information regarding the user's search behavior from the search server (not shown). Subsequently, when the search information is acquired, the determination unit 161 determines whether or not it is the timing when the user performs a search related to the second information based on the acquired search information. The output unit 165 outputs reaction information when it is determined by the determination unit 161 that it is the timing when the user performs a search related to the second information.

〔5−5.コンテンツ取得後のタイミング判定〕
図1では、判定部161によってユーザに対して反応情報を出力するタイミングであるか否かを判定した後に、要求部162がコンテンツの配信要求をコンテンツ配信装置20に送信する例について説明したが、これに限られない。具体的には、出力部165は、所定時間(例えば、60分)毎に反応情報を出力する。また、要求部162は、所定時間(例えば、30分)毎にコンテンツの配信要求をコンテンツ配信装置20に送信する。例えば、要求部162は、ある時刻t1にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第1コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第1コンテンツを取得する。要求部162は、第1コンテンツを取得すると、取得した第1コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、コンテンツ記憶部122を参照して第1コンテンツを取得する。生成部163は、第1コンテンツを取得すると、取得した第1コンテンツを所定のモデルに入力することにより、第1反応情報を生成する。生成部163は、第1反応情報を生成すると、生成した第1反応情報を反応情報記憶部123に格納する。
[5-5. Timing judgment after content acquisition]
FIG. 1 has described an example in which the request unit 162 transmits a content distribution request to the content distribution device 20 after the determination unit 161 determines whether or not it is the timing to output the reaction information to the user. Not limited to this. Specifically, the output unit 165 outputs reaction information at predetermined time (for example, 60 minutes). In addition, the request unit 162 transmits a content distribution request to the content distribution device 20 at predetermined time (for example, 30 minutes). For example, the request unit 162 transmits a content distribution request to the content distribution device 20 at a certain time t1. When the content distribution device 20 receives the distribution request, the content distribution device 20 distributes the first content to the output device 100. Subsequently, the request unit 162 acquires the first content from the content distribution device 20. When the request unit 162 acquires the first content, the request unit 162 stores the acquired first content in the content storage unit 122. Subsequently, the generation unit 163 acquires the first content with reference to the content storage unit 122. When the generation unit 163 acquires the first content, the generation unit 163 generates the first reaction information by inputting the acquired first content into a predetermined model. When the generation unit 163 generates the first reaction information, the generated first reaction information is stored in the reaction information storage unit 123.

続いて、要求部162は、時刻t1から30分後の時刻t2にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第2コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第2コンテンツを取得する。要求部162は、第2コンテンツを取得すると、取得した第2コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、第2コンテンツを所定のモデルに入力することにより、第2反応情報を生成する。生成部163は、第2反応情報を生成すると、生成した第2反応情報を反応情報記憶部123に格納する。続いて、生成部163は、第2反応情報を生成すると、コンテンツ記憶部122を参照して、時刻t1に配信を要求した第1コンテンツと時刻t2に配信を要求した第2コンテンツとを取得する。続いて、生成部163は、第1コンテンツと第2コンテンツを取得すると、第1コンテンツと第2コンテンツとの類似度を判定する。生成部163は、第1コンテンツと第2コンテンツとの類似度が所定の閾値を超える場合には、第1コンテンツが古くなり、新しい第2コンテンツに更新されたとみなして、コンテンツ記憶部122から第1コンテンツを削除する。続いて、判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、第2反応情報を出力する。 Subsequently, the request unit 162 transmits a content distribution request to the content distribution device 20 at time t2, which is 30 minutes after the time t1. When the content distribution device 20 receives the distribution request, the content distribution device 20 distributes the second content to the output device 100. Subsequently, the request unit 162 acquires the second content from the content distribution device 20. When the request unit 162 acquires the second content, the request unit 162 stores the acquired second content in the content storage unit 122. Subsequently, the generation unit 163 generates the second reaction information by inputting the second content into the predetermined model. When the generation unit 163 generates the second reaction information, the generated second reaction information is stored in the reaction information storage unit 123. Subsequently, when the generation unit 163 generates the second reaction information, the generation unit 163 refers to the content storage unit 122 and acquires the first content requested to be delivered at time t1 and the second content requested to be delivered at time t2. .. Subsequently, when the generation unit 163 acquires the first content and the second content, the generation unit 163 determines the degree of similarity between the first content and the second content. When the similarity between the first content and the second content exceeds a predetermined threshold value, the generation unit 163 considers that the first content is old and has been updated to the new second content, and the content storage unit 122 to the first 1 Delete the content. Subsequently, the determination unit 161 determines whether or not it is the timing to output the reaction information to the user. The output unit 165 outputs the second reaction information when the determination unit 161 determines that it is the timing to output the reaction information to the user.

〔5−6.レビューに対する反応情報〕
生成部163は、映画レビューであるコンテンツに対する反応情報として、対話システムがレビューの書き手の立場で述べられる文字情報である反応情報を生成する。例えば、生成部163は、ホラー映画の映画レビューであるコンテンツに対する反応情報として、「××(映画タイトル)怖かったですね!今夜は眠れなさそうです。」といったレビューの書き手の立場で述べられる文字情報である反応情報を生成する。
[5-6. Response information to the review]
The generation unit 163 generates reaction information, which is character information described by the dialogue system from the standpoint of the writer of the review, as reaction information for the content which is a movie review. For example, the generation unit 163, as reaction information to the content that is a movie review of a horror movie, is a character stated from the standpoint of the review writer, such as "XX (movie title) was scary! I can't sleep tonight." Generate reaction information, which is information.

〔5−7.モデルの更新〕
生成部163は、ユーザによる応答をフィードバックして更新されたモデルを用いて反応情報を生成する。具体的には、生成部163は、反応情報記憶部123の「ユーザによる応答の有無」の項目を参照して、ユーザによる応答の有無に応じて更新されたモデルを用いて反応情報を生成する。例えば、生成部163は、ユーザによる応答があった反応情報とコンテンツとのセットデータに対する学習の重みをユーザによる応答がなかった反応情報とコンテンツとのセットデータに対する学習の重みよりも大きくして学習されたモデルを用いて反応情報を生成する。
[5-7. Model update]
The generation unit 163 feeds back the response from the user and generates reaction information using the updated model. Specifically, the generation unit 163 generates reaction information using a model updated according to the presence or absence of a response by the user by referring to the item of "presence or absence of response by the user" of the reaction information storage unit 123. .. For example, the generation unit 163 learns by making the weight of learning for the set data of the reaction information and the content that the user has responded to be larger than the weight of learning for the set data of the reaction information and the content that has not been responded by the user. Reaction information is generated using the model.

〔5−8.要約生成モデルと反応生成モデル〕
図1に示す例では、生成部163がコンテンツ#1を一つのモデルM1に入力して、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する例について説明したが、サマリ情報R11と契機情報R12とを別のモデルで生成してもよい。具体的には、生成部163は、第2情報を入力すると、第2情報の要約であるサマリ情報を出力するモデルM11を用いて、サマリ情報を生成する。また、生成部163は、第2情報を入力すると、第2情報に対する反応を示す反応情報を出力するモデルM12を用いて、反応情報を生成する。図1に示す例では、生成部163は、コンテンツ#1を入力すると、コンテンツ#1の要約であるサマリ情報R11を出力するモデルM11を用いて、サマリ情報R11を生成する。また、生成部163は、コンテンツ#1を入力すると、コンテンツ#1に対する反応を示す契機情報R12を出力するモデルM12を用いて、契機情報R12を生成する。
[5-8. Summary generative model and reaction generative model]
In the example shown in FIG. 1, an example in which the generation unit 163 inputs the content # 1 into one model M1 to generate the reaction information # 1 including the summary information R11 and the trigger information R12 has been described, but the summary information R11 has been described. And the trigger information R12 may be generated by another model. Specifically, the generation unit 163 generates summary information by using the model M11 that outputs summary information that is a summary of the second information when the second information is input. Further, the generation unit 163 generates the reaction information by using the model M12 that outputs the reaction information indicating the reaction to the second information when the second information is input. In the example shown in FIG. 1, when the content # 1 is input, the generation unit 163 generates the summary information R11 by using the model M11 that outputs the summary information R11 which is a summary of the content # 1. Further, the generation unit 163 generates the trigger information R12 by using the model M12 that outputs the trigger information R12 indicating the reaction to the content # 1 when the content # 1 is input.

この場合、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100という複数の出力装置100を含んでもよい。例えば、サマリ役の出力装置100が、コンテンツ#1の要約であるサマリ情報R11を音声出力する。続いて、反応役の出力装置100が、コンテンツ#1に対する反応を示す契機情報R12をサマリ役の出力装置100とは異なる音声によって音声出力する。なお、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100の他にも、対話を進行させる役の出力装置100と、対話の進行を補助する役の出力装置100といった複数の出力装置100を含んでもよい。 In this case, the output processing system 1 may include a plurality of output devices 100 called a summary output device 100 and a reaction output device 100. For example, the output device 100 serving as a summary outputs the summary information R11, which is a summary of the content # 1, by voice. Subsequently, the output device 100 of the reaction combination outputs the trigger information R12 indicating the reaction to the content # 1 by voice different from that of the output device 100 of the summary combination. The output processing system 1 includes an output device 100 that serves as a summary, an output device 100 that serves as a reaction, an output device 100 that promotes dialogue, and an output device 100 that assists the progress of dialogue. A plurality of output devices 100 may be included.

〔5−9.画面への出力〕
出力部165は、音声に代えて、文字情報を画面に表示することで反応情報をユーザに対して出力してもよい。また、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。さらに、出力装置100が人型のロボットである場合、出力部165は、ロボットの身振りや手振りで反応情報を出力してもよい。
[5-9. Output to screen]
The output unit 165 may output the reaction information to the user by displaying the character information on the screen instead of the voice. Further, the output unit 165 may output image information instead of the sound. In this case, the output unit 165 displays an image in which the user can understand the reaction information at a glance. The image information may be either a moving image or a still image. Further, when the output device 100 is a humanoid robot, the output unit 165 may output reaction information by gesturing or gesturing the robot.

〔6.効果〕
上述してきたように、実施形態に係る出力装置100は、取得部164と出力部165とを備える。取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。出力部165は、取得部164により取得された反応情報をユーザに対して出力する。
[6. effect〕
As described above, the output device 100 according to the embodiment includes an acquisition unit 164 and an output unit 165. The acquisition unit 164 acquires reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system. The output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the news article or the like, even if the user does not act on the dialogue system. That is, the output device 100 can spontaneously and appropriately talk to a person from the device. Therefore, the output device 100 can output appropriate information without depending on the input by the user to the dialogue system.

また、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information for second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system.

これにより、出力装置100は、非タスク志向型対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the news article or the like, even if the user does not act on the non-task-oriented dialogue system.

また、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is a predetermined content.

これにより、出力装置100は、所定のコンテンツに関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the predetermined content.

また、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information to the second information which is a news article.

これにより、出力装置100は、ニュース記事に関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the news article.

また、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is the posted information in the predetermined SNS (Social Networking Service).

これにより、出力装置100は、SNSにおける投稿情報に関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can voluntarily output the character information that triggers the dialogue related to the posted information in the SNS.

また、取得部164は、広告である第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information with respect to the second information which is an advertisement.

これにより、出力装置100は、広告に関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the advertisement.

また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that triggers a dialogue related to the second information with the user.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。 As a result, the output device 100 can spontaneously output the character information that triggers the dialogue related to the news article or the like, even if the user does not act on the dialogue system.

また、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information indicating an impression of the second information of the dialogue system.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対する感想を対話の契機として自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue with the impression of the second information as a trigger for the dialogue, even if the user does not act on the dialogue system.

また、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that requests the user to give an opinion on the second information.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対するに対する意見をユーザに要求することを対話の契機として自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue by requesting the user for an opinion on the second information even if the user does not act on the dialogue system.

また、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。例えば、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information that prompts the user to take an action related to the second information. For example, the acquisition unit 164 acquires reaction information that urges the user to take an action other than responding to the reaction information.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報関連する行動を促すことを対話の契機として自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue by encouraging the second information-related action without any action from the user to the dialogue system.

また、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing other than the user's request for the second information to the dialogue system.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue without any action from the user to the dialogue system.

また、出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at the timing related to the push notification in the dialogue system.

これにより、出力装置100は、対話システムにおけるプッシュ通知に関するタイミングで、自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue at the timing related to the push notification in the dialogue system.

また、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing based on the user's context.

これにより、出力装置100は、ユーザのコンテキストに応じて、自発的に適切な対話を始めることができる。 As a result, the output device 100 can spontaneously start an appropriate dialogue according to the context of the user.

また、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.

これにより、出力装置100は、ユーザとの対話が途切れたタイミングで、自発的に適切な対話を始めることができる。 As a result, the output device 100 can voluntarily start an appropriate dialogue at the timing when the dialogue with the user is interrupted.

また、出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。例えば、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。 Further, the output unit 165 outputs reaction information at the timing when the user's action other than the action for the dialogue system and the user's action related to the second information is performed. For example, the output unit 165 outputs reaction information at the timing when the user performs a search related to the second information.

これにより、出力装置100は、ユーザによる検索が行われたタイミングで、自発的に適切な対話を始めることができる。 As a result, the output device 100 can spontaneously start an appropriate dialogue at the timing when the search is performed by the user.

また、実施形態に係る出力装置100は、生成部163をさらに備える。生成部163は、第2情報から反応情報を生成する。取得部164は、生成部163により生成された反応情報を取得する。具体的には、生成部163は、第2情報を所定のモデルに入力することにより、反応情報を生成する。 Further, the output device 100 according to the embodiment further includes a generation unit 163. The generation unit 163 generates reaction information from the second information. The acquisition unit 164 acquires the reaction information generated by the generation unit 163. Specifically, the generation unit 163 generates reaction information by inputting the second information into a predetermined model.

これにより、出力装置100は、あらかじめ登録された反応情報以外の反応情報を、自発的に適切に出力することができる。 As a result, the output device 100 can spontaneously and appropriately output reaction information other than the reaction information registered in advance.

また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。 In addition, the acquisition unit 164 acquires reaction information for the second information selected according to the user.

これにより、出力装置100は、ユーザに応じた内容の対話を自発的に適切に始めることができる。 As a result, the output device 100 can voluntarily and appropriately start a dialogue of contents according to the user.

また、出力部165は、反応情報を音声出力する。さらに、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。 Further, the output unit 165 outputs the reaction information by voice. Further, the output unit 165 may output image information instead of the sound. In this case, the output unit 165 displays an image in which the user can understand the reaction information at a glance. The image information may be either a moving image or a still image.

これにより、出力装置100は、タイムリーな反応情報を自発的に適切に出力することができる。 As a result, the output device 100 can spontaneously and appropriately output the reaction information in a timely manner.

また、取得部164は、第2情報の要約であるサマリ情報を取得する。また、出力部165は、サマリ情報と反応情報とを出力する。また、出力部165は、サマリ情報を出力した後に反応情報を出力する。 In addition, the acquisition unit 164 acquires summary information which is a summary of the second information. Further, the output unit 165 outputs summary information and reaction information. Further, the output unit 165 outputs the reaction information after outputting the summary information.

これにより、出力装置100は、サマリ情報を出力することにより、ユーザとの共通の話題を共有することを可能にする。また、出力装置100は、反応情報を出力することにより、サマリ情報に対するユーザの応答を引き出すきっかけを作ることができる。 As a result, the output device 100 makes it possible to share a common topic with the user by outputting the summary information. Further, the output device 100 can create an opportunity to elicit a user's response to the summary information by outputting the reaction information.

〔7.ハードウェア構成〕
また、上述してきた実施形態に係る出力装置100およびコンテンツ配信装置20は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、出力装置100およびコンテンツ配信装置20の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[7. Hardware configuration]
Further, the output device 100 and the content distribution device 20 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 15 is a hardware configuration diagram showing an example of a computer that realizes the functions of the output device 100 and the content distribution device 20. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program that depends on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via a predetermined communication network and sends it to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が出力装置100およびコンテンツ配信装置20として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160または制御部23の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the output device 100 and the content distribution device 20, the CPU 1100 of the computer 1000 realizes the functions of the control unit 160 or the control unit 23 by executing the program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.

〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. Others]
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of them may be functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the output unit can be read as an output means or an output circuit.

1 出力処理システム
100 出力装置
110 通信部
120 記憶部
121 センサ情報記憶部
122 コンテンツ記憶部
123 反応情報記憶部
124 モデル情報記憶部
125 学習データ記憶部
130 入力部
140 表示部
150 物理センサ
160 制御部
161 判定部
162 要求部
163 生成部
164 取得部
165 出力部
1 Output processing system 100 Output device 110 Communication unit 120 Storage unit 121 Sensor information storage unit 122 Content storage unit 123 Reaction information storage unit 124 Model information storage unit 125 Learning data storage unit 130 Input unit 140 Display unit 150 Physical sensor 160 Control unit 161 Judgment unit 162 Request unit 163 Generation unit 164 Acquisition unit 165 Output unit

Claims (25)

対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得手順と、
前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、
をコンピュータに実行させることを特徴とする出力プログラム。
An acquisition procedure for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and
An output procedure for outputting the reaction information acquired by the acquisition procedure to the user,
An output program characterized by having a computer execute.
前記取得手順は、
非タスク志向型対話システムである前記対話システムに前記ユーザにより入力される前記第1情報以外の前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 1, wherein the reaction information to the second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system, is acquired.
前記取得手順は、
所定のコンテンツである前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1または請求項2に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 1 or 2, wherein the reaction information with respect to the second information, which is a predetermined content, is acquired.
前記取得手順は、
ニュース記事である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is a news article, is acquired.
前記取得手順は、
所定のSNS(Social Networking Service)における投稿情報である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is the posted information in a predetermined SNS (Social Networking Service), is acquired.
前記取得手順は、
広告である前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項3に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 3, wherein the reaction information to the second information, which is an advertisement, is acquired.
前記取得手順は、
前記ユーザとの前記第2情報に関連する対話の契機となる前記反応情報を取得する
ことを特徴とする請求項1〜6のいずれか1項に記載の出力プログラム。
The acquisition procedure is
The output program according to any one of claims 1 to 6, wherein the reaction information that triggers a dialogue related to the second information with the user is acquired.
前記取得手順は、
前記対話システムの前記第2情報に対する感想を示す前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。
The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information indicating an impression of the second information of the dialogue system is acquired.
前記取得手順は、
前記第2情報に対する意見を前記ユーザに要求する前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。
The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information for requesting an opinion on the second information from the user is acquired.
前記取得手順は、
前記ユーザに前記第2情報に関連する行動を促す前記反応情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の出力プログラム。
The acquisition procedure is
The output program according to any one of claims 1 to 7, wherein the reaction information for urging the user to take an action related to the second information is acquired.
前記取得手順は、
前記ユーザに前記反応情報への応答以外の行動を促す前記反応情報を取得する
ことを特徴とする請求項10に記載の出力プログラム。
The acquisition procedure is
The output program according to claim 10, further comprising acquiring the reaction information that prompts the user to perform an action other than the response to the reaction information.
前記出力手順は、
前記対話システムに対する前記ユーザによる前記第2情報の要求以外のタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜11のいずれか1項に記載の出力プログラム。
The output procedure is
The output program according to any one of claims 1 to 11, wherein the reaction information is output at a timing other than the request of the second information by the user to the dialogue system.
前記出力手順は、
前記対話システムにおけるプッシュ通知に関するタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜12のいずれか1項に記載の出力プログラム。
The output procedure is
The output program according to any one of claims 1 to 12, characterized in that the reaction information is output at the timing related to the push notification in the dialogue system.
前記出力手順は、
前記ユーザのコンテキストに基づくタイミングで、前記反応情報を出力する
ことを特徴とする請求項1〜13のいずれか1項に記載の出力プログラム。
The output procedure is
The output program according to any one of claims 1 to 13, wherein the reaction information is output at a timing based on the context of the user.
前記出力手順は、
前記対話システムに対する前記ユーザの発話から所定の期間が経過したタイミングで、前記反応情報を出力する
ことを特徴とする請求項14に記載の出力プログラム。
The output procedure is
The output program according to claim 14, wherein the reaction information is output at a timing when a predetermined period has elapsed from the user's utterance to the dialogue system.
前記出力手順は、
前記対話システムに対する行動以外の前記ユーザの行動であって、前記第2情報に関連する前記ユーザの行動が行われたタイミングで、前記反応情報を出力する
ことを特徴とする請求項14または請求項15に記載の出力プログラム。
The output procedure is
14. Claim 14 or claim, wherein the reaction information is output at the timing when the user's action related to the second information is performed, which is an action of the user other than the action for the dialogue system. The output program according to 15.
前記出力手順は、
前記ユーザが前記第2情報に関連する検索を行ったタイミングで、前記反応情報を出力する
ことを特徴とする請求項16に記載の出力プログラム。
The output procedure is
The output program according to claim 16, wherein the reaction information is output at the timing when the user performs a search related to the second information.
前記第2情報から前記反応情報を生成する生成手順、
をコンピュータに実行させ、
前記取得手順は、
前記生成手順により生成された前記反応情報を取得する
ことを特徴とする請求項1〜17のいずれか1項に記載の出力プログラム。
A generation procedure for generating the reaction information from the second information,
Let the computer run
The acquisition procedure is
The output program according to any one of claims 1 to 17, wherein the reaction information generated by the generation procedure is acquired.
前記生成手順は、
前記第2情報を所定のモデルに入力することにより、前記反応情報を生成する
ことを特徴とする請求項18に記載の出力プログラム。
The generation procedure is
The output program according to claim 18, wherein the reaction information is generated by inputting the second information into a predetermined model.
前記取得手順は、
前記ユーザに応じて選択される前記第2情報に対する前記反応情報を取得する
ことを特徴とする請求項1〜19のいずれか1項に記載の出力プログラム。
The acquisition procedure is
The output program according to any one of claims 1 to 19, wherein the reaction information to the second information selected according to the user is acquired.
前記出力手順は、
前記反応情報を音声出力する
ことを特徴とする請求項1〜20のいずれか1項に記載の出力プログラム。
The output procedure is
The output program according to any one of claims 1 to 20, wherein the reaction information is output by voice.
前記取得手順は、
前記第2情報の要約であるサマリ情報を取得し、
前記出力手順は、
前記サマリ情報と前記反応情報とを出力する
ことを特徴とする請求項1〜20のいずれか1項に記載の出力プログラム。
The acquisition procedure is
Obtain summary information that is a summary of the second information,
The output procedure is
The output program according to any one of claims 1 to 20, wherein the summary information and the reaction information are output.
前記出力手順は、
前記サマリ情報を出力した後に前記反応情報を出力する
ことを特徴とする請求項22に記載の出力プログラム。
The output procedure is
The output program according to claim 22, wherein the reaction information is output after the summary information is output.
対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得部と、
前記取得部により取得された前記反応情報を前記ユーザに対して出力する出力部と、
を備えることを特徴とする出力装置。
An acquisition unit that acquires reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system.
An output unit that outputs the reaction information acquired by the acquisition unit to the user,
An output device characterized by comprising.
コンピュータが実行する出力方法であって、
対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得工程と、
前記取得工程により取得された前記反応情報を前記ユーザに対して出力する出力工程と、
を含んだことを特徴とする出力方法。
A computer-executed output method
An acquisition process for acquiring reaction information, which is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and
An output step of outputting the reaction information acquired by the acquisition step to the user,
An output method characterized by including.
JP2019069877A 2019-04-01 2019-04-01 Output program, output device and output method Active JP7409781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019069877A JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019069877A JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Publications (2)

Publication Number Publication Date
JP2020170239A true JP2020170239A (en) 2020-10-15
JP7409781B2 JP7409781B2 (en) 2024-01-09

Family

ID=72745941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019069877A Active JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Country Status (1)

Country Link
JP (1) JP7409781B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234492A (en) * 2003-01-31 2004-08-19 Nec Software Tohoku Ltd Chat system and advertisement providing method
JP2011100425A (en) * 2009-11-09 2011-05-19 Fujitsu Ltd Information display device, information display program and information display method
JP2015103099A (en) * 2013-11-26 2015-06-04 Kddi株式会社 Terminal device, server device, distribution method, and distribution program
JP2017151931A (en) * 2016-02-26 2017-08-31 ヤフー株式会社 Dialog determination system, dialog determination method, dialog determination program, and terminal equipment
JP2017191421A (en) * 2016-04-13 2017-10-19 株式会社Stand Network system, server, and information processing method
WO2018057537A1 (en) * 2016-09-20 2018-03-29 Google Llc Bot interaction
JP2018097564A (en) * 2016-12-13 2018-06-21 ヤフー株式会社 Distribution device, distribution method, distribution program, terminal device, display method, and display program
JP2018129004A (en) * 2017-02-10 2018-08-16 ヤフー株式会社 Generation apparatus, generation method, and generation program
JP2018156473A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Analysis device, analysis method, and program
JP2019508820A (en) * 2015-12-21 2019-03-28 グーグル エルエルシー Automatic suggestions for message exchange threads

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6228884B2 (en) 2014-04-01 2017-11-08 富士ソフト株式会社 Robot motion plan creation system and creation method
JP6202041B2 (en) 2015-04-24 2017-09-27 マツダ株式会社 Spoken dialogue system for vehicles
JP6781545B2 (en) 2015-12-28 2020-11-04 ヴイストン株式会社 robot

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234492A (en) * 2003-01-31 2004-08-19 Nec Software Tohoku Ltd Chat system and advertisement providing method
JP2011100425A (en) * 2009-11-09 2011-05-19 Fujitsu Ltd Information display device, information display program and information display method
JP2015103099A (en) * 2013-11-26 2015-06-04 Kddi株式会社 Terminal device, server device, distribution method, and distribution program
JP2019508820A (en) * 2015-12-21 2019-03-28 グーグル エルエルシー Automatic suggestions for message exchange threads
JP2017151931A (en) * 2016-02-26 2017-08-31 ヤフー株式会社 Dialog determination system, dialog determination method, dialog determination program, and terminal equipment
JP2017191421A (en) * 2016-04-13 2017-10-19 株式会社Stand Network system, server, and information processing method
WO2018057537A1 (en) * 2016-09-20 2018-03-29 Google Llc Bot interaction
JP2018097564A (en) * 2016-12-13 2018-06-21 ヤフー株式会社 Distribution device, distribution method, distribution program, terminal device, display method, and display program
JP2018129004A (en) * 2017-02-10 2018-08-16 ヤフー株式会社 Generation apparatus, generation method, and generation program
JP2018156473A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Analysis device, analysis method, and program

Also Published As

Publication number Publication date
JP7409781B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
US20230328051A1 (en) Methods, systems, and media for presenting information related to an event based on metadata
Van Laer et al. Storytelling in the digital era: A meta-analysis of relevant moderators of the narrative transportation effect
Smith Marketing via smart speakers: what should Alexa say?
US11841887B2 (en) Methods, systems, and media for modifying the presentation of contextually relevant documents in browser windows of a browsing application
CN110892395B (en) Virtual assistant providing enhanced communication session services
US11120226B1 (en) Conversation facilitation system for mitigating loneliness
US9213940B2 (en) Cyberpersonalities in artificial reality
CN117219080A (en) Virtual assistant for generating personalized responses within a communication session
US20210043208A1 (en) Generating response in conversation
CN107567619A (en) Recommendation is provided based on the mood from multiple data sources and/or behavioural information
US10671665B2 (en) Personalized audio introduction and summary of result sets for users
US20130185291A1 (en) Online rating and feedback system
CN112292675A (en) Assisting a computer to interpret native language input with prominence ranking of entities and tasks
KR20090130323A (en) Method and apparatus for generation of a user profile
KR20150075101A (en) Sponsored stories in notifications
JP6677697B2 (en) Matching support program, matching support device, matching support method, and matching support system
Lopatovska et al. User recommendations for intelligent personal assistants
CN109478142A (en) It is rendered as method, system and the medium of the user interface of the User Activity customization of prediction
Shao et al. Hello Alexa! Exploring effects of motivational factors and social presence on satisfaction with artificial intelligence‐enabled gadgets
US20220272054A1 (en) Collaborate multiple chatbots in a single dialogue system
JP7012599B2 (en) Information processing equipment, information processing methods, and information processing programs
Quercia et al. Using mobile phones to nurture social networks
JP2016024636A (en) Control apparatus, control method, and control program
Kumar et al. Exploring antecedents impacting user satisfaction with voice assistant app: A text mining-based analysis on Alexa services
JP2020057221A (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230120

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230124

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230124

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230404

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R150 Certificate of patent or registration of utility model

Ref document number: 7409781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150