JP7409781B2 - Output program, output device and output method - Google Patents

Output program, output device and output method Download PDF

Info

Publication number
JP7409781B2
JP7409781B2 JP2019069877A JP2019069877A JP7409781B2 JP 7409781 B2 JP7409781 B2 JP 7409781B2 JP 2019069877 A JP2019069877 A JP 2019069877A JP 2019069877 A JP2019069877 A JP 2019069877A JP 7409781 B2 JP7409781 B2 JP 7409781B2
Authority
JP
Japan
Prior art keywords
information
output
user
reaction
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019069877A
Other languages
Japanese (ja)
Other versions
JP2020170239A (en
Inventor
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2019069877A priority Critical patent/JP7409781B2/en
Publication of JP2020170239A publication Critical patent/JP2020170239A/en
Application granted granted Critical
Publication of JP7409781B2 publication Critical patent/JP7409781B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、出力プログラム、出力装置及び出力方法に関する。 The present invention relates to an output program, an output device, and an output method.

従来、人からの話しかけに応答する装置に関する技術が知られている。例えば、景色や風景から連想可能な発話で人と対話する装置に関する技術が提案されている。 2. Description of the Related Art Conventionally, techniques related to devices that respond to a conversation from a person are known. For example, technologies have been proposed for devices that interact with people using utterances that can be associated with landscapes and landscapes.

特開2018-147145号公報Japanese Patent Application Publication No. 2018-147145

しかしながら、上記の従来技術では、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。例えば、上記の従来技術では、あらかじめ登録された発話コンテンツの中から、景色や風景から連想可能な発話文を選択するにすぎず、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるとは限らない。 However, with the above-mentioned conventional technology, it is not always possible to output appropriate information without depending on the user's input to the dialogue system. For example, the above-mentioned conventional technology merely selects utterances that can be associated with scenery and landscapes from pre-registered utterance contents, and outputs appropriate information without relying on user input to the dialogue system. It doesn't necessarily mean that you can.

本願は、上記に鑑みてなされたものであって、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができる出力プログラム、出力装置及び出力方法を提供することを目的とする。 The present application has been made in view of the above, and aims to provide an output program, an output device, and an output method that can output appropriate information without relying on user input to an interaction system. .

本願に係る出力プログラムは、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する取得手順と、前記取得手順により取得された前記反応情報を前記ユーザに対して出力する出力手順と、をコンピュータに実行させることを特徴とする。 The output program according to the present application includes an acquisition procedure for acquiring reaction information that is character information generated as a reaction to second information other than the first information input by the user to the dialogue system, and the reaction information acquired by the acquisition procedure. The present invention is characterized by causing a computer to execute an output procedure of outputting reaction information to the user.

実施形態の一態様によれば、対話システムへのユーザによる入力に寄らずに適切な情報を出力することができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to output appropriate information without relying on user input to the dialogue system.

図1は、実施形態に係る出力処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of output processing according to an embodiment. 図2は、実施形態に係る出力装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an output device according to an embodiment. 図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。FIG. 3 is a diagram illustrating an example of a sensor information storage unit according to the embodiment. 図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of a content storage unit according to the embodiment. 図5は、実施形態に係る反応情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a reaction information storage unit according to the embodiment. 図6は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of a model information storage unit according to the embodiment. 図7は、実施形態に係るモデルの一例を示す図である。FIG. 7 is a diagram showing an example of a model according to the embodiment. 図8は、実施形態に係る学習データ記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of a learning data storage unit according to the embodiment. 図9は、実施形態に係る出力処理手順を示すフローチャートである。FIG. 9 is a flowchart showing the output processing procedure according to the embodiment. 図10は、実施形態に係るコンテンツ配信装置の構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a content distribution device according to an embodiment. 図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 11 is a diagram illustrating an example of a user information storage unit according to the embodiment. 図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。FIG. 12 is a diagram illustrating an example of a content storage unit according to the embodiment. 図13は、変形例に係る出力処理の一例を示す図である。FIG. 13 is a diagram illustrating an example of output processing according to a modification. 図14は、変形例に係る出力処理の一例を示す図である。FIG. 14 is a diagram illustrating an example of output processing according to a modified example. 図15は、出力装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 15 is a hardware configuration diagram showing an example of a computer that implements the functions of the output device.

以下に、本願に係る出力プログラム、出力装置及び出力方法を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力プログラム、出力装置及び出力方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 DESCRIPTION OF THE PREFERRED EMBODIMENTS Below, embodiments (hereinafter referred to as "embodiments") for implementing the output program, output device, and output method according to the present application will be described in detail with reference to the drawings. Note that this embodiment does not limit the output program, output device, and output method according to the present application. Further, in each of the embodiments below, the same parts are given the same reference numerals, and redundant explanations will be omitted.

〔1.出力処理の一例〕
まず、図1を用いて、実施形態に係る出力処理の一例について説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に例示するように、出力処理システム1には、コンテンツ配信装置20と、出力装置100とが含まれる。これらの各種装置は、ネットワークN(例えば、インターネット)を介して、有線又は無線により通信可能に接続される。なお、図2に示した出力処理システム1には、任意の数のコンテンツ配信装置20と任意の数の出力装置100とが含まれていてもよい。
[1. Example of output processing]
First, an example of output processing according to the embodiment will be described using FIG. 1. FIG. 1 is a diagram illustrating an example of output processing according to an embodiment. As illustrated in FIG. 1, the output processing system 1 includes a content distribution device 20 and an output device 100. These various devices are communicably connected via a network N (for example, the Internet) by wire or wirelessly. Note that the output processing system 1 shown in FIG. 2 may include any number of content distribution devices 20 and any number of output devices 100.

コンテンツ配信装置20は、コンテンツを配信する情報処理装置である。図1に示す例において、コンテンツ配信装置20は、出力装置100からの配信要求に応じて、出力装置100において表示されるコンテンツの一例であるニュース記事を配信する。 The content distribution device 20 is an information processing device that distributes content. In the example shown in FIG. 1, the content distribution device 20 distributes a news article, which is an example of content displayed on the output device 100, in response to a distribution request from the output device 100.

出力装置100は、ユーザとの雑談や他愛のない会話といった非タスク志向型の対話を行うシステムである非タスク志向型対話システム(non-task-oriented dialogue systems)である。なお、タスク志向型対話システムは、ユーザの要求に応じて、検索やニュース読み上げや予約代行などのタスクを行うシステムを指す。出力装置100は、テキストや音声を通じてユーザとの対話を自動的に行うプログラムであるチャットボット(chatbot)の一種である。出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得し、取得した反応情報をユーザに対して出力する情報処理装置である。 The output device 100 is a non-task-oriented dialogue system, which is a system for performing non-task-oriented dialogues such as small talk and casual conversations with the user. Note that the task-oriented dialogue system refers to a system that performs tasks such as searching, reading news, and making reservations in response to user requests. The output device 100 is a type of chatbot, which is a program that automatically interacts with the user through text and voice. The output device 100 performs information processing that acquires reaction information that is character information generated as a reaction to second information other than first information input by the user into the dialogue system, and outputs the acquired reaction information to the user. It is a device.

また、出力装置100は、周囲の音を取得するマイク等の取得装置と、任意の音を出力可能なスピーカー等の出力装置とを有する入出力装置とを有する入出力装置であり、例えば、スマートスピーカーと呼ばれるデバイスである。また、出力装置100は、音楽の出力や音声による情報提供を実現可能な装置である。また、出力装置100は、音の入力を受付ける受付機能を有しユーザが発した音声を取得すると、取得した音声の内容に応じた音を出力する出力機能を有する。なお、出力装置100は、スマートスピーカー以外にも、スマートフォンやタブレット等といった各種の情報処理装置であってもよい。図1では、出力装置100がスマートフォンである例を示す。また、出力装置100は、必ずしもスピーカー等の出力装置を有する必要はない。例えば、出力装置100は、音声に代えて、文字列等の情報を表示することで各種の情報をユーザに対して出力してもよい。 Further, the output device 100 is an input/output device that has an acquisition device such as a microphone that acquires surrounding sounds, and an input/output device that has an output device such as a speaker that can output any sound. It is a device called a speaker. Further, the output device 100 is a device that can output music and provide information by voice. Further, the output device 100 has a reception function that accepts input of sound, and an output function that outputs a sound according to the content of the acquired voice when the voice uttered by the user is acquired. Note that the output device 100 may be various information processing devices such as a smartphone, a tablet, etc., in addition to a smart speaker. FIG. 1 shows an example in which the output device 100 is a smartphone. Furthermore, the output device 100 does not necessarily need to include an output device such as a speaker. For example, the output device 100 may output various information to the user by displaying information such as character strings instead of audio.

また、出力装置100は、出力装置100を利用するユーザの物理的な状態を検知するセンサである物理センサを備える。例えば、出力装置100は、ジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意の物理センサを備える。出力装置100は、物理センサによって出力装置100を利用するユーザの物理的な状態を検知する。また、出力装置100は、物理センサによってユーザの物理的な状態に関する情報であるセンサ情報を取得する。出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングを判定する。図1に示す例では、出力装置100は、取得したセンサ情報に基づいて、ユーザに対して反応情報を音声によって出力するタイミングであるか否かを判定する。 Further, the output device 100 includes a physical sensor that is a sensor that detects the physical condition of the user who uses the output device 100. For example, the output device 100 includes any physical sensor such as a gyro sensor, an image sensor, an acceleration sensor, a temperature sensor, a volume sensor, and a brightness sensor. The output device 100 detects the physical state of the user using the output device 100 using a physical sensor. Furthermore, the output device 100 acquires sensor information, which is information regarding the physical state of the user, using a physical sensor. The output device 100 determines the timing to output reaction information to the user based on the acquired sensor information. In the example shown in FIG. 1, the output device 100 determines whether or not it is the timing to output reaction information to the user by voice, based on the acquired sensor information.

ここから、図1を用いて、出力処理の流れについて説明する。図1は、実施形態に係る出力処理の一例を示す図である。図1に示す例では、出力装置100は、音量センサによって、ユーザによる発話を示すユーザの音声に関する音声情報を取得する(ステップS11)。出力装置100は、音声情報を取得すると、取得した音声情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS12)。具体的には、出力装置100は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。例えば、出力装置100は、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、出力装置100は、ユーザに対して反応情報を出力するタイミングであると判定した場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS13)。 From here, the flow of output processing will be explained using FIG. 1. FIG. 1 is a diagram illustrating an example of output processing according to an embodiment. In the example shown in FIG. 1, the output device 100 uses the volume sensor to acquire audio information regarding the user's voice indicating the user's utterance (step S11). Upon acquiring the audio information, the output device 100 determines whether it is time to output reaction information to the user based on the acquired audio information (step S12). Specifically, the output device 100 determines whether or not a predetermined period of time has elapsed since the user's utterance to the dialogue system. For example, when the output device 100 determines that a predetermined period (for example, 30 seconds) has elapsed since the user's utterance to the dialogue system based on the acquired audio information, the output device 100 outputs reaction information to the user. It is determined that the timing is right. Subsequently, when the output device 100 determines that it is the timing to output the reaction information to the user, it transmits a content distribution request to the content distribution device 20 (step S13).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から受け付ける。コンテンツ配信装置20は、コンテンツの配信要求を受け付けると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS14)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、ネット通販会社であるA社で労働組合が結成されたことに関するニュース記事であるコンテンツ#1を出力装置100に配信する。 The content distribution device 20 receives a content distribution request from the output device 100. When the content distribution device 20 receives a content distribution request, the content distribution device 20 identifies the user who uses the output device 100 that is the request source. Subsequently, upon identifying the user, the content distribution device 20 selects content according to the user (step S14). When content is selected, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes content #1, which is a news article regarding the formation of a labor union at Company A, which is an online mail order company, to the output device 100.

出力装置100は、コンテンツ配信装置20からコンテンツ#1を取得する(ステップS15)。出力装置100は、コンテンツ#1を取得すると、取得したコンテンツ#1をモデルM1に入力することにより、コンテンツ#1に対する反応を示す文字情報である反応情報#1を生成する(ステップS16)。具体的には、出力装置100は、コンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、出力装置100は、ユーザとのコンテンツ#1に関連する対話の契機となる文字情報である契機情報R12を生成する。より具体的には、出力装置100は、コンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。出力装置100は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。出力装置100は、反応情報#1を生成すると、生成した反応情報#1を取得する。なお、図1では、反応情報#1がサマリ情報R11と契機情報R12の両方を含む文字情報である例について説明したが、反応情報#1はサマリ情報R11を含まなくてもよい。すなわち、反応情報#1が契機情報R12であってもよい。 The output device 100 acquires content #1 from the content distribution device 20 (step S15). When the output device 100 acquires the content #1, the output device 100 inputs the acquired content #1 into the model M1 to generate reaction information #1, which is text information indicating a reaction to the content #1 (step S16). Specifically, the output device 100 generates summary information R11 that is text information corresponding to the summary of content #1, ``It appears that a labor union has been formed at company A.''. Furthermore, the output device 100 generates trigger information R12, which is character information that triggers a dialogue with the user related to content #1. More specifically, the output device 100 generates trigger information R12 that is ``Will there be a strike?'' which is text information requesting the user's opinion regarding content #1. The output device 100 generates reaction information #1 including summary information R11 and trigger information R12. When the output device 100 generates the reaction information #1, the output device 100 acquires the generated reaction information #1. In FIG. 1, an example has been described in which the reaction information #1 is character information including both the summary information R11 and the trigger information R12, but the reaction information #1 does not need to include the summary information R11. That is, the reaction information #1 may be the trigger information R12.

出力装置100は、反応情報#1を取得すると、反応情報#1を音声出力する(ステップS17)。具体的には、出力装置100は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。 Upon acquiring the reaction information #1, the output device 100 outputs the reaction information #1 as voice (step S17). Specifically, the output device 100 outputs the trigger information R12 as voice after outputting the summary information R11 as voice.

上述したように、出力装置100は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。また、出力装置100は、取得した反応情報をユーザに対して出力する。これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。 As described above, the output device 100 acquires reaction information that is character information generated as a reaction to second information other than first information input by the user into the dialogue system. Furthermore, the output device 100 outputs the acquired reaction information to the user. Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to news articles, etc., without any action from the user on the dialogue system. That is, the output device 100 allows the device to spontaneously and appropriately talk to a person. Therefore, the output device 100 can output appropriate information without depending on the user's input to the dialogue system.

〔2.出力装置の構成〕
次に、図2を用いて、実施形態に係る出力装置100の構成について説明する。図2は、実施形態に係る出力装置100の構成例を示す図である。図2に示すように、出力装置100は、通信部110と、記憶部120と、入力部130と、表示部140と、物理センサ150と、制御部160とを有する。
[2. Output device configuration]
Next, the configuration of the output device 100 according to the embodiment will be described using FIG. 2. FIG. 2 is a diagram showing a configuration example of the output device 100 according to the embodiment. As shown in FIG. 2, the output device 100 includes a communication section 110, a storage section 120, an input section 130, a display section 140, a physical sensor 150, and a control section 160.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、コンテンツ配信装置20との間で情報の送受信を行う。
(Communication Department 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the content distribution device 20.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、出力プログラム等を記憶する。また、記憶部14は、図2に示すように、センサ情報記憶部121とコンテンツ記憶部122と反応情報記憶部123とモデル情報記憶部124と学習データ記憶部125とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, output programs and the like. Furthermore, as shown in FIG. 2, the storage unit 14 includes a sensor information storage unit 121, a content storage unit 122, a reaction information storage unit 123, a model information storage unit 124, and a learning data storage unit 125.

(センサ情報記憶部121)
センサ情報記憶部121は、物理センサによる検知に関する各種情報を記憶する。例えば、センサ情報記憶部121は、物理センサにより検知されたセンサ情報を記憶する。図3を用いて、実施形態に係るセンサ情報記憶部の一例について説明する。図3は、実施形態に係るセンサ情報記憶部の一例を示す図である。図3に示す例では、センサ情報記憶部121は、「ログID」、「種別」、「センサ情報」、「日時」、「位置」といった項目を有する。
(Sensor information storage unit 121)
The sensor information storage unit 121 stores various information related to detection by physical sensors. For example, the sensor information storage unit 121 stores sensor information detected by a physical sensor. An example of the sensor information storage unit according to the embodiment will be described using FIG. 3. FIG. 3 is a diagram illustrating an example of a sensor information storage unit according to the embodiment. In the example shown in FIG. 3, the sensor information storage unit 121 has items such as "log ID", "type", "sensor information", "date and time", and "position".

「ログID」は、取得されたセンサ情報を識別するための識別情報を示す。「種別」は、検知されたセンサ情報の種別に関する情報を示す。「センサ情報」は、検知されたセンサ情報を示す。図3では「センサ情報」に「SN11」といった概念的な情報が格納される例を示したが、実際には、具体的に検知された情報(センサデータ)、または、その格納場所を示すファイルパス名などが格納されてもよい。 "Log ID" indicates identification information for identifying acquired sensor information. “Type” indicates information regarding the type of detected sensor information. "Sensor information" indicates detected sensor information. Figure 3 shows an example where conceptual information such as "SN11" is stored in "sensor information", but in reality, it is actually a file indicating specifically detected information (sensor data) or its storage location. A path name, etc. may also be stored.

例えば、センサ情報の種別「画像」である場合、「センサ情報」には、ユーザの姿をとらえた静止画像や動画像、または、これらの格納場所を示すファイルパス名などが格納される。また、例えば、センサ情報の種別「発話」である場合、「センサ情報」には、ユーザの発話を示す音声データや音声データを変換後の文字情報、または、これらの格納場所を示すファイルパス名などが格納される。 For example, if the type of sensor information is "image", "sensor information" stores a still image or a moving image of the user, or a file path name indicating a storage location thereof. For example, if the type of sensor information is "utterance", "sensor information" includes audio data indicating the user's utterances, character information after converting the audio data, or a file path name indicating the storage location of these data. etc. are stored.

「日時」は、センサ情報が検知された日時を示す。図3では「日時」を「dt11」等のように抽象的に図示するが、「2019年3月23日22時31分52秒」等の具体的な日時が記憶されてもよい。なお、「日時」は、時点に限らず、「2019年3月23日22時31分」や「2019年3月23日22時30-31分」等の所定の期間であってもよい。また、「位置」は、対応する行動が行われた位置を示す。なお、図3では「位置」を「LC11」といった抽象的な符号で図示するが、緯度や経度を示す情報や「X県Y市Z町B交差点」等のような住所を示す情報が記憶されてもよい。 “Date and time” indicates the date and time when the sensor information was detected. In FIG. 3, the "date and time" is illustrated abstractly such as "dt11", but a specific date and time such as "March 23, 2019 22:31:52" may be stored. Note that the "date and time" is not limited to a time, but may be a predetermined period such as "March 23, 2019 22:31" or "March 23, 2019 22:30-31". Moreover, "position" indicates the position where the corresponding action was performed. In addition, in FIG. 3, the "position" is illustrated with an abstract code such as "LC11", but information indicating latitude and longitude and information indicating an address such as "B intersection, Z town, Y city, X prefecture" are also stored. You can.

(コンテンツ記憶部122)
コンテンツ記憶部122は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツ配信装置20から取得したコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部122は、コンテンツを形成するHTMLファイルや、コンテンツに表示される文字情報や静止画像や動画像を記憶する。図4を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図4は、実施形態に係るコンテンツ記憶部の一例を示す図である。図4に示す例では、コンテンツ記憶部122は、「コンテンツID」、「コンテンツ」、「取得日時」といった項目を有する。
(Content storage unit 122)
The content storage unit 122 stores various information regarding content. For example, the content storage unit 122 stores information regarding content acquired from the content distribution device 20. For example, the content storage unit 122 stores information related to content such as news articles, posted information on SNS (Social Networking Service), advertisements, and reviews of movies and the like. For example, the content storage unit 122 stores HTML files forming the content, text information, still images, and moving images displayed in the content. An example of the content storage unit according to the embodiment will be described using FIG. 4. FIG. 4 is a diagram illustrating an example of a content storage unit according to the embodiment. In the example shown in FIG. 4, the content storage unit 122 has items such as "content ID", "content", and "acquisition date and time".

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図4では「コンテンツ」に「コンテンツ#11」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「取得日時」は、コンテンツが取得された日時を示す。 "Content ID" indicates identification information for identifying content. "Content" indicates character information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. Although FIG. 4 shows an example in which conceptual information such as "Content #11" is stored in "Content," it actually indicates the specific content (the HTML file that forms it) or its storage location. File path names, etc. may also be stored. Further, "content" may store still images and moving images displayed in news articles, posted information on SNS, advertisements, movie reviews, etc. Alternatively, "content" may store character information extracted from image information as a result of analyzing image information displayed in news articles, posted information on SNS, advertisements, reviews of movies, etc. “Acquisition date and time” indicates the date and time when the content was acquired.

(反応情報記憶部123)
反応情報記憶部123は、反応情報に関する各種情報を記憶する。例えば、反応情報記憶部123は、出力装置100が生成した反応情報を記憶する。図5を用いて、実施形態に係る反応情報記憶部の一例について説明する。図5は、実施形態に係る反応情報記憶部の一例を示す図である。図5に示す例では、反応情報記憶部123は、「反応ID」、「反応情報」、「ユーザによる応答」、「生成日時」、「コンテンツID」といった項目を有する。
(Reaction information storage unit 123)
The reaction information storage unit 123 stores various information related to reaction information. For example, the reaction information storage unit 123 stores reaction information generated by the output device 100. An example of the reaction information storage unit according to the embodiment will be described using FIG. 5. FIG. 5 is a diagram illustrating an example of a reaction information storage unit according to the embodiment. In the example shown in FIG. 5, the reaction information storage unit 123 has items such as "reaction ID", "reaction information", "response by user", "generation date and time", and "content ID".

「反応ID」は、反応情報を識別するための識別情報を示す。「反応情報」は、コンテンツIDで識別されるコンテンツに対する反応を示す文字情報を示す。「コンテンツID」は、反応の対象となるコンテンツを識別するための識別情報を示す。「ユーザによる応答」は、反応情報に対するユーザの応答の有無を示す。具体的には、反応情報に対するユーザによる応答があった場合は「1」を、反応情報に対するユーザによる応答がなかった場合は「0」が格納される。「生成日時」は、反応情報が生成された日時を示す。 "Reaction ID" indicates identification information for identifying reaction information. "Reaction information" indicates character information indicating a reaction to the content identified by the content ID. "Content ID" indicates identification information for identifying content that is a target of a reaction. “Response by user” indicates whether there is a response from the user to the reaction information. Specifically, "1" is stored when there is a response from the user to the reaction information, and "0" is stored when there is no response from the user to the reaction information. “Generation date and time” indicates the date and time when the reaction information was generated.

(モデル情報記憶部124)
モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成するモデルに関する各種情報を記憶する。例えば、モデル情報記憶部124は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルを記憶する。図6を用いて、実施形態に係るモデル情報記憶部の一例について説明する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示す例では、モデル情報記憶部124は、「モデルID」、「モデルデータ」といった項目を有する。
(Model information storage unit 124)
The model information storage unit 124 stores various information regarding a model that generates reaction information that is character information indicating a reaction to second information other than the first information input by the user into the dialogue system. For example, the model information storage unit 124 stores a model that, when second information other than the first information input by the user is input to the dialogue system, outputs reaction information that is character information indicating a reaction to the second information. An example of the model information storage unit according to the embodiment will be described using FIG. 6. FIG. 6 is a diagram illustrating an example of a model information storage unit according to the embodiment. In the example shown in FIG. 6, the model information storage unit 124 has items such as "model ID" and "model data."

「モデルID」は、反応情報を生成するモデルを識別するための識別情報を示す。「モデルデータ」は、モデルのモデルデータを示す。例えば、「モデルデータ」には、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するためのデータが格納される。 "Model ID" indicates identification information for identifying a model that generates reaction information. "Model data" indicates model data of a model. For example, "model data" stores data for generating reaction information, which is character information indicating a reaction to the second information, from second information other than the first information input by the user into the dialogue system.

ここで、図7を用いて、実施形態に係るモデルの一例について説明する。図7に、実施形態に係るモデルの一例を示す。図7では、対話システムにユーザにより入力される第1情報以外の第2情報から第2情報に対する反応を示す文字情報である反応情報を生成するモデルM1がSeq2Seq(Sequence to Sequence Model)である例について説明する。Seq2Seqは、語句の並び(文字列)を入力して、別の語句の並び(文字列)を出力するルールを学習するモデルである。具体的には、Seq2Seqは、RNN(Recurrent Neural Network)の一種であるLSTM(Long Short Term Memory)を構成要素とするEncoder-Decoderモデルである。 Here, an example of the model according to the embodiment will be described using FIG. 7. FIG. 7 shows an example of a model according to the embodiment. In FIG. 7, an example is shown in which the model M1 that generates reaction information, which is character information indicating a reaction to the second information, from second information other than the first information input by the user to the dialogue system is Seq2Seq (Sequence to Sequence Model). I will explain about it. Seq2Seq is a model that learns rules for inputting a word sequence (character string) and outputting another word sequence (character string). Specifically, Seq2Seq is an encoder-decoder model whose constituent elements are LSTM (Long Short Term Memory), which is a type of RNN (Recurrent Neural Network).

図7に示す例では、「ABC」という文字列を入力して、「WXYZ」という文字列を出力する例を示す。図1に示す例に当てはめると、「ABC」は、「ネット通販大手A社で労働組合が結成された。「恣意的な人事評価」の廃止を訴えている。」というニュース記事であるコンテンツ#1の文字情報である。また、「WXYZ」は、「A社で労働組合が結成されたみたいです。ストが起きますかね?」というコンテンツ#1に対する反応を示す文字情報である。このような「ABC」(ニュース記事であるコンテンツ#1)と「WXYZ」(コンテンツ#1に対する応答を示す反応情報#1)の組があった場合、Seq2SeqであるモデルM1は、図7の「ABC」が入力されているEncoder側で「ABC」をベクトル化し、図7の「WXYZ」が出力されているDecoder側で「WXYZ」を生成するようにRNNの学習を行う。 In the example shown in FIG. 7, a character string "ABC" is input and a character string "WXYZ" is output. Applying the example shown in Figure 1, ABC reports, ``A labor union has been formed at major online shopping company A. It is calling for the abolition of ``arbitrary personnel evaluations''. This is the text information of content #1, which is a news article. Furthermore, "WXYZ" is text information indicating a reaction to content #1, "It seems that a labor union has been formed at Company A. Will there be a strike?" If there is such a pair of "ABC" (content #1 which is a news article) and "WXYZ" (reaction information #1 indicating a response to content #1), the model M1 which is Seq2Seq will be " The RNN is trained to vectorize "ABC" on the encoder side to which "ABC" is input, and to generate "WXYZ" on the decoder side to which "WXYZ" in FIG. 7 is output.

モデルデータMDT1は、第2情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された第2情報に応じて、入力層に入力された第2情報に対する反応を示す反応情報を出力層から出力するよう、出力装置100を機能させてもよい。 The model data MDT1 includes an input layer into which second information is input, an output layer, a first element belonging to any layer from the input layer to the output layer other than the output layer, and a first element. and a second element whose value is calculated based on the weight of the first element, reaction information indicating a reaction to the second information input to the input layer according to the second information input to the input layer. The output device 100 may be operated to output from the output layer.

ここで、モデルデータMDT1が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the model data MDT1 is realized by a regression model expressed as "y=a1*x1+a2*x2+...+ai*xi". In this case, the first element included in the model data MDT1 corresponds to input data (xi) such as x1 and x2. Further, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element corresponds to any node that the input layer has, and the second element can be regarded as a node that the output layer has.

また、モデルデータMDT1がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、モデルデータMDT1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the model data MDT1 is realized by a neural network having one or more intermediate layers, such as a DNN (Deep Neural Network). In this case, the first element included in the model data MDT1 corresponds to any node included in the input layer or the intermediate layer. Further, the second element corresponds to a next-stage node that is a node to which a value is transmitted from the node corresponding to the first element. Furthermore, the weight of the first element corresponds to a connection coefficient that is a weight that is considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.

出力装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、反応情報の出力を行う。具体的には、モデルデータMDT1は、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するように係数が設定される。出力装置100は、このようなモデルデータMDT1を用いて、第2情報に対する反応を示す反応情報を出力する。 The output device 100 outputs reaction information using a model having an arbitrary structure, such as the regression model or neural network described above. Specifically, coefficients are set in the model data MDT1 so that, when the second information is input, reaction information indicating a reaction to the second information is output. The output device 100 uses such model data MDT1 to output reaction information indicating a reaction to the second information.

なお、上記例では、モデルデータMDT1が、第2情報が入力された場合に、第2情報に対する反応を示す反応情報を出力するモデル(以下、モデルXという。)である例を示した。しかし、実施形態に係るモデルデータMDT1は、モデルXにデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルデータMDT1は、第2情報を入力とした際に、モデルXが出力した第2情報に対する反応を示す反応情報を入力して学習されたモデル(以下、モデルYという。)であってもよい。または、モデルデータMDT1は、第2情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, the model data MDT1 is a model (hereinafter referred to as model X) that outputs reaction information indicating a reaction to the second information when the second information is input. However, the model data MDT1 according to the embodiment may be a model generated based on the results obtained by repeatedly inputting and outputting data to the model X. For example, model data MDT1 is a model (hereinafter referred to as model Y) that is learned by inputting reaction information indicating a reaction to the second information outputted by model X when second information is input. Good too. Alternatively, the model data MDT1 may be a model learned to input the second information and output the output value of the model Y.

また、出力装置100がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルデータMDT1は、GANの一部を構成するモデルであってもよい。 Furthermore, when the output device 100 performs estimation processing using GAN (Generative Adversarial Networks), the model data MDT1 may be a model that forms part of the GAN.

(学習データ記憶部125)
学習データ記憶部125は、モデルの学習データ(正解データ)に関する各種情報を記憶する。例えば、学習データ記憶部125は、コンテンツと、そのコンテンツに対する反応を示す文字情報である反応情報を記憶する。図8を用いて、実施形態に係る学習データ記憶部の一例について説明する。図8は、実施形態に係る学習データ記憶部の一例を示す図である。図8に示す例では、学習データ記憶部125は、「学習データID」、「コンテンツ」、「反応情報」、「日時」といった項目を有する。
(Learning data storage unit 125)
The learning data storage unit 125 stores various information regarding the learning data (correct data) of the model. For example, the learning data storage unit 125 stores content and reaction information that is text information indicating a reaction to the content. An example of the learning data storage unit according to the embodiment will be described using FIG. 8. FIG. 8 is a diagram illustrating an example of a learning data storage unit according to the embodiment. In the example shown in FIG. 8, the learning data storage unit 125 has items such as "learning data ID", "content", "reaction information", and "date and time".

「学習データID」は、学習データを識別するための識別情報を示す。「コンテンツ」は、ニュース記事、SNS(Social Networking Service)における投稿情報、広告、映画のレビュー等のコンテンツに含まれる文字情報を示す。図8では「コンテンツ」に「コンテンツ#1-1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「反応情報」は、コンテンツに対する反応を示す文字情報を示す。「日時」は、モデルが学習データを学習した日時を示す。 "Learning data ID" indicates identification information for identifying learning data. "Content" indicates character information included in content such as news articles, posted information on SNS (Social Networking Service), advertisements, and movie reviews. Although FIG. 8 shows an example in which conceptual information such as "Content #1-1" is stored in "Content", in reality, the specific content (the HTML file forming it) or its storage location is stored in "Content". A file path name indicating the file name, etc. may also be stored. Further, "content" may store still images and moving images displayed in news articles, posted information on SNS, advertisements, movie reviews, etc. Alternatively, "content" may store character information extracted from image information as a result of analyzing image information displayed in news articles, posted information on SNS, advertisements, reviews of movies, etc. "Reaction information" indicates text information indicating a reaction to the content. "Date and time" indicates the date and time when the model learned the learning data.

(入力部130)
入力部130は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部130は、キーボードやマウスや操作キー等によって実現される。
(Input section 130)
The input unit 130 is an input device that accepts various operations from the user. For example, the input unit 130 is realized by a keyboard, a mouse, operation keys, or the like.

(表示部140)
表示部140は、各種情報を表示するための表示装置であり、すなわち、画面である。例えば、表示部140は、液晶ディスプレイ等によって実現される。なお、出力装置100にタッチパネルが採用される場合には、入力部130と表示部140とは一体化される。また、以下の説明では、表示部140を画面と記載する場合がある。
(Display section 140)
The display unit 140 is a display device for displaying various information, that is, a screen. For example, the display unit 140 is realized by a liquid crystal display or the like. Note that when a touch panel is adopted as the output device 100, the input section 130 and the display section 140 are integrated. Furthermore, in the following description, the display unit 140 may be referred to as a screen.

(物理センサ150)
物理センサ150は、出力装置100を利用するユーザの物理的な状態を検知するセンサである。例えば、物理センサ150は、出力装置100の3軸方向の傾きを測定するジャイロセンサ、画像センサ、加速度センサ、温度センサ、音量センサ、明度センサ等、任意のセンサが適用可能である。
(Physical sensor 150)
The physical sensor 150 is a sensor that detects the physical condition of the user who uses the output device 100. For example, the physical sensor 150 can be any sensor such as a gyro sensor, an image sensor, an acceleration sensor, a temperature sensor, a volume sensor, a brightness sensor, etc. that measure the inclination of the output device 100 in three axial directions.

物理センサ150は、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。物理センサ150は、センサ情報を取得すると、取得したセンサ情報をセンサ情報記憶部121に格納する。具体的には、音量センサである物理センサ150は、ユーザによる発話を示すユーザの音声に関する音声情報を取得する。音量センサである物理センサ150は、音声情報を取得すると、取得した音声情報をセンサ情報記憶部121に格納する。また、画像センサである物理センサ150は、ユーザの画像に関する画像情報を取得する。画像センサである物理センサ150は、画像情報を取得すると、取得した画像情報をセンサ情報記憶部121に格納する。また、加速度センサである物理センサ150は、ユーザの動きに伴う加速度に関する加速度情報を取得する。加速度センサである物理センサ150は、加速度情報を取得すると、取得した加速度情報をセンサ情報記憶部121に格納する。 The physical sensor 150 acquires sensor information that is information regarding the physical state of the user who uses the output device 100. Upon acquiring the sensor information, the physical sensor 150 stores the acquired sensor information in the sensor information storage section 121. Specifically, the physical sensor 150, which is a volume sensor, acquires audio information regarding the user's voice indicating the user's utterance. When the physical sensor 150, which is a volume sensor, acquires audio information, it stores the acquired audio information in the sensor information storage unit 121. Further, the physical sensor 150, which is an image sensor, acquires image information regarding the user's image. When acquiring image information, the physical sensor 150 that is an image sensor stores the acquired image information in the sensor information storage unit 121. Further, the physical sensor 150, which is an acceleration sensor, acquires acceleration information regarding acceleration accompanying the user's movement. Upon acquiring acceleration information, the physical sensor 150 that is an acceleration sensor stores the acquired acceleration information in the sensor information storage unit 121 .

(制御部160)
制御部160は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、出力装置100内部の記憶装置に記憶されている各種プログラム(出力プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、ウェブブラウザと呼ばれるアプリケーションプログラムに該当する。また、制御部160は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 160)
The control unit 160 executes various programs (corresponding to an example of an output program) stored in a storage device inside the output device 100 by using a RAM as a work area by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. This is achieved by For example, these various programs correspond to an application program called a web browser. Further, the control unit 160 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部160は、判定部161と、要求部162と、生成部163と、取得部164と、出力部165とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部160の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 2, the control unit 160 includes a determination unit 161, a request unit 162, a generation unit 163, an acquisition unit 164, and an output unit 165, and has information processing functions and operations described below. to realize or carry out. Note that the internal configuration of the control unit 160 is not limited to the configuration shown in FIG. 2, and may be any other configuration as long as it performs information processing to be described later.

(判定部161)
判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。具体的には、判定部161は、センサ情報記憶部121を参照して、出力装置100を利用するユーザの物理的な状態に関する情報であるセンサ情報を取得する。続いて、判定部161は、センサ情報を取得すると、取得したセンサ情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。
(Determination unit 161)
The determining unit 161 determines whether it is the timing to output reaction information to the user. Specifically, the determination unit 161 refers to the sensor information storage unit 121 and acquires sensor information that is information regarding the physical state of the user who uses the output device 100. Subsequently, upon acquiring the sensor information, the determination unit 161 determines whether it is the timing to output reaction information to the user based on the acquired sensor information.

また、判定部161は、対話システムに対するユーザによる第2情報の要求以外のタイミングであるか否かを判定する。より具体的には、出力部165は、ユーザのコンテキストに基づくタイミングであるか否かを判定する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングであるか否かを判定する。図1に示す例では、判定部161は、センサ情報記憶部121を参照して、ログLG1等の音声情報を取得する。続いて、判定部161は、音声情報を取得すると、取得した音声情報に基づいて、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであるか否かを判定する。判定部161は、対話システムに対するユーザの発話から所定の期間(例えば、30秒)が経過したタイミングであると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。 Further, the determining unit 161 determines whether the timing is other than when the user requests the second information to the dialogue system. More specifically, the output unit 165 determines whether the timing is based on the user's context. In the example shown in FIG. 1, the output unit 165 determines whether or not a predetermined period of time has elapsed since the user's utterance to the dialogue system. In the example shown in FIG. 1, the determination unit 161 refers to the sensor information storage unit 121 and acquires audio information such as log LG1. Subsequently, upon acquiring the voice information, the determination unit 161 determines whether a predetermined period (for example, 30 seconds) has elapsed since the user's utterance to the dialogue system, based on the acquired voice information. . If the determining unit 161 determines that it is the timing when a predetermined period (for example, 30 seconds) has elapsed since the user's utterance to the dialogue system, it determines that it is the timing to output reaction information to the user.

なお、判定部161は、ユーザの位置情報に基づいてユーザに対して反応情報を出力するタイミングであるか否かを判定してもよい。例えば、判定部161は、センサ情報記憶部121の「位置」に格納された位置情報を参照して、出力装置100を利用するユーザの位置情報を取得する。続いて、判定部161は、取得した位置情報に基づいて、ユーザが屋内にいるか屋外にいるかを判定する。例えば、判定部161は、ユーザがユーザの自宅にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。また、判定部161は、ユーザが公園にいると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定してもよい。 Note that the determination unit 161 may determine whether it is the timing to output reaction information to the user based on the user's location information. For example, the determination unit 161 refers to the position information stored in “position” of the sensor information storage unit 121 and acquires the position information of the user who uses the output device 100. Next, the determining unit 161 determines whether the user is indoors or outdoors based on the acquired position information. For example, when determining that the user is at the user's home, the determination unit 161 may determine that it is the timing to output reaction information to the user. Furthermore, when determining that the user is in the park, the determination unit 161 may determine that it is the timing to output reaction information to the user.

(要求部162)
要求部162は、コンテンツの配信を要求する。具体的には、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する。また、要求部162は、コンテンツ配信装置20からコンテンツを受信する。要求部162は、コンテンツを受信すると、受信したコンテンツをコンテンツ記憶部122に格納する。
(Request unit 162)
The request unit 162 requests distribution of content. Specifically, when the determining unit 161 determines that it is the timing to output the reaction information to the user, the requesting unit 162 transmits a content distribution request to the content distribution device 20. Further, the requesting unit 162 receives content from the content distribution device 20. Upon receiving the content, the requesting unit 162 stores the received content in the content storage unit 122.

(生成部163)
生成部163は、第2情報から反応情報を生成する。具体的には、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を取得する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報を取得する。また、生成部163は、ユーザに応じて選択される第2情報を取得する。例えば、生成部163は、所定のコンテンツである第2情報を取得する。図1に示す例では、生成部163は、ニュース記事である第2情報を取得する。より具体的には、生成部163は、コンテンツ記憶部122を参照して、ニュース記事であるコンテンツ#1を取得する。
(Generation unit 163)
The generation unit 163 generates reaction information from the second information. Specifically, the generation unit 163 acquires second information other than the first information input by the user into the dialogue system. More specifically, the generation unit 163 acquires second information other than the first information input by the user into the dialogue system, which is a non-task-oriented dialogue system. The generation unit 163 also acquires second information selected according to the user. For example, the generation unit 163 acquires second information that is predetermined content. In the example shown in FIG. 1, the generation unit 163 acquires second information that is a news article. More specifically, the generation unit 163 refers to the content storage unit 122 and obtains content #1, which is a news article.

続いて、生成部163は、第2情報を取得すると、取得した第2情報を所定のモデルに入力することにより、反応情報を生成する。生成部163は、反応情報を生成すると、生成した反応情報を反応情報記憶部123に格納する。より具体的には、生成部163は、第2情報を取得すると、モデル情報記憶部124を参照して、モデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するモデルM1を取得する。例えば、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報を入力すると、第2情報に対する反応を示す文字情報である反応情報を出力するSeq2SeqであるモデルM1を取得する。続いて、生成部163は、モデルM1を取得すると、取得したモデルM1に第2情報を入力する。生成部163は、モデルM1の出力情報を反応情報として取得する。このようにして、生成部163は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応を示す文字情報である反応情報を生成する。より具体的には、生成部163は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を生成する。また、生成部163は、ユーザに応じて選択される第2情報に対する反応情報を生成する。例えば、生成部163は、所定のコンテンツである第2情報に対する反応情報を生成する。図1に示す例では、生成部163は、ニュース記事である第2情報に対する反応情報を生成する。より具体的には、生成部163は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を生成する。 Subsequently, upon acquiring the second information, the generation unit 163 generates reaction information by inputting the acquired second information into a predetermined model. After generating reaction information, the generation unit 163 stores the generated reaction information in the reaction information storage unit 123. More specifically, upon acquiring the second information, the generation unit 163 refers to the model information storage unit 124 and acquires the model M1. For example, when the generation unit 163 inputs second information other than the first information input by the user to the dialogue system, it acquires the model M1 that outputs reaction information that is textual information indicating a reaction to the second information. For example, when the generation unit 163 inputs second information other than the first information input by the user to the dialogue system, the generation unit 163 acquires a model M1 that is a Seq2Seq that outputs reaction information that is character information indicating a reaction to the second information. do. Subsequently, upon acquiring the model M1, the generation unit 163 inputs the second information to the acquired model M1. The generation unit 163 acquires the output information of the model M1 as reaction information. In this way, the generation unit 163 generates reaction information that is character information indicating a reaction to the second information other than the first information input by the user into the dialogue system. More specifically, the generation unit 163 generates reaction information for second information other than the first information input by the user into the dialog system, which is a non-task-oriented dialog system. Furthermore, the generation unit 163 generates reaction information for the second information selected according to the user. For example, the generation unit 163 generates reaction information for second information that is predetermined content. In the example shown in FIG. 1, the generation unit 163 generates reaction information for the second information, which is a news article. More specifically, the generation unit 163 generates reaction information indicating a reaction to content #1, which is a news article selected by the content distribution device 20 according to the user.

また、生成部163は、第2情報の要約であるサマリ情報を生成する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を生成する。また、生成部163は、ユーザとの第2情報に関連する対話の契機となる反応情報を生成する。例えば、生成部163は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、生成部163は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を生成する。生成部163は、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する。なお、図1では、生成部163が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を生成する例について説明したが、サマリ情報R11を含まない反応情報#1を生成してもよい。すなわち、生成部163は、契機情報R12である反応情報#1を生成してもよい。 Furthermore, the generation unit 163 generates summary information that is a summary of the second information. In the example shown in FIG. 1, the generation unit 163 generates summary information R11, which is text information corresponding to the summary of content #1, which is a news article, ``It seems that a labor union has been formed at company A.''. Further, the generation unit 163 generates reaction information that becomes an opportunity for dialogue related to the second information with the user. For example, the generation unit 163 acquires reaction information that requests the user's opinion on the second information. In the example shown in FIG. 1, the generation unit 163 generates opportunity information R12, which is text information that requests the user's opinion on content #1, which is a news article, ``Will there be a strike?''. The generation unit 163 generates reaction information #1 including summary information R11 and trigger information R12. Although FIG. 1 describes an example in which the generation unit 163 generates reaction information #1 that includes both summary information R11 and trigger information R12, it is also possible to generate reaction information #1 that does not include summary information R11. good. That is, the generation unit 163 may generate reaction information #1, which is the trigger information R12.

(取得部164)
取得部164は、生成部163により生成された反応情報を取得する。具体的には、取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。より具体的には、取得部164は、具体的には、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。例えば、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。より具体的には、取得部164は、コンテンツ配信装置20によってユーザに応じて選択されたニュース記事であるコンテンツ#1に対する反応を示す反応情報を取得する。
(Acquisition unit 164)
The acquisition unit 164 acquires the reaction information generated by the generation unit 163. Specifically, the acquisition unit 164 acquires reaction information that is character information generated as a reaction to second information other than the first information input by the user into the dialogue system. More specifically, the acquisition unit 164 acquires reaction information to second information other than the first information input by the user to the dialogue system, which is a non-task-oriented dialogue system. do. For example, the acquisition unit 164 acquires reaction information for second information that is predetermined content. The acquisition unit 164 also acquires reaction information for the second information selected according to the user. In the example shown in FIG. 1, the acquisition unit 164 acquires reaction information for the second information, which is a news article. More specifically, the acquisition unit 164 acquires reaction information indicating a reaction to content #1, which is a news article selected by the content distribution device 20 according to the user.

また、取得部164は、第2情報の要約であるサマリ情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1の要約に相当する文字情報である「A社で労働組合が結成されたみたいです。」というサマリ情報R11を取得する。また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。例えば、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。図1に示す例では、取得部164は、ニュース記事であるコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を取得する。取得部164は、サマリ情報R11と契機情報R12とを含む反応情報#1を取得する。なお、図1では、取得部164が、サマリ情報R11と契機情報R12の両方を含む反応情報#1を取得する例について説明したが、サマリ情報R11を含まない反応情報#1を取得してもよい。すなわち、取得部164は、契機情報R12である反応情報#1を取得してもよい。 The acquisition unit 164 also acquires summary information that is a summary of the second information. In the example shown in FIG. 1, the acquisition unit 164 acquires summary information R11, which is text information corresponding to the summary of content #1, which is a news article, ``It seems that a labor union has been formed at company A.''. The acquisition unit 164 also acquires reaction information that becomes a trigger for dialogue with the user regarding the second information. For example, the acquisition unit 164 acquires reaction information that requests the user's opinion regarding the second information. In the example shown in FIG. 1, the acquisition unit 164 acquires opportunity information R12, which is text information that requests the user's opinion on content #1, which is a news article, ``Will there be a strike?''. The acquisition unit 164 acquires reaction information #1 including summary information R11 and trigger information R12. Although FIG. 1 describes an example in which the acquisition unit 164 acquires reaction information #1 that includes both summary information R11 and trigger information R12, it is possible to acquire reaction information #1 that does not include summary information R11. good. That is, the acquisition unit 164 may acquire reaction information #1, which is the trigger information R12.

(出力部165)
出力部165は、取得部164により取得された反応情報をユーザに対して出力する。具体的には、出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合に、取得部164により取得された反応情報をユーザに対して出力する。より具体的には、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。例えば、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。図1に示す例では、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。
(Output section 165)
The output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user. Specifically, the output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user when the determination unit 161 determines that it is the timing to output the reaction information to the user. More specifically, the output unit 165 outputs the reaction information at a timing other than the user's request for the second information to the dialogue system. For example, the output unit 165 outputs reaction information at a timing based on the user's context. In the example shown in FIG. 1, the output unit 165 outputs reaction information at a timing when a predetermined period of time has elapsed since the user's utterance to the dialogue system.

また、出力部165は、サマリ情報と反応情報とを出力する。より具体的には、出力部165は、サマリ情報を出力した後に反応情報を出力する。また、出力部165は、反応情報を音声出力する。図1に示す例では、出力部165は、サマリ情報R11を音声出力した後に契機情報R12を音声出力する。 Furthermore, the output unit 165 outputs summary information and reaction information. More specifically, the output unit 165 outputs the reaction information after outputting the summary information. Furthermore, the output unit 165 outputs the reaction information as voice. In the example shown in FIG. 1, the output unit 165 outputs the summary information R11 in voice, and then outputs the trigger information R12 in voice.

〔3.出力処理のフロー〕
次に、図9を用いて、実施形態に係る出力処理の手順について説明する。図9は、第1の実施形態に係る出力処理手順を示すフローチャートである。図9に示す例では、出力装置100は、センサ情報に基づいて、反応情報を出力するタイミングであるか否かを判定する(ステップS101)。出力装置100は、反応情報を出力するタイミングでないと判定した場合(ステップS101;No)、処理を終了する。
[3. Output processing flow]
Next, the output processing procedure according to the embodiment will be described using FIG. 9. FIG. 9 is a flowchart showing the output processing procedure according to the first embodiment. In the example shown in FIG. 9, the output device 100 determines whether it is the timing to output reaction information based on the sensor information (step S101). If the output device 100 determines that it is not the timing to output the reaction information (step S101; No), it ends the process.

一方、出力装置100は、反応情報を出力するタイミングであると判定した場合(ステップS101;Yes)、コンテンツ配信装置20から所定のコンテンツを取得する(ステップS102)。続いて、出力装置100は、所定のコンテンツを取得すると、所定のコンテンツに対する反応情報を生成する(ステップS103)。続いて、出力装置100は、反応情報を生成すると、生成した反応情報を出力する(ステップS104)。 On the other hand, when the output device 100 determines that it is the timing to output the reaction information (step S101; Yes), it acquires predetermined content from the content distribution device 20 (step S102). Subsequently, upon acquiring the predetermined content, the output device 100 generates reaction information for the predetermined content (step S103). Subsequently, after generating reaction information, the output device 100 outputs the generated reaction information (step S104).

〔4.コンテンツ配信装置の構成〕
次に、図10を用いて、実施形態に係るコンテンツ配信装置20の構成について説明する。図10は、実施形態に係るコンテンツ配信装置20の構成例を示す図である。図10に示すように、コンテンツ配信装置20は、通信部21と、記憶部22と、制御部23とを有する。
[4. Configuration of content distribution device]
Next, the configuration of the content distribution device 20 according to the embodiment will be described using FIG. 10. FIG. 10 is a diagram illustrating a configuration example of the content distribution device 20 according to the embodiment. As shown in FIG. 10, the content distribution device 20 includes a communication section 21, a storage section 22, and a control section 23.

(通信部21)
通信部21は、例えば、NIC等によって実現される。そして、通信部21は、ネットワークNと有線または無線で接続され、出力装置100との間で情報の送受信を行う。
(Communication Department 21)
The communication unit 21 is realized by, for example, a NIC or the like. The communication unit 21 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the output device 100.

(記憶部22)
記憶部22は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部14は、図10に示すように、ユーザ情報記憶部221とコンテンツ記憶部222とを有する。
(Storage unit 22)
The storage unit 22 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. Furthermore, the storage unit 14 includes a user information storage unit 221 and a content storage unit 222, as shown in FIG.

(ユーザ情報記憶部221)
ユーザ情報記憶部221は、ユーザに関する各種情報を記憶する。図11を用いて、実施形態に係るユーザ情報記憶部の一例について説明する。図11は、実施形態に係るユーザ情報記憶部の一例を示す図である。図11に示す例では、ユーザ情報記憶部221は、「ユーザID」、「ユーザ情報」といった項目を有する。
(User information storage unit 221)
The user information storage unit 221 stores various information regarding users. An example of the user information storage unit according to the embodiment will be described using FIG. 11. FIG. 11 is a diagram illustrating an example of a user information storage unit according to the embodiment. In the example shown in FIG. 11, the user information storage unit 221 has items such as "user ID" and "user information."

「ユーザID」は、ユーザを識別するための識別情報を示す。「ユーザ情報」は、ユーザに関する情報を示す。例えば、「ユーザ情報」は、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードである。なお、「ユーザ情報」には、ユーザの年齢、性別、居住地、家族のライフサイクル、所得、職業といったユーザのデモグラフィック情報が含まれてもよい。また、「ユーザ情報」は、ユーザの価値観、ライフスタイル、性格、好みなどのサイコグラフィック情報が含まれてもよい。 "User ID" indicates identification information for identifying a user. "User information" indicates information regarding the user. For example, "user information" is keywords related to genres, topics, hobbies, and preferences that the user is interested in. Note that the "user information" may include demographic information of the user such as the user's age, gender, place of residence, family life cycle, income, and occupation. Further, the "user information" may include psychographic information such as the user's values, lifestyle, personality, and preferences.

(コンテンツ記憶部222)
コンテンツ記憶部222は、コンテンツに関する各種情報を記憶する。例えば、コンテンツ記憶部222は、ニュース記事、SNSにおける投稿情報、広告、映画等のレビューであるコンテンツに関する情報を記憶する。例えば、コンテンツ記憶部222は、コンテンツを形成するHTMLファイルや、コンテンツに表示される静止画像や動画像を記憶する。図12を用いて、実施形態に係るコンテンツ記憶部の一例について説明する。図12は、実施形態に係るコンテンツ記憶部の一例を示す図である。図12に示す例では、コンテンツ記憶部222は、「コンテンツID」、「コンテンツ」、「種別」といった項目を有する。
(Content storage unit 222)
The content storage unit 222 stores various information regarding content. For example, the content storage unit 222 stores information related to content such as news articles, posted information on SNS, advertisements, and reviews of movies and the like. For example, the content storage unit 222 stores HTML files forming the content, and still images and moving images displayed in the content. An example of the content storage unit according to the embodiment will be described using FIG. 12. FIG. 12 is a diagram illustrating an example of a content storage unit according to the embodiment. In the example shown in FIG. 12, the content storage unit 222 has items such as "content ID", "content", and "type".

「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等のコンテンツに含まれる文字情報を示す。図12では「コンテンツ」に「コンテンツ#1」といった概念的な情報が格納される例を示したが、実際には、具体的なコンテンツ(を形成するHTMLファイル)、または、その格納場所を示すファイルパス名などが格納されてもよい。また、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画のレビュー等に表示される静止画像や動画像が記憶されてもよい。あるいは、「コンテンツ」には、ニュース記事やSNSにおける投稿情報や広告や映画等のレビューに表示される画像情報を解析した結果これらの画像情報から抽出される文字情報が記憶されてもよい。「種別」は、コンテンツの種別を示す。例えば、「種別」は、そのコンテンツがニュース記事であるか、SNSにおける投稿情報であるか、広告であるか、映画のレビューであるかといった種別を示す。 "Content ID" indicates identification information for identifying content. "Content" indicates character information included in content such as news articles, posted information on SNS, advertisements, and movie reviews. Although FIG. 12 shows an example in which conceptual information such as "Content #1" is stored in "Content," it actually indicates the specific content (the HTML file forming it) or its storage location. File path names, etc. may also be stored. Further, "content" may store still images and moving images displayed in news articles, posted information on SNS, advertisements, movie reviews, etc. Alternatively, "content" may store character information extracted from image information as a result of analyzing image information displayed in news articles, posted information on SNS, advertisements, reviews of movies, etc. “Type” indicates the type of content. For example, "type" indicates the type of content, such as a news article, posted information on SNS, an advertisement, or a movie review.

(制御部23)
制御部23は、例えば、CPUやMPU等によって、コンテンツ配信装置20内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部23は、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 23)
The control unit 23 is realized by, for example, a CPU, an MPU, or the like executing various programs stored in a storage device inside the content distribution device 20 using the RAM as a work area. Further, the control unit 23 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図10に示すように、制御部23は、受付部231と、選択部232と、配信部233とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部23の内部構成は、図10に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 10, the control unit 23 includes a reception unit 231, a selection unit 232, and a distribution unit 233, and implements or executes information processing functions and operations described below. Note that the internal configuration of the control unit 23 is not limited to the configuration shown in FIG. 10, and may be any other configuration as long as it performs information processing to be described later.

(受付部231)
受付部231は、コンテンツの配信要求を受け付ける。受付部231は、コンテンツの配信要求を受信する。具体的には、受付部231は、出力装置100からコンテンツの配信要求を受信する。
(Reception Department 231)
The receiving unit 231 receives a content distribution request. The reception unit 231 receives a content distribution request. Specifically, the reception unit 231 receives a content distribution request from the output device 100.

(選択部232)
選択部232は、ユーザに応じたコンテンツを選択する。具体的には、選択部232は、受付部231によってコンテンツの配信要求が受け付けられると、要求元の出力装置100を利用するユーザを特定する。例えば、選択部232は、ユーザ情報記憶部221を参照して、要求元の出力装置100を利用するユーザを特定する。続いて、選択部232は、ユーザを特定すると、ユーザ情報記憶部221を参照して、特定したユーザに紐づくユーザ情報を取得する。選択部232は、ユーザ情報を取得すると、取得したユーザ情報に基づいて、ユーザに応じたコンテンツを選択する。例えば、選択部232は、ユーザ情報に基づいて、ユーザが興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたコンテンツをユーザに応じたコンテンツとして選択する。
(Selection section 232)
The selection unit 232 selects content according to the user. Specifically, when the accepting unit 231 accepts a content distribution request, the selecting unit 232 identifies the user who uses the requesting output device 100 . For example, the selection unit 232 refers to the user information storage unit 221 to identify the user who uses the requesting output device 100. Subsequently, upon specifying the user, the selection unit 232 refers to the user information storage unit 221 and acquires user information associated with the specified user. Upon acquiring the user information, the selection unit 232 selects content appropriate for the user based on the acquired user information. For example, the selection unit 232 acquires keywords related to genres, topics, hobbies, and preferences that the user is interested in, based on the user information. Subsequently, the selection unit 232 refers to the content storage unit 222 and selects the content set with the acquired keyword as the content appropriate for the user.

図1に示す例では、選択部232は、ユーザU1を特定すると、ユーザ情報記憶部221を参照して、特定したユーザU1に紐づくユーザ情報#1を取得する。続いて、選択部232は、ユーザ情報#1を取得すると、取得したユーザ情報#1に基づいて、ユーザU1が興味や関心を抱いているジャンルやトピック、趣味や嗜好に関するキーワードを取得する。続いて、選択部232は、コンテンツ記憶部222を参照して、取得したキーワードが設定されたニュース記事であるコンテンツ#1をユーザU1に応じたコンテンツとして選択する。 In the example shown in FIG. 1, when the selection unit 232 specifies the user U1, the selection unit 232 refers to the user information storage unit 221 and acquires user information #1 associated with the specified user U1. Subsequently, upon acquiring the user information #1, the selection unit 232 acquires keywords related to genres, topics, hobbies, and preferences that the user U1 is interested in, based on the acquired user information #1. Subsequently, the selection unit 232 refers to the content storage unit 222 and selects content #1, which is a news article to which the acquired keyword is set, as the content corresponding to the user U1.

(配信部233)
配信部233は、選択部232によって選択されたコンテンツを配信する。具体的には、配信部233は、選択部232によって選択されたコンテンツを出力装置100に配信する。図1に示す例では、配信部233は、選択部232によって選択されたコンテンツ#1を出力装置100に配信する。
(Distribution department 233)
The distribution unit 233 distributes the content selected by the selection unit 232. Specifically, the distribution unit 233 distributes the content selected by the selection unit 232 to the output device 100. In the example shown in FIG. 1, the distribution unit 233 distributes content #1 selected by the selection unit 232 to the output device 100.

〔5.変形例〕
上述した実施形態に係る出力処理システム1は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、出力処理システム1の他の実施形態について説明する。なお、実施形態と同一部分には、同一符号を付して説明を省略する。
[5. Modified example]
The output processing system 1 according to the embodiment described above may be implemented in various different forms other than the embodiment described above. Therefore, other embodiments of the output processing system 1 will be described below. Note that the same parts as those in the embodiment are given the same reference numerals and the description thereof will be omitted.

〔5-1.対話システムの感想を示す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図13では、出力装置100が対話システムの第2情報に対する感想を示す反応情報を出力する例について説明する。図13に示す例では、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。
[5-1. Output processing of reaction information showing impressions of the dialogue system]
In FIG. 1, an example has been described in which the output device 100 outputs the trigger information R12, "Will there be a strike?", which is text information requesting the user's opinion on content #1. The information is not limited to text information requested from the user. In FIG. 13, an example will be described in which the output device 100 outputs reaction information indicating impressions on the second information of the dialogue system. In the example shown in FIG. 13, the acquisition unit 164 acquires reaction information indicating impressions regarding the second information of the dialogue system.

ここから、図13を用いて、変形例に係る出力処理の一例について説明する。図13は、変形例に係る出力処理の一例を示す図である。図13に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの画像に関する画像情報を取得する(ステップS21)。判定部161は、画像情報を取得すると、取得した画像情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS22)。具体的には、判定部161は、取得した画像情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS23)。 An example of output processing according to the modified example will now be described using FIG. 13. FIG. 13 is a diagram illustrating an example of output processing according to a modification. In the example shown in FIG. 13, the determination unit 161 refers to the sensor information storage unit 121 and acquires image information regarding the user's image (step S21). Upon acquiring the image information, the determining unit 161 determines whether it is time to output reaction information to the user based on the acquired image information (step S22). Specifically, if the determination unit 161 determines that the user is in a stationary state for a predetermined period of time or more (for example, 5 minutes or more) based on the acquired image information, the determination unit 161 determines at the timing of outputting reaction information to the user. It is determined that there is. Subsequently, when the determining unit 161 determines that it is the timing to output the reaction information to the user, the requesting unit 162 transmits a content distribution request to the content distribution device 20 (step S23).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS24)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、政府が被災地の全避難所を対象にタブレット端末を配布することに関するニュース記事であるコンテンツ#2を出力装置100に配信する。 The content distribution device 20 acquires a content distribution request from the output device 100. Upon acquiring the content distribution request, the content distribution device 20 identifies the user who uses the output device 100 that is the request source. Subsequently, upon identifying the user, the content distribution device 20 selects content according to the user (step S24). When content is selected, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes content #2, which is a news article about the government distributing tablet terminals to all evacuation centers in the disaster area, to the output device 100.

生成部163は、コンテンツ配信装置20からコンテンツ#2を取得する(ステップS25)。生成部163は、コンテンツ#2を取得すると、取得したコンテンツ#2をモデルM1に入力することにより、コンテンツ#2に対する反応を示す文字情報である反応情報#2を生成する(ステップS26)。具体的には、生成部163は、コンテンツ#2の要約に相当する文字情報である「政府は全避難所を対象にタブレット端末を配布するそうです。」というサマリ情報R21を生成する。また、生成部163は、ユーザとのコンテンツ#2に関連する対話の契機となる文字情報である契機情報R22を生成する。より具体的には、生成部163は、対話システムのコンテンツ#2に対する感想を示す文字情報である「停電しても使えるようなものであってほしいです。」という契機情報R22を生成する。生成部163は、サマリ情報R21と契機情報R22とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#2を取得する。なお、図13では、生成部163が、サマリ情報R21と契機情報R22の両方を含む反応情報#2を生成する例について説明したが、サマリ情報R21を含まない反応情報#2を生成してもよい。すなわち、生成部163は、契機情報R22である反応情報#2を生成してもよい。 The generation unit 163 acquires content #2 from the content distribution device 20 (step S25). Upon acquiring content #2, the generating unit 163 generates reaction information #2, which is text information indicating a reaction to content #2, by inputting the acquired content #2 into model M1 (step S26). Specifically, the generation unit 163 generates summary information R21 that is text information corresponding to the summary of content #2, ``It seems that the government will distribute tablet terminals to all evacuation centers.'' The generation unit 163 also generates trigger information R22, which is text information that triggers a dialogue with the user related to content #2. More specifically, the generation unit 163 generates trigger information R22, which is text information indicating the impression of content #2 of the dialogue system, "I hope it can be used even during a power outage." The generation unit 163 generates reaction information #2 including summary information R21 and trigger information R22. The acquisition unit 164 acquires reaction information #2 generated by the generation unit 163. Although FIG. 13 describes an example in which the generation unit 163 generates reaction information #2 that includes both summary information R21 and trigger information R22, it is also possible to generate reaction information #2 that does not include summary information R21. good. That is, the generation unit 163 may generate reaction information #2, which is the trigger information R22.

出力部165は、取得部164によって取得された反応情報#2を音声出力する(ステップS27)。具体的には、出力装置100は、サマリ情報R21を音声出力した後に契機情報R22を音声出力する。 The output unit 165 outputs reaction information #2 acquired by the acquisition unit 164 as audio (step S27). Specifically, the output device 100 outputs the trigger information R22 as voice after outputting the summary information R21 as voice.

〔5-2.ユーザの行動を促す反応情報の出力処理〕
図1では、出力装置100がコンテンツ#1に対する意見をユーザに要求する文字情報である「ストが起きますかね?」という契機情報R12を含む反応情報#1を出力する例について説明したが、反応情報はコンテンツに対する意見をユーザに要求する文字情報に限られない。図14では、出力装置100がユーザに第2情報に関連する行動を促す反応情報を出力する例について説明する。図14に示す例では、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。具体的には、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。
[5-2. Output processing of reaction information that prompts user actions]
In FIG. 1, an example has been described in which the output device 100 outputs reaction information #1 including trigger information R12 "Will there be a strike?", which is text information requesting the user's opinion on content #1. The information is not limited to text information that requests the user's opinion on the content. In FIG. 14, an example will be described in which the output device 100 outputs reaction information that prompts the user to take an action related to the second information. In the example shown in FIG. 14, the acquisition unit 164 acquires reaction information that prompts the user to take action related to the second information. Specifically, the acquisition unit 164 acquires reaction information that prompts the user to take an action other than responding to the reaction information.

また、図1では、出力装置100がニュース記事であるコンテンツ#1に対する反応情報#2を取得する例について説明したが、出力装置100が広告である第2情報に対する反応情報を取得してもよい。図14に示す例では、取得部164は、広告である第2情報に対する反応情報を取得する。 Further, in FIG. 1, an example has been described in which the output device 100 acquires reaction information #2 for content #1 that is a news article, but the output device 100 may acquire reaction information for second information that is an advertisement. . In the example shown in FIG. 14, the acquisition unit 164 acquires reaction information for the second information, which is an advertisement.

ここから、図14を用いて、変形例に係る出力処理の一例について説明する。図14は、変形例に係る出力処理の一例を示す図である。図14に示す例では、判定部161は、センサ情報記憶部121を参照して、ユーザの動きに伴う加速度に関する加速度情報を取得する(ステップS31)。判定部161は、加速度情報を取得すると、取得した加速度情報に基づいて、ユーザに対して反応情報を出力するタイミングであるか否かを判定する(ステップS32)。具体的には、判定部161は、取得した加速度情報に基づいて、所定時間以上(例えば、5分以上)ユーザが静止状態であると判定した場合、ユーザに対して反応情報を出力するタイミングであると判定する。続いて、要求部162は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、コンテンツの配信要求をコンテンツ配信装置20に対して送信する(ステップS33)。 An example of output processing according to the modified example will now be described using FIG. 14. FIG. 14 is a diagram illustrating an example of output processing according to a modified example. In the example shown in FIG. 14, the determination unit 161 refers to the sensor information storage unit 121 and acquires acceleration information regarding acceleration accompanying the user's movement (step S31). Upon acquiring the acceleration information, the determination unit 161 determines whether it is the timing to output reaction information to the user based on the acquired acceleration information (step S32). Specifically, if the determination unit 161 determines that the user is in a stationary state for a predetermined period of time or more (for example, 5 minutes or more) based on the acquired acceleration information, the determination unit 161 determines that the user is in a stationary state for a predetermined period of time or more (for example, 5 minutes or more). It is determined that there is. Subsequently, when the determining unit 161 determines that it is the timing to output the reaction information to the user, the requesting unit 162 transmits a content distribution request to the content distribution device 20 (step S33).

コンテンツ配信装置20は、コンテンツの配信要求を出力装置100から取得する。コンテンツ配信装置20は、コンテンツの配信要求を取得すると、要求元の出力装置100を利用するユーザを特定する。続いて、コンテンツ配信装置20は、ユーザを特定すると、ユーザに応じたコンテンツを選択する(ステップS34)。コンテンツ配信装置20は、コンテンツを選択すると、選択したコンテンツを出力装置100に配信する。具体的には、コンテンツ配信装置20は、商品Cが新発売されたことに関する広告であるコンテンツ#3を出力装置100に配信する。 The content distribution device 20 acquires a content distribution request from the output device 100. Upon acquiring the content distribution request, the content distribution device 20 identifies the user who uses the output device 100 that is the request source. Subsequently, upon identifying the user, the content distribution device 20 selects content according to the user (step S34). When content is selected, the content distribution device 20 distributes the selected content to the output device 100. Specifically, the content distribution device 20 distributes content #3, which is an advertisement regarding the newly released product C, to the output device 100.

生成部163は、コンテンツ配信装置20からコンテンツ#3を取得する(ステップS35)。生成部163は、コンテンツ#3を取得すると、取得したコンテンツ#3をモデルM1に入力することにより、コンテンツ#3に対する反応を示す文字情報である反応情報#3を生成する(ステップS36)。具体的には、生成部163は、コンテンツ#3の要約に相当する文字情報である「商品Cが発売されたみたいですね。」というサマリ情報R31を生成する。また、生成部163は、ユーザとのコンテンツ#3に関連する対話の契機となる文字情報である契機情報R32を生成する。より具体的には、生成部163は、ユーザにコンテンツ#3に関連する行動を促す文字情報である契機情報R32を生成する。例えば、生成部163は、ユーザに反応情報#3への応答以外の行動を促す文字情報である「今度一緒に買いに行ってみませんか?」という契機情報R32を生成する。生成部163は、サマリ情報R31と契機情報R32とを含む反応情報#2を生成する。取得部164は、生成部163によって生成された反応情報#3を取得する。なお、図14では、生成部163が、サマリ情報R31と契機情報R32の両方を含む反応情報#3を生成する例について説明したが、サマリ情報R31を含まない反応情報#3を生成してもよい。すなわち、生成部163は、契機情報R32である反応情報#3を生成してもよい。 The generation unit 163 acquires content #3 from the content distribution device 20 (step S35). Upon acquiring content #3, the generation unit 163 generates reaction information #3, which is text information indicating a reaction to content #3, by inputting the acquired content #3 into model M1 (step S36). Specifically, the generation unit 163 generates summary information R31 that is text information corresponding to the summary of content #3, ``It looks like product C has been released.''. Furthermore, the generation unit 163 generates opportunity information R32, which is text information that becomes an opportunity for interaction with the user regarding content #3. More specifically, the generation unit 163 generates trigger information R32, which is text information that prompts the user to take an action related to content #3. For example, the generation unit 163 generates opportunity information R32 that is text information that prompts the user to take an action other than responding to reaction information #3, ``Would you like to go shopping with me next time?''. The generation unit 163 generates reaction information #2 including summary information R31 and trigger information R32. The acquisition unit 164 acquires reaction information #3 generated by the generation unit 163. Although FIG. 14 describes an example in which the generation unit 163 generates reaction information #3 that includes both summary information R31 and trigger information R32, it is also possible to generate reaction information #3 that does not include summary information R31. good. That is, the generation unit 163 may generate reaction information #3, which is the trigger information R32.

出力部165は、取得部164によって取得された反応情報#3を音声出力する(ステップS37)。具体的には、出力装置100は、サマリ情報R31を音声出力した後に契機情報R32を音声出力する。 The output unit 165 outputs reaction information #3 acquired by the acquisition unit 164 as audio (step S37). Specifically, the output device 100 outputs the trigger information R32 as voice after outputting the summary information R31 as voice.

なお、図14では、出力装置100がニュース記事以外のコンテンツとして、広告であるコンテンツ#2に対する反応情報#2を取得する例について説明したが、ニュース記事以外のコンテンツは広告に限られない。具体的には、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。 Note that although FIG. 14 describes an example in which the output device 100 acquires reaction information #2 for content #2, which is an advertisement, as content other than news articles, content other than news articles is not limited to advertisements. Specifically, the acquisition unit 164 acquires reaction information to the second information, which is posted information on a predetermined SNS (Social Networking Service).

〔5-3.プッシュ通知に関するタイミングでの出力〕
出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。具体的には、判定部161は、対話システムにおけるプッシュ通知に関する情報を取得する。例えば、判定部161は、対話システムにおけるプッシュ通知に関する情報として、あらかじめプログラムされた所定の期間毎にプッシュ通知を行うという情報を取得する。続いて、判定部161は、プッシュ通知に関する情報を取得すると、取得したプッシュ通知に関する情報に基づいて、対話システムにおけるプッシュ通知に関するタイミングであるか否かを判定する。出力部165は、判定部161によって対話システムにおけるプッシュ通知に関するタイミングであると判定された場合、反応情報を出力する。
[5-3. Output at timing related to push notifications]
The output unit 165 outputs reaction information at a timing related to push notification in the dialogue system. Specifically, the determination unit 161 acquires information regarding push notifications in the dialog system. For example, the determination unit 161 acquires information that push notifications are to be made at pre-programmed predetermined intervals as information regarding push notifications in the interaction system. Subsequently, upon acquiring the information regarding the push notification, the determination unit 161 determines whether or not it is the timing regarding the push notification in the dialog system based on the acquired information regarding the push notification. The output unit 165 outputs reaction information when the determination unit 161 determines that the timing is related to a push notification in the dialog system.

〔5-4.検索が行われたタイミングでの出力〕
出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。具体的には、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。より具体的には、判定部161は、ユーザの検索行動に関する検索情報を検索サーバ(図示略)から取得する。続いて、判定部161は、検索情報を取得すると、取得した検索情報に基づいて、ユーザが第2情報に関連する検索を行ったタイミングであるか否かを判定する。出力部165は、判定部161によってユーザが第2情報に関連する検索を行ったタイミングであると判定された場合、反応情報を出力する。
[5-4. Output at the time of search]
The output unit 165 outputs reaction information at a timing when a user's behavior other than the behavior toward the dialogue system and related to the second information is performed. Specifically, the output unit 165 outputs the reaction information at the timing when the user performs a search related to the second information. More specifically, the determination unit 161 acquires search information regarding the user's search behavior from a search server (not shown). Subsequently, upon acquiring the search information, the determination unit 161 determines whether or not it is the timing at which the user performed a search related to the second information, based on the acquired search information. The output unit 165 outputs reaction information when the determination unit 161 determines that the timing has come when the user performed a search related to the second information.

〔5-5.コンテンツ取得後のタイミング判定〕
図1では、判定部161によってユーザに対して反応情報を出力するタイミングであるか否かを判定した後に、要求部162がコンテンツの配信要求をコンテンツ配信装置20に送信する例について説明したが、これに限られない。具体的には、出力部165は、所定時間(例えば、60分)毎に反応情報を出力する。また、要求部162は、所定時間(例えば、30分)毎にコンテンツの配信要求をコンテンツ配信装置20に送信する。例えば、要求部162は、ある時刻t1にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第1コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第1コンテンツを取得する。要求部162は、第1コンテンツを取得すると、取得した第1コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、コンテンツ記憶部122を参照して第1コンテンツを取得する。生成部163は、第1コンテンツを取得すると、取得した第1コンテンツを所定のモデルに入力することにより、第1反応情報を生成する。生成部163は、第1反応情報を生成すると、生成した第1反応情報を反応情報記憶部123に格納する。
[5-5. Timing judgment after content acquisition〕
In FIG. 1, an example has been described in which the requesting unit 162 transmits a content distribution request to the content distribution device 20 after the determining unit 161 determines whether it is the timing to output reaction information to the user. It is not limited to this. Specifically, the output unit 165 outputs reaction information every predetermined time (for example, 60 minutes). Further, the requesting unit 162 transmits a content distribution request to the content distribution device 20 at predetermined intervals (for example, 30 minutes). For example, the requesting unit 162 transmits a content distribution request to the content distribution device 20 at a certain time t1. Upon receiving the distribution request, the content distribution device 20 distributes the first content to the output device 100. Subsequently, the requesting unit 162 obtains the first content from the content distribution device 20. Upon acquiring the first content, the requesting unit 162 stores the acquired first content in the content storage unit 122. Next, the generation unit 163 refers to the content storage unit 122 and obtains the first content. Upon acquiring the first content, the generation unit 163 generates first reaction information by inputting the acquired first content into a predetermined model. After generating the first reaction information, the generation unit 163 stores the generated first reaction information in the reaction information storage unit 123.

続いて、要求部162は、時刻t1から30分後の時刻t2にコンテンツの配信要求をコンテンツ配信装置20に送信する。コンテンツ配信装置20は、配信要求を受け付けると、第2コンテンツを出力装置100に配信する。続いて、要求部162は、コンテンツ配信装置20から第2コンテンツを取得する。要求部162は、第2コンテンツを取得すると、取得した第2コンテンツをコンテンツ記憶部122に格納する。続いて、生成部163は、第2コンテンツを所定のモデルに入力することにより、第2反応情報を生成する。生成部163は、第2反応情報を生成すると、生成した第2反応情報を反応情報記憶部123に格納する。続いて、生成部163は、第2反応情報を生成すると、コンテンツ記憶部122を参照して、時刻t1に配信を要求した第1コンテンツと時刻t2に配信を要求した第2コンテンツとを取得する。続いて、生成部163は、第1コンテンツと第2コンテンツを取得すると、第1コンテンツと第2コンテンツとの類似度を判定する。生成部163は、第1コンテンツと第2コンテンツとの類似度が所定の閾値を超える場合には、第1コンテンツが古くなり、新しい第2コンテンツに更新されたとみなして、コンテンツ記憶部122から第1コンテンツを削除する。続いて、判定部161は、ユーザに対して反応情報を出力するタイミングであるか否かを判定する。出力部165は、判定部161によってユーザに対して反応情報を出力するタイミングであると判定された場合、第2反応情報を出力する。 Subsequently, the requesting unit 162 transmits a content distribution request to the content distribution device 20 at time t2, which is 30 minutes after time t1. Upon receiving the distribution request, the content distribution device 20 distributes the second content to the output device 100. Subsequently, the requesting unit 162 obtains the second content from the content distribution device 20. Upon acquiring the second content, the requesting unit 162 stores the acquired second content in the content storage unit 122. Next, the generation unit 163 generates second reaction information by inputting the second content into a predetermined model. After generating the second reaction information, the generation unit 163 stores the generated second reaction information in the reaction information storage unit 123. Subsequently, after generating the second reaction information, the generation unit 163 refers to the content storage unit 122 and acquires the first content whose distribution was requested at time t1 and the second content whose distribution was requested at time t2. . Subsequently, upon acquiring the first content and the second content, the generation unit 163 determines the degree of similarity between the first content and the second content. When the degree of similarity between the first content and the second content exceeds a predetermined threshold, the generation unit 163 assumes that the first content has become old and has been updated to a new second content, and extracts the second content from the content storage unit 122. 1 Delete content. Subsequently, the determination unit 161 determines whether it is the timing to output reaction information to the user. The output unit 165 outputs the second reaction information when the determination unit 161 determines that it is the timing to output the reaction information to the user.

〔5-6.レビューに対する反応情報〕
生成部163は、映画レビューであるコンテンツに対する反応情報として、対話システムがレビューの書き手の立場で述べられる文字情報である反応情報を生成する。例えば、生成部163は、ホラー映画の映画レビューであるコンテンツに対する反応情報として、「××(映画タイトル)怖かったですね!今夜は眠れなさそうです。」といったレビューの書き手の立場で述べられる文字情報である反応情報を生成する。
[5-6. Reaction information to reviews〕
The generation unit 163 generates reaction information, which is character information that the dialogue system can say from the standpoint of the review writer, as reaction information to the content, which is a movie review. For example, the generation unit 163 generates characters such as "XX (movie title) was scary! I don't think I'll be able to sleep tonight." written from the perspective of the review writer, as reaction information for content that is a movie review of a horror movie. Generate reaction information that is information.

〔5-7.モデルの更新〕
生成部163は、ユーザによる応答をフィードバックして更新されたモデルを用いて反応情報を生成する。具体的には、生成部163は、反応情報記憶部123の「ユーザによる応答の有無」の項目を参照して、ユーザによる応答の有無に応じて更新されたモデルを用いて反応情報を生成する。例えば、生成部163は、ユーザによる応答があった反応情報とコンテンツとのセットデータに対する学習の重みをユーザによる応答がなかった反応情報とコンテンツとのセットデータに対する学習の重みよりも大きくして学習されたモデルを用いて反応情報を生成する。
[5-7. Update model〕
The generation unit 163 generates reaction information using the updated model based on feedback from the user. Specifically, the generation unit 163 refers to the “presence or absence of a response by the user” item in the reaction information storage unit 123, and generates reaction information using a model updated according to the presence or absence of a response by the user. . For example, the generation unit 163 performs learning by making the learning weight for set data of reaction information and content to which a user has responded larger than the learning weight for set data of reaction information and content to which no user has responded. Generate reaction information using the model.

〔5-8.要約生成モデルと反応生成モデル〕
図1に示す例では、生成部163がコンテンツ#1を一つのモデルM1に入力して、サマリ情報R11と契機情報R12とを含む反応情報#1を生成する例について説明したが、サマリ情報R11と契機情報R12とを別のモデルで生成してもよい。具体的には、生成部163は、第2情報を入力すると、第2情報の要約であるサマリ情報を出力するモデルM11を用いて、サマリ情報を生成する。また、生成部163は、第2情報を入力すると、第2情報に対する反応を示す反応情報を出力するモデルM12を用いて、反応情報を生成する。図1に示す例では、生成部163は、コンテンツ#1を入力すると、コンテンツ#1の要約であるサマリ情報R11を出力するモデルM11を用いて、サマリ情報R11を生成する。また、生成部163は、コンテンツ#1を入力すると、コンテンツ#1に対する反応を示す契機情報R12を出力するモデルM12を用いて、契機情報R12を生成する。
[5-8. Summary generation model and reaction generation model]
In the example shown in FIG. 1, an example has been described in which the generation unit 163 inputs content #1 into one model M1 and generates reaction information #1 including summary information R11 and trigger information R12. and the trigger information R12 may be generated using different models. Specifically, upon input of the second information, the generation unit 163 generates summary information using the model M11 that outputs summary information that is a summary of the second information. Moreover, when the generation unit 163 receives the second information, it generates reaction information using the model M12 that outputs reaction information indicating a reaction to the second information. In the example shown in FIG. 1, when content #1 is input, the generation unit 163 generates summary information R11 using model M11 that outputs summary information R11 that is a summary of content #1. Further, when content #1 is input, the generation unit 163 generates trigger information R12 using a model M12 that outputs trigger information R12 indicating a reaction to content #1.

この場合、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100という複数の出力装置100を含んでもよい。例えば、サマリ役の出力装置100が、コンテンツ#1の要約であるサマリ情報R11を音声出力する。続いて、反応役の出力装置100が、コンテンツ#1に対する反応を示す契機情報R12をサマリ役の出力装置100とは異なる音声によって音声出力する。なお、出力処理システム1は、サマリ役の出力装置100と、反応役の出力装置100の他にも、対話を進行させる役の出力装置100と、対話の進行を補助する役の出力装置100といった複数の出力装置100を含んでもよい。 In this case, the output processing system 1 may include a plurality of output devices 100, including an output device 100 for a summary role and an output device 100 for a reaction role. For example, the summary output device 100 outputs summary information R11, which is a summary of content #1, as voice. Subsequently, the output device 100 for the reaction combination outputs the trigger information R12 indicating the reaction to the content #1 using a different voice from the output device 100 for the summary combination. The output processing system 1 includes, in addition to the output device 100 for the summary role and the output device 100 for the reaction role, the output device 100 for the role that advances the dialogue, and the output device 100 for the role that assists the progress of the dialogue. A plurality of output devices 100 may be included.

〔5-9.画面への出力〕
出力部165は、音声に代えて、文字情報を画面に表示することで反応情報をユーザに対して出力してもよい。また、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。さらに、出力装置100が人型のロボットである場合、出力部165は、ロボットの身振りや手振りで反応情報を出力してもよい。
[5-9. Output to screen]
The output unit 165 may output reaction information to the user by displaying text information on the screen instead of audio. Furthermore, the output unit 165 may output image information instead of audio. In this case, the output unit 165 displays an image that allows the user to understand the reaction information at a glance. The image information may be either a moving image or a still image. Furthermore, when the output device 100 is a humanoid robot, the output unit 165 may output the reaction information using the robot's gestures or hand gestures.

〔6.効果〕
上述してきたように、実施形態に係る出力装置100は、取得部164と出力部165とを備える。取得部164は、対話システムにユーザにより入力される第1情報以外の第2情報に対する反応として生成された文字情報である反応情報を取得する。出力部165は、取得部164により取得された反応情報をユーザに対して出力する。
[6. effect〕
As described above, the output device 100 according to the embodiment includes the acquisition section 164 and the output section 165. The acquisition unit 164 acquires reaction information that is character information generated as a reaction to second information other than the first information input by the user into the dialogue system. The output unit 165 outputs the reaction information acquired by the acquisition unit 164 to the user.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。すなわち、出力装置100は、装置から人へ自発的に適切に話しかけることができる。したがって、出力装置100は、対話システムへのユーザによる入力に寄らずに適切な情報を出力するができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to news articles, etc., without any action from the user on the dialogue system. That is, the output device 100 allows the device to spontaneously and appropriately talk to a person. Therefore, the output device 100 can output appropriate information without depending on the user's input to the dialogue system.

また、取得部164は、非タスク志向型対話システムである対話システムにユーザにより入力される第1情報以外の第2情報に対する反応情報を取得する。 Furthermore, the acquisition unit 164 acquires reaction information for second information other than the first information input by the user into the dialogue system, which is a non-task-oriented dialogue system.

これにより、出力装置100は、非タスク志向型対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes a trigger for dialogue related to news articles, etc., even without any action from the user on the non-task-oriented dialogue system.

また、取得部164は、所定のコンテンツである第2情報に対する反応情報を取得する。 Furthermore, the acquisition unit 164 acquires reaction information for the second information, which is predetermined content.

これにより、出力装置100は、所定のコンテンツに関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to predetermined content.

また、取得部164は、ニュース記事である第2情報に対する反応情報を取得する。 The acquisition unit 164 also acquires reaction information to the second information, which is a news article.

これにより、出力装置100は、ニュース記事に関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to a news article.

また、取得部164は、所定のSNS(Social Networking Service)における投稿情報である第2情報に対する反応情報を取得する。 Further, the acquisition unit 164 acquires reaction information to the second information, which is posted information on a predetermined SNS (Social Networking Service).

これにより、出力装置100は、SNSにおける投稿情報に関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to posted information on the SNS.

また、取得部164は、広告である第2情報に対する反応情報を取得する。 Furthermore, the acquisition unit 164 acquires reaction information regarding the second information, which is an advertisement.

これにより、出力装置100は、広告に関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to the advertisement.

また、取得部164は、ユーザとの第2情報に関連する対話の契機となる反応情報を取得する。 The acquisition unit 164 also acquires reaction information that becomes a trigger for dialogue with the user regarding the second information.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、ニュース記事等に関連する対話の契機となる文字情報を自発的に出力することができる。 Thereby, the output device 100 can spontaneously output character information that becomes an opportunity for dialogue related to news articles, etc., without any action from the user on the dialogue system.

また、取得部164は、対話システムの第2情報に対する感想を示す反応情報を取得する。 The acquisition unit 164 also acquires reaction information indicating impressions regarding the second information of the dialogue system.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対する感想を対話の契機として自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start an appropriate dialogue using impressions regarding the second information as an opportunity for dialogue, even without any action from the user on the dialogue system.

また、取得部164は、第2情報に対する意見をユーザに要求する反応情報を取得する。 The acquisition unit 164 also acquires reaction information that requests the user's opinion regarding the second information.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報に対するに対する意見をユーザに要求することを対話の契機として自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start an appropriate dialogue using the request for the user's opinion on the second information as an opportunity for dialogue, even without any action from the user on the dialogue system.

また、取得部164は、ユーザに第2情報に関連する行動を促す反応情報を取得する。例えば、取得部164は、ユーザに反応情報への応答以外の行動を促す反応情報を取得する。 The acquisition unit 164 also acquires reaction information that prompts the user to take action related to the second information. For example, the acquisition unit 164 acquires reaction information that prompts the user to take an action other than responding to the reaction information.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、第2情報関連する行動を促すことを対話の契機として自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start an appropriate dialogue using the prompting for action related to the second information as an opportunity for dialogue, even without any action from the user on the dialogue system.

また、出力部165は、対話システムに対するユーザによる第2情報の要求以外のタイミングで、反応情報を出力する。 Further, the output unit 165 outputs the reaction information at a timing other than when the user requests the second information to the dialogue system.

これにより、出力装置100は、対話システムに対するユーザからの働きかけがなくとも、自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start appropriate dialogue without any action from the user on the dialogue system.

また、出力部165は、対話システムにおけるプッシュ通知に関するタイミングで、反応情報を出力する。 Furthermore, the output unit 165 outputs reaction information at a timing related to push notifications in the dialogue system.

これにより、出力装置100は、対話システムにおけるプッシュ通知に関するタイミングで、自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start an appropriate dialogue at the timing related to the push notification in the dialogue system.

また、出力部165は、ユーザのコンテキストに基づくタイミングで、反応情報を出力する。 Furthermore, the output unit 165 outputs reaction information at a timing based on the user's context.

これにより、出力装置100は、ユーザのコンテキストに応じて、自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start an appropriate dialogue depending on the user's context.

また、出力部165は、対話システムに対するユーザの発話から所定の期間が経過したタイミングで、反応情報を出力する。 Furthermore, the output unit 165 outputs reaction information at a timing when a predetermined period of time has elapsed since the user's utterance to the dialogue system.

これにより、出力装置100は、ユーザとの対話が途切れたタイミングで、自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start appropriate dialogue at the timing when the dialogue with the user is interrupted.

また、出力部165は、対話システムに対する行動以外のユーザの行動であって、第2情報に関連するユーザの行動が行われたタイミングで、反応情報を出力する。例えば、出力部165は、ユーザが第2情報に関連する検索を行ったタイミングで、反応情報を出力する。 Furthermore, the output unit 165 outputs reaction information at the timing when the user performs an action other than the action regarding the dialogue system and which is related to the second information. For example, the output unit 165 outputs reaction information at the timing when the user performs a search related to the second information.

これにより、出力装置100は、ユーザによる検索が行われたタイミングで、自発的に適切な対話を始めることができる。 Thereby, the output device 100 can spontaneously start appropriate dialogue at the timing when the user performs a search.

また、実施形態に係る出力装置100は、生成部163をさらに備える。生成部163は、第2情報から反応情報を生成する。取得部164は、生成部163により生成された反応情報を取得する。具体的には、生成部163は、第2情報を所定のモデルに入力することにより、反応情報を生成する。 Further, the output device 100 according to the embodiment further includes a generation unit 163. The generation unit 163 generates reaction information from the second information. The acquisition unit 164 acquires the reaction information generated by the generation unit 163. Specifically, the generation unit 163 generates reaction information by inputting the second information into a predetermined model.

これにより、出力装置100は、あらかじめ登録された反応情報以外の反応情報を、自発的に適切に出力することができる。 Thereby, the output device 100 can spontaneously and appropriately output reaction information other than reaction information registered in advance.

また、取得部164は、ユーザに応じて選択される第2情報に対する反応情報を取得する。 The acquisition unit 164 also acquires reaction information for the second information selected according to the user.

これにより、出力装置100は、ユーザに応じた内容の対話を自発的に適切に始めることができる。 Thereby, the output device 100 can spontaneously and appropriately start a dialogue with content depending on the user.

また、出力部165は、反応情報を音声出力する。さらに、出力部165は、音声に代えて、画像情報を出力してもよい。この場合、出力部165は、反応情報をユーザが一見して理解できる画像を表示する。画像情報は動画、静止画どちらでもよい。 Furthermore, the output unit 165 outputs the reaction information as voice. Furthermore, the output unit 165 may output image information instead of audio. In this case, the output unit 165 displays an image that allows the user to understand the reaction information at a glance. The image information may be either a moving image or a still image.

これにより、出力装置100は、タイムリーな反応情報を自発的に適切に出力することができる。 Thereby, the output device 100 can spontaneously and appropriately output timely reaction information.

また、取得部164は、第2情報の要約であるサマリ情報を取得する。また、出力部165は、サマリ情報と反応情報とを出力する。また、出力部165は、サマリ情報を出力した後に反応情報を出力する。 The acquisition unit 164 also acquires summary information that is a summary of the second information. Furthermore, the output unit 165 outputs summary information and reaction information. Further, the output unit 165 outputs reaction information after outputting the summary information.

これにより、出力装置100は、サマリ情報を出力することにより、ユーザとの共通の話題を共有することを可能にする。また、出力装置100は、反応情報を出力することにより、サマリ情報に対するユーザの応答を引き出すきっかけを作ることができる。 This allows the output device 100 to share common topics with users by outputting summary information. Further, by outputting reaction information, the output device 100 can create an opportunity to elicit a user's response to the summary information.

〔7.ハードウェア構成〕
また、上述してきた実施形態に係る出力装置100およびコンテンツ配信装置20は、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、出力装置100およびコンテンツ配信装置20の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を備える。
[7. Hardware configuration]
Further, the output device 100 and the content distribution device 20 according to the embodiments described above are realized by, for example, a computer 1000 having a configuration as shown in FIG. 15. FIG. 15 is a hardware configuration diagram showing an example of a computer that implements the functions of the output device 100 and the content distribution device 20. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 CPU 1100 operates based on a program stored in ROM 1300 or HDD 1400, and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, programs depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定の通信網を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定の通信網を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via a predetermined communication network and sends it to CPU 1100, and transmits data generated by CPU 1100 to other devices via a predetermined communication network.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer, and input devices such as a keyboard and mouse via an input/output interface 1600. CPU 1100 obtains data from an input device via input/output interface 1600. Further, CPU 1100 outputs the generated data to an output device via input/output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200. CPU 1100 loads this program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が出力装置100およびコンテンツ配信装置20として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部160または制御部23の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から所定の通信網を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the output device 100 and the content distribution device 20, the CPU 1100 of the computer 1000 realizes the functions of the control unit 160 or the control unit 23 by executing a program loaded onto the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via a predetermined communication network.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Some of the embodiments of the present application have been described above in detail based on the drawings, but these are merely examples, and various modifications and variations may be made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure section of the invention. It is possible to carry out the invention in other forms with modifications.

〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. others〕
Furthermore, among the processes described in the above embodiments and modified examples, all or part of the processes described as being performed automatically can be performed manually, or may be described as being performed manually. All or part of this processing can also be performed automatically using known methods. In addition, information including the processing procedures, specific names, and various data and parameters shown in the above documents and drawings may be changed arbitrarily, unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Furthermore, each component of each device shown in the drawings is functionally conceptual, and does not necessarily need to be physically configured as shown in the drawings. In other words, the specific form of distributing and integrating each device is not limited to what is shown in the diagram, and all or part of the devices can be functionally or physically distributed or integrated in arbitrary units depending on various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Furthermore, the above-described embodiments and modifications can be combined as appropriate within a range that does not conflict with the processing contents.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、出力部は、出力手段や出力回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means", "circuit", etc. For example, the output section can be read as an output means or an output circuit.

1 出力処理システム
100 出力装置
110 通信部
120 記憶部
121 センサ情報記憶部
122 コンテンツ記憶部
123 反応情報記憶部
124 モデル情報記憶部
125 学習データ記憶部
130 入力部
140 表示部
150 物理センサ
160 制御部
161 判定部
162 要求部
163 生成部
164 取得部
165 出力部
1 Output processing system 100 Output device 110 Communication unit 120 Storage unit 121 Sensor information storage unit 122 Content storage unit 123 Reaction information storage unit 124 Model information storage unit 125 Learning data storage unit 130 Input unit 140 Display unit 150 Physical sensor 160 Control unit 161 Judgment unit 162 Request unit 163 Generation unit 164 Acquisition unit 165 Output unit

Claims (21)

物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成手順と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成手順によって生成された前記反応情報を前記ユーザに対して出力する出力手順と、
をコンピュータに実行させることを特徴とする出力プログラム。
Reaction information corresponding to a predetermined content including text information provided to the user by a service different from the dialogue system based on the user's location information acquired by a physical sensor , the predetermined content If it is determined that it is the timing to output the reaction information to the user, the predetermined content is acquired and the text information is output. When input information including the input information is input, summary information is a summary of the character information included in the input information, and trigger information is a sentence that prompts the reference user who referred to the input information to make a comment regarding the input information. The reaction information corresponding to the predetermined content is extracted from the predetermined content using a machine learning model trained to output the reaction information including trigger information different from the summary information as output information. a generation procedure that generates
an output procedure of outputting the reaction information generated by the generation procedure to the user when it is determined that it is time to output the reaction information to the user based on the user's location information; ,
An output program that causes a computer to execute.
前記生成手順は、
前記ユーザに対して非タスク志向型対話システムである前記対話システムとは異なるサービスで提供されている前記所定のコンテンツに対応する前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、前記反応情報を生成する
ことを特徴とする請求項1に記載の出力プログラム。
The generation procedure is
When it is determined that it is the timing to output the reaction information corresponding to the predetermined content provided to the user by a service different from the dialog system that is a non-task-oriented dialog system, the predetermined The output program according to claim 1, wherein the output program acquires content and generates the reaction information .
前記生成手順は、
前記所定のコンテンツとして、ニュース記事を取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
The generation procedure is
The output program according to claim 1 or 2, wherein a news article is acquired as the predetermined content and the reaction information is generated.
前記生成手順は、
前記所定のコンテンツとして、所定のSNS(Social Networking Service)における投稿情報を取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
The generation procedure is
The output program according to claim 1 or 2, wherein the output program acquires posted information in a predetermined SNS (Social Networking Service) as the predetermined content and generates the reaction information .
前記生成手順は、
前記所定のコンテンツとして、広告であるコンテンツを取得し、前記反応情報を生成する
ことを特徴とする請求項1または2に記載の出力プログラム。
The generation procedure is
The output program according to claim 1 or 2, wherein content that is an advertisement is acquired as the predetermined content and the reaction information is generated.
前記生成手順は、
前記ユーザとの前記所定のコンテンツに関連する対話の契機となる前記反応情報を生成する
ことを特徴とする請求項1~5のいずれか1項に記載の出力プログラム。
The generation procedure is
The output program according to any one of claims 1 to 5, wherein the output program generates the reaction information that becomes an opportunity for dialogue with the user regarding the predetermined content .
前記生成手順は、
前記所定のコンテンツに対する意見を前記ユーザに要求する前記反応情報を生成する
ことを特徴とする請求項1~6のいずれか1項に記載の出力プログラム。
The generation procedure is
7. The output program according to claim 1, wherein the output program generates the reaction information that requests the user's opinion regarding the predetermined content .
前記生成手順は、
前記ユーザに前記所定のコンテンツに関連する行動を促す前記反応情報を生成する
ことを特徴とする請求項1~7のいずれか1項に記載の出力プログラム。
The generation procedure is
The output program according to claim 1, wherein the output program generates the reaction information that prompts the user to take an action related to the predetermined content .
前記生成手順は、
前記ユーザに前記反応情報への応答以外の行動を促す前記反応情報を生成する
ことを特徴とする請求項8に記載の出力プログラム。
The generation procedure is
The output program according to claim 8, wherein the output program generates the reaction information that prompts the user to take an action other than a response to the reaction information.
前記出力手順は、
前記対話システムに対する前記ユーザによる前記所定のコンテンツの要求以外のタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~9のいずれか1項に記載の出力プログラム。
The output procedure is
10. The output program according to claim 1, wherein the reaction information is output at a timing other than when the user requests the predetermined content to the dialog system.
前記出力手順は、
前記対話システムにおけるプッシュ通知に関するタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~10のいずれか1項に記載の出力プログラム。
The output procedure is
11. The output program according to claim 1, wherein the reaction information is output at a timing related to a push notification in the dialog system.
前記出力手順は、
前記ユーザのコンテキストに基づくタイミングで、前記反応情報を出力する
ことを特徴とする請求項1~11のいずれか1項に記載の出力プログラム。
The output procedure is
12. The output program according to claim 1, wherein the reaction information is output at a timing based on the user's context.
前記出力手順は、
前記対話システムに対する前記ユーザの発話から所定の期間が経過したタイミングで、前記反応情報を出力する
ことを特徴とする請求項12に記載の出力プログラム。
The output procedure is
13. The output program according to claim 12, wherein the reaction information is output at a timing when a predetermined period of time has elapsed since the user's utterance to the dialogue system.
前記出力手順は、
前記対話システムに対する行動以外の前記ユーザの行動であって、前記所定のコンテンツに関連する前記ユーザの行動が行われたタイミングで、前記反応情報を出力する
ことを特徴とする請求項12または請求項13に記載の出力プログラム。
The output procedure is
Claim 12 or claim 12, wherein the reaction information is output at a timing when an action of the user other than an action with respect to the dialogue system and related to the predetermined content is performed. The output program described in 13.
前記出力手順は、
前記ユーザが前記所定のコンテンツに関連する検索を行ったタイミングで、前記反応情報を出力する
ことを特徴とする請求項14に記載の出力プログラム。
The output procedure is
15. The output program according to claim 14, wherein the reaction information is output at a timing when the user performs a search related to the predetermined content .
前記生成手順は、
前記所定のコンテンツを所定のモデルに入力することにより、前記反応情報を生成する
ことを特徴とする請求項1~15のいずれか1項に記載の出力プログラム。
The generation procedure is
16. The output program according to claim 1, wherein the reaction information is generated by inputting the predetermined content into a predetermined model.
前記生成手順は、
前記ユーザに応じて選択される前記所定のコンテンツに基づいて、前記反応情報を生成する
ことを特徴とする請求項1~16のいずれか1項に記載の出力プログラム。
The generation procedure is
17. The output program according to claim 1, wherein the reaction information is generated based on the predetermined content selected according to the user.
前記出力手順は、
前記反応情報を音声出力する
ことを特徴とする請求項1~17のいずれか1項に記載の出力プログラム。
The output procedure is
The output program according to any one of claims 1 to 17, characterized in that the reaction information is output as voice.
前記出力手順は、
前記サマリ情報を出力した後に前記契機情報を出力する
ことを特徴とする請求項18に記載の出力プログラム。
The output procedure is
The output program according to claim 18 , wherein the trigger information is output after outputting the summary information .
物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成部と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成部によって生成された前記反応情報を前記ユーザに対して出力する出力部と、
を備えることを特徴とする出力装置。
Reaction information corresponding to a predetermined content including text information provided to the user by a service different from the dialogue system based on the user's location information acquired by a physical sensor , the predetermined content If it is determined that it is the timing to output the reaction information to the user, the predetermined content is acquired and the text information is output. When input information including the input information is input, summary information is a summary of the character information included in the input information, and trigger information is a sentence that prompts the reference user who referred to the input information to make a comment regarding the input information. The reaction information corresponding to the predetermined content is extracted from the predetermined content using a machine learning model trained to output the reaction information including trigger information different from the summary information as output information. a generation unit that generates
an output unit that outputs the reaction information generated by the generation unit to the user when it is determined that it is time to output the reaction information to the user based on the user's location information; ,
An output device comprising:
コンピュータが実行する出力方法であって、
物理センサによって取得されたユーザの位置情報に基づいて、前記ユーザに対して対話システムとは異なるサービスで提供されている文字情報を含む所定のコンテンツに対応する反応情報であって、前記所定のコンテンツとは異なる反応情報を出力するタイミングであるか否かを判定し、前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合、前記所定のコンテンツを取得し、文字情報を含む入力情報が入力された場合に、前記入力情報に含まれる文字情報の要約であるサマリ情報と、前記入力情報を参照した参照ユーザに対して前記入力情報に関する発言を促す文章である契機情報であって、前記サマリ情報とは異なる契機情報とを含む前記反応情報を出力情報として出力するよう学習された機械学習モデルを用いて、前記所定のコンテンツから、前記所定のコンテンツに対応する前記反応情報を生成する生成工程と、
前記ユーザの位置情報に基づいて前記ユーザに対して前記反応情報を出力するタイミングであると判定された場合に、前記生成工程によって生成された前記反応情報を前記ユーザに対して出力する出力工程と、
を含んだことを特徴とする出力方法。
An output method executed by a computer,
Reaction information corresponding to a predetermined content including text information provided to the user by a service different from the dialogue system based on the user's location information acquired by a physical sensor , the predetermined content If it is determined that it is the timing to output the reaction information to the user, the predetermined content is acquired and the text information is output. When input information including the input information is input, summary information is a summary of the character information included in the input information, and trigger information is a sentence that prompts the reference user who referred to the input information to make a comment regarding the input information. The reaction information corresponding to the predetermined content is extracted from the predetermined content using a machine learning model trained to output the reaction information including trigger information different from the summary information as output information. a generation step of generating;
an output step of outputting the reaction information generated in the generation step to the user when it is determined that it is the timing to output the reaction information to the user based on the user's location information; ,
An output method characterized by including.
JP2019069877A 2019-04-01 2019-04-01 Output program, output device and output method Active JP7409781B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019069877A JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019069877A JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Publications (2)

Publication Number Publication Date
JP2020170239A JP2020170239A (en) 2020-10-15
JP7409781B2 true JP7409781B2 (en) 2024-01-09

Family

ID=72745941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019069877A Active JP7409781B2 (en) 2019-04-01 2019-04-01 Output program, output device and output method

Country Status (1)

Country Link
JP (1) JP7409781B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234492A (en) 2003-01-31 2004-08-19 Nec Software Tohoku Ltd Chat system and advertisement providing method
JP2011100425A (en) 2009-11-09 2011-05-19 Fujitsu Ltd Information display device, information display program and information display method
JP2015196218A (en) 2014-04-01 2015-11-09 富士ソフト株式会社 System and method for creating operation plan for robot
JP2016206469A (en) 2015-04-24 2016-12-08 マツダ株式会社 Voice interaction system for vehicle
JP2017119336A (en) 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
WO2018057537A1 (en) 2016-09-20 2018-03-29 Google Llc Bot interaction
JP2018156473A (en) 2017-03-17 2018-10-04 ヤフー株式会社 Analysis device, analysis method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6195509B2 (en) * 2013-11-26 2017-09-13 Kddi株式会社 Terminal apparatus, server apparatus, distribution method, and distribution program
US10530723B2 (en) * 2015-12-21 2020-01-07 Google Llc Automatic suggestions for message exchange threads
JP6898064B2 (en) * 2016-02-26 2021-07-07 ヤフー株式会社 Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device
JP2017191421A (en) * 2016-04-13 2017-10-19 株式会社Stand Network system, server, and information processing method
JP2018097564A (en) * 2016-12-13 2018-06-21 ヤフー株式会社 Distribution device, distribution method, distribution program, terminal device, display method, and display program
JP6254726B1 (en) * 2017-02-10 2017-12-27 ヤフー株式会社 Generating device, generating method, and generating program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234492A (en) 2003-01-31 2004-08-19 Nec Software Tohoku Ltd Chat system and advertisement providing method
JP2011100425A (en) 2009-11-09 2011-05-19 Fujitsu Ltd Information display device, information display program and information display method
JP2015196218A (en) 2014-04-01 2015-11-09 富士ソフト株式会社 System and method for creating operation plan for robot
JP2016206469A (en) 2015-04-24 2016-12-08 マツダ株式会社 Voice interaction system for vehicle
JP2017119336A (en) 2015-12-28 2017-07-06 ヴイストン株式会社 Robot, robot control method, and robot program
WO2018057537A1 (en) 2016-09-20 2018-03-29 Google Llc Bot interaction
JP2018156473A (en) 2017-03-17 2018-10-04 ヤフー株式会社 Analysis device, analysis method, and program

Also Published As

Publication number Publication date
JP2020170239A (en) 2020-10-15

Similar Documents

Publication Publication Date Title
US11809829B2 (en) Virtual assistant for generating personalized responses within a communication session
KR102112814B1 (en) Parameter collection and automatic dialog generation in dialog systems
KR102295935B1 (en) Digital personal assistant interaction with impersonations and rich multimedia in responses
US11120226B1 (en) Conversation facilitation system for mitigating loneliness
US20170277993A1 (en) Virtual assistant escalation
US10600004B1 (en) Machine-learning based outcome optimization
CN104335207B (en) For the voice activation navigation of document and equipment, method and the user interface of browsing
US8612866B2 (en) Information processing apparatus, information processing method, and information processing program
CN110892395A (en) Virtual assistant providing enhanced communication session services
KR20200006566A (en) User Programmable Automation Assistant
US20210043208A1 (en) Generating response in conversation
CN108351870A (en) According to the Computer Distance Education and semantic understanding of activity pattern
JP2020522776A (en) Virtual assistant configured to recommend actions to facilitate existing conversations
US20100114937A1 (en) System and method for content customization based on user's psycho-spiritual map of profile
JP6570226B2 (en) Response generation apparatus, response generation method, and response generation program
JP6986978B2 (en) Information processing equipment, information processing methods, and information processing programs
CN110892385B (en) Immersive WEB-based simulator for digital assistant-based applications
JP6310796B2 (en) Control device, control method, and control program
WO2021107951A1 (en) Interfacing with applications via dynamically updating natural language processing
Lin et al. Sparks of artificial general recommender (agr): Early experiments with chatgpt
JP2005267483A (en) Information processing device and method and program
US11792141B2 (en) Automated messaging reply-to
JP7409781B2 (en) Output program, output device and output method
KR102017544B1 (en) Interactive ai agent system and method for providing seamless chatting service among users using multiple messanger program, computer readable recording medium
JP7405526B2 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221213

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221213

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221221

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230104

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230120

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20230124

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230124

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230404

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R150 Certificate of patent or registration of utility model

Ref document number: 7409781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150