JP6898064B2 - Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device - Google Patents

Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device Download PDF

Info

Publication number
JP6898064B2
JP6898064B2 JP2016036400A JP2016036400A JP6898064B2 JP 6898064 B2 JP6898064 B2 JP 6898064B2 JP 2016036400 A JP2016036400 A JP 2016036400A JP 2016036400 A JP2016036400 A JP 2016036400A JP 6898064 B2 JP6898064 B2 JP 6898064B2
Authority
JP
Japan
Prior art keywords
information
user
dialogue
output
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016036400A
Other languages
Japanese (ja)
Other versions
JP2017151931A (en
Inventor
峻平 佐野
峻平 佐野
伸裕 鍜治
伸裕 鍜治
颯々野 学
学 颯々野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2016036400A priority Critical patent/JP6898064B2/en
Publication of JP2017151931A publication Critical patent/JP2017151931A/en
Application granted granted Critical
Publication of JP6898064B2 publication Critical patent/JP6898064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、対話決定システム、対話決定方法、対話決定プログラム、及び端末装置に関する。 The present invention relates to a dialogue determination system, a dialogue determination method, a dialogue determination program, and a terminal device.

従来、ユーザの音声入力に対して情報提供を行う対話システムに関する技術が提供されている。例えば、自動車の搭乗者であるユーザの音声入力に対して情報提供を行う車両用音声対話システムが提供されている。 Conventionally, a technique related to a dialogue system that provides information to a user's voice input has been provided. For example, a vehicle voice dialogue system that provides information to a voice input of a user who is a passenger of a vehicle is provided.

特開2006−195637号公報Japanese Unexamined Patent Publication No. 2006-195637

しかしながら、上記の従来技術では、対話システムにおける出力を適切に決定できるとは限らない。例えば、対話システム内において収集されるユーザに関する情報のみに基づいて、ユーザの音声入力に対する出力を決定する場合、ユーザの意図を総合的に判断して出力を決定することが難しい。このような場合、ユーザの満足度を高めることが難しく、対話システムの利用を促進することが難しい場合がある。 However, with the above-mentioned prior art, it is not always possible to appropriately determine the output in the dialogue system. For example, when determining the output for the user's voice input based only on the information about the user collected in the dialogue system, it is difficult to comprehensively determine the user's intention to determine the output. In such a case, it may be difficult to increase user satisfaction, and it may be difficult to promote the use of the dialogue system.

本願は、上記に鑑みてなされたものであって、対話システムにおける出力を適切に決定する対話決定システム、対話決定方法、対話決定プログラム、及び端末装置を提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a dialogue determination system, a dialogue determination method, a dialogue determination program, and a terminal device for appropriately determining an output in a dialogue system.

本願に係る対話決定システムは、対話システム以外のシステムからユーザに関する行動情報を取得する取得部と、前記取得部により取得された前記ユーザに関する行動情報に基づいて、前記対話システムにおける前記ユーザに対する出力を決定する決定部と、を備えたことを特徴とする。 The dialogue determination system according to the present application outputs an output to the user in the dialogue system based on an acquisition unit that acquires behavior information about the user from a system other than the dialogue system and the behavior information about the user acquired by the acquisition unit. It is characterized by having a decision-making unit for making decisions.

実施形態の一態様によれば、対話システムにおける出力を適切に決定することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the output in the dialogue system can be appropriately determined.

図1は、実施形態に係る決定処理の一例を示す図である。FIG. 1 is a diagram showing an example of a determination process according to an embodiment. 図2は、実施形態に係る決定処理の一例を示す図である。FIG. 2 is a diagram showing an example of a determination process according to the embodiment. 図3は、実施形態に係る応答生成サーバの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of the response generation server according to the embodiment. 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of a user information storage unit according to the embodiment. 図5は、実施形態に係る未来イベント情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of a future event information storage unit according to the embodiment. 図6は、実施形態に係る話題情報記憶部の一例を示す図である。FIG. 6 is a diagram showing an example of a topic information storage unit according to the embodiment. 図7は、実施形態に係る端末装置の構成例を示す図である。FIG. 7 is a diagram showing a configuration example of the terminal device according to the embodiment. 図8は、実施形態に係る決定処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of the determination process according to the embodiment. 図9は、実施形態に係る決定処理の一例を示すフローチャートである。FIG. 9 is a flowchart showing an example of the determination process according to the embodiment. 図10は、実施形態に係る決定処理の一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of the determination process according to the embodiment. 図11は、応答生成サーバ及び端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 11 is a hardware configuration diagram showing an example of a computer that realizes the functions of the response generation server and the terminal device.

以下に、本願に係る対話決定システム、対話決定方法、対話決定プログラム、及び端末装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る対話決定システム、対話決定方法、対話決定プログラム、及び端末装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a mode for implementing the dialogue determination system, the dialogue determination method, the dialogue determination program, and the terminal device according to the present application (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the dialogue determination system, the dialogue determination method, the dialogue determination program, and the terminal device according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.

(実施形態)
〔1−1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る決定処理の一例を示す図である。具体的には、図1は、実施形態に係る決定処理における情報更新の一例を示す図である。なお、本実施形態においては、ユーザの音声入力(以下、単に「入力」とする場合がある)に対して出力を決定する対話決定システム1が、ユーザの入力に対して出力を行う対話システムである場合を示すが、対話決定システムと対話システムとは別システムであってもよい。例えば、ここで対話決定システムとは、音声対話サービスを提供する際に、ユーザへの対話(応答)を決定するシステムのことをいう。また、例えば、ここで対話システムとは、音声対話サービスを提供する際に、ユーザの端末装置へ情報を送信したり、実際にユーザへの対話(応答)を出力したりするシステムのことをいう。つまり、図1では、対話決定システム1が音声対話サービスを提供する際に、ユーザへの対話(応答)を決定し、ユーザの端末装置へ情報を送信する場合を示す。
(Embodiment)
[1-1. Generation process]
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a determination process according to an embodiment. Specifically, FIG. 1 is a diagram showing an example of information update in the determination process according to the embodiment. In the present embodiment, the dialogue determination system 1 that determines the output in response to the user's voice input (hereinafter, may be simply referred to as "input") is a dialogue system that outputs in response to the user's input. Although a certain case is shown, the dialogue decision system and the dialogue system may be separate systems. For example, the dialogue decision system here refers to a system that determines a dialogue (response) to a user when providing a voice dialogue service. Further, for example, the dialogue system here refers to a system that transmits information to a user's terminal device or actually outputs a dialogue (response) to the user when providing a voice dialogue service. .. That is, FIG. 1 shows a case where the dialogue determination system 1 determines a dialogue (response) to the user and transmits information to the user's terminal device when the dialogue determination system 1 provides the voice dialogue service.

図1及び図2に示すように、対話決定システム1には、応答生成サーバ100と、音声認識サーバ30と、音声合成サーバ40とが含まれる。応答生成サーバ100と、音声認識サーバ30と、音声合成サーバ40とは図示しない所定のネットワークを介して、有線または無線により通信可能に接続される。なお、図1に示した対話決定システム1には、複数台の応答生成サーバ100や、複数台の音声認識サーバ30や、複数台の音声合成サーバ40が含まれてもよい。 As shown in FIGS. 1 and 2, the dialogue determination system 1 includes a response generation server 100, a voice recognition server 30, and a voice synthesis server 40. The response generation server 100, the voice recognition server 30, and the voice synthesis server 40 are connected to each other so as to be communicable by wire or wirelessly via a predetermined network (not shown). The dialogue determination system 1 shown in FIG. 1 may include a plurality of response generation servers 100, a plurality of voice recognition servers 30, and a plurality of voice synthesis servers 40.

また、図1に示すように、対話決定システム1以外の外部システム5には、コンテンツ配信サーバ51やメールサーバ52等が含まれる。例えば、コンテンツ配信サーバ51は、ユーザにコンテンツを配信するサービスを提供する情報処理装置である。また、例えば、メールサーバ52は、ユーザに電子メールを送受信するサービスを提供する情報処理装置である。なお、外部システム5は、対話決定システム1以外のシステムであることを示すためのものであり、コンテンツ配信サーバ51を含むシステムとメールサーバ52を含むシステムとは別システムであってもよい。 Further, as shown in FIG. 1, the external system 5 other than the dialogue determination system 1 includes a content distribution server 51, a mail server 52, and the like. For example, the content distribution server 51 is an information processing device that provides a service for distributing content to users. Further, for example, the mail server 52 is an information processing device that provides a service for sending and receiving e-mails to users. The external system 5 is for indicating that the system is other than the dialogue determination system 1, and the system including the content distribution server 51 and the system including the mail server 52 may be different systems.

なお、端末装置20は、対話決定システム1を利用中においては、対話決定システム1に含まれてもよい。例えば、端末装置20は、対話決定システム1を利用中においては、対話決定システム1の各構成と図示しない所定のネットワークを介して、有線または無線により通信可能に接続される。また、例えば、端末装置20は、外部システム5を利用中においては、外部システム5の各構成と図示しない所定のネットワークを介して、有線または無線により通信可能に接続される。また、端末装置20は、複数台であってもよい。 The terminal device 20 may be included in the dialogue determination system 1 while the dialogue determination system 1 is being used. For example, while using the dialogue determination system 1, the terminal device 20 is connected to each configuration of the dialogue determination system 1 so as to be communicable by wire or wirelessly via a predetermined network (not shown). Further, for example, while using the external system 5, the terminal device 20 is connected to each configuration of the external system 5 so as to be communicable by wire or wirelessly via a predetermined network (not shown). Further, the number of terminal devices 20 may be a plurality of units.

端末装置20は、ユーザによって利用される情報処理装置である。端末装置20は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1は、端末装置20がスマートフォンである場合を示す。 The terminal device 20 is an information processing device used by the user. The terminal device 20 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. FIG. 1 shows a case where the terminal device 20 is a smartphone.

また、端末装置20は、ユーザによる操作を受け付ける。図1に示す例において、端末装置20は、所定のアプリ(例えば、ブラウザ等)に表示するコンテンツをコンテンツ配信サーバ51へ要求する。なお、以下では、端末装置20をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置20と読み替えることもできる。 In addition, the terminal device 20 accepts operations by the user. In the example shown in FIG. 1, the terminal device 20 requests the content distribution server 51 for the content to be displayed in a predetermined application (for example, a browser or the like). In the following, the terminal device 20 may be referred to as a user. That is, in the following, the user can be read as the terminal device 20.

音声認識サーバ30は、発話の音声データを受信すると、音声データをテキストデータに変換する情報処理装置である。例えば、音声認識サーバ30は、変換した発話のテキストデータを端末装置20に送信する。また、音声合成サーバ40は、応答発話用のテキストデータから音声を合成する音声合成処理を行って、応答発話用の中間表記を生成する情報処理装置である。また、例えば、音声合成サーバ40は、応答発話用の中間表記を応答生成サーバ100に送信する。なお、ここでいう中間表記とは、音声出力を行う端末装置20が音声の出力を行う際に用い、音声出力される応答文等の読みに関する情報を含む中間言語(音声情報)を意味する。なお、中間表記は、中間表記に基づいて端末装置20が音声を出力可能であれば、どのような情報であってもよい。例えば、端末装置20がテキストデータ(文字情報)を基に音声の出力を行う場合、中間表記は、テキストデータであってもよい。 The voice recognition server 30 is an information processing device that converts voice data into text data when it receives voice data of an utterance. For example, the voice recognition server 30 transmits the converted text data of the utterance to the terminal device 20. Further, the voice synthesis server 40 is an information processing device that performs a voice synthesis process for synthesizing voice from text data for response utterance and generates an intermediate notation for response utterance. Further, for example, the voice synthesis server 40 transmits an intermediate notation for response utterance to the response generation server 100. The intermediate notation referred to here means an intermediate language (voice information) that is used by the terminal device 20 that outputs voice and includes information related to reading of a response sentence or the like that is output by voice. The intermediate notation may be any information as long as the terminal device 20 can output audio based on the intermediate notation. For example, when the terminal device 20 outputs voice based on text data (character information), the intermediate notation may be text data.

応答生成サーバ100は、ユーザに関する行動情報に基づいて、対話決定システム1におけるユーザに対する出力を決定する情報処理装置である。例えば、応答生成サーバ100は、ユーザに関する行動情報に基づいてユーザが関心を示すと推定される未来のイベントに関する情報(「未来イベント情報」と記載する場合がある)を、対話決定システム1における出力として決定する。 The response generation server 100 is an information processing device that determines the output to the user in the dialogue determination system 1 based on the behavior information about the user. For example, the response generation server 100 outputs information about a future event (may be described as "future event information") that the user is presumed to be interested in based on the behavior information about the user in the dialogue determination system 1. To determine as.

以下、図1を用いて、決定処理の一例を説明する。図1は、ユーザがユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)である場合を示す。図1は、ユーザU1が外部システム5のサービスを利用する場合を示す。また、図1では、対話決定システム1に含まれる応答生成サーバ100が、対話決定システム1以外の外部システム5からユーザに関する行動情報を取得する場合を示す。具体的には、応答生成サーバ100は、外部システム5のコンテンツ配信サーバ51がユーザU1に配信したコンテンツに関する情報(以下、「利用情報」とする場合がある)を取得する場合を示す。そして、応答生成サーバ100が、取得したユーザU1に関する利用情報に基づいて、ユーザU1に関する未来イベントに関する情報を更新する場合を示す。また、図1に示す処理は、20XX年2月25日に行われたものとする。 Hereinafter, an example of the determination process will be described with reference to FIG. FIG. 1 shows a case where the user is a user identified by the user ID “U1” (hereinafter, may be referred to as “user U1”). FIG. 1 shows a case where the user U1 uses the service of the external system 5. Further, FIG. 1 shows a case where the response generation server 100 included in the dialogue decision system 1 acquires action information about the user from an external system 5 other than the dialogue decision system 1. Specifically, the response generation server 100 shows a case where the content distribution server 51 of the external system 5 acquires information regarding the content distributed to the user U1 (hereinafter, may be referred to as “usage information”). Then, the case where the response generation server 100 updates the information about the future event about the user U1 based on the acquired usage information about the user U1 is shown. Further, it is assumed that the processing shown in FIG. 1 was performed on February 25, 20XX.

まず、図1に示すように、ユーザU1は、端末装置20を操作して、コンテンツ配信サーバ51にコンテンツの要求を行う(ステップS11)。例えば、端末装置20は、ユーザU1による操作に応じて、コンテンツ配信サーバ51にコンテンツCT11の要求を行う。 First, as shown in FIG. 1, the user U1 operates the terminal device 20 to request the content from the content distribution server 51 (step S11). For example, the terminal device 20 requests the content distribution server 51 for the content CT 11 in response to an operation by the user U1.

端末装置20からコンテンツ要求を受信したコンテンツ配信サーバ51は、端末装置20にコンテンツCT11を配信する(ステップS12)。例えば、コンテンツ配信サーバ51は、端末装置20からコンテンツCT11の要求を受信し、端末装置20にコンテンツCT11を配信する。図1に示す例おいて、コンテンツCT11は、スポーツニュースに関する記事であり、「20XX年2月29日19時からZスタジアムでサッカーAリーグのチームBとCが、首位を争う試合を…」といった内容が記載される。また、コンテンツ配信サーバ51は、ユーザU1にコンテンツCT11を配信したことを示す履歴を所定の記憶部に記憶する。 The content distribution server 51 that has received the content request from the terminal device 20 distributes the content CT 11 to the terminal device 20 (step S12). For example, the content distribution server 51 receives a request for the content CT 11 from the terminal device 20 and distributes the content CT 11 to the terminal device 20. In the example shown in FIG. 1, the content CT11 is an article about sports news, such as "From 19:00 on February 29, 20XX, teams B and C of the soccer A league will compete for the lead at Z stadium ..." The content is described. Further, the content distribution server 51 stores a history indicating that the content CT11 has been distributed to the user U1 in a predetermined storage unit.

その後、応答生成サーバ100は、外部システム5に情報を要求する(ステップS13)。そして、応答生成サーバ100は、外部システム5からユーザの利用情報を取得する(ステップS14)。例えば、応答生成サーバ100は、コンテンツ配信サーバ51から利用情報を取得する。具体的には、応答生成サーバ100は、利用情報として、ユーザU1にコンテンツCT11を配信したことを示す情報を、コンテンツ配信サーバ51から取得する。 After that, the response generation server 100 requests information from the external system 5 (step S13). Then, the response generation server 100 acquires the user's usage information from the external system 5 (step S14). For example, the response generation server 100 acquires usage information from the content distribution server 51. Specifically, the response generation server 100 acquires, as usage information, information indicating that the content CT11 has been distributed to the user U1 from the content distribution server 51.

そして、応答生成サーバ100は、取得した利用情報に基づいて未来イベントを抽出する(ステップS15)。ここでいう未来イベントとは、例えば、ステップS15における未来イベントを抽出する処理を行う時点以降に行われる所定の事象をいう。図1では、応答生成サーバ100は、ユーザU1に配信されたコンテンツCT11に関する情報(記事の内容等)から、未来イベントを抽出する。例えば、応答生成サーバ100は、コンテンツCT11から、日時「20XX年2月29日19時」からイベント「サッカーの試合」が行われることを示す未来イベントに関する情報を抽出する。また、応答生成サーバ100は、サッカーのリーグが「Aリーグ」であり、対戦チームが「チームB」と「チームC」であり、場所が「Zスタジアム」であることを示す情報を、未来イベントに関する情報として抽出してもよい。なお、応答生成サーバ100が利用情報から、未来イベントを抽出する処理の詳細は後述する。 Then, the response generation server 100 extracts future events based on the acquired usage information (step S15). The future event referred to here means, for example, a predetermined event that occurs after the time when the process of extracting the future event in step S15 is performed. In FIG. 1, the response generation server 100 extracts future events from information (contents of articles, etc.) related to the content CT11 delivered to the user U1. For example, the response generation server 100 extracts from the content CT11 information about a future event indicating that the event "soccer match" will be held from the date and time "February 29, 20XX, 19:00". In addition, the response generation server 100 provides information indicating that the soccer league is "A league", the opponent teams are "team B" and "team C", and the location is "Z stadium" in the future event. It may be extracted as information about. The details of the process by which the response generation server 100 extracts future events from the usage information will be described later.

ここで、応答生成サーバ100は、図1に示すように、未来イベント情報記憶部122に各ユーザに対応付けて未来イベントに関する情報を記憶する。以下では、ユーザU1に対応する未来イベントに関する情報の更新に応じて、未来イベント情報記憶部122を未来イベント情報記憶部122−1、122−2として説明する。具体的には、ステップS16における更新前の未来イベント情報記憶部122を未来イベント情報記憶部122−1として図示し、ステップS16における更新後の未来イベント情報記憶部122を未来イベント情報記憶部122−2として図示する。なお、未来イベント情報記憶部122−1、122−2は同一の未来イベント情報記憶部122である。また、以下では、未来イベント情報記憶部122−1、122−2について、特に区別することなく説明する場合には、未来イベント情報記憶部122と記載する。 Here, as shown in FIG. 1, the response generation server 100 stores information about future events in the future event information storage unit 122 in association with each user. In the following, the future event information storage unit 122 will be described as the future event information storage units 122-1 and 122-2 according to the update of the information regarding the future event corresponding to the user U1. Specifically, the future event information storage unit 122 before the update in step S16 is illustrated as the future event information storage unit 122-1, and the future event information storage unit 122 after the update in step S16 is shown as the future event information storage unit 122-. It is shown as 2. The future event information storage units 122-1 and 122-2 are the same future event information storage units 122. Further, in the following, when the future event information storage units 122-1 and 122-2 will be described without particular distinction, they will be referred to as future event information storage units 122.

ステップS15における未来イベントの抽出後、応答生成サーバ100は、未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する(ステップS16)。例えば、応答生成サーバ100は、ステップS15において抽出した未来イベントに関する情報を追加する。具体的には、応答生成サーバ100は、イベントID「IV12」により識別されるイベント「サッカーの試合」(以下、「未来イベントIV12」とする)を示す未来イベントに関する情報を、ユーザU1に対応付けて未来イベント情報記憶部122に記憶する。また、応答生成サーバ100は、未来イベントIV12の分類が「スポーツ」であり、未来イベントIV12が開催される日時「20XX年2月29日19時」から行われることを示す情報も未来イベント情報記憶部122に記憶する。これにより、未来イベント情報記憶部122は、図1に示すように、未来イベント情報記憶部122−1から未来イベント情報記憶部122−2に更新される。 After extracting the future event in step S15, the response generation server 100 updates the information about the future event stored in the future event information storage unit 122 (step S16). For example, the response generation server 100 adds information about the future event extracted in step S15. Specifically, the response generation server 100 associates the information about the future event indicating the event "soccer match" (hereinafter referred to as "future event IV12") identified by the event ID "IV12" with the user U1. It is stored in the future event information storage unit 122. In addition, the response generation server 100 also stores information indicating that the future event IV12 is classified as "sports" and that the future event IV12 will be held from the date and time "February 29, 19:00, 20XX". Store in unit 122. As a result, the future event information storage unit 122 is updated from the future event information storage unit 122-1 to the future event information storage unit 122-2, as shown in FIG.

上述したように、対話決定システム1は、ユーザの利用情報に基づいて未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。すなわち、対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報に基づいて未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。これにより、対話決定システム1は、各ユーザが関心を示す可能性の高い未来イベントに関する情報を、ユーザに対応付けて記憶することができる。 As described above, the dialogue determination system 1 updates the information about the future event stored in the future event information storage unit 122 based on the usage information of the user. That is, the dialogue decision system 1 updates the information about the future event stored in the future event information storage unit 122 based on the action information about the user acquired from the external system 5 other than the dialogue decision system 1. As a result, the dialogue determination system 1 can store information about future events that each user is likely to be interested in in association with the user.

また、対話決定システム1は、ユーザ情報記憶部121(図4参照)に記憶されたユーザの嗜好(興味・関心)に関する情報を更新してもよい。例えば、対話決定システム1は、分類が「スポーツ」である未来イベントIV12を未来イベント情報記憶部122に記憶する際に、ユーザ情報記憶部121にユーザU1の嗜好(興味・関心)に関する情報として「スポーツ」を記憶してもよい。すなわち、対話決定システム1は、ユーザU1の利用情報に基づく未来イベントIV12に関する情報により、ユーザ情報記憶部121に記憶されたユーザU1の嗜好に関する情報を更新してもよい。これにより、対話決定システム1は、ユーザU1に対してより適切な応答を行うことが可能となる。 Further, the dialogue determination system 1 may update the information regarding the user's preference (interest / interest) stored in the user information storage unit 121 (see FIG. 4). For example, when the future event IV12 whose classification is "sports" is stored in the future event information storage unit 122, the dialogue determination system 1 stores the user information storage unit 121 as information regarding the preference (interest / interest) of the user U1. You may remember "sports". That is, the dialogue determination system 1 may update the information regarding the preference of the user U1 stored in the user information storage unit 121 by the information regarding the future event IV12 based on the usage information of the user U1. As a result, the dialogue determination system 1 can make a more appropriate response to the user U1.

〔1−2.配信処理〕
次に、図2を用いて、実施形態に係る決定処理の一例について説明する。図2は、実施形態に係る配信処理の一例を示す図である。具体的には、図2は、実施形態に係る決定処理における未来イベント決定の一例を示す図である。図2は、ユーザU1が対話決定システム1のサービスを利用する場合を示す。図2は、応答生成サーバ100が、ユーザU1の発話による入力情報から抽出された話題に対応する未来イベントに関する情報を出力として決定する場合を示す。また、図2に示す処理は、20XX年2月27日に行われたものとする。
[1-2. Delivery process]
Next, an example of the determination process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of distribution processing according to the embodiment. Specifically, FIG. 2 is a diagram showing an example of future event determination in the determination process according to the embodiment. FIG. 2 shows a case where the user U1 uses the service of the dialogue determination system 1. FIG. 2 shows a case where the response generation server 100 determines as output information about a future event corresponding to a topic extracted from the input information uttered by the user U1. Further, it is assumed that the processing shown in FIG. 2 was performed on February 27, 20XX.

なお、応答生成サーバ100が、出力する未来イベントに関する情報の決定以外の通常の出力を決定する処理については説明を省略する。例えば、応答生成サーバ100が、ユーザU1の発話による入力情報に対して出力する未来イベントに関する情報の決定以外の出力に関して決定する処理については説明を省略する。また、図2では、端末装置20からの入力に対して、応答生成サーバ100が未来イベントに関する情報の決定し、対話決定システム1が出力する処理について説明し、対話決定システム1内の各構成の処理についての詳細は後述する。 The process of determining the normal output other than the determination of the information regarding the future event to be output by the response generation server 100 will be omitted. For example, the process of determining the output other than the determination of the information regarding the future event to be output to the input information uttered by the user U1 by the response generation server 100 will be omitted. Further, in FIG. 2, the process in which the response generation server 100 determines the information regarding the future event and the dialogue determination system 1 outputs the information in response to the input from the terminal device 20 is described, and each configuration in the dialogue determination system 1 is described. Details of the processing will be described later.

図2に示すように、端末装置20は、対話決定システム1に関するアプリケーション(以下、「対話アプリ」とする場合がある)の起動指示を受け付けると、対話アプリを起動する(ステップS21)。そして、ユーザU1は、対話アプリが起動された端末装置20に音声を入力する(ステップS22)。図2では、端末装置20は、20XX年2月27日17時にユーザU1が対話アプリを起動中の端末装置20に対して発話した「昨日のサッカーの試合結果を教えて。」という音声情報を用いて、所定の処理により入力情報IM11を取得する。そして、端末装置20は、応答生成サーバ100に入力情報IM11を送信する(ステップS23)。 As shown in FIG. 2, when the terminal device 20 receives a start instruction of an application related to the dialogue determination system 1 (hereinafter, may be referred to as a “dialogue application”), the terminal device 20 activates the dialogue application (step S21). Then, the user U1 inputs voice to the terminal device 20 in which the dialogue application is activated (step S22). In FIG. 2, the terminal device 20 gives the voice information "Tell me the result of yesterday's soccer match" that the user U1 uttered to the terminal device 20 in which the dialogue application is running at 17:00 on February 27, 20XX. The input information IM11 is acquired by a predetermined process. Then, the terminal device 20 transmits the input information IM 11 to the response generation server 100 (step S23).

応答生成サーバ100は、端末装置20から取得した入力情報IM11から話題を抽出する(ステップS24)。例えば、応答生成サーバ100は、話題情報記憶部123に記憶された各話題に対応付けられたキーワードのスコアに基づいて、入力情報IM11から話題を抽出する。例えば、応答生成サーバ100は、話題ごとに対応付けられたキーワードのスコアを合算し、合算したスコアが最大の話題を入力情報IM11の話題として抽出する。図2では、応答生成サーバ100は、話題リストTL11に示すように、入力情報IM11から話題「スポーツ」を抽出する。 The response generation server 100 extracts a topic from the input information IM11 acquired from the terminal device 20 (step S24). For example, the response generation server 100 extracts a topic from the input information IM 11 based on the score of the keyword associated with each topic stored in the topic information storage unit 123. For example, the response generation server 100 adds up the scores of the keywords associated with each topic, and extracts the topic having the largest total score as the topic of the input information IM11. In FIG. 2, the response generation server 100 extracts the topic “sports” from the input information IM11 as shown in the topic list TL11.

そして、応答生成サーバ100は、話題リストTL11と、入力情報IM11を送信したユーザU1や日時を示す関連情報IN11とに基づいて、出力する未来イベントに関する情報を決定する(ステップS25)。例えば、応答生成サーバ100は、未来イベント情報記憶部122−2中のユーザU1に対応し分類が「スポーツ」であって、「20XX年2月27日17時」から所定の期間内の未来に行われる未来イベントに関する情報を出力する未来イベントに関する情報として決定する。例えば、応答生成サーバ100は、「20XX年2月27日17時」から1週間以内に行われる未来イベントに関する情報を出力する未来イベントに関する情報として決定する。図2では、応答生成サーバ100は、未来イベントIV12を出力する未来イベントに関する情報として決定する。 Then, the response generation server 100 determines the information regarding the future event to be output based on the topic list TL11, the user U1 who transmitted the input information IM11, and the related information IN11 indicating the date and time (step S25). For example, the response generation server 100 corresponds to the user U1 in the future event information storage unit 122-2 and is classified as "sports", and from "February 27, 20XX 17:00" to the future within a predetermined period. Output information about future events to be held Determined as information about future events. For example, the response generation server 100 determines the information regarding the future event that outputs the information regarding the future event that will be performed within one week from "17:00 on February 27, 20XX". In FIG. 2, the response generation server 100 determines the information regarding the future event that outputs the future event IV12.

そして、応答生成サーバ100は、通常の処理により決定される入力情報IM11に対応する応答に関する情報と、ステップS25により決定された未来イベントIV12とに基づいて出力を決定する(ステップS26)。例えば、応答生成サーバ100は、通常の処理により、「20XX年2月27日」の前日である「20XX年2月26日」に行われたサッカーの試合結果を示す情報を種々のニュース等に関する情報を記憶する記憶部から取得して、入力情報IM11に対応する応答を決定する。例えば、応答生成サーバ100は、外部システム5から取得したユーザU1がX国の試合情報に関するニュースを閲覧したことを示す情報に基づいて、Y国やZ国の試合結果でなくX国の結果を入力情報IM11に対応する応答として決定する。このように、応答生成サーバ100は、「20XX年2月26日」に行われたサッカーの試合が複数ある場合であっても、外部システム5から取得した情報に基づいて、ユーザU1に対して複数の候補から適切と推定される応答を決定する。すなわち、応答生成サーバ100は、複数の候補がある場合であっても、外部システム5から取得した情報に基づいて、ユーザU1に対して適切な応答を決定することができる。なお、応答生成サーバ100は、種々のニュース等に関する情報記憶する記憶部を有してもよいし、外部に設けられた記憶部から取得してもよい。また、応答生成サーバ100は、ユーザ情報記憶部121に記憶されたユーザの嗜好(興味・関心)に関する情報に基づいて、入力情報IM11に対応する応答に関する情報を決定してもよい。 Then, the response generation server 100 determines the output based on the information regarding the response corresponding to the input information IM11 determined by the normal processing and the future event IV12 determined in step S25 (step S26). For example, the response generation server 100 relates to various news items such as information indicating the result of a soccer match played on "February 26, 20XX", which is the day before "February 27, 20XX", by normal processing. Acquired from the storage unit that stores the information, the response corresponding to the input information IM11 is determined. For example, the response generation server 100 obtains the result of country X instead of the result of the game of country Y or Z based on the information indicating that the user U1 acquired from the external system 5 has viewed the news about the game information of country X. It is determined as a response corresponding to the input information IM11. In this way, the response generation server 100 refers to the user U1 based on the information acquired from the external system 5 even when there are a plurality of soccer games played on "February 26, 20XX". Determine the response that is presumed appropriate from multiple candidates. That is, the response generation server 100 can determine an appropriate response to the user U1 based on the information acquired from the external system 5 even when there are a plurality of candidates. The response generation server 100 may have a storage unit for storing information related to various news and the like, or may acquire the information from an externally provided storage unit. Further, the response generation server 100 may determine the information regarding the response corresponding to the input information IM 11 based on the information regarding the user's preference (interest / interest) stored in the user information storage unit 121.

図2では、応答生成サーバ100は、入力情報IM11に対応する応答に関する通常情報NM11と、未来イベントIV12と関する未来情報FM11とを含む出力情報OM11を端末装置20に出力する出力として決定する。なお、通常情報NM11には、「2―1でX国が勝ちました。」という、入力情報IM11に対応する応答を示す情報が含まれる。また、未来情報FM11には、「来週は、チームBの試合があります。また結果を聞きに来てくださいね。」という、入力情報IM11に対応する未来イベントに関する情報や、ユーザU1に後日に再び対話アプリの利用を促す情報が含まれる。 In FIG. 2, the response generation server 100 determines as an output to output the output information OM11 including the normal information NM11 regarding the response corresponding to the input information IM11 and the future information FM11 related to the future event IV12 to the terminal device 20. The normal information NM11 includes information indicating a response corresponding to the input information IM11, such as "Country X won 2-1." In addition, the future information FM11 contains information about future events corresponding to the input information IM11, such as "There will be a Team B match next week. Please come and hear the results." Contains information that encourages the use of interactive apps.

そして、応答生成サーバ100は、出力情報OM11を端末装置20へ送信する(ステップS27)。なお、応答生成サーバ100は、出力情報OM11に関する応答発話用の中間表記を端末装置20へ送信してもよい。 Then, the response generation server 100 transmits the output information OM 11 to the terminal device 20 (step S27). The response generation server 100 may transmit an intermediate notation for response utterance regarding the output information OM 11 to the terminal device 20.

出力情報OM11を受信した端末装置20は、出力情報OM11を音声として出力する(ステップS28)。図2では、端末装置20は、最初に「2―1でX国が勝ちました。」というユーザU1の質問に対する回答を出力する。続けて、端末装置20は、「来週は、チームBの試合があります。また結果を聞きに来てくださいね。」という未来イベントに関する情報やユーザU1に後日に再び対話アプリの利用を促す情報を音声として出力する。このように、対話決定システム1は、ユーザの入力に対して回答した後に続けて、未来のイベントに関する情報を出力することにより、ユーザに対して違和感のない流れで、未来のイベントに関する情報を出力することができる。なお、上述した例では、ユーザの入力に対しての回答(通常の応答)後に続けて、未来のイベントに関する情報を出力する例を示したが、通常の応答は行わなくてもよい。例えば、対話決定システム1は、ユーザの入力に対して、未来のイベントに関する情報のみを出力してもよい。 The terminal device 20 that has received the output information OM11 outputs the output information OM11 as voice (step S28). In FIG. 2, the terminal device 20 first outputs an answer to the question of the user U1 that "Country X won 2-1." Next, the terminal device 20 provides information on future events such as "There will be a Team B match next week. Please come and listen to the results." And information that encourages user U1 to use the dialogue app again at a later date. Output as audio. In this way, the dialogue decision system 1 outputs information about future events in a flow that does not give a sense of discomfort to the user by continuously outputting information about future events after responding to the user's input. can do. In the above-mentioned example, an example is shown in which information about a future event is output after the response to the user's input (normal response), but the normal response may not be performed. For example, the dialogue determination system 1 may output only information about future events in response to user input.

上述したように、対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。これにより、対話決定システム1は、ユーザの発話の意図を総合的に判断して出力を決定することができる。また、対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報から未来のイベントに関する情報を抽出し、抽出した未来のイベントに関する情報を対話システムにおける出力として決定する。これにより、対話決定システム1は、各ユーザが関心を示す可能性の高い未来イベントに関する情報を、ユーザに対して出力することができる。したがって、対話決定システム1は、対話システムにおける出力を適切に決定することができる。また、上述したように、「また結果を聞きに来てくださいね。」等のユーザに近い未来に再度対話決定システム1を利用するよう応答で誘導することにより、対話決定システム1は、対話システムの利用促進させることが可能となる。 As described above, the dialogue determination system 1 determines the output to the user in the dialogue system based on the behavior information about the user acquired from the external system 5 other than the dialogue determination system 1. As a result, the dialogue determination system 1 can comprehensively determine the intention of the user's utterance and determine the output. Further, the dialogue decision system 1 extracts information about future events from the behavior information about users acquired from the external system 5 other than the dialogue decision system 1, and determines the extracted information about future events as output in the dialogue system. As a result, the dialogue decision system 1 can output information about future events that each user is likely to be interested in to the user. Therefore, the dialogue determination system 1 can appropriately determine the output in the dialogue system. In addition, as described above, the dialogue decision system 1 is a dialogue system by inducing the user to use the dialogue decision system 1 again in the near future, such as "Please come to hear the result again." It is possible to promote the use of.

なお、図2では、入力情報IM11に対して出力情報OM11を決定する場合を示したが、対話決定システム1は、入力情報IM11に対応する未来イベントに関する情報に基づいて所定の出力を決定してもよい。例えば、対話決定システム1は、入力情報IM11に対応する未来イベントに関する情報に基づいて、端末装置20に所定のアプリケーションを起動させる情報を送信してもよい。また、例えば、対話決定システム1は、入力情報IM11に対応する未来イベントに関する情報に基づいて、所定のコンテンツを表示させる情報を送信してもよい。また、図1及び図2に示した例においては、応答生成サーバ100が決定処理を行う場合を示したが、図1及び図2に示す決定処理は、端末装置20において行われてもよい。例えば、端末装置20にインストールされたアプリケーション(対話アプリ等)により、図1及び図2に示す決定処理が行われてもよい。例えば、端末装置20のアプリ25により、図1及び図2に示す決定処理が行われてもよい。この場合、端末装置20のアプリ25は、取得部や決定部や更新部を有してもよい。例えば、端末装置20は、決定装置100であってもよい。例えば、端末装置20は、決定装置100の有する機能を有してもよい。この場合、端末装置20は、図1及び図2において決定装置100が行うステップを行ってもよい。 Although FIG. 2 shows a case where the output information OM11 is determined for the input information IM11, the dialogue determination system 1 determines a predetermined output based on the information about the future event corresponding to the input information IM11. May be good. For example, the dialogue determination system 1 may transmit information for invoking a predetermined application to the terminal device 20 based on the information regarding the future event corresponding to the input information IM 11. Further, for example, the dialogue determination system 1 may transmit information for displaying predetermined contents based on the information regarding the future event corresponding to the input information IM11. Further, in the examples shown in FIGS. 1 and 2, the case where the response generation server 100 performs the determination process is shown, but the determination process shown in FIGS. 1 and 2 may be performed in the terminal device 20. For example, the determination process shown in FIGS. 1 and 2 may be performed by an application (interactive application or the like) installed in the terminal device 20. For example, the determination process shown in FIGS. 1 and 2 may be performed by the application 25 of the terminal device 20. In this case, the application 25 of the terminal device 20 may have an acquisition unit, a determination unit, and an update unit. For example, the terminal device 20 may be the determination device 100. For example, the terminal device 20 may have the function of the determination device 100. In this case, the terminal device 20 may perform the steps performed by the determination device 100 in FIGS. 1 and 2.

また、対話決定システム1は、未来のイベントに関する情報が出力されたユーザの対話決定システム1における応答に関する情報に基づいて、対話決定システム1におけるユーザに対する出力を決定してもよい。例えば、対話決定システム1は、ユーザが対話決定システム1からの出力に対して応答した未来イベントの分類をユーザが関心を示す可能性の高い対象としてもよい。例えば、対話決定システム1は、ユーザU1が出力情報OM11に対して応答した場合、未来イベントIV12の分類「スポーツ」を、ユーザ情報記憶部121にユーザU1の嗜好(興味・関心)に関する情報として記憶してもよい。この場合、例えば、対話決定システム1は、ユーザU1に対する出力を決定する場合、ユーザU1が関心を示す可能性の高い「スポーツ」に関する話題を優先してもよい。 Further, the dialogue determination system 1 may determine the output to the user in the dialogue determination system 1 based on the information regarding the response in the dialogue determination system 1 of the user to which the information regarding the future event is output. For example, the dialogue decision system 1 may target the classification of future events in which the user responded to the output from the dialogue decision system 1 with a high possibility that the user will be interested. For example, when the user U1 responds to the output information OM11, the dialogue determination system 1 stores the classification "sports" of the future event IV12 in the user information storage unit 121 as information on the preference (interest / interest) of the user U1. You may. In this case, for example, the dialogue determination system 1 may prioritize the topic of "sports" that the user U1 is likely to be interested in when determining the output to the user U1.

例えば、対話決定システム1は、応答に関する情報を用いた学習により生成されるモデルに基づいて、対話決定システム1におけるユーザに対する出力を決定してもよい。例えば、対話決定システム1は、ユーザごとが対話決定システム1からの出力に対して応答した未来イベントの分類に基づいて、モデルを生成してもよい。これにより、対話決定システム1は、各ユーザがどの分類の未来イベントに関心を示す可能性の高いかを適切に判定することができる。なお、対話決定システム1が学習するモデルは、上記に限らず、ユーザがどのような出力に対して関心を示す可能性の高いかを判定するモデルであってもよい。例えば、対話決定システム1は、各ユーザが出力にどのようなキーワードが含まれる場合に、出力に対して関心を示す可能性の高いかを判定するモデルであってもよい。この場合、例えば、対話決定システム1は、ユーザごとに素性をキーワードとするモデルを生成してもよい。 For example, the dialogue determination system 1 may determine the output to the user in the dialogue determination system 1 based on a model generated by learning with information about the response. For example, the dialogue decision system 1 may generate a model based on the classification of future events in which each user responds to the output from the dialogue decision system 1. Thereby, the dialogue determination system 1 can appropriately determine which classification of future events each user is likely to be interested in. The model learned by the dialogue determination system 1 is not limited to the above, and may be a model for determining what kind of output the user is likely to be interested in. For example, the dialogue determination system 1 may be a model for determining what kind of keywords are included in the output for each user to be likely to be interested in the output. In this case, for example, the dialogue determination system 1 may generate a model with the feature as a keyword for each user.

〔2.応答生成サーバの構成〕
次に、図3を用いて、実施形態に係る応答生成サーバ100の構成について説明する。図3は、実施形態に係る応答生成サーバ100の構成例を示す図である。図3に示すように、応答生成サーバ100は、通信部110と、記憶部120と、制御部130とを有する。なお、応答生成サーバ100は、応答生成サーバ100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Response generation server configuration]
Next, the configuration of the response generation server 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the response generation server 100 according to the embodiment. As shown in FIG. 3, the response generation server 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The response generation server 100 includes an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the response generation server 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. You may have.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、端末装置20や音声認識サーバ30や音声合成サーバ40との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network by wire or wirelessly, and transmits / receives information to / from the terminal device 20, the voice recognition server 30, and the voice synthesis server 40.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、未来イベント情報記憶部122と、話題情報記憶部123とを有する。また、記憶部120には、上記に限らず、音声対話サービスを提供するために必要な種々の情が記憶される。例えば、記憶部120には、ユーザの入力に対して、未来イベント情報以外の通常の応答を行うための対話コーパス等が記憶される。例えば、対話システムが、自動車に搭載されるナビゲーションシステムに用いられる場合、対話システム自身から取得できる情報(例えば、ユーザとの対話履歴やカーナビの検索履歴など)を記憶してもよい。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 3, the storage unit 120 according to the embodiment includes a user information storage unit 121, a future event information storage unit 122, and a topic information storage unit 123. Further, the storage unit 120 stores not only the above but also various emotions necessary for providing the voice dialogue service. For example, the storage unit 120 stores a dialogue corpus or the like for performing a normal response other than future event information to the user's input. For example, when the dialogue system is used in a navigation system mounted on an automobile, information that can be acquired from the dialogue system itself (for example, a dialogue history with a user, a car navigation search history, etc.) may be stored.

(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「嗜好1」、「嗜好2」等といった項目が含まれる。
(User information storage unit 121)
The user information storage unit 121 according to the embodiment stores various information about the user. FIG. 4 is a diagram showing an example of a user information storage unit according to the embodiment. The user information storage unit 121 shown in FIG. 4 includes items such as "user ID", "preference 1", and "preference 2".

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「嗜好1」や「嗜好2」は、ユーザIDにより識別されるユーザが興味・関心のある対象を示す。例えば、ユーザが興味・関心のある対象は、対話システムが自動車に搭載されるナビゲーションシステムに用いられる場合、対話システム自身から取得できる情報(例えば、ユーザとの対話履歴やカーナビの検索履歴など)から推定されてもよい。 The "user ID" indicates identification information for identifying a user. For example, the user identified by the user ID "U1" corresponds to the user U1 shown in the example of FIG. Further, "preference 1" and "preference 2" indicate an object of interest to the user identified by the user ID. For example, when the dialogue system is used in a navigation system installed in a car, the target that the user is interested in is from the information that can be obtained from the dialogue system itself (for example, the dialogue history with the user, the search history of the car navigation system, etc.). It may be estimated.

例えば、図4に示す例において、ユーザID「U1」により識別されるユーザが興味・関心のある対象は、「スポーツ」や「車」であることを示す。また、例えば、例えば、図4に示す例において、ユーザID「U2」により識別されるユーザが興味・関心のある対象は、「グルメ」や「ファッション」であることを示す。 For example, in the example shown in FIG. 4, it is shown that the target of interest / interest of the user identified by the user ID "U1" is "sports" or "car". Further, for example, in the example shown in FIG. 4, it is shown that the target of interest / interest of the user identified by the user ID "U2" is "gourmet" or "fashion".

なお、ユーザ情報記憶部121は、ユーザ情報であれば、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、年齢、性別、居住地、家族構成、収入、勤務先等の情報を記憶してもよい。 The user information storage unit 121 is not limited to the above as long as it is user information, and various information may be stored depending on the purpose. For example, the user information storage unit 121 may store information such as name, age, gender, place of residence, family structure, income, and place of employment.

(未来イベント情報記憶部122)
実施形態に係る未来イベント情報記憶部122は、未来イベントに関する各種情報を記憶する。図5は、実施形態に係る未来イベント情報記憶部の一例を示す図である。例えば、図5では、未来イベント情報記憶部122に、各端末装置20から取得した利用情報に基づく未来イベントに関する情報が各ユーザに対応付けて記憶される場合を示す。図5に示す未来イベント情報記憶部122には、「ユーザID」、「未来イベント情報」、「抽出元情報」といった項目が含まれる。また、「未来イベント情報」には、「イベント名」、「ID」、「分類」、「日時」、「対象」といった項目が含まれる。
(Future event information storage unit 122)
The future event information storage unit 122 according to the embodiment stores various information related to the future event. FIG. 5 is a diagram showing an example of a future event information storage unit according to the embodiment. For example, FIG. 5 shows a case where the future event information storage unit 122 stores information about a future event based on the usage information acquired from each terminal device 20 in association with each user. The future event information storage unit 122 shown in FIG. 5 includes items such as "user ID", "future event information", and "extraction source information". Further, the "future event information" includes items such as "event name", "ID", "classification", "date and time", and "target".

「ユーザID」は、ユーザを識別するための識別情報を示す。「イベント名」は、未来イベントの名称を示す。「ID」は、未来イベントを識別するための識別情報を示す。「分類」は、未来イベントの分類を示す。「日時」は、未来イベントが行われる日時に関する情報を示す。「対象」は、未来イベントに関連する対象を示す。なお、「対象」は複数記憶されてもよい。「抽出元情報」は、未来イベントが抽出された情報を示す。 The "user ID" indicates identification information for identifying a user. "Event name" indicates the name of a future event. The "ID" indicates identification information for identifying a future event. "Classification" indicates the classification of future events. "Date and time" indicates information about the date and time when the future event will take place. "Target" indicates a target related to a future event. A plurality of "objects" may be stored. “Extract source information” indicates information from which future events have been extracted.

例えば、図5中の未来イベント情報記憶部122では、ID「IV11」により識別されるイベント名「ライブ」や、ID「IV12」により識別されるイベント名「サッカーの試合」(「未来イベントIV12」に対応)が、ユーザU1に対応付けて記憶される。 For example, in the future event information storage unit 122 in FIG. 5, the event name “live” identified by the ID “IV11” and the event name “soccer match” identified by the ID “IV12” (“future event IV12””. Corresponds to) is stored in association with the user U1.

また、図5に示す例では、ID「IV11」により識別されるイベント名「ライブ」は、分類が「音楽」であり、日時「20XX年2月28日17時」から行われることを示す。また、ID「IV11」により識別されるイベント名「ライブ」は、対象が「アーティストA」であり、抽出元となった情報がメールML11であることを示す。 Further, in the example shown in FIG. 5, the event name "live" identified by the ID "IV11" is classified as "music" and is performed from the date and time "February 28, 17:00, 20XX". Further, the event name "live" identified by the ID "IV11" indicates that the target is "artist A" and the information that is the extraction source is the mail ML11.

なお、未来イベント情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、未来イベント情報記憶部122は、未来イベントが行われるまでの残り時間に関する情報を記憶してもよい。また、例えば、未来イベント情報記憶部122に記憶された未来イベントは、現在時刻が日時を過ぎた場合には、削除されてもよい。 The future event information storage unit 122 is not limited to the above, and may store various information depending on the purpose. For example, the future event information storage unit 122 may store information regarding the remaining time until the future event is performed. Further, for example, the future event stored in the future event information storage unit 122 may be deleted when the current time has passed the date and time.

(話題情報記憶部123)
実施形態に係る話題情報記憶部123は、話題フォーマットの評価値(例えばCTR等)を算出するモデルに関する各種情報を記憶する。図6は、実施形態に係る話題情報記憶部の一例を示す図である。例えば、図6では、話題情報記憶部123に、各話題に対応付けて各キーワードのスコアが記憶される場合を示す。図6に示す話題情報記憶部123は、キーワードとして「天気」、「観光」、「旅行」、「サッカー」、「試合」といった項目が含まれる。
(Topic information storage unit 123)
The topic information storage unit 123 according to the embodiment stores various information related to the model for calculating the evaluation value (for example, CTR) of the topic format. FIG. 6 is a diagram showing an example of a topic information storage unit according to the embodiment. For example, FIG. 6 shows a case where the topic information storage unit 123 stores the score of each keyword in association with each topic. The topic information storage unit 123 shown in FIG. 6 includes items such as "weather", "sightseeing", "travel", "soccer", and "match" as keywords.

例えば、図6に示す例では、話題「スポーツ」は、キーワード「天気」のスコアが「0.1」であり、キーワード「観光」のスコアが「0」であり、キーワード「旅行」のスコアが「−0.2」であることを示す。また、例えば、話題「スポーツ」は、キーワード「サッカー」のスコアが「2.0」であり、キーワード「試合」のスコアが「1.0」であることを示す。 For example, in the example shown in FIG. 6, the topic "sports" has a keyword "weather" score of "0.1", a keyword "sightseeing" score of "0", and a keyword "travel" score. Indicates that it is "-0.2". Further, for example, the topic "sports" indicates that the score of the keyword "soccer" is "2.0" and the score of the keyword "match" is "1.0".

例えば、図6に示す例では、話題「旅行」は、キーワード「天気」のスコアが「0.5」であり、キーワード「観光」のスコアが「1.0」であり、キーワード「旅行」のスコアが「2.0」であることを示す。また、例えば、話題「旅行」は、キーワード「サッカー」のスコアが「−0.1」であり、キーワード「試合」のスコアが「0」であることを示す。 For example, in the example shown in FIG. 6, the topic "travel" has a keyword "weather" score of "0.5", a keyword "sightseeing" score of "1.0", and a keyword "travel". Indicates that the score is "2.0". Further, for example, the topic "travel" indicates that the score of the keyword "soccer" is "-0.1" and the score of the keyword "match" is "0".

なお、話題情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。 The topic information storage unit 123 is not limited to the above, and may store various information depending on the purpose.

(制御部130)
図3の説明に戻って、制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、応答生成サーバ100内部の記憶装置に記憶されている各種プログラム(配信プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 uses, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like to store various programs (delivery programs) stored in the storage device inside the response generation server 100. (Corresponding to one example) is realized by executing RAM as a work area. Further, the control unit 130 is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、取得部131と、要求生成部132と、変換部133と、抽出部134と、決定部135と、音声合成指示部136と、応答生成部137と、更新部138と、送信部139とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 includes an acquisition unit 131, a request generation unit 132, a conversion unit 133, an extraction unit 134, a determination unit 135, a voice synthesis instruction unit 136, and a response generation unit 137. It has an update unit 138 and a transmission unit 139, and realizes or executes the functions and operations of information processing described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be another connection relationship.

(取得部131)
取得部131は、対話システム以外のシステムからユーザに関する行動情報を取得する。例えば、取得部131は、対話決定システム1以外の外部システム5からユーザに関する行動情報を取得する。例えば、取得部131は、外部システム5からユーザの利用情報を取得する。例えば、取得部131は、コンテンツ配信サーバ51から利用情報を取得する。図1では、取得部131は、利用情報として、ユーザU1にコンテンツCT11を配信したことを示す情報を、コンテンツ配信サーバ51から取得する。また、取得部131は、端末装置20から入力情報IM11を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires behavioral information about the user from a system other than the dialogue system. For example, the acquisition unit 131 acquires behavioral information about the user from an external system 5 other than the dialogue determination system 1. For example, the acquisition unit 131 acquires user usage information from the external system 5. For example, the acquisition unit 131 acquires usage information from the content distribution server 51. In FIG. 1, the acquisition unit 131 acquires, as usage information, information indicating that the content CT11 has been distributed to the user U1 from the content distribution server 51. Further, the acquisition unit 131 acquires the input information IM 11 from the terminal device 20.

(要求生成部132)
要求生成部132は、外部システム5に情報を要求する。例えば、要求生成部132は、外部システム5にユーザの利用情報を応答生成サーバ100に送信するように要求する。また、例えば、要求生成部132は、応答の生成に必要なデータを外部装置が有している場合、データの検索条件を指定し、所定のAPI(Application Program Interface)サーバ(図示せず)に対してデータの要求を行ってもよい。例えば、APIサーバは、路線APIサーバや天気APIサーバやWeb検索APIサーバ等、種々のAPIサーバであってもよい。
(Request generation unit 132)
The request generation unit 132 requests information from the external system 5. For example, the request generation unit 132 requests the external system 5 to transmit the user's usage information to the response generation server 100. Further, for example, when the external device has the data necessary for generating the response, the request generation unit 132 specifies the data search condition and sends it to a predetermined API (Application Program Interface) server (not shown). Data may be requested for the data. For example, the API server may be various API servers such as a route API server, a weather API server, and a Web search API server.

(変換部133)
変換部133は、所定のAPIサーバからXML(Extensible Markup Language)データを受信すると、予め記憶されたフォーマットに従って、XMLデータからデータを抽出し、XMLデータをHTML(Hyper Text Markup Language)データに変換する。例えば、変換部133は、路線検索に関するXMLデータを受信すると、乗り換えに関するフォーマットに従って、XMLデータから駅名や乗車時間の情報を抽出し、XMLデータをHTMLデータに変換する。なお、応答生成サーバ100は、所定のAPIサーバからXMLデータを受信しない場合、変換部133を有しなくてもよい。
(Conversion unit 133)
When the conversion unit 133 receives the XML (Extensible Markup Language) data from the predetermined API server, the conversion unit 133 extracts the data from the XML data according to the format stored in advance and converts the XML data into HTML (Hyper Text Markup Language) data. .. For example, when the conversion unit 133 receives the XML data related to the route search, it extracts the station name and boarding time information from the XML data according to the format related to the transfer, and converts the XML data into HTML data. The response generation server 100 does not have to have the conversion unit 133 when it does not receive the XML data from the predetermined API server.

(抽出部134)
抽出部134は、取得部131により取得された利用情報に基づいて未来イベントを抽出する。例えば、抽出部134は、ユーザU1に配信されたコンテンツCT11に関する情報(記事の内容等)から、未来イベントを抽出する。図1の例では、抽出部134は、コンテンツCT11から、日時「20XX年2月29日19時」からイベント「サッカーの試合」が行われることを示す未来イベントに関する情報を抽出する。例えば、抽出部134は、固有表現抽出等の種々の従来技術を適宜用いて、未来イベント情報を抽出する。
(Extractor 134)
The extraction unit 134 extracts future events based on the usage information acquired by the acquisition unit 131. For example, the extraction unit 134 extracts future events from the information (contents of the article, etc.) about the content CT11 delivered to the user U1. In the example of FIG. 1, the extraction unit 134 extracts information about a future event indicating that the event “soccer match” will be performed from the date and time “February 29, 2019, 19:00” from the content CT11. For example, the extraction unit 134 extracts future event information by appropriately using various conventional techniques such as named entity extraction.

また、抽出部134は、ユーザの発話に基づいて入力された情報から話題を抽出する。例えば、抽出部134は、端末装置20から取得した入力情報IM11から話題を抽出する。例えば、抽出部134は、話題情報記憶部123に記憶された各話題に対応付けられたキーワードのスコアに基づいて、入力情報IM11から話題を抽出する。例えば、抽出部134は、話題ごとに対応付けられたキーワードのスコアを合算し、合算したスコアが最大の話題を入力情報IM11の話題として抽出する。図2では、抽出部134は、話題リストTL11に示すように、入力情報IM11から話題「スポーツ」を抽出する。 In addition, the extraction unit 134 extracts a topic from the information input based on the user's utterance. For example, the extraction unit 134 extracts a topic from the input information IM 11 acquired from the terminal device 20. For example, the extraction unit 134 extracts a topic from the input information IM 11 based on the score of the keyword associated with each topic stored in the topic information storage unit 123. For example, the extraction unit 134 adds up the scores of the keywords associated with each topic, and extracts the topic having the largest total score as the topic of the input information IM11. In FIG. 2, the extraction unit 134 extracts the topic “sports” from the input information IM11 as shown in the topic list TL11.

(決定部135)
決定部135は、取得部131により取得されたユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。例えば、決定部135は、取得部131により取得された利用情報に基づいて、対話決定システム1におけるユーザに対する出力を決定する。例えば、決定部135は、抽出部134により抽出された未来イベントに関する情報に基づいて、対話決定システム1におけるユーザに対する出力を決定する。
(Decision part 135)
The decision unit 135 determines the output to the user in the dialogue system based on the action information about the user acquired by the acquisition unit 131. For example, the determination unit 135 determines the output to the user in the dialogue determination system 1 based on the usage information acquired by the acquisition unit 131. For example, the determination unit 135 determines the output to the user in the dialogue determination system 1 based on the information about the future event extracted by the extraction unit 134.

決定部135は、ユーザに関する行動情報に基づいてユーザが関心を示すと推定される未来のイベントに関する情報を、対話システムにおける出力として決定する。また、決定部135は、未来のイベントに関する情報が出力されたユーザの対話システムにおける応答に関する情報に基づいて、対話システムにおける前記ユーザに対する出力を決定してもよい。また、決定部135は、応答に関する情報を用いた学習により生成されるモデルに基づいて、対話システムにおけるユーザに対する出力を決定してもよい。 The decision unit 135 determines the information about the future event that the user is presumed to be interested in based on the behavior information about the user as the output in the dialogue system. Further, the determination unit 135 may determine the output to the user in the dialogue system based on the information about the response in the dialogue system of the user to which the information about the future event is output. In addition, the determination unit 135 may determine the output to the user in the dialogue system based on the model generated by learning using the information about the response.

決定部135は、ユーザに対する出力として、ユーザの入力に対応する文字情報(文字列)に応答する文字情報(文字列)である応答文字情報を決定する。例えば、決定部135は、入力情報IM11に対応する文字情報に応答する応答文字情報を含む通常情報NM11を決定する。決定部135は、対話システムにおけるユーザの入力が回答を求める情報であった場合、ユーザに対する出力として、応答文字情報に続けて出力される文字情報であって、応答文字情報に関連する未来のイベントに関する文字情報を決定する。例えば、決定部135は、入力情報IM11が回答を求める情報であるため、通常情報NM11に含まれる応答文字情報に関連する未来のイベントに関する文字情報であって、通常情報NM11に続けて出力される未来イベントIV12と関する未来情報FM11を決定する。 The determination unit 135 determines the response character information, which is the character information (character string) that responds to the character information (character string) corresponding to the user's input, as an output to the user. For example, the determination unit 135 determines the normal information NM 11 including the response character information corresponding to the character information corresponding to the input information IM 11. When the input of the user in the dialogue system is the information for which the answer is requested, the determination unit 135 is the character information output following the response character information as the output to the user, and is a future event related to the response character information. Determine the textual information about. For example, since the input information IM11 is the information for which the input information IM11 requests a reply, the determination unit 135 is the character information about the future event related to the response character information included in the normal information NM11, and is output after the normal information NM11. Determine future information FM11 related to future event IV12.

図2では、決定部135は、話題リストTL11と、入力情報IM11を送信したユーザU1や日時を示す関連情報IN11とに基づいて、出力する未来イベントに関する情報を決定する。例えば、決定部135は、未来イベント情報記憶部122−2中のユーザU1に対応し分類が「スポーツ」であって、「20XX年2月27日17時」から所定の期間内の未来に行われる未来イベントに関する情報を出力する未来イベントに関する情報として決定する。例えば、決定部135は、「20XX年2月27日17時」から1週間以内に行われる未来イベントに関する情報を出力する未来イベントに関する情報として決定する。例えば、決定部135は、未来イベントIV12を出力する未来イベントに関する情報として決定する。 In FIG. 2, the determination unit 135 determines the information regarding the future event to be output based on the topic list TL11, the user U1 who transmitted the input information IM11, and the related information IN11 indicating the date and time. For example, the determination unit 135 corresponds to the user U1 in the future event information storage unit 122-2 and has a classification of "sports", and goes to the future within a predetermined period from "February 27, 20XX 17:00". Output information about future events to be reported Determined as information about future events. For example, the determination unit 135 determines as information on a future event that outputs information on a future event to be performed within one week from "17:00 on February 27, 20XX". For example, the determination unit 135 determines as information about a future event that outputs the future event IV12.

そして、決定部135は、通常の処理により決定される入力情報IM11に対応する応答に関する情報と、未来イベントIV12とに基づいて出力を決定する。例えば、決定部135は、通常の処理により、「20XX年2月27日」の前日である「20XX年2月26日」に行われたサッカーの試合結果を示す情報を種々のニュース等に関する情報記憶する記憶部から取得して、入力情報IM11に対応する応答を決定する。また、決定部135は、入力情報IM11に対応する応答に関する通常情報NM11と、未来イベントIV12と関する未来情報FM11とを含む出力情報OM11を端末装置20に出力する出力として決定する。 Then, the determination unit 135 determines the output based on the information regarding the response corresponding to the input information IM11 determined by the normal processing and the future event IV12. For example, the determination unit 135 provides information indicating the result of a soccer match held on "February 26, 20XX", which is the day before "February 27, 20XX", by normal processing, and information on various news items. Acquired from the storage unit to be stored, the response corresponding to the input information IM 11 is determined. Further, the determination unit 135 determines as an output to output the output information OM11 including the normal information NM11 regarding the response corresponding to the input information IM11 and the future information FM11 related to the future event IV12 to the terminal device 20.

例えば、決定部135は、ユーザの発話(入力情報)が「明日の天気は?」であり、ユーザに対応する未来イベントにユーザの発話時点の翌日が日時である旅行が含まれる場合、入力情報に対応する応答に関する通常情報「晴れです。」や未来イベントと関する未来情報「明日から旅行ですね。帰ってきたら感想を聞かせてください。」をユーザに対する出力情報として決定する。また、例えば、決定部135は、ユーザの発話(入力情報)が「好きな食べ物は?」であり、ユーザに対応する未来イベントにユーザの発話時点の翌日が日時であるチョコレートの祭典が含まれる場合、入力情報に対応する応答に関する通常情報「(チョコレート名)XXXです。」や未来イベントと関する未来情報「明日はチョコレートの祭典がありますね。行ったら感想を聞かせてください。」をユーザに対する出力情報として決定する。 For example, in the determination unit 135, when the user's utterance (input information) is "What is the weather tomorrow?" And the future event corresponding to the user includes a trip whose date and time is the day after the user's utterance, the input information The normal information about the response corresponding to "It's sunny" and the future information about the future event "It's a trip from tomorrow. Please tell us your impressions when you come back." Are decided as output information for the user. Further, for example, in the determination unit 135, the user's utterance (input information) is "What is your favorite food?", And the future event corresponding to the user includes a chocolate festival whose date and time is the day after the user's utterance. In the case, output to the user the normal information "(Chocolate name) XXX" about the response corresponding to the input information and the future information "There will be a chocolate festival tomorrow. Please tell us your impressions when you go." Determined as information.

例えば、図2では、決定部135は、取得部131により、20XX年2月27日17時に「昨日のサッカーの試合結果を教えて。」という内容の入力情報IM11が取得された場合、サッカーの試合結果を示す情報を種々のニュース等に関する情報を記憶する記憶部から取得して、入力情報IM11に対応する応答を決定する。例えば、決定部135は、取得部131により外部システム5から取得されたユーザU1がX国の試合情報に関するニュースを閲覧したことを示す情報に基づいて、Y国やZ国の試合結果でなくX国の結果を入力情報IM11に対応する応答として決定する。 For example, in FIG. 2, when the acquisition unit 131 acquires the input information IM11 having the content "Tell me the result of yesterday's soccer match" at 17:00 on February 27, 20XX, the determination unit 135 of the soccer Information indicating the match result is acquired from a storage unit that stores information related to various news and the like, and a response corresponding to the input information IM 11 is determined. For example, the determination unit 135 is based on the information indicating that the user U1 acquired from the external system 5 by the acquisition unit 131 has viewed the news regarding the match information of the X country, and is not the match result of the Y country or the Z country, but the X. The country result is determined as the response corresponding to the input information IM11.

また、例えば、決定部135は、取得部131により、「昨日のXXXの結果は?」という内容の入力情報が取得された場合、人名であるXXXの試合結果を示す情報を種々のニュース等に関する情報を記憶する記憶部から取得して、応答を決定する。例えば、昨日(例えば、2016年2月25日)に試合等の結果が生じる行動を行ったXXXという名前に対応する人が複数いる場合、決定部135は、外部システム5から取得されたユーザのコンテンツ等の閲覧に関する情報に基づいて、いずれのXXXの結果を応答するかを決定する。例えば、決定部135は、取得部131により外部システム5からユーザがスケート選手のXXXのニュースを閲覧したことを示す情報が取得された場合、他のXXXの結果ではなくスケート選手のXXXの結果を応答として決定する。 Further, for example, when the acquisition unit 131 acquires the input information of the content "What was the result of yesterday's XXX?", The determination unit 135 provides information indicating the match result of the person's name XXX regarding various news and the like. The response is determined by acquiring the information from the storage unit that stores the information. For example, if there are a plurality of people corresponding to the name XXX who performed an action such as a match yesterday (for example, February 25, 2016), the determination unit 135 is a user acquired from the external system 5. Which XXX result is to be responded to is determined based on the information regarding browsing of the content or the like. For example, when the acquisition unit 131 acquires information indicating that the user has viewed the skateboarder's XXX news from the external system 5, the determination unit 135 obtains the skateboarder's XXX result instead of the other XXX results. Determined as a response.

また、例えば、決定部135は、取得部131により、「何か面白いイベントない?」という内容の入力情報が取得された場合、ユーザが閲覧したコンテンツに関する情報に基づいて、応答を決定する。例えば、決定部135は、取得部131により外部システム5からユーザがチョコレートの祭典に関するニュースを閲覧していたことを示す情報が取得された場合、X月Y日に開催されるチョコレートの祭典に関する未来イベント情報を応答として決定する。 Further, for example, when the acquisition unit 131 acquires the input information of the content "is there any interesting event?", The determination unit 135 determines the response based on the information regarding the content viewed by the user. For example, the decision unit 135 may obtain information from the external system 5 indicating that the user has been viewing news about the chocolate festival by the acquisition unit 131, and the future regarding the chocolate festival to be held on X / Y. Determine the event information as a response.

これにより、決定部135は、ユーザの興味・関心にあったイベント情報を応答として決定することができる。このように、決定部135は、未来のイベント情報に基づいて、よりユーザの興味・関心にあった適切な応答を決定することが可能となる。 As a result, the determination unit 135 can determine the event information that is of interest to the user as a response. In this way, the determination unit 135 can determine an appropriate response that is more in line with the user's interests and interests, based on future event information.

(音声合成指示部136)
音声合成指示部136は、応答発話用のテキストデータを音声合成サーバ40に送信する。音声合成指示部136は、テキストデータを音声合成サーバ40に送信することにより、音声合成サーバ40に応答発話用のテキストデータから音声を合成する音声合成処理を行わせ、応答発話用の中間表記を生成させる。
(Speech synthesis instruction unit 136)
The voice synthesis instruction unit 136 transmits the text data for response utterance to the voice synthesis server 40. The voice synthesis instruction unit 136 causes the voice synthesis server 40 to perform a voice synthesis process for synthesizing a voice from the text data for the response utterance by transmitting the text data to the voice synthesis server 40, and performs an intermediate notation for the response utterance. Generate.

(応答生成部137)
応答生成部137は、応答発話用の中間表記と応答発話用のテキストデータとHTMLデータとに基づいて出力情報を生成する。なお、応答生成部137は、端末装置20へ送信する情報が応答発話用の中間表記のみである場合、応答発話用の中間表記を出力情報としてもよい。また、応答生成サーバ100は、端末装置20へ送信する情報が応答発話用の中間表記のみである場合、応答生成部137を有しなくてもよい。
(Response generation unit 137)
The response generation unit 137 generates output information based on the intermediate notation for response utterance, the text data for response utterance, and HTML data. When the information transmitted to the terminal device 20 is only the intermediate notation for response utterance, the response generation unit 137 may use the intermediate notation for response utterance as output information. Further, the response generation server 100 does not have to have the response generation unit 137 when the information to be transmitted to the terminal device 20 is only the intermediate notation for response utterance.

(更新部138)
更新部138は、ユーザに関する行動情報に基づいてユーザが関心を示すと推定される未来のイベントに関する情報により、記憶部120に記憶されたユーザの嗜好に関する情報を更新する。例えば、更新部138は、取得部131により取得されたユーザの利用情報に基づいて、ユーザ情報記憶部121に記憶されたユーザの嗜好(興味・関心)に関する情報を更新する。例えば、更新部138は、分類が「スポーツ」である未来イベントIV12を未来イベント情報記憶部122に記憶する際に、ユーザ情報記憶部121にユーザU1の嗜好(興味・関心)に関する情報として「スポーツ」を記憶してもよい。例えば、更新部138は、ユーザU1の利用情報に基づく未来イベントIV12に関する情報により、ユーザ情報記憶部121に記憶されたユーザU1の嗜好に関する情報を更新してもよい。
(Update part 138)
The update unit 138 updates the information about the user's preference stored in the storage unit 120 with the information about the future event that the user is presumed to be interested in based on the behavior information about the user. For example, the update unit 138 updates the information regarding the user's preference (interest / interest) stored in the user information storage unit 121 based on the user's usage information acquired by the acquisition unit 131. For example, when the update unit 138 stores the future event IV12 whose classification is "sports" in the future event information storage unit 122, the update unit 138 stores the user information storage unit 121 as information regarding the preference (interest / interest) of the user U1. May be memorized. For example, the update unit 138 may update the information regarding the preference of the user U1 stored in the user information storage unit 121 by the information regarding the future event IV12 based on the usage information of the user U1.

また、更新部138は、取得部131により取得されたユーザの利用情報に基づいて、未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。例えば、更新部138は、未来イベントが抽出された後、未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。例えば、更新部138は、抽出部134により抽出された未来イベントにより、未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。 In addition, the update unit 138 updates the information about the future event stored in the future event information storage unit 122 based on the user's usage information acquired by the acquisition unit 131. For example, the update unit 138 updates the information about the future event stored in the future event information storage unit 122 after the future event is extracted. For example, the update unit 138 updates the information about the future event stored in the future event information storage unit 122 by the future event extracted by the extraction unit 134.

(送信部139)
送信部139は、各種情報を外部装置へ送信する。例えば、送信部139は、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータを端末装置20へ送信する。図2では、送信部139は、出力情報OM11を端末装置20へ送信する。また、例えば、送信部139は、出力情報OM11に関する応答発話用の中間表記を端末装置20へ送信してもよい。
(Transmission unit 139)
The transmission unit 139 transmits various information to the external device. For example, the transmission unit 139 transmits the intermediate notation for the response utterance, the text data for the response utterance display, and the HTML data to the terminal device 20. In FIG. 2, the transmission unit 139 transmits the output information OM 11 to the terminal device 20. Further, for example, the transmission unit 139 may transmit an intermediate notation for response utterance regarding the output information OM 11 to the terminal device 20.

〔3.端末装置の構成〕
次に、図7を用いて、実施形態に係る端末装置20の構成について説明する。図7は、実施形態に係る端末装置の構成例を示す図である。図7に示すように、端末装置20は、通信部21と、マイク22と、スピーカ23と、表示部24と、アプリ25と、メモリ26とを有する。
[3. Terminal device configuration]
Next, the configuration of the terminal device 20 according to the embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram showing a configuration example of the terminal device according to the embodiment. As shown in FIG. 7, the terminal device 20 includes a communication unit 21, a microphone 22, a speaker 23, a display unit 24, an application 25, and a memory 26.

通信部21は、所定のネットワークを介して応答生成サーバ100や音声認識サーバ30との間で各種データを送受信する。通信部21は、例えば、携帯端末やスマートフォンの場合には、アンテナや通信制御を行う電子回路等である。例えば、端末装置20がノート型PCやデスクトップ型PCである場合には、NIC等に該当する。通信部21は、例えば、端末装置20がタブレット型PCである場合には、アンテナや通信制御を行う電子回路等である。 The communication unit 21 transmits and receives various data to and from the response generation server 100 and the voice recognition server 30 via a predetermined network. The communication unit 21 is, for example, an antenna or an electronic circuit that controls communication in the case of a mobile terminal or a smartphone. For example, when the terminal device 20 is a notebook PC or a desktop PC, it corresponds to NIC or the like. The communication unit 21 is, for example, an antenna, an electronic circuit that controls communication, or the like when the terminal device 20 is a tablet PC.

マイク22は、端末装置20を利用するユーザが発話した音声入力を受け付ける入力デバイスである。スピーカ23は、端末装置20のユーザが発話した音声入力に対する応答音声を出力する出力デバイスである。また、表示部24は、各種情報を表示する表示デバイスであり、例えばタッチパネルや液晶ディスプレイ等である。表示部24は、例えば、応答発話表示用のテキストデータや発話意図に応じてHTMLデータ等を表示する。 The microphone 22 is an input device that receives voice input spoken by a user who uses the terminal device 20. The speaker 23 is an output device that outputs a response voice to a voice input spoken by the user of the terminal device 20. The display unit 24 is a display device that displays various types of information, such as a touch panel and a liquid crystal display. The display unit 24 displays, for example, text data for displaying a response utterance, HTML data according to the utterance intention, and the like.

アプリ25は、ユーザが発話した音声入力を受け付けると、音声データを音声認識サーバ30に送信し、音声認識サーバ30から発話のテキストデータを受信する。また、アプリ25は、発話のテキストデータや過去の発話情報を応答生成サーバ100に送信し、応答生成サーバ100からHTML等の言語で記述されたデータ、応答発話用の中間表記および応答発話表示用のテキストデータなどを受信する。また、アプリ25は、端末装置20を利用するユーザが発話した音声入力に対する応答音声を出力したり、HTML等の言語で記述されたデータを表示したりする。アプリ25は、CPUやMPU等により実現され、音声データ送信部25a、テキストデータ受信部25b、テキストデータ送信部25c、HTMLデータ受信部25d、表示制御部25eによる処理を実現する。 When the application 25 receives the voice input spoken by the user, the application 25 transmits the voice data to the voice recognition server 30 and receives the text data of the utterance from the voice recognition server 30. Further, the application 25 transmits utterance text data and past utterance information to the response generation server 100, and the response generation server 100 transmits data described in a language such as HTML, an intermediate notation for response utterance, and a response utterance display. Receive text data etc. In addition, the application 25 outputs a response voice to a voice input spoken by a user who uses the terminal device 20, and displays data described in a language such as HTML. The application 25 is realized by a CPU, an MPU, or the like, and realizes processing by a voice data transmission unit 25a, a text data reception unit 25b, a text data transmission unit 25c, an HTML data reception unit 25d, and a display control unit 25e.

メモリ26は、履歴記憶部26aおよび位置情報記憶部26bを有する。メモリ26は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子等の記憶装置である。履歴記憶部26aは、発話のテキストデータとともに送信される、過去の発話に関する履歴情報を記憶する。位置情報記憶部26bは、例えば、発話のテキストデータとともに送信される、端末装置20の現在位置を示す位置情報を記憶する。なお、メモリ26は、履歴情報や位置情報のほかに、ユーザの自宅の住所などの個人情報を記憶していてもよい。これらの情報は、位置情報と同様に、発話のテキストデータとともに応答生成サーバ100に送信してもよい。 The memory 26 has a history storage unit 26a and a position information storage unit 26b. The memory 26 is, for example, a storage device such as a semiconductor memory element such as a RAM or a flash memory. The history storage unit 26a stores the history information related to the past utterances, which is transmitted together with the text data of the utterances. The position information storage unit 26b stores, for example, the position information indicating the current position of the terminal device 20, which is transmitted together with the text data of the utterance. The memory 26 may store personal information such as the user's home address in addition to the history information and the location information. Such information may be transmitted to the response generation server 100 together with the text data of the utterance as well as the position information.

なお、端末装置20が有する各処理部は、以下に説明する情報処理の機能や作用を実現又は実行する。 Each processing unit of the terminal device 20 realizes or executes the functions and operations of information processing described below.

〔4.決定処理のフロー〕
次に、図8及び図9を用いて、実施形態に係る対話決定システム1による決定処理の手順について説明する。図8は、実施形態に係る決定処理の一例を示すフローチャートである。具体的には、図8は、実施形態に係る決定処理における未来イベントに関する情報の更新の一例を示すフローチャートである。また、図9は、実施形態に係る決定処理の一例を示すフローチャートである。具体的には、図9は、実施形態に係る決定処理における未来イベント決定の一例を示すフローチャートである。
[4. Decision processing flow]
Next, the procedure of the determination process by the dialogue determination system 1 according to the embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a flowchart showing an example of the determination process according to the embodiment. Specifically, FIG. 8 is a flowchart showing an example of updating information regarding a future event in the determination process according to the embodiment. Further, FIG. 9 is a flowchart showing an example of the determination process according to the embodiment. Specifically, FIG. 9 is a flowchart showing an example of future event determination in the determination process according to the embodiment.

〔4−1.未来イベント情報の記憶〕
図8に示すように、応答生成サーバ100は、ユーザの利用情報を取得する(ステップS101)。その後、応答生成サーバ100は、ステップS101において取得したユーザの利用情報からイベント名を抽出する(ステップS102)。
[4-1. Memory of future event information]
As shown in FIG. 8, the response generation server 100 acquires the user's usage information (step S101). After that, the response generation server 100 extracts the event name from the user usage information acquired in step S101 (step S102).

そして、ステップS102において利用情報からイベント名を抽出できた場合(ステップS103:Yes)、応答生成サーバ100は、利用情報から日時を抽出する(ステップS104)。一方、ステップS102において利用情報からイベント名を抽出できなかった場合(ステップS103:No)、応答生成サーバ100は、処理を終了する。 Then, when the event name can be extracted from the usage information in step S102 (step S103: Yes), the response generation server 100 extracts the date and time from the usage information (step S104). On the other hand, if the event name cannot be extracted from the usage information in step S102 (step S103: No), the response generation server 100 ends the process.

また、ステップS104において利用情報から日時を抽出できた場合(ステップS105:Yes)、応答生成サーバ100は、ステップS104において利用情報から抽出された日時が未来の日時かを判定する(ステップS106)。一方、ステップS104において利用情報から日時を抽出できなかった場合(ステップS105:No)、応答生成サーバ100は、処理を終了する。 If the date and time can be extracted from the usage information in step S104 (step S105: Yes), the response generation server 100 determines whether the date and time extracted from the usage information in step S104 is a future date and time (step S106). On the other hand, if the date and time cannot be extracted from the usage information in step S104 (step S105: No), the response generation server 100 ends the process.

そして、ステップS104において利用情報から抽出された日時が未来の日時である場合(ステップS106:Yes)、応答生成サーバ100は、利用情報から話題を抽出する(ステップS107)。その後、一方、応答生成サーバ100は、抽出した未来イベント情報を記憶する(ステップS108)。例えば、応答生成サーバ100は、抽出したイベント名や日時や話題等を含む未来イベント情報を未来イベント情報記憶部122に記憶する。一方、ステップS104において利用情報から抽出された日時が未来の日時ではなかった場合(ステップS106:No)、応答生成サーバ100は、処理を終了する。 Then, when the date and time extracted from the usage information in step S104 is a future date and time (step S106: Yes), the response generation server 100 extracts a topic from the usage information (step S107). After that, on the other hand, the response generation server 100 stores the extracted future event information (step S108). For example, the response generation server 100 stores future event information including the extracted event name, date and time, topic, etc. in the future event information storage unit 122. On the other hand, if the date and time extracted from the usage information in step S104 is not a future date and time (step S106: No), the response generation server 100 ends the process.

〔4−2.未来イベント情報の決定〕
また、図9に示すように、応答生成サーバ100は、ユーザの音声入力を取得する(ステップS201)。その後、応答生成サーバ100は、ステップS201において入力された情報から話題を抽出する(ステップS202)。
[4-2. Determination of future event information]
Further, as shown in FIG. 9, the response generation server 100 acquires the voice input of the user (step S201). After that, the response generation server 100 extracts a topic from the information input in step S201 (step S202).

そして、応答生成サーバ100は、ステップS202において抽出した話題に対応する未来イベント情報が存在するかを判定する(ステップS203)。 Then, the response generation server 100 determines whether or not future event information corresponding to the topic extracted in step S202 exists (step S203).

ステップS202において抽出した話題に対応する未来イベント情報が存在する場合(ステップS203:Yes)、応答生成サーバ100は、未来イベント情報に含まれるイベントの日時が現在時刻から所定の期間内かを判定する(ステップS204)。 When the future event information corresponding to the topic extracted in step S202 exists (step S203: Yes), the response generation server 100 determines whether the date and time of the event included in the future event information is within a predetermined period from the current time. (Step S204).

未来イベント情報に含まれるイベントの日時が現在時刻から所定の期間内である場合(ステップS204:Yes)、応答生成サーバ100は、未来イベント情報に関する対話を行う(ステップS205)。 When the date and time of the event included in the future event information is within a predetermined period from the current time (step S204: Yes), the response generation server 100 engages in a dialogue regarding the future event information (step S205).

一方、ステップS202において抽出した話題に対応する未来イベント情報が存在しない場合(ステップS203:No)、応答生成サーバ100は、通常の対話を行う(ステップS206)。また、未来イベント情報に含まれるイベントの日時が現在時刻から所定の期間内でない場合(ステップS204:No)、応答生成サーバ100は、通常の対話を行う(ステップS206)。 On the other hand, when the future event information corresponding to the topic extracted in step S202 does not exist (step S203: No), the response generation server 100 performs a normal dialogue (step S206). If the date and time of the event included in the future event information is not within a predetermined period from the current time (step S204: No), the response generation server 100 performs a normal dialogue (step S206).

〔5.決定処理の流れ〕
次に、図10を用いて、対話決定システム1における決定処理の流れを示す。図10は、実施形態に係る決定処理の一例を示すシーケンス図である。
[5. Flow of decision processing]
Next, with reference to FIG. 10, the flow of the determination process in the dialogue determination system 1 is shown. FIG. 10 is a sequence diagram showing an example of the determination process according to the embodiment.

図10に例示するように、端末装置20は、アプリケーションの起動指示を受け付けると、対話アプリを起動する(ステップS51)。そして、端末装置20の音声データ送信部25aは、ユーザの発話を検知すると、発話の音声データをsocket通信により音声認識サーバ30へ送信する(ステップS52)。図2の例では、端末装置20は、「昨日のサッカーの試合結果を教えて。」というユーザU1の発話の音声データ(音声情報)を音声認識サーバ30へ送信する。 As illustrated in FIG. 10, when the terminal device 20 receives the application start instruction, it starts the dialogue application (step S51). Then, when the voice data transmission unit 25a of the terminal device 20 detects the user's utterance, the voice data of the utterance is transmitted to the voice recognition server 30 by socket communication (step S52). In the example of FIG. 2, the terminal device 20 transmits the voice data (voice information) of the utterance of the user U1 "Tell me the result of the soccer match yesterday" to the voice recognition server 30.

そして、音声認識サーバ30は、発話の音声データを受信すると、音声データをテキストデータに変換する(ステップS53)。図2の例では、音声認識サーバ30は、端末装置20から受信した「昨日のサッカーの試合結果を教えて。」というユーザU1の発話の音声データをテキストデータ(例えば、入力情報IM11)に変換する。そして、音声認識サーバ30は、変換した発話のテキストデータを端末装置20に送信する(ステップS54)。図2の例では、音声認識サーバ30は、変換した発話のテキストデータとして入力情報IM11を端末装置20に送信する。 Then, when the voice recognition server 30 receives the voice data of the utterance, the voice recognition server 30 converts the voice data into text data (step S53). In the example of FIG. 2, the voice recognition server 30 converts the voice data of the user U1's utterance "Tell me the result of yesterday's soccer match" received from the terminal device 20 into text data (for example, input information IM11). To do. Then, the voice recognition server 30 transmits the converted text data of the utterance to the terminal device 20 (step S54). In the example of FIG. 2, the voice recognition server 30 transmits the input information IM 11 to the terminal device 20 as the text data of the converted utterance.

続いて、端末装置20は、音声認識サーバ30から発話のテキストデータを受信すると、発話のテキストデータを応答生成サーバ100に送信する(ステップS55)。図2の例では、端末装置20は、音声認識サーバ30から発話のテキストデータとして入力情報IM11を受信すると、入力情報IM11を応答生成サーバ100に送信する。 Subsequently, when the terminal device 20 receives the utterance text data from the voice recognition server 30, the terminal device 20 transmits the utterance text data to the response generation server 100 (step S55). In the example of FIG. 2, when the terminal device 20 receives the input information IM 11 as the text data of the utterance from the voice recognition server 30, the terminal device 20 transmits the input information IM 11 to the response generation server 100.

続いて、応答生成サーバ100は、発話のテキストデータを取得すると、テキストデータに対応する出力を決定する決定処理を行う(ステップS56)。図2の例では、応答生成サーバ100は、発話のテキストデータとして入力情報IM11を取得すると、入力情報IM11に対応する通常情報NM11や未来情報FM11を含む出力情報OM11を決定する。 Subsequently, when the response generation server 100 acquires the text data of the utterance, the response generation server 100 performs a determination process of determining the output corresponding to the text data (step S56). In the example of FIG. 2, when the response generation server 100 acquires the input information IM11 as the text data of the utterance, the response generation server 100 determines the output information OM11 including the normal information NM11 and the future information FM11 corresponding to the input information IM11.

また、応答生成サーバ100は、応答発話用のテキストデータを音声合成サーバ40に送信する(ステップS57)。図2の例では、応答生成サーバ100は、応答発話用のテキストデータとして出力情報OM11を音声合成サーバ40に送信する。そして、音声合成サーバ40は、応答発話用のテキストデータから音声を合成する音声合成処理を行って、応答発話用の中間表記を生成する(ステップS58)。図2の例では、応答生成サーバ100は、出力情報OM11から音声を合成する音声合成処理を行って、応答発話用の中間表記を生成する。そして、音声合成サーバ40は、応答発話用の中間表記を応答生成サーバ100に送信する(ステップS59)。図2の例では、音声合成サーバ40は、出力情報OM11から生成した応答発話用の中間表記を応答生成サーバ100に送信する。 Further, the response generation server 100 transmits the text data for response utterance to the voice synthesis server 40 (step S57). In the example of FIG. 2, the response generation server 100 transmits the output information OM11 as text data for response utterance to the speech synthesis server 40. Then, the voice synthesis server 40 performs a voice synthesis process for synthesizing voice from the text data for response utterance to generate an intermediate notation for response utterance (step S58). In the example of FIG. 2, the response generation server 100 performs a voice synthesis process for synthesizing voice from the output information OM11 to generate an intermediate notation for response utterance. Then, the voice synthesis server 40 transmits the intermediate notation for response utterance to the response generation server 100 (step S59). In the example of FIG. 2, the speech synthesis server 40 transmits the intermediate notation for response utterance generated from the output information OM 11 to the response generation server 100.

続いて、応答生成サーバ100は、応答発話用の中間表記を端末装置20に送信する(ステップS60)。図2の例では、応答生成サーバ100は、出力情報OM11から生成された応答発話用の中間表記を端末装置20に送信する。なお、応答生成サーバ100は、端末装置20が出力情報OM11により音声の出力が可能である場合、出力情報OM11を端末装置20に送信してもよい。 Subsequently, the response generation server 100 transmits the intermediate notation for response utterance to the terminal device 20 (step S60). In the example of FIG. 2, the response generation server 100 transmits the intermediate notation for response utterance generated from the output information OM 11 to the terminal device 20. The response generation server 100 may transmit the output information OM 11 to the terminal device 20 when the terminal device 20 can output voice by the output information OM 11.

そして、端末装置20は、受信した応答発話用の中間表記等を解析し、ユーザへの出力を決定する(ステップS61)。続いて、端末装置20は、応答発話用の中間表記を用いて、応答の音声を出力する(ステップS62)。図2の例では、端末装置20は、出力情報OM11から生成された応答発話用の中間表記を用いて、通常情報NM11や未来情報FM11を含む応答(出力情報OM11)の音声を出力する。なお、端末装置20は、出力情報OM11により音声の出力が可能である場合、出力情報OM11を用いて、通常情報NM11や未来情報FM11を含む応答(出力情報OM11)の音声を出力してもよい。 Then, the terminal device 20 analyzes the received intermediate notation for response utterance and the like, and determines the output to the user (step S61). Subsequently, the terminal device 20 outputs the response voice using the intermediate notation for response utterance (step S62). In the example of FIG. 2, the terminal device 20 outputs the voice of the response (output information OM11) including the normal information NM11 and the future information FM11 by using the intermediate notation for response utterance generated from the output information OM11. When the terminal device 20 can output the voice by the output information OM11, the terminal device 20 may output the voice of the response (output information OM11) including the normal information NM11 and the future information FM11 by using the output information OM11. ..

〔6.効果〕
上述してきたように、実施形態に係る対話決定システム1は、取得部131と、決定部135とを有する。取得部131は、対話システム(実施形態においては、「対話決定システム1」。以下同じ)以外のシステム(実施形態においては、「外部システム5」。以下同じ)からユーザに関する行動情報(実施形態においては、「利用情報」。以下同じ)を取得する。また、決定部135は、取得部131により取得されたユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。
[6. effect〕
As described above, the dialogue determination system 1 according to the embodiment has an acquisition unit 131 and a determination unit 135. The acquisition unit 131 provides behavioral information (in the embodiment) regarding the user from a system (“external system 5”; the same applies hereinafter in the embodiment) other than the dialogue system (“dialogue determination system 1” in the embodiment; the same applies hereinafter). Acquires "usage information". The same shall apply hereinafter). Further, the determination unit 135 determines the output to the user in the dialogue system based on the action information about the user acquired by the acquisition unit 131.

これにより、実施形態に係る対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。これにより、対話決定システム1は、ユーザの発話の意図を総合的に判断して出力を決定することができる。したがって、対話決定システム1は、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue determination system 1 according to the embodiment determines the output to the user in the dialogue system based on the behavior information about the user acquired from the external system 5 other than the dialogue determination system 1. As a result, the dialogue determination system 1 can comprehensively determine the intention of the user's utterance and determine the output. Therefore, the dialogue determination system 1 can appropriately determine the output in the dialogue system.

また、実施形態に係る対話決定システム1において、決定部135は、ユーザに関する行動情報に基づいてユーザが関心を示すと推定される未来のイベントに関する情報を、対話システムにおける出力として決定する。 Further, in the dialogue determination system 1 according to the embodiment, the determination unit 135 determines information on a future event that the user is presumed to be interested in based on the behavior information about the user as an output in the dialogue system.

これにより、実施形態に係る対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報から未来のイベントに関する情報を抽出し、抽出した未来のイベントに関する情報を対話システムにおける出力として決定する。これにより、対話決定システム1は、各ユーザが関心を示す可能性の高い未来イベントに関する情報を、ユーザに対して出力することができる。したがって、対話決定システム1は、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue decision system 1 according to the embodiment extracts information about future events from the behavior information about users acquired from the external system 5 other than the dialogue decision system 1, and extracts the extracted information about future events in the dialogue system. Determined as output. As a result, the dialogue decision system 1 can output information about future events that each user is likely to be interested in to the user. Therefore, the dialogue determination system 1 can appropriately determine the output in the dialogue system.

また、実施形態に係る対話決定システム1において、決定部135は、未来のイベントが開始される日時がユーザに対して出力を行う日時から未来に向かって所定期間内である場合、未来のイベントに関する情報を、対話システムにおける出力として決定する。 Further, in the dialogue determination system 1 according to the embodiment, when the date and time when the future event starts is within a predetermined period from the date and time when the output is performed to the user to the future, the determination unit 135 relates to the future event. The information is determined as output in the dialogue system.

これにより、実施形態に係る対話決定システム1は、未来のイベントが開始される日時がユーザに対して出力を行う日時から未来に向かって所定期間内である場合、未来のイベントに関する情報を対話システムにおける出力として決定する。例えば、対話決定システム1は、未来のイベントが開始される日時がユーザに対して出力を行う日時に近い未来のイベントに関する情報を、対話システムにおける出力として決定する。そのため、対話決定システム1は、各ユーザが関心を示す可能性の高い未来イベントに関する情報を、ユーザに対して出力することができる。したがって、対話決定システム1は、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue determination system 1 according to the embodiment provides information on future events when the date and time when the future event is started is within a predetermined period from the date and time when the future event is output to the user. Determined as the output in. For example, the dialogue determination system 1 determines information about a future event whose date and time when the future event starts is close to the date and time when the output is performed to the user as output in the dialogue system. Therefore, the dialogue determination system 1 can output information about future events that each user is likely to be interested in to the user. Therefore, the dialogue determination system 1 can appropriately determine the output in the dialogue system.

また、実施形態に係る対話決定システム1は、更新部138を有する。更新部138は、ユーザに関する行動情報に基づいて前記ユーザが関心を示すと推定される未来のイベントに関する情報により、記憶部(実施形態においては、「ユーザ情報記憶部121)。以下同じ」に記憶されたユーザの嗜好に関する情報を更新する。 Further, the dialogue determination system 1 according to the embodiment has an update unit 138. The update unit 138 stores information about a future event that the user is presumed to be interested in based on the behavior information about the user in a storage unit (in the embodiment, “user information storage unit 121). The same applies hereinafter”. Update information about user preferences.

これにより、実施形態に係る対話決定システム1は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報に基づいて未来イベント情報記憶部122に記憶された未来イベントに関する情報を更新する。これにより、対話決定システム1は、各ユーザが関心を示す可能性の高い未来イベントに関する情報を、ユーザに対応付けて記憶することができる。また、対話決定システム1は、未来イベント情報記憶部122に記憶された未来イベントに関する情報を用いることにより、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue decision system 1 according to the embodiment updates the information about the future event stored in the future event information storage unit 122 based on the action information about the user acquired from the external system 5 other than the dialogue decision system 1. As a result, the dialogue determination system 1 can store information about future events that each user is likely to be interested in in association with the user. Further, the dialogue determination system 1 can appropriately determine the output in the dialogue system by using the information about the future event stored in the future event information storage unit 122.

また、実施形態に係る対話決定システム1において、決定部135は、未来のイベントに関する情報が出力されたユーザの対話システムにおける応答に関する情報に基づいて、対話システムにおけるユーザに対する出力を決定する。 Further, in the dialogue determination system 1 according to the embodiment, the determination unit 135 determines the output to the user in the dialogue system based on the information regarding the response in the dialogue system of the user to which the information regarding the future event is output.

これにより、実施形態に係る対話決定システム1は、未来のイベントに関する情報が出力されたユーザの対話システムにおける応答に関する情報に基づくことにより、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue determination system 1 according to the embodiment can appropriately determine the output in the dialogue system based on the information on the response in the dialogue system of the user to which the information on the future event is output.

また、実施形態に係る対話決定システム1において、決定部135は、応答に関する情報を用いた学習により生成されるモデルに基づいて、対話システムにおけるユーザに対する出力を決定する。 Further, in the dialogue determination system 1 according to the embodiment, the determination unit 135 determines the output to the user in the dialogue system based on the model generated by learning using the information regarding the response.

これにより、実施形態に係る対話決定システム1は、応答に関する情報を用いた学習により生成されるモデルに基づくことにより、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue determination system 1 according to the embodiment can appropriately determine the output in the dialogue system based on the model generated by learning using the information regarding the response.

また、実施形態に係る対話決定システム1において、決定部135は、ユーザに対する出力として、ユーザの入力に対応する文字情報に応答する文字情報である応答文字情報を決定する。 Further, in the dialogue determination system 1 according to the embodiment, the determination unit 135 determines the response character information, which is the character information corresponding to the character information corresponding to the user's input, as the output to the user.

これにより、実施形態に係る対話決定システム1は、対話システムにおける出力として、ユーザの入力に対応する文字情報に応答する文字情報である応答文字情報を適切に決定することができる。 Thereby, the dialogue determination system 1 according to the embodiment can appropriately determine the response character information which is the character information corresponding to the character information corresponding to the user's input as the output in the dialogue system.

また、実施形態に係る対話決定システム1において、決定部135は、対話システムにおけるユーザの入力が回答を求める情報であった場合、ユーザに対する出力として、応答文字情報に続けて出力される文字情報であって、応答文字情報に関連する未来のイベントに関する文字情報を決定する。 Further, in the dialogue determination system 1 according to the embodiment, when the input of the user in the dialogue system is the information for which an answer is requested, the determination unit 135 is the character information output following the response character information as the output to the user. It determines the textual information about future events related to the response textual information.

これにより、実施形態に係る対話決定システム1は、ユーザの入力に対して回答した後に続けて、未来のイベントに関する情報を出力することにより、ユーザに対して違和感のない流れで、未来のイベントに関する情報を出力することができる。したがって、対話決定システム1は、対話システムにおける出力を適切に決定することができる。 As a result, the dialogue determination system 1 according to the embodiment outputs information about the future event after answering the input of the user, so that the user does not feel uncomfortable about the future event. Information can be output. Therefore, the dialogue determination system 1 can appropriately determine the output in the dialogue system.

また、実施形態に係る端末装置20は、取得部と、決定部とを有する。取得部は、対話システム以外のシステムからユーザに関する行動情報を取得する。また、決定部は、取得部により取得されたユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。 Further, the terminal device 20 according to the embodiment has an acquisition unit and a determination unit. The acquisition unit acquires behavioral information about the user from a system other than the dialogue system. In addition, the determination unit determines the output to the user in the dialogue system based on the behavior information about the user acquired by the acquisition unit.

これにより、実施形態に係る端末装置20は、対話決定システム1以外の外部システム5から取得したユーザに関する行動情報に基づいて、対話システムにおけるユーザに対する出力を決定する。これにより、端末装置20は、ユーザの発話の意図を総合的に判断して出力を決定することができる。したがって、端末装置20は、対話システムにおける出力を適切に決定することができる。 As a result, the terminal device 20 according to the embodiment determines the output to the user in the dialogue system based on the behavior information about the user acquired from the external system 5 other than the dialogue determination system 1. As a result, the terminal device 20 can comprehensively judge the intention of the user's utterance and determine the output. Therefore, the terminal device 20 can appropriately determine the output in the dialogue system.

〔7.ハードウェア構成〕
上述してきた実施形態に係る応答生成サーバ100及び端末装置20は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、応答生成サーバ及び端末装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
The response generation server 100 and the terminal device 20 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 11 is a hardware configuration diagram showing an example of a computer that realizes the functions of the response generation server and the terminal device. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400, and controls each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores a program executed by the CPU 1100, data used by such a program, and the like. The communication interface 1500 receives data from another device via the network N and sends it to the CPU 1100, and transmits the data generated by the CPU 1100 to the other device via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls an output device such as a display or a printer, and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. Further, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

例えば、コンピュータ1000が実施形態に係る応答生成サーバ100や端末装置20として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130やアプリ25の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the response generation server 100 or the terminal device 20 according to the embodiment, the CPU 1100 of the computer 1000 executes the program loaded on the RAM 1200 to perform the functions of the control unit 130 and the application 25. Realize. The CPU 1100 of the computer 1000 reads and executes these programs from the recording medium 1800, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described in detail with reference to the drawings, these are examples and vary based on the knowledge of those skilled in the art, including the embodiments described in the disclosure line of the invention. It is possible to carry out the present invention in another form in which the above is modified or improved.

〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. Others]
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受付部は、受付手段や受付回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the reception unit can be read as a reception means or a reception circuit.

1 対話決定システム(対話システム)
100 応答生成サーバ
121 ユーザ情報記憶部
122 未来イベント情報記憶部
123 話題情報記憶部
130 制御部
131 取得部
132 要求生成部
133 変換部
134 抽出部
135 決定部
136 音声合成指示部
137 応答生成部
138 更新部
139 送信部
20 端末装置
30 音声認識サーバ
40 音声合成サーバ
N ネットワーク
1 Dialogue decision system (dialogue system)
100 Response generation server 121 User information storage unit 122 Future event information storage unit 123 Topic information storage unit 130 Control unit 131 Acquisition unit 132 Request generation unit 133 Conversion unit 134 Extraction unit 135 Decision unit 136 Speech synthesis instruction unit 137 Response generation unit 138 Update Part 139 Transmitter 20 Terminal device 30 Voice recognition server 40 Speech synthesis server N network

Claims (9)

対話システム以外のシステムからユーザに関する行動情報と、前記ユーザにより入力される所定の情報を要求する入力情報とを取得する取得部と、
前記取得部により取得された前記ユーザに関する行動情報と、前記入力情報とに基づいて、前記入力情報に対応する応答に関する通常情報と、前記通常情報とは異なる内容の情報であって、前記ユーザに所定の行動を促す情報とを、前記対話システムにおける前記ユーザに対する出力として決定する決定部と、
を備え、
前記決定部は、
未来のイベントに関する情報が出力されたユーザの前記対話システムにおける応答に関する情報を用いた学習により生成されるモデルに基づいて、前記対話システムにおける前記ユーザに対する出力を決定することを特徴とする対話決定システム。
An acquisition unit that acquires behavioral information about a user from a system other than the dialogue system and input information that requests predetermined information input by the user.
Based on the action information about the user acquired by the acquisition unit and the input information, the normal information about the response corresponding to the input information and the information having different contents from the normal information are given to the user. A decision unit that determines information prompting a predetermined action as an output to the user in the dialogue system, and
With
The decision unit
A dialogue determination system, characterized in that the output to the user in the dialogue system is determined based on a model generated by learning using information about the response of the user in the dialogue system to which information about a future event is output. ..
前記決定部は、
前記ユーザに関する行動情報に基づいて前記ユーザが関心を示すと推定される未来のイベントに関する情報を、前記対話システムにおける出力として決定する
ことを特徴とする請求項1に記載の対話決定システム。
The decision unit
Dialogue The system of claim 1, wherein the user based on behavior information for the user is information about future events that are estimated to indicate interest is determined as an output in the interactive system.
前記決定部は、
前記未来のイベントが開始される日時が前記ユーザに対して出力を行う日時から未来に向かって所定期間内である場合、前記未来のイベントに関する情報を、前記対話システムにおける出力として決定する
ことを特徴とする請求項に記載の対話決定システム。
The decision unit
When the date and time when the future event is started is within a predetermined period from the date and time when the output is performed to the user toward the future, the information about the future event is determined as the output in the dialogue system. The dialogue determination system according to claim 2.
前記ユーザに関する行動情報に基づいて前記ユーザが関心を示すと推定される未来のイベントに関する情報により、記憶部に記憶された前記ユーザの嗜好に関する情報を更新する更新部、
ことを特徴とする請求項または請求項に記載の対話決定システム。
An update unit that updates information about the user's preferences stored in the storage unit with information about future events that the user is presumed to be interested in based on behavioral information about the user.
2. The dialogue determination system according to claim 2 or 3.
前記決定部は、
前記ユーザに対する出力として、前記ユーザの入力に対応する文字情報に応答する文字情報である応答文字情報を決定する
ことを特徴とする請求項1〜のいずれか1項に記載の対話決定システム。
The decision unit
The dialogue determination system according to any one of claims 1 to 4 , wherein the response character information, which is the character information corresponding to the character information corresponding to the input of the user, is determined as the output to the user.
前記決定部は、
前記対話システムにおける前記ユーザの入力が回答を求める情報であった場合、前記ユーザに対する出力として、前記応答文字情報に続けて出力される文字情報であって、前記応答文字情報に関連する未来のイベントに関する文字情報を決定する
ことを特徴とする請求項に記載の対話決定システム。
The decision unit
When the input of the user in the dialogue system is the information for which the answer is requested, the character information output following the response character information as the output to the user, and the future event related to the response character information. The dialogue determination system according to claim 5 , wherein the textual information relating to the information is determined.
コンピュータが実行する対話決定方法であって、
対話システム以外のシステムからユーザに関する行動情報と、前記ユーザにより入力される所定の情報を要求する入力情報とを取得する取得工程と、
前記取得工程により取得された前記ユーザに関する行動情報と、前記入力情報とに基づいて、前記入力情報に対応する応答に関する通常情報と、前記通常情報とは異なる内容の情報であって、前記ユーザに所定の行動を促す情報とを、前記対話システムにおける前記ユーザに対する出力として決定する決定工程と、
を含み、
前記決定工程は、
未来のイベントに関する情報が出力されたユーザの前記対話システムにおける応答に関する情報を用いた学習により生成されるモデルに基づいて、前記対話システムにおける前記ユーザに対する出力を決定することを特徴とする対話決定方法。
A method of determining dialogue performed by a computer
An acquisition process for acquiring behavioral information about a user from a system other than the dialogue system and input information for requesting predetermined information input by the user.
Based on the action information about the user acquired by the acquisition step and the input information, the normal information about the response corresponding to the input information and the information having different contents from the normal information are given to the user. A determination step of determining information prompting a predetermined action as an output to the user in the dialogue system, and
Including
The determination step is
A dialogue determination method comprising determining an output to the user in the dialogue system based on a model generated by learning using information on the response of the user in the dialogue system to which information about a future event is output. ..
対話システム以外のシステムからユーザに関する行動情報と、前記ユーザにより入力される所定の情報を要求する入力情報とを取得する取得手順と、
前記取得手順により取得された前記ユーザに関する行動情報と、前記入力情報とに基づいて、前記入力情報に対応する応答に関する通常情報と、前記通常情報とは異なる内容の情報であって、前記ユーザに所定の行動を促す情報とを、前記対話システムにおける前記ユーザに対する出力として決定する決定手順と、
をコンピュータに実行させ、
前記決定手順は、
未来のイベントに関する情報が出力されたユーザの前記対話システムにおける応答に関する情報を用いた学習により生成されるモデルに基づいて、前記対話システムにおける前記ユーザに対する出力を決定することを特徴とする対話決定プログラム。
An acquisition procedure for acquiring behavioral information about a user from a system other than the dialogue system and input information for requesting predetermined information input by the user.
Based on the action information about the user acquired by the acquisition procedure and the input information, the normal information about the response corresponding to the input information and the information having different contents from the normal information are given to the user. A decision procedure for determining information prompting a predetermined action as an output to the user in the dialogue system, and
Let the computer run
The determination procedure is
A dialogue decision program comprising determining the output to the user in the dialogue system based on a model generated by learning using the information about the response of the user in the dialogue system to which the information about the future event is output. ..
対話システム以外のシステムからユーザに関する行動情報と、前記ユーザにより入力される所定の情報を要求する入力情報とを取得する取得部と、
前記取得部により取得された前記ユーザに関する行動情報と、前記入力情報とに基づいて、前記入力情報に対応する応答に関する通常情報と、前記通常情報とは異なる内容の情報であって、前記ユーザに所定の行動を促す情報とを、前記対話システムにおける前記ユーザに対する出力として決定する決定部と、
を備え、
前記決定部は、
未来のイベントに関する情報が出力されたユーザの前記対話システムにおける応答に関する情報を用いた学習により生成されるモデルに基づいて、前記対話システムにおける前記ユーザに対する出力を決定することを特徴とする端末装置。
An acquisition unit that acquires behavioral information about a user from a system other than the dialogue system and input information that requests predetermined information input by the user.
Based on the action information about the user acquired by the acquisition unit and the input information, the normal information about the response corresponding to the input information and the information having different contents from the normal information are given to the user. A decision unit that determines information prompting a predetermined action as an output to the user in the dialogue system, and
With
The decision unit
A terminal device characterized in that an output to the user in the dialogue system is determined based on a model generated by learning using information on the response of the user in the dialogue system to which information about a future event is output.
JP2016036400A 2016-02-26 2016-02-26 Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device Active JP6898064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016036400A JP6898064B2 (en) 2016-02-26 2016-02-26 Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016036400A JP6898064B2 (en) 2016-02-26 2016-02-26 Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device

Publications (2)

Publication Number Publication Date
JP2017151931A JP2017151931A (en) 2017-08-31
JP6898064B2 true JP6898064B2 (en) 2021-07-07

Family

ID=59739849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016036400A Active JP6898064B2 (en) 2016-02-26 2016-02-26 Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device

Country Status (1)

Country Link
JP (1) JP6898064B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7409781B2 (en) * 2019-04-01 2024-01-09 Lineヤフー株式会社 Output program, output device and output method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3614756B2 (en) * 2000-04-18 2005-01-26 日本電信電話株式会社 Personal adaptive information guidance method and system
JP2004272391A (en) * 2003-03-05 2004-09-30 Matsushita Electric Ind Co Ltd Facility guide system
JP2004355386A (en) * 2003-05-29 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for repeating question conversation in question-answer system, question conversation repeating program and recording medium with question conversation repeating program recorded thereon
JP5393732B2 (en) * 2011-06-29 2014-01-22 ヤフー株式会社 Dialog rule changing device, dialog rule changing method, and dialog rule changing program

Also Published As

Publication number Publication date
JP2017151931A (en) 2017-08-31

Similar Documents

Publication Publication Date Title
US10853582B2 (en) Conversational agent
US10832008B2 (en) Computerized system and method for automatically transforming and providing domain specific chatbot responses
US7949526B2 (en) Voice aware demographic personalization
CN110998725A (en) Generating responses in a conversation
US20210406956A1 (en) Communication system and communication control method
EP3664007A1 (en) Information processing device, information processing method, and program
JP6884722B2 (en) Information processing equipment, information processing methods, and programs
JP6310796B2 (en) Control device, control method, and control program
JP2016045584A (en) Response generation device, response generation method, and response generation program
JP6370962B1 (en) Generating device, generating method, and generating program
JP6077165B1 (en) Generating device, generating method, and generating program
JP5881647B2 (en) Determination device, determination method, and determination program
JP6408080B1 (en) Generating device, generating method, and generating program
JP6568263B2 (en) Apparatus, method, and program
JP2020057221A (en) Information processing method, information processing device, and program
JP6898064B2 (en) Dialogue decision system, dialogue decision method, dialogue decision program, and terminal device
JP6368025B2 (en) Apparatus, method, and program
JP6482703B1 (en) Estimation apparatus, estimation method, and estimation program
JP2021012660A (en) Information processing device, information processing method, and information processing program
JP6791829B2 (en) Control unit, control method and control program
JP6559290B1 (en) Information providing apparatus, information providing method, and information providing program
JP7018002B2 (en) Information processing equipment, information processing methods, and information processing programs
JP6168963B2 (en) Information search apparatus, information search method, and program
JP6253817B2 (en) Generating device, generating method, and generating program
US20190095956A1 (en) Information control apparatus, information control system and information control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210401

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210401

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210407

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210610

R150 Certificate of patent or registration of utility model

Ref document number: 6898064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250