JP2016024631A - Presentation device, presentation method, and presentation program - Google Patents

Presentation device, presentation method, and presentation program Download PDF

Info

Publication number
JP2016024631A
JP2016024631A JP2014148302A JP2014148302A JP2016024631A JP 2016024631 A JP2016024631 A JP 2016024631A JP 2014148302 A JP2014148302 A JP 2014148302A JP 2014148302 A JP2014148302 A JP 2014148302A JP 2016024631 A JP2016024631 A JP 2016024631A
Authority
JP
Japan
Prior art keywords
user
emotion
information
bid
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014148302A
Other languages
Japanese (ja)
Other versions
JP6262613B2 (en
Inventor
香里 谷尾
Kaori Tanio
香里 谷尾
北岸 郁雄
Ikuo Kitagishi
郁雄 北岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2014148302A priority Critical patent/JP6262613B2/en
Publication of JP2016024631A publication Critical patent/JP2016024631A/en
Application granted granted Critical
Publication of JP6262613B2 publication Critical patent/JP6262613B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform presentation in order to enhance advertising effect.SOLUTION: A presentation device includes an estimation section and a presentation section. The estimation section estimates feeling of a user in an interaction with an interactive agent system that interacts with the user. The presentation section presents feeling information indicated by the feeling of the user estimated by the estimation section, to an advertiser of an advertisement to be output during the interaction. For example, the presentation section 133 presents a determination tree including feeling information estimated by the estimation section 132, as feeling of a user who uses the interactive agent system 1, to an advertiser terminal 60.SELECTED DRAWING: Figure 4

Description

本発明は、提示装置、提示方法及び提示プログラムに関する。   The present invention relates to a presentation device, a presentation method, and a presentation program.

従来、ユーザ端末からメッセージを受け付けたことに応じて、このメッセージに対応するメッセージをユーザ端末に出力する対話エージェントシステムが知られている。このような対話エージェントシステムにおいて、ユーザ端末から受け付けたメッセージに対して多様なメッセージの出力を行ったり、そのユーザ端末を使用するユーザに適したメッセージの出力を行ったりする技術が提供されている。   2. Description of the Related Art Conventionally, there is known an interactive agent system that outputs a message corresponding to a message to the user terminal in response to receiving the message from the user terminal. In such an interactive agent system, there are provided technologies for outputting various messages to messages received from user terminals and outputting messages suitable for users using the user terminals.

また、上記の対話エージェントシステムにおいて、ユーザ端末からのメッセージに所定のキーワードが含まれる場合、そのキーワードに対応する広告をメッセージとしてユーザ端末へ出力する技術が知られている。   Also, in the above interactive agent system, when a predetermined keyword is included in a message from the user terminal, a technique for outputting an advertisement corresponding to the keyword to the user terminal as a message is known.

特開2013−205523号公報JP 2013-205523 A 特開2002−297626号公報JP 2002-297626 A

しかしながら、上記の従来技術では、広告の効果を向上させることができるとは限らない。具体的には、ユーザ端末からのメッセージに含まれるキーワードにのみ基づいて広告を出力する場合、ユーザの状態に関わらず広告が出力されるため、ユーザに訴求力の高い広告の出力とならない場合がある。   However, the above-described conventional technology does not always improve the advertising effect. Specifically, when an advertisement is output based only on a keyword included in a message from the user terminal, the advertisement is output regardless of the state of the user, and therefore, an advertisement that is highly appealing to the user may not be output. is there.

本願は、広告の効果を向上させるための提示を行うことができる提示装置、提示方法及び提示プログラムを提供することを目的とする。   An object of the present application is to provide a presentation device, a presentation method, and a presentation program that can make a presentation for improving the effect of an advertisement.

本願に係る提示装置は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合の前記ユーザの感情を推定する推定部と、前記推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示部と、を備えたことを特徴とする。   A presentation device according to the present application includes: an estimation unit that estimates an emotion of the user when a conversation is performed with the dialog agent system in an interactive agent system that interacts with the user; and emotion information that indicates an emotion of the user estimated by the estimation unit A presentation unit that presents the advertisement to the advertiser of the advertisement output during the conversation.

実施形態の一態様によれば、広告の効果を向上させるための提示を行うことができるという効果を奏する。   According to one aspect of the embodiment, there is an effect that a presentation for improving the effect of the advertisement can be performed.

図1は、第1の実施形態に係る入札処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of a bid process according to the first embodiment. 図2は、第1の実施形態に係る判定ツリーの一例を示す図である。FIG. 2 is a diagram illustrating an example of a determination tree according to the first embodiment. 図3は、第1の実施形態に係る対話エージェントシステムの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the interactive agent system according to the first embodiment. 図4は、第1の実施形態に係る入札装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of the bidding apparatus according to the first embodiment. 図5は、第1の実施形態に係る広告主ページの一例を示す図である。FIG. 5 is a diagram illustrating an example of an advertiser page according to the first embodiment. 図6は、第1の実施形態に係る判定ツリーの一例を示す図である。FIG. 6 is a diagram illustrating an example of a determination tree according to the first embodiment. 図7は、第1の実施形態に係る入札処理手順を示すシーケンス図である。FIG. 7 is a sequence diagram showing a bidding process procedure according to the first embodiment. 図8は、第1の実施形態の変形例に係る広告主ページの一例を示す図である。FIG. 8 is a diagram illustrating an example of an advertiser page according to a modified example of the first embodiment. 図9は、第1の実施形態の変形例に係る判定ツリーの一例を示す図である。FIG. 9 is a diagram illustrating an example of a determination tree according to a modification of the first embodiment. 図10は、第1の実施形態の変形例に係る広告主ページの一例を示す図である。FIG. 10 is a diagram illustrating an example of an advertiser page according to a modified example of the first embodiment. 図11は、第2の実施形態に係る入札処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of a bid process according to the second embodiment. 図12は、第2の実施形態に係る入札装置の構成例を示す図である。FIG. 12 is a diagram illustrating a configuration example of the bidding apparatus according to the second embodiment. 図13は、第2の実施形態に係る入札処理手順を示すシーケンス図である。FIG. 13 is a sequence diagram illustrating a bidding process procedure according to the second embodiment. 図14は、第3の実施形態に係る入札処理の一例を示す図である。FIG. 14 is a diagram illustrating an example of a bid process according to the third embodiment. 図15は、第3の実施形態に係る入札装置の構成例を示す図である。FIG. 15 is a diagram illustrating a configuration example of a bidding apparatus according to the third embodiment. 図16は、第3の実施形態に係る入札処理手順を示すシーケンス図である。FIG. 16 is a sequence diagram showing a bidding process procedure according to the third embodiment. 図17は、入札装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 17 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the bidding apparatus.

以下に、本願に係る提示装置、提示方法及び提示プログラムを実現するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る提示装置、提示方法及び提示プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する記載は省略される。また、以下の説明では、提示装置の一例として、所定の入札処理を実行する入札装置について説明する。   Hereinafter, modes for realizing a presentation device, a presentation method, and a presentation program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. In addition, the presentation apparatus, the presentation method, and the presentation program which concern on this application are not limited by this embodiment. Moreover, in the following each embodiment, the same site | part is attached | subjected the same code | symbol and the overlapping description is abbreviate | omitted. Further, in the following description, a bidding apparatus that executes a predetermined bidding process will be described as an example of a presentation apparatus.

(第1の実施形態)
〔1.入札処理〕
まず、図1を用いて、第1の実施形態に係る入札処理の一例について説明する。図1は、第1の実施形態に係る入札処理の一例を示す図である。図1に示した入札装置100は、感情情報に基づいた広告を出力する権利を取得するための入札サービスを提供する。具体的には、入札装置100は、対話エージェントシステム1に用いられるルールに関する情報である判定情報として判定ツリー(例えば、コーパス)を応答生成サーバ30から取得し、判定ツリー中の各ノードにおけるユーザの感情を推定する。その後、入札装置100は、感情情報とともに判定ツリーを広告主に提示し、提示した判定ツリーに対して広告主から入札を受け付ける。また、図1に示す応答生成サーバ30は、判定ツリーを用いてユーザとの対話における応答を決定する。なお、以下の説明では、ユーザの感情が前向きな任意の状態である「ポジティブ」であるか、ユーザの感情が後ろ向きな任意の状態である「ネガティブ」のいずれであるかを推定する例について説明するが、後述するように、入札装置100は、ユーザが有する他の任意の感情についても推定してよい。
(First embodiment)
[1. Bidding process)
First, an example of a bidding process according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a bid process according to the first embodiment. The bidding apparatus 100 shown in FIG. 1 provides a bidding service for acquiring the right to output an advertisement based on emotion information. Specifically, the bid device 100 acquires a determination tree (for example, a corpus) from the response generation server 30 as determination information that is information about the rules used in the interactive agent system 1, and the user's user at each node in the determination tree. Estimate emotions. Thereafter, the bidding device 100 presents the judgment tree together with the emotion information to the advertiser, and accepts a bid from the advertiser for the presented judgment tree. Further, the response generation server 30 illustrated in FIG. 1 determines a response in the dialog with the user using the determination tree. In the following description, an example is described in which it is estimated whether the user's emotion is “positive”, which is a positive state, or the user's emotion is “negative”, which is a backward state. However, as will be described later, the bidding apparatus 100 may also estimate other arbitrary emotions that the user has.

ここで、図2を用いて、応答生成サーバ30が用いる判定ツリーについて説明する。図2は、第1の実施形態に係る判定ツリーの一例を示す図である。つまり、対話エージェントシステム1は、対話のルールに関する情報として図2に示すような判定ツリーを用いてユーザとの対話を実現する。具体的には、応答生成サーバ30は、図2に示すような判定ツリーに基づいてユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。   Here, the determination tree used by the response generation server 30 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a determination tree according to the first embodiment. In other words, the dialog agent system 1 realizes a dialog with the user by using a decision tree as shown in FIG. Specifically, the response generation server 30 determines a response message to be returned to the user in response to the input message that is the user's utterance based on the determination tree as illustrated in FIG.

図2に示す例において、破線ブロックは検出ノードを示しており、実線ブロックは動作ノードを示している。また、これらのブロックには、N101〜N112までのノードIDがそれぞれ付されている。例えば、ノードID「N101」の破線ブロック「“天気”検出」は検出ノードを示しており、ノードID「N103」の実線ブロック「“今日は雨です”」は動作ノードを示している。検出ノードはユーザからの入力メッセージに対応する処理手順を定めており、動作ノードは応答メッセージに対応する処理手順を定めている。したがって、図2に示す判定ツリーは、検出ノード及び動作ノードを含む。   In the example shown in FIG. 2, the broken line block indicates a detection node, and the solid line block indicates an operation node. Further, node IDs N101 to N112 are assigned to these blocks, respectively. For example, the broken line block ““ weather ”detection” of the node ID “N101” indicates a detection node, and the solid line block ““ Today is raining ”of the node ID“ N103 ”indicates an operation node. The detection node defines a processing procedure corresponding to the input message from the user, and the operation node defines a processing procedure corresponding to the response message. Therefore, the decision tree shown in FIG. 2 includes a detection node and an operation node.

また、図2に示す各ノードは矢印線により接続されることで関連付けられる。具体的には、矢印線の始点側のノードが接続元ノードとして、矢先側のノードが接続先ノードとして関連付けられる。例えば、ノードID「N104」のノードとノードID「N106」のノードとを関連付ける矢印線は、接続元ノードがノードID「N104」の検出ノードであり、接続先ノードがノードID「N106」の動作ノードであることを示している。また、ノードID「N104」のノードは、接続元ノードとして、ノードID「N107」の動作ノードとも関連付けられている。ここで、応答生成サーバ30は、ユーザの発話からキーワードを検出し、そのキーワードに対応する検出ノードが接続先ノードとして関連付けられていれば、その検出ノードへ遷移する。具体的には、応答生成サーバ30は、ノードID「N103」の動作ノードに対応する応答メッセージ「“今日は雨です”」をユーザへ応答した後、ユーザの発話の中に“嬉しい”が含まれていた場合、ノードID「N104」に対応する「“嬉しい”検出」が行われたと判定し、接続先ノードであるノードID「N106」又はノードID「N107」いずれかの動作ノードへ遷移する。そして、対応する動作ノードの応答メッセージをユーザへ応答する。具体的には、ノードID「N106」へ遷移した場合、応答生成サーバ30は、ノードID「N106」の動作ノードに対応する応答メッセージ「“良かったですね”」をユーザへ応答する。このようにして、対話エージェントシステム1は、ユーザとの対話を進行させる。なお、応答生成サーバ30は、各接続元ノードから接続先ノードへ、所定の遷移確率を用いて遷移させてもよく、ランダムに遷移させてもよい。   Further, the nodes shown in FIG. 2 are associated by being connected by an arrow line. Specifically, the node on the starting point side of the arrow line is associated as the connection source node, and the node on the arrow side is associated as the connection destination node. For example, the arrow line that associates the node with the node ID “N104” and the node with the node ID “N106” indicates that the connection source node is the detection node with the node ID “N104” and the connection destination node is the operation with the node ID “N106”. Indicates a node. The node with the node ID “N104” is also associated with the operation node with the node ID “N107” as the connection source node. Here, the response generation server 30 detects a keyword from the user's utterance, and transitions to the detection node if the detection node corresponding to the keyword is associated as the connection destination node. Specifically, after the response generation server 30 responds to the response message “Today is raining” corresponding to the operation node having the node ID “N103”, “happy” is included in the user's utterance. If it has been detected, it is determined that “delighted detection” corresponding to the node ID “N104” has been performed, and a transition is made to either the node ID “N106” or the node ID “N107” that is the connection destination node. . Then, the response message of the corresponding operation node is returned to the user. Specifically, when transitioning to the node ID “N106”, the response generation server 30 responds to the user with a response message “It was good” corresponding to the operation node of the node ID “N106”. In this way, the dialog agent system 1 advances the dialog with the user. The response generation server 30 may make a transition from each connection source node to the connection destination node using a predetermined transition probability, or may make a random transition.

ここで、図2に示す判定ツリー中の動作ノードには、広告に関する動作ノードと会話に関する動作ノードとが含まれる。例えば、ノードID「N106」の動作ノードは、「“良かったですね”」という具体的な店名や商品名を含まない応答メッセージであるため、会話に関する動作ノードに対応する。また、ノードID「N107」の動作ノードは、「“A店の出前はいかがですか?”」という具体的な店名を含む応答メッセージであるため、広告に関する動作ノードに対応する。対話エージェントシステム1は、このような広告に関するノードと、会話に関するノードとを織り交ぜることにより、自然な会話の中で広告をユーザへ提供する。   Here, the action nodes in the determination tree shown in FIG. 2 include an action node related to advertisement and an action node related to conversation. For example, the operation node with the node ID “N106” is a response message that does not include a specific store name or product name ““ It was good ”, and therefore corresponds to an operation node related to conversation. In addition, the operation node of the node ID “N107” is “How about the store A? Since it is a response message including a specific store name “”, it corresponds to an operation node related to an advertisement. The dialogue agent system 1 provides the user with an advertisement in a natural conversation by interweaving such a node related to the advertisement and a node related to the conversation.

図1に戻って、第1の実施形態に係る入札処理について説明する。図1に示すように、入札装置100は、判定ツリーを応答生成サーバ30から取得する(ステップS11)。このとき、入札装置100は、判定ツリー全体を取得してもよいし、判定ツリーの一部を取得してもよい。また、入札装置100は、例えば1日おきなど予め設定した期間おきに判定ツリーを応答生成サーバ30から取得してもよい。   Returning to FIG. 1, the bidding process according to the first embodiment will be described. As shown in FIG. 1, the bid device 100 acquires a determination tree from the response generation server 30 (step S11). At this time, the bidding apparatus 100 may acquire the entire determination tree or a part of the determination tree. In addition, the bidding device 100 may acquire a determination tree from the response generation server 30 every predetermined period such as every other day.

続いて、入札装置100は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する。そして、入札装置100は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーを広告主へ提示する(ステップS12)。図1に示す例において、入札装置100は、判定ツリーにおいてユーザの感情がポジティブであると推定される領域と、ネガティブであると判定された領域とをそれぞれ点線で囲み、その感情を表す文字とともに広告主へ提示する。つまり、図1に示す例において、“ポジティブ”、“ネガティブ”などの感情を表す文字が、対話エージェントシステム1を利用するユーザの感情として推定される感情情報となる。なお、対話エージェントシステム1を利用するユーザの感情として推定される感情情報は、他のノードと識別可能に、ユーザの感情とノードとの対応関係を示すものであればどのような態様であってもよい。また、入札装置100は、判定ツリー全体を広告主へ提示してもよいし、感情情報を含む判定ツリーの一部を提示してもよい。図1の例の場合、入札装置100は、ユーザの感情がポジティブであることを示す領域と、ユーザの感情がネガティブであることを示す領域とを識別可能に判定ツリーを提示する。なお、ユーザの感情の推定については検出ノードや動作ノードに基づいて行うが、詳細は後述する。   Subsequently, based on the acquired determination tree, the bid device 100 estimates the user's emotion at each node in the determination tree. Then, the bidding device 100 presents a judgment tree including emotion information estimated as emotions of the user who uses the interactive agent system 1 to the advertiser (step S12). In the example shown in FIG. 1, the bidding apparatus 100 surrounds a region in which a user's emotion is estimated to be positive and a region determined to be negative in the determination tree with dotted lines, together with characters representing the emotion. Present to advertisers. That is, in the example shown in FIG. 1, characters representing emotions such as “positive” and “negative” are emotion information estimated as emotions of the user who uses the interactive agent system 1. The emotion information estimated as the emotion of the user who uses the interactive agent system 1 is in any form as long as it indicates the correspondence between the user's emotion and the node so as to be distinguishable from other nodes. Also good. In addition, the bid device 100 may present the entire determination tree to the advertiser or may present a part of the determination tree including emotion information. In the case of the example in FIG. 1, the bidding apparatus 100 presents a determination tree so that a region indicating that the user's emotion is positive and a region indicating that the user's emotion is negative can be identified. In addition, although estimation of a user's emotion is performed based on a detection node or an action node, details will be described later.

続いて、入札装置100は、広告主から入札情報を受け付ける(ステップS13)。このとき、受け付ける入札情報としては、追加する新たなルールである広告に関する動作ノードの情報や入札価格に関する情報等が含まれてもよい。   Subsequently, the bid device 100 receives bid information from the advertiser (step S13). At this time, the accepted bid information may include information on an operation node related to an advertisement, information on a bid price, and the like, which are new rules to be added.

そして、入札装置100は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを更新し、その更新した判定ツリーを応答生成サーバ30へ送信する(ステップS14)。その後、応答生成サーバ30は、更新された判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。   Then, the bidding device 100 updates the determination tree based on the information of the operation node related to the advertisement, which is a new rule included in the bid information received from the advertiser determined to make a successful bid, and the updated determination tree is transmitted to the response generation server. 30 (step S14). Thereafter, the response generation server 30 determines a response message to be returned to the user in response to the input message that is the user's utterance based on the updated determination tree.

このように、第1の実施形態に係る入札装置100は、広告主に推定したユーザの感情を示す感情情報を含む判定ツリーを提示することができる。これにより、入札装置100は、推定されるユーザの感情に対して広告の入札を広告主から受け付けることができる。言い換えると、広告主は、推定したユーザの感情を示す感情情報の提示を受けることにより、自身の広告に適したユーザの感情に合わせて広告を追加することができる。これにより、入札装置100は、ユーザの感情に合わせて広告を出力する判定ツリーを生成することができる。つまり、入札装置100は、適切なタイミングでユーザに訴求力の高い広告を出力することを可能にする。なお、上記の入札処理は、提示装置と入札装置とが協調して実行してもよい。   Thus, the bid device 100 according to the first embodiment can present a determination tree including emotion information indicating the user's emotion estimated to the advertiser. Thereby, the bid apparatus 100 can accept an advertisement bid from the advertiser for the estimated emotion of the user. In other words, the advertiser can add an advertisement in accordance with the emotion of the user suitable for its own advertisement by receiving the presentation of emotion information indicating the estimated emotion of the user. Thereby, the bid apparatus 100 can generate a determination tree that outputs an advertisement in accordance with the user's emotion. That is, the bid device 100 can output a highly appealing advertisement to the user at an appropriate timing. The bid process may be executed in cooperation between the presentation device and the bid device.

〔2.対話エージェントシステムの構成〕
図3に例示するように、本実施形態に係る対話エージェントシステム1には、ユーザ端末10と、音声認識サーバ20と、応答生成サーバ30と、音声合成サーバ40と、サービスAPI(Application Program Interface)サーバ50と、広告主端末60と、入札装置100とが含まれる。ユーザ端末10と、音声認識サーバ20と、応答生成サーバ30と、音声合成サーバ40と、サービスAPIサーバ50と、広告主端末60と、入札装置100とは、通信網70を介して情報の送受信を行う。
[2. Dialogue agent system configuration]
As illustrated in FIG. 3, the dialog agent system 1 according to the present embodiment includes a user terminal 10, a speech recognition server 20, a response generation server 30, a speech synthesis server 40, and a service API (Application Program Interface). A server 50, an advertiser terminal 60, and a bidding device 100 are included. The user terminal 10, the speech recognition server 20, the response generation server 30, the speech synthesis server 40, the service API server 50, the advertiser terminal 60, and the bidding device 100 transmit and receive information via the communication network 70. I do.

ここから、対話エージェントシステム1がユーザへ音声サービスを提供する処理の概要について説明する。ユーザ端末10は、携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレット型PC、ノート型PC、デスクトップ型PC等の情報処理装置である。ユーザ端末10は、アプリケーションの起動後、ユーザの発話を検知すると、発話の音声データを音声認識サーバ20へ送信する。   From here, the outline | summary of the process in which the dialogue agent system 1 provides a voice service to a user is demonstrated. The user terminal 10 is an information processing apparatus such as a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a tablet PC, a notebook PC, or a desktop PC. When the user terminal 10 detects the user's speech after the application is started, the user terminal 10 transmits speech data of the speech to the speech recognition server 20.

音声認識サーバ20は、ユーザ端末10から発話の音声データを受信すると、音声データをテキストデータに変換し、発話のテキストデータをユーザ端末10へ送信する。音声認識サーバ20から発話のテキストデータを受信したユーザ端末10は、発話のテキストデータを応答生成サーバ30に送信する。   When the speech recognition server 20 receives the speech data from the user terminal 10, the speech recognition server 20 converts the speech data into text data, and transmits the speech text data to the user terminal 10. The user terminal 10 that has received the utterance text data from the voice recognition server 20 transmits the utterance text data to the response generation server 30.

応答生成サーバ30は、ユーザ端末10によって送信される発話のテキストデータに応じて、ユーザの発話に対する応答生成情報をユーザ端末10に送信するコンピュータである。応答生成サーバ30は、ユーザ端末10から発話のテキストデータを受信すると、応答の生成に必要なデータの検索条件を指定し、ユーザ端末10が起動したアプリケーションに対応するサービスAPIサーバ50に対してデータの要求を行う。   The response generation server 30 is a computer that transmits response generation information for the user's utterance to the user terminal 10 in accordance with the utterance text data transmitted by the user terminal 10. When the response generation server 30 receives the text data of the utterance from the user terminal 10, the response generation server 30 designates data search conditions necessary for generating the response, and sends data to the service API server 50 corresponding to the application started by the user terminal 10. Make a request.

サービスAPIサーバ50は、応答生成サーバ30から受信した検索条件に従って、データを応答生成サーバ30に送信する。例えば、サービスAPIサーバ50は、応答データを取得する処理を行い、取得した応答データを応答生成サーバ30に送信する。例えば、サービスAPIサーバ50は、XML(Extensible Markup Language)データを応答データとして応答生成サーバ30に送信する。   The service API server 50 transmits data to the response generation server 30 in accordance with the search condition received from the response generation server 30. For example, the service API server 50 performs a process of acquiring response data, and transmits the acquired response data to the response generation server 30. For example, the service API server 50 transmits XML (Extensible Markup Language) data to the response generation server 30 as response data.

応答生成サーバ30は、サービスAPIサーバ50から応答データとして、例えばXMLデータを受信すると、XMLデータからデータを抽出し、XMLデータをHTMLデータに変換する。そして、応答生成サーバ30は、応答発話表示用のテキストデータを音声合成サーバ40に送信する。音声合成サーバ40は、応答発話表示用のテキストデータから音声を合成する音声合成処理を行って生成した応答発話用の中間表記を応答生成サーバ30に送信する。応答生成サーバ30は、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータとをユーザ端末10に送信する。   When the response generation server 30 receives, for example, XML data as response data from the service API server 50, the response generation server 30 extracts the data from the XML data, and converts the XML data into HTML data. Then, the response generation server 30 transmits the response utterance display text data to the speech synthesis server 40. The speech synthesis server 40 transmits to the response generation server 30 an intermediate notation for response speech generated by performing speech synthesis processing for synthesizing speech from text data for response speech display. The response generation server 30 transmits the intermediate notation for response utterance, text data for display of response utterance, and HTML data to the user terminal 10.

ユーザ端末10は、受信した応答発話用の中間表記を用いて、応答の音声を出力するとともに、応答発話表示用のテキストデータとHTMLデータとを用いて、応答内容を表示する。このようにして、対話エージェントシステム1は、ユーザの発話に対して適切な応答を行う音声サービスを実現する。   The user terminal 10 outputs the response voice using the received intermediate notation for response utterance, and displays the response content using text data for displaying the response utterance and HTML data. In this way, the dialogue agent system 1 realizes a voice service that makes an appropriate response to the user's utterance.

〔3.入札装置の構成〕
次に、図4を用いて、第1の実施形態に係る入札装置100の構成について説明する。図4は、実施例に係る入札装置100の構成例を示す図である。図4に示すように、入札装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、入札装置100は、入札装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Bidding equipment configuration]
Next, the configuration of the bidding apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a configuration example of the bidding apparatus 100 according to the embodiment. As illustrated in FIG. 4, the bid device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The bid device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the bid device 100 and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)によって実現される。かかる通信部110は、通信網70と有線又は無線で接続される。そして、通信部110は、通信網70を介して、応答生成サーバ30や広告主端末60等との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by a NIC (Network Interface Card), for example. The communication unit 110 is connected to the communication network 70 in a wired or wireless manner. The communication unit 110 transmits and receives information to and from the response generation server 30 and the advertiser terminal 60 via the communication network 70.

(記憶部120)
記憶部120は、例えば、応答生成サーバ30から取得した判定ツリーや対話エージェントシステム1を利用するユーザの感情として推定される感情情報や広告主により登録された入札情報等を記憶する。また、記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
(Storage unit 120)
The storage unit 120 stores, for example, the judgment tree acquired from the response generation server 30, emotion information estimated as a user's emotion using the interactive agent system 1, bid information registered by the advertiser, and the like. The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk.

制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、入札装置100内部の記憶装置に記憶されている各種プログラム(入札プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。   The control unit 130 is configured so that, for example, various programs (corresponding to an example of a bidding program) stored in a storage device inside the bidding device 100 are stored in the RAM by a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. This is realized by being executed as The control unit 130 is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図4に示すように、制御部130は、取得部131と、推定部132と、提示部133と、受付部134と、送信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 4, the control unit 130 includes an acquisition unit 131, an estimation unit 132, a presentation unit 133, a reception unit 134, and a transmission unit 135, and functions and functions of information processing described below. Realize or execute. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 4, and may be another configuration as long as the information processing described below is performed. In addition, the connection relationship between the processing units included in the control unit 130 is not limited to the connection relationship illustrated in FIG. 4, and may be another connection relationship.

(取得部131)
取得部131は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する。このとき、取得部131は、判定ツリー全体を取得してもよいし、判定ツリーの一部を取得してもよい。また、入札装置100は、例えば1日おきなど予め設定した期間おきに判定ツリーを応答生成サーバ30から取得してもよい。
(Acquisition part 131)
The acquisition unit 131 acquires from the response generation server 30 a determination tree that is information related to the rules of the dialog that the response generation server 30 uses for dialog with the user. At this time, the acquisition unit 131 may acquire the entire determination tree or a part of the determination tree. In addition, the bidding device 100 may acquire a determination tree from the response generation server 30 every predetermined period such as every other day.

(推定部132)
推定部132は、対話エージェントシステム1が用いる対話のルールに基づいて、当該対話エージェントシステム1と会話を行う場合のユーザの感情を推定する。例えば、推定部132は、取得部131により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。ここで、推定部132が推定する感情は、嬉しい、怒っている、哀しい、楽しい等、人間の感情の分類に沿って種々の適宜設定可能である。以下では、推定部132が推定する感情をポジティブ及びネガティブの2種類として説明する。なお、推定部132が推定するポジティブとは、テンションが高い、楽しい、心地良い、めでたい、テンポがいい等嬉しさや楽しさを示す感情を含む。また、推定部132が推定するネガティブとは、テンションが低い、楽しくない、心地悪い、めでたくない、テンポが悪い等怒り、哀しみ、罪の意識、恐怖、嫌悪を含む感情である。
(Estimation unit 132)
The estimation unit 132 estimates the emotion of the user when having a conversation with the dialog agent system 1 based on the dialog rules used by the dialog agent system 1. For example, the estimation unit 132 estimates the user's emotion at each node in the determination tree acquired from the response generation server 30 by the acquisition unit 131. Here, the emotion estimated by the estimation unit 132 can be appropriately set in accordance with the classification of human emotions such as happy, angry, sad, and fun. Hereinafter, the emotion estimated by the estimation unit 132 will be described as two types, positive and negative. Note that the positive estimated by the estimation unit 132 includes emotions that indicate joy and enjoyment such as high tension, fun, comfortable, happy, and good tempo. Moreover, the negative estimated by the estimation unit 132 is an emotion including anger, sadness, guilt, fear, and disgust, such as low tension, unpleasantness, uncomfortable, unpleasant, and poor tempo.

推定部132は、例えば、ノードにおけるユーザの感情を推定するために、判定ツリー中の各ノードの情報を用いる。図2に示す例を用いて説明すると、N104の検出ノード「“嬉しい”検出」については、“嬉しい”というポジティブなキーワードが検出されているため、推定部132は、N104の検出ノードにおけるユーザの感情をポジティブであると推定する。そして、推定部132は、N104の検出ノードの接続先ノードであるN106の動作ノード「“良かったですね”」、及びN107の動作ノード「“A店の出前はいかがですか?”」についても、N104の検出ノードと同様にユーザの感情をポジティブであると推定する。一方、N105の検出ノード「“嫌”検出」については、“嫌”というネガティブなキーワードが検出されているため、推定部132は、N105の検出ノードにおけるユーザの感情をネガティブであると推定する。そして、推定部132は、N104の検出ノード以降の接続先ノードN108〜N112のノードについても、N104の検出ノードと同様にユーザの感情をネガティブであると推定する。このように、推定部132は、接続元ノードについて推定されるユーザの感情を用いて、各ノードにおけるユーザの感情を推定してもよい。また、推定部132は、接続元ノードや接続先ノードに関わらず、そのノード自身の情報のみに基づいて、そのノードにおけるユーザの感情を推定してもよい。また、推定部132は、例えば、感情の分類ごとにキーワードを対応付けて記憶しているデータベースに基づいて、ノードにおけるユーザの感情を推定してもよい。この場合、推定部132は、例えば、判定ツリー中のある領域においてキーワードの出現に偏りがある場合、その領域に含まれるノードにおける感情を、偏って出現するキーワードに対応する感情であると推定してもよい。例えば、推定部132は、特定の感情に対応付けられたキーワードが、他の感情に対応付けられたキーワードと比較して所定の割合以上に多く出現する領域に含まれるノードにおけるユーザの感情を、その特定の感情と推定してもよい。   For example, the estimation unit 132 uses information on each node in the determination tree in order to estimate a user's emotion in the node. Referring to the example shown in FIG. 2, since the positive keyword “happy” is detected for the detection node “joyful detection” of N104, the estimation unit 132 determines that the user at the detection node of N104 Estimate that emotion is positive. Then, the estimation unit 132 determines that the operation node “Now it was good” of N106, which is the connection destination node of the detection node N104, and the operation node ““ A storefront isn't it? Also for “”, the user's emotion is estimated to be positive in the same manner as the detection node of N104. On the other hand, for the detection node “dislike” detection of N105, since the negative keyword “dislike” is detected, the estimation unit 132 estimates that the user's emotion at the detection node of N105 is negative. And the estimation part 132 estimates that a user's emotion is negative also about the node of connection destination node N108-N112 after the detection node of N104 similarly to the detection node of N104. Thus, the estimation unit 132 may estimate the user's emotion at each node using the user's emotion estimated for the connection source node. Moreover, the estimation part 132 may estimate the user's emotion in the node based only on the information of the node itself irrespective of a connection origin node or a connection destination node. Moreover, the estimation part 132 may estimate the user's emotion in a node based on the database which matched and memorize | stored the keyword for every classification of emotion, for example. In this case, for example, when there is a bias in the appearance of a keyword in a certain area in the determination tree, the estimation unit 132 estimates that the emotion in the node included in that area is an emotion corresponding to the keyword that appears biased. May be. For example, the estimation unit 132 determines the user's emotion in a node included in a region where a keyword associated with a specific emotion appears more than a predetermined ratio compared to a keyword associated with another emotion, You may presume that specific emotion.

また、推定部132は、判定ツリー中の各ノードにおけるユーザの感情の推定に、例えば、そのノードが過去に使用された際のユーザの発話に関する情報を用いてもよい。この場合、推定部132は、例えば、過去にノードが使用された際のユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、そのノードにおけるユーザの感情はネガティブであると推定してもよい。なお、過去のユーザの発話に関する情報を用いる場合、取得部131は、予め応答生成サーバ30から過去のユーザの発話に関する情報を取得する。このとき、記憶部120は、取得部131により応答生成サーバ30から取得した過去のユーザの発話に関する情報を記憶する。なお、推定部132がユーザの感情を推定する処理は、上述した処理に限定されるものではない。例えば、推定部132は、あるノードに対応する発話から他のノードに対応する発話へと会話が移るまでの時間、会話に対応するノードを結んだ経路などに基づいて、ユーザの感情を推定してもよい。また、推定部132は、各ノードに対し、感情の分類ごとに算出されるスコアを付与し、かかるスコアに基づいてユーザの感情を推定してもよい。また、推定部132は、接続された複数のノードと対応する会話について言語解析を行い、かかる言語解析の結果に基づいて、かかる会話を行っている際のユーザの感情を推定し、推定したユーザの感情を、処理対象としたノードにおけるユーザの感情としてもよい。   Moreover, the estimation part 132 may use the information regarding a user's utterance when the node was used in the past for the estimation of a user's emotion in each node in a determination tree, for example. In this case, for example, when the inflection of the user's utterance when the node has been used in the past is small or when the user's utterance tempo is low, the estimation unit 132 estimates that the user's emotion at the node is negative. May be. In addition, when using information related to past user utterances, the acquisition unit 131 acquires information related to past user utterances from the response generation server 30 in advance. At this time, the storage unit 120 stores information related to past user utterances acquired from the response generation server 30 by the acquisition unit 131. In addition, the process in which the estimation part 132 estimates a user's emotion is not limited to the process mentioned above. For example, the estimation unit 132 estimates the user's emotion based on the time until the conversation moves from the utterance corresponding to a certain node to the utterance corresponding to the other node, the route connecting the nodes corresponding to the conversation, and the like. May be. Moreover, the estimation part 132 may provide the score calculated for every classification of emotion with respect to each node, and may estimate a user's emotion based on this score. In addition, the estimation unit 132 performs language analysis on conversations corresponding to a plurality of connected nodes, and based on the results of the language analysis, estimates an emotion of the user who is performing the conversation, and estimates the estimated user May be the user's emotion at the node to be processed.

(提示部133)
提示部133は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部133は、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示する。
(Presentation unit 133)
The presentation unit 133 presents emotion information indicating the user's emotion estimated by the estimation unit to the advertiser of the advertisement output during the conversation. For example, the presentation unit 133 presents to the advertiser terminal 60 a determination tree that includes emotion information estimated by the estimation unit 132 as a user's emotion using the interactive agent system 1.

ここで、図5に、第1の実施形態にかかる提示部133によって広告主端末60へ提示される広告主ページの一例を示す。提示部133は、広告主ページW10に、応答生成サーバ30から取得した判定ツリーと、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報とを掲載する。図5に示す例において、ノードID「N101」の検出ブロック「“天気”検出」から、ノードID「N112」の動作ブロック「“C店で紅茶はいかがですか?”検出」までの12つのノードが、広告主ページW10に掲載される。そして、図5に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されるノードとして掲載され、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW10において、ユーザの感情がポジティブであると推定されるN104、N106、N107を含む領域R11を点線で囲み、文字“ポジティブ”とともに提示する。また、提示部133は、広告主ページW10において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R12を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、対応する感情ごとに識別可能にクラスタリングしたノードを感情情報とともに提示する。これにより、ユーザは各ノードがどの感情に対応するかを視認しやすくなる。なお、提示部133は、対応する感情ごとにノードを識別可能に提示できればよく、例えば、対応する感情ごとにノードの色を変えて提示したり、ノードごとに感情情報を表示したりしてもよい。また、ここでは図示することは省略するが、広告主ページW10において、広告主が領域R11又は領域R12のノードを選択した場合、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札ページを用いて追加する新たなノードや入札価格等の情報を入力することにより入札を行う。   Here, FIG. 5 shows an example of the advertiser page presented to the advertiser terminal 60 by the presentation unit 133 according to the first embodiment. The presentation unit 133 publishes the determination tree acquired from the response generation server 30 and emotion information estimated as the user's emotion at each node in the determination tree on the advertiser page W10. In the example shown in FIG. 5, from the detection block ““ weather ”detection” of the node ID “N101” to the operation block ““ tea in the store C? ”Of the node ID“ N112 ”. Twelve nodes up to “detect” are posted on the advertiser page W10. In the example shown in FIG. 5, three nodes N104, N106, and N107 are listed as nodes that are estimated to have positive user emotions, and six nodes N105 and N108 to N112 are negative for user emotions. It is posted as a node estimated to be. Specifically, in the advertiser page W10, the presentation unit 133 surrounds a region R11 including N104, N106, and N107 estimated to be positive in the user's emotion with a dotted line, and presents it together with the characters “positive”. In addition, the presentation unit 133 surrounds the region R12 including N105 and N108 to N112, which are estimated to be negative in the user's emotion, in the advertiser page W10, and presents it together with the character “negative”. In this way, the presentation unit 133 presents the nodes clustered so as to be identifiable for each corresponding emotion together with the emotion information. This makes it easier for the user to visually recognize which emotion each node corresponds to. Note that the presentation unit 133 only needs to be able to present a node for each corresponding emotion in an identifiable manner. For example, the presentation unit 133 may present the node with a different color for each corresponding emotion or may display emotion information for each node. Good. Although illustration is omitted here, in the advertiser page W10, when the advertiser selects a node in the region R11 or the region R12, a bid page for registering bid information is presented to the advertiser terminal 60. The advertiser performs a bid by inputting information such as a new node to be added and a bid price using the bid page.

(受付部134)
受付部134は、所定の入札ページを介して、入札情報を広告主端末60から受信する。その後、受付部134は、落札が決定した広告主から受け付けた入札情報に含まれる広告に関する新たなノードである動作ノード等の情報を基に判定ツリーを更新する。ここで、受付部134が受けた入札情報に含まれる新たなノードは、判定ツリーへ追加されるかについての判定が行われる。これにより、受付部134は、追加を行ってよいと判定された新たなノードのみを判定ツリーへ追加するため、使用すべきでない表現を含む等を不適切なノードが追加されることを防止できる。例えば、受付部134は、受け付けた入札情報の新たなノードを追加するかの判定を行ってもよい。また、入札装置100の管理者等が、登録された複数の入札情報の中から、判定ツリーに追加を行う新たなノードを決定して、判定ツリーへの追加を行ってもよい。このとき、受付部134や管理者は、新たなノードに基づいて判定を行ってもよく、また入札価格に基づいて判定を行っても、入札情報に含まれる種々の情報を総合して判定を行ってもよい。なお、入札情報の登録が認められた広告主には、適宜の手段によりその広告主が追加した新たなノードの追加の可否に関する結果を通知してもよい。
(Reception unit 134)
The accepting unit 134 receives bid information from the advertiser terminal 60 via a predetermined bid page. Thereafter, the reception unit 134 updates the determination tree based on information such as an action node that is a new node related to the advertisement included in the bid information received from the advertiser whose bid is determined. Here, it is determined whether a new node included in the bid information received by the reception unit 134 is added to the determination tree. As a result, since the reception unit 134 adds only new nodes that are determined to be added to the determination tree, it is possible to prevent an inappropriate node from including an expression that should not be used. . For example, the reception unit 134 may determine whether to add a new node of the received bid information. Further, the administrator of the bid device 100 may determine a new node to be added to the determination tree from the plurality of registered bid information, and add the determination node to the determination tree. At this time, the reception unit 134 and the administrator may make the determination based on the new node, or make the determination based on the various information included in the bid information, even if the determination is based on the bid price. You may go. Note that an advertiser who is permitted to register bid information may be notified of a result regarding whether or not a new node added by the advertiser can be added by an appropriate means.

図6は、図5に示す例において更新された判定ツリーを示しており、広告主ページW10においてユーザの感情がポジティブであると推定される領域R11のN104の接続先ノードとして新たにN113が追加されている。具体的には、ノードID「N113」の動作ブロック「“小説「XYZ」はいかがですか?”」が追加される。この判定ツリーを用いることにより、ユーザの感情がポジティブであると推定される対話の流れにおいて、“小説「XYZ」はいかがですか?”という広告が出力することが可能となる。   FIG. 6 shows the determination tree updated in the example shown in FIG. 5, and N113 is newly added as a connection destination node of N104 in region R11 in which the user's emotion is estimated to be positive in advertiser page W10. Has been. Specifically, how about the operation block ““ Novel “XYZ” ”of node ID“ N113 ”? "" Is added. By using this decision tree, “How about a novel“ XYZ ”in the flow of dialogue that presumes that the user's emotion is positive? "Can be output.

(送信部135)
送信部135は、その更新した判定ツリーを応答生成サーバ30へ送信する。そして、送信部135から判定ツリーを受信した応答生成サーバ30は、受信した判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
(Transmitter 135)
The transmission unit 135 transmits the updated determination tree to the response generation server 30. And the response production | generation server 30 which received the determination tree from the transmission part 135 determines the response message returned to a user with respect to the input message which is a user's utterance based on the received determination tree.

〔4.入札処理手順〕
次に、図7を用いて、第1の実施形態に係る対話エージェントシステム1による入札処理の手順について説明する。図7は、第1の実施形態に係る対話エージェントシステム1による入札処理手順を示すシーケンス図である。
[4. (Bid processing procedure)
Next, referring to FIG. 7, the procedure of the bidding process by the interactive agent system 1 according to the first embodiment will be described. FIG. 7 is a sequence diagram showing a bidding process procedure by the interactive agent system 1 according to the first embodiment.

図7に示すように、入札装置100は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する(ステップS101)。この場合、入札装置100は、取得した判定ツリーを記憶部120に格納する。   As illustrated in FIG. 7, the bid device 100 acquires a determination tree, which is information related to the rules of the dialogue used by the response generation server 30 for the dialog with the user, from the response generation server 30 (step S101). In this case, the bid device 100 stores the acquired determination tree in the storage unit 120.

そして、入札装置100は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する(ステップS102)。そして、入札装置100は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS103)。   Then, the bidding apparatus 100 estimates the user's emotion at each node in the determination tree based on the acquired determination tree (step S102). Then, the bidding apparatus 100 presents a determination tree including emotion information estimated as the emotion of the user who uses the interactive agent system 1 (step S103).

続いて、入札装置100は、所定の入札ページを介して、広告主端末60から新たなノードを含む入札情報を受信する(ステップS104)。   Subsequently, the bid device 100 receives bid information including a new node from the advertiser terminal 60 via a predetermined bid page (step S104).

続いて、入札装置100は、広告主端末60から受信した新たなノードを含んだ判定ツリーを生成し(ステップS105)、新たなノードを含んだ判定ツリーを応答生成サーバ30へ送信する(ステップS106)。その後、応答生成サーバ30は、入札装置100から受信した新たなノードを含んだ判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定し、音声サービスを提供する(ステップS107)。   Subsequently, the bidding apparatus 100 generates a determination tree including the new node received from the advertiser terminal 60 (step S105), and transmits the determination tree including the new node to the response generation server 30 (step S106). ). Thereafter, the response generation server 30 determines a response message to be returned to the user in response to the input message that is the user's utterance based on the determination tree including the new node received from the bid device 100, and provides a voice service. (Step S107).

〔5.変形例〕
上述した第1の実施形態に係る対話エージェントシステム1は、上記第1の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、以下では、上記の対話エージェントシステム1を変形した実施形態について説明する。
[5. (Modification)
The dialog agent system 1 according to the first embodiment described above may be implemented in various different forms other than the first embodiment. Therefore, in the following, an embodiment in which the above-described dialog agent system 1 is modified will be described.

〔5−1.広告主の業種に応じた提示内容の変動〕
上記第1の実施形態では、入札装置100の提示部133が、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示した。しかし、提示部133は、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させる。
[5-1. (Changes in the presentation content according to the type of business of the advertiser)
In the first embodiment, the presentation unit 133 of the bid device 100 presented to the advertiser terminal 60 a determination tree that includes emotion information estimated by the estimation unit 132 as the emotion of the user who uses the interactive agent system 1. However, the presentation unit 133 varies the conversation area in which the user is estimated to have a predetermined emotion according to the business type of the advertiser.

図8は、提示部133によって業種が製薬会社である広告主の広告主端末60へ提示される広告主ページの一例を示す。ここで、入札装置100において、業種「製薬会社」は、感情“ネガティブ”と関連付けられているものとする。提示部133は、広告主ページW20に、応答生成サーバ30から取得した判定ツリーと、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報とを掲載する。図8に示す例において、図5に示す広告主ページW10と同様に、広告主ページW20には、N101〜N112までの12つのノードが掲載される。   FIG. 8 shows an example of an advertiser page presented to the advertiser terminal 60 of an advertiser whose business type is a pharmaceutical company by the presentation unit 133. Here, in the bidding apparatus 100, it is assumed that the business type “pharmaceutical company” is associated with the emotion “negative”. The presentation unit 133 publishes the determination tree acquired from the response generation server 30 and emotion information estimated as the user's emotion at each node in the determination tree on the advertiser page W20. In the example shown in FIG. 8, 12 nodes from N101 to N112 are posted on the advertiser page W20, similarly to the advertiser page W10 shown in FIG.

ここで、図8に示す例では、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW20において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R21を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、ユーザの感情“ネガティブ”に対応するノードをクラスタリングして感情情報とともに識別可能に表示する。一方で、図8に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されない。具体的には、提示部133は、広告主ページW10において、ユーザの感情がポジティブであると推定されるN104、N106、N107もユーザの感情は推定されていない他のノードを同様の表示態様で提示する。これにより、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させ、広告主の業種ごとに識別可能に提示する領域を出し分けることにより、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。   Here, in the example illustrated in FIG. 8, six nodes N105 and N108 to N112 are listed as nodes that are estimated to have negative user emotions. Specifically, in the advertiser page W20, the presentation unit 133 surrounds a region R21 including N105 and N108 to N112, which is estimated to be negative for the user's emotion, with a dotted line and presents it together with the character “negative”. In this way, the presentation unit 133 clusters the nodes corresponding to the user's emotion “negative” and displays the nodes together with the emotion information in an identifiable manner. On the other hand, in the example shown in FIG. 8, it is not estimated that the user's emotion is positive in the three nodes N104, N106, and N107. Specifically, in the advertiser page W10, the presentation unit 133 displays other nodes in which the user's emotion is also estimated in the same display manner in the N104, N106, and N107 that are estimated that the user's emotion is positive. Present. In this way, depending on the advertiser's industry, the area of conversation in which the user is presumed to have a predetermined emotion is changed, and the areas of the advertiser's business are categorized and presented separately for each advertiser's industry. It is possible to make a presentation for improving the effectiveness of the advertisement according to the type of business.

図9は、図8に示す例において更新された判定ツリーを示しており、広告主ページW20においてユーザの感情がネガティブであると推定される領域R21のN109の接続先ノードとして新たにN114が追加されている。具体的には、ノードID「N114」の動作ブロック「“風邪薬Mはいかがですか?”」が追加される。この判定ツリーを用いることにより、ユーザの感情がネガティブであると推定される対話の流れにおいて、“風邪薬Mはいかがですか?”という広告が出力することが可能となる。なお、図8に示す例において、入札装置100は、製薬会社である広告主に対して、ユーザの感情がネガティブと推定されるノードを識別可能に提示したが、どの感情について識別可能に提示するかは、広告主自身に選択させてもよい。また、入札装置100は、広告主の業種に応じて、どの感情について識別可能に提示することを希望するかを推定してもよい。この場合、入札装置100は、広告主の業種が病院や葬儀社などであれば、ユーザの感情がネガティブと推定される会話において、広告を出力することを希望する業種の広告主であると推定してもよい。   FIG. 9 shows the determination tree updated in the example shown in FIG. 8, and N114 is newly added as a connection destination node of N109 in region R21 in which the user's emotion is estimated to be negative in advertiser page W20. Has been. Specifically, how is the operation block ““ cold medicine M? ”Of the node ID“ N114 ”. "" Is added. By using this determination tree, it is possible to output an advertisement “How about the cold medicine M?” In the flow of dialogue in which the user's emotion is estimated to be negative. In the example illustrated in FIG. 8, the bidding apparatus 100 presents to the advertiser, which is a pharmaceutical company, a node in which the user's emotion is estimated to be negative, but presents which emotion can be identified. This may be selected by the advertiser. Further, the bidding apparatus 100 may estimate which emotion is desired to be identifiably presented according to the business type of the advertiser. In this case, if the advertiser's business type is a hospital, a funeral company, or the like, the bidding apparatus 100 is estimated to be an advertiser of a business type that desires to output an advertisement in a conversation in which the user's emotion is estimated to be negative. May be.

〔5−2.入札価格の提示〕
上記第1の実施形態では、入札装置100の提示部133が、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示した。しかし、提示部133は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーとともに、所定の領域に含まれる会話中に広告を出力するための入札価格に関する情報を提示してもよい。
[5-2. (Bid price presentation)
In the first embodiment, the presentation unit 133 of the bid device 100 presented to the advertiser terminal 60 a determination tree that includes emotion information estimated by the estimation unit 132 as the emotion of the user who uses the interactive agent system 1. However, the presentation unit 133 presents information related to a bid price for outputting an advertisement during a conversation included in a predetermined area, together with a determination tree including emotion information estimated as emotions of a user who uses the interactive agent system 1. May be.

ここで、図10に、提示部133によって広告主端末60へ提示される広告主ページの一例を示す。提示部133は、広告主ページW30に、ユーザの感情として推定される感情情報を含む判定ツリーとともに入札価格を掲載する。図10に示す例において、図5に示す広告主ページW10と同様に、広告主ページW30には、N101〜N112までの12つのノードが掲載される。そして、図10に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されるノードとして掲載され、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW30において、ユーザの感情がポジティブであると推定されるN104、N106、N107を含む領域R31を点線で囲み、文字“ポジティブ”とともに提示する。また、提示部133は、広告主ページW30において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R32を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、対応する感情ごとに識別可能にクラスタリングしたノードを感情情報とともに提示する。   Here, FIG. 10 shows an example of the advertiser page presented to the advertiser terminal 60 by the presentation unit 133. The presenting unit 133 publishes a bid price together with a determination tree including emotion information estimated as user emotion on the advertiser page W30. In the example shown in FIG. 10, 12 nodes from N101 to N112 are posted on the advertiser page W30, similarly to the advertiser page W10 shown in FIG. In the example shown in FIG. 10, three nodes N104, N106, and N107 are listed as nodes that are estimated to have positive emotions, and six nodes N105 and N108 to N112 are negative in terms of user emotions. It is posted as a node estimated to be. Specifically, in the advertiser page W30, the presentation unit 133 surrounds a region R31 including N104, N106, and N107 estimated to be positive for the user's emotion with a dotted line, and presents it together with the characters “positive”. In addition, the presentation unit 133 surrounds the region R32 including N105 and N108 to N112, which are estimated to be negative in the user's emotion, on the advertiser page W30, and presents it together with the character “negative”. In this way, the presentation unit 133 presents the nodes clustered so as to be identifiable for each corresponding emotion together with the emotion information.

そして、図10に示す例では、提示部133は、領域R31中に文字“ポジティブ”とともに、“参考登録料:○万円”、“参考料金:△△円/1回”という入札価格に関する情報を提示する。なお、上記の入札価格に関する情報は、領域R31に新たなルールを追加するために必要な参考価格となり、この情報を基に広告主が入札情報を登録する。また、提示部133は、領域R32に文字“ネガティブ”とともに、“参考登録料:□万円”、“参考料金:☆☆円/1回”という入札価格に関する情報を提示する。これにより、広告主は、入札価格を基に入札情報を登録するかどうかを判断できる。なお、提示部133が提示する入札価格に関する情報は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。また、提示部133は、即決する登録料及び料金を入札価格として提示してもよい。この場合、受付部134は、所定の入札ページを介して、広告主から入札の意思と広告に関する情報とを含む入札情報を受け付ける。   In the example illustrated in FIG. 10, the presentation unit 133 includes information on the bid price such as “reference registration fee: ¥ 10,000 yen” and “reference fee: ΔΔ yen / once” together with the characters “positive” in the region R31. Present. Note that the information regarding the bid price is a reference price necessary for adding a new rule to the region R31, and the advertiser registers bid information based on this information. In addition, the presentation unit 133 presents information on the bid price such as “reference registration fee: □ 10,000 yen” and “reference fee: ☆☆ yen / once” together with the character “negative” in the region R32. Thereby, the advertiser can determine whether or not to register bid information based on the bid price. In addition, the information regarding the bid price presented by the presentation unit 133 is not limited to the above. For example, when accepting a bid with a limited period, it can be appropriately changed depending on the bid conditions such as presenting “XX million yen / month”. It is. In addition, the presentation unit 133 may present a registration fee and a fee that are decided immediately as a bid price. In this case, the accepting unit 134 accepts bid information including an intention to bid and information related to the advertisement from the advertiser via a predetermined bid page.

〔5−3.入札価格〕
ここで、入札装置100は、提示部133により提示する入札価格を、その領域に含まれる会話の価値に応じて算出してもよい。例えば、入札装置100は、使用された回数の多いルールを含む領域の入札価格を他の領域の入札価格よりも高額に設定してもよい。
[5-3. Bid price)
Here, the bid device 100 may calculate the bid price presented by the presentation unit 133 according to the value of the conversation included in the area. For example, the bidding apparatus 100 may set the bid price of an area including a rule that has been used many times higher than the bid price of another area.

また、入札装置100は、提示部133により提示する入札価格を、その領域におけるユーザの感情に応じて算出してもよい。例えば、入札装置100は、ユーザの感情がポジティブと推定される領域についての入札価格を、ユーザの感情がポジティブと推定される領域についての入札価格よりも高額に設定してもよい。また、入札装置100は、ユーザの感情がネガティブと推定される領域において広告を出力することを希望する広告主に対しては、ユーザの感情がネガティブと推定される領域について、他の広告主よりも高額な入札価格を提示してもよい。   Further, the bid device 100 may calculate the bid price presented by the presentation unit 133 according to the user's emotion in the area. For example, the bid device 100 may set a bid price for an area where the user's emotion is estimated to be positive to be higher than a bid price for an area where the user's emotion is estimated to be positive. In addition, for the advertiser who desires to output an advertisement in a region where the user's emotion is estimated to be negative, the bid device 100 is more than the other advertisers regarding the region where the user's emotion is estimated to be negative. You may also present an expensive bid price.

〔5−4.キーワードに基づく広告の抽出〕
また、上記第1の実施形態では、入札装置100は、判定ツリーを更新して応答生成サーバ30へ送信する。しかし、入札装置100は、広告情報をその都度応答生成サーバ30へ送信してもよい。この場合、入札装置100は、入札を希望する感情、広告出力を希望するキーワード、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付けてもよい(図11参照)。つまり、入札装置100は、各感情についてキーワードごとに広告の入札を受け付ける。また、この場合、入札装置100は、登録された入札情報の中から指定された感情に対応する入札情報を抽出する抽出部と備えてもよい。
[5-4. (Advertising based on keywords)
In the first embodiment, the bid device 100 updates the determination tree and transmits it to the response generation server 30. However, the bid device 100 may transmit the advertisement information to the response generation server 30 each time. In this case, the bidding apparatus 100 may accept an emotion that a bid is desired, a keyword that is desired to output an advertisement, and advertisement information that is desired to be output, for example, bid information that includes a bid / a bid price per time (FIG. 11). reference). That is, the bid device 100 accepts an advertisement bid for each keyword for each emotion. In this case, the bid device 100 may include an extraction unit that extracts bid information corresponding to the specified emotion from the registered bid information.

ここで、入札装置100の受付部134が広告出力を希望するキーワードを含む入札情報を受け付けた後の処理について説明する。まず、取得部131は、ユーザが対話エージェントシステムと会話している場合、取得した時点の対話において使用されているノードに関する情報や、ユーザに関する情報を応答生成サーバ30から取得する。この場合、ユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。そして、図示しない抽出部は、受付部134により受け付けた入札情報の中で、取得した時点の対話において使用されているノードにおいて推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部135は、その抽出された入札情報における広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、送信部135は、ユーザの発話の内容に関する情報が抽出された入札情報のキーワードに関連する場合、抽出された入札情報における広告情報を応答生成サーバ30へ送信してもよい。ここでいう、キーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードがユーザの発話の内容に関する情報中に含まれていること等をいう。また、入札情報のキーワードは、検出ノードにおいて検出に用いるワードと関連付けてもよい。この場合、入札装置100は、入札情報のキーワードと取得した時点の対話において使用されている検出ノードにおいて検出に用いるワードとが、所定の条件を満たす場合、例えば、一致または関連する場合、上記の処理を行ってもよい。   Here, a process after the reception unit 134 of the bid device 100 receives bid information including a keyword for which an advertisement output is desired will be described. First, when the user is conversing with the dialog agent system, the acquisition unit 131 acquires, from the response generation server 30, information related to the node used in the dialog at the time of acquisition and information related to the user. In this case, the information regarding the user includes information regarding the content of the user's utterance, for example, text information. Then, the extracting unit (not shown) extracts bid information corresponding to the emotion information that matches the emotion estimated in the node used in the conversation at the time of acquisition from the bid information received by the receiving unit 134. Here, when the keyword of the extracted bid information is included in the information related to the content of the user's utterance, the transmission unit 135 transmits the advertisement information in the extracted bid information to the response generation server 30. Thereafter, the response generation server 30 outputs an advertisement based on the received advertisement information. Thereby, the advertiser can output an advertisement in a dialogue in which both his / her desired emotion and keyword correspond, and can output an advertisement with high appeal to the user. Moreover, the transmission part 135 may transmit the advertisement information in the extracted bid information to the response generation server 30 when the information about the content of the user's utterance is related to the extracted bid information keyword. As used herein, “related to a keyword” means that when the keyword is “Kima”, a word having a meaning related to the meaning of the keyword, such as “Indian cuisine”, “Curry”, or “Lassi”, is spoken by the user. It is included in the information related to the contents of The keyword of the bid information may be associated with a word used for detection at the detection node. In this case, the bidding apparatus 100, when the keyword used for the bid information and the word used for detection in the detection node used in the dialog at the time of acquisition satisfy the predetermined condition, for example, when they match or relate, Processing may be performed.

〔5−5.装置構成〕
また、図4に示した入札装置100は、記憶部120を有しなくてもよい。具体的には、入札装置100は、記憶部120を保持するデータベースサーバと接続されてもよい。
[5-5. Device configuration〕
Further, the bidding apparatus 100 illustrated in FIG. 4 may not include the storage unit 120. Specifically, the bidding device 100 may be connected to a database server that holds the storage unit 120.

〔5−6.効果〕
上述してきたように、第1の実施形態に係る入札装置100は、推定部132と、提示部133とを有する。推定部132は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部133は、推定部132が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。
[5-6. effect〕
As described above, the bid device 100 according to the first embodiment includes the estimation unit 132 and the presentation unit 133. The estimation unit 132 estimates a user's emotion when having a conversation with the dialog agent system in the dialog agent system that interacts with the user. The presentation unit 133 presents emotion information indicating the user's emotion estimated by the estimation unit 132 to the advertiser of the advertisement output during the conversation.

これにより、第1の実施形態に係る入札装置100は、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment can make a presentation for improving the effect of the advertisement.

また、第1の実施形態に係る入札装置100は、受付部134を有する。受付部134は、提示部133により提示された感情情報に応じた広告を、広告主から受け付ける。   In addition, the bid device 100 according to the first embodiment includes a reception unit 134. The reception unit 134 receives an advertisement corresponding to the emotion information presented by the presentation unit 133 from the advertiser.

これにより、第1の実施形態に係る入札装置100は、感情情報に応じた広告を広告主から受け付けることができる。   Thereby, the bid apparatus 100 according to the first embodiment can accept an advertisement according to emotion information from the advertiser.

また、第1の実施形態に係る入札装置100において提示部133は、対話エージェントシステムとの会話のうち、ユーザが所定の感情であると推定される会話の領域を感情情報とともに広告主へ提示する。   In addition, in the bidding device 100 according to the first embodiment, the presentation unit 133 presents, to the advertiser, the conversation area in which the user is presumed to have a predetermined emotion in the conversation with the conversation agent system together with the emotion information. .

これにより、第1の実施形態に係る入札装置100は、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment can make a presentation for improving the effect of the advertisement.

また、第1の実施形態に係る入札装置100において提示部133は、ユーザの感情がポジティブであると推定される領域と他の領域とを識別可能に広告主へ提示する。   In addition, in the bid device 100 according to the first embodiment, the presentation unit 133 presents to the advertiser an area in which the user's emotion is estimated to be positive and another area that can be identified.

これにより、第1の実施形態に係る入札装置100は、ユーザはどの領域のノードがポジティブな感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment makes it easier for the user to visually recognize which region of the node corresponds to a positive emotion, and can make a presentation for improving the effectiveness of the advertisement.

また、第1の実施形態に係る入札装置100において提示部133は、ユーザの感情がネガティブであると推定される領域と他の領域とを識別可能に広告主へ提示する。   In addition, in the bidding apparatus 100 according to the first embodiment, the presentation unit 133 presents to the advertiser an area in which the user's emotion is estimated to be negative and another area that can be identified.

これにより、第1の実施形態に係る入札装置100は、ユーザはどの領域のノードがネガティブな感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment makes it easier for the user to visually recognize which region of the node corresponds to the negative emotion, and can make a presentation for improving the effectiveness of the advertisement.

また、第1の実施形態に係る入札装置100において提示部133は、ユーザが所定の感情であると推定される領域同士をクラスタリングすることにより、所定の感情に対応する領域を提示する。   In addition, in the bid device 100 according to the first embodiment, the presentation unit 133 presents a region corresponding to a predetermined emotion by clustering regions where the user is estimated to be the predetermined emotion.

これにより、第1の実施形態に係る入札装置100は、ユーザは各ノードがどの感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment makes it easier for the user to visually recognize which emotion each node corresponds to, and can make a presentation for improving the effect of the advertisement.

また、第1の実施形態に係る入札装置100において提示部133は、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させる。   Further, in the bid device 100 according to the first embodiment, the presentation unit 133 varies the conversation area in which the user is estimated to have a predetermined emotion according to the business type of the advertiser.

これにより、第1の実施形態に係る入札装置100は、広告主ごとに識別可能に提示する領域を出し分けることにより、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 100 according to the first embodiment performs the presentation for improving the effectiveness of the advertisement according to the business type of the advertiser by dividing the area to be presented identifiable for each advertiser. Can do.

また、第1の実施形態に係る入札装置100において提示部133は、領域に含まれる会話中に広告を出力するための入札価格を提示する。   In the bid device 100 according to the first embodiment, the presentation unit 133 presents a bid price for outputting an advertisement during the conversation included in the region.

これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。   Thereby, since the bidder 100 according to the first embodiment can determine whether or not the advertiser bids based on the bid price, the bid apparatus 100 presents to improve the effectiveness of the advertisement according to the business type of the advertiser. be able to.

また、第1の実施形態に係る入札装置100において提示部133は、領域に含まれる会話の価値に応じて算出される入札価格を提示する。   Further, in the bidding device 100 according to the first embodiment, the presentation unit 133 presents a bid price calculated according to the value of the conversation included in the area.

これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。   Thereby, since the bidder 100 according to the first embodiment can determine whether or not the advertiser bids based on the bid price, the bid apparatus 100 presents to improve the effectiveness of the advertisement according to the business type of the advertiser. be able to.

また、第1の実施形態に係る入札装置100において提示部133は、領域に対応するユーザの感情に応じて算出される入札価格を提示する。   Further, in the bid device 100 according to the first embodiment, the presentation unit 133 presents a bid price calculated according to the emotion of the user corresponding to the region.

これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告の効果を向上させるための提示を行うことができる。   Thereby, since the bidder 100 according to the first embodiment can determine whether or not the advertiser bids based on the bid price, it can make a presentation for improving the effectiveness of the advertisement.

(第2の実施形態)
上記第1の実施形態において説明したように、対話エージェントシステム1では、取得部131により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。すなわち、対話エージェントシステム1では、判定ツリーという過去のユーザとの対話等により生成された情報から推定されるユーザの感情に基づいて入札サービスを提供している。そこで、第2の実施形態では、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情に基づく入札サービスを提供する例について説明する。なお、第2の実施形態に係る対話エージェントシステムの構成は、図3に示した構成と同様であるので、以下では説明を省略する。
(Second Embodiment)
As described in the first embodiment, in the interactive agent system 1, the emotion of the user at each node in the determination tree acquired from the response generation server 30 by the acquisition unit 131 is estimated. In other words, the dialog agent system 1 provides a bidding service based on the user's emotion estimated from information generated by a dialog with a past user, such as a decision tree. Therefore, in the second embodiment, an example will be described in which a bidding service based on the user's emotion estimated from information related to the user having a conversation based on the dialog agent system and the determination tree is provided. Note that the configuration of the interactive agent system according to the second embodiment is the same as the configuration shown in FIG.

〔1.入札処理〕
まず、図11に示す例を用いて第2の実施形態に係る入札処理について説明する。図11に示すように、入札装置200は、推定されるユーザの各感情に対する入札一覧情報を広告主へ提示する(ステップS21)。図11に示す例において、入札装置200は、感情“ポジティブ”について、出力を希望する広告情報が“A店のカレーおいしいよ”であり、現在の入札価格が料金/1回につき“○○円”であることを提示する。また、入札装置200は、感情“ネガティブ”について、出力を希望する広告情報が“葬儀ならF社へご相談ください”であり、現在の入札価格が料金/1回につき“□□円”であることを提示する。なお、入札価格は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。
[1. Bidding process)
First, the bidding process according to the second embodiment will be described using the example shown in FIG. As shown in FIG. 11, the bid device 200 presents bid list information for each estimated emotion of the user to the advertiser (step S <b> 21). In the example shown in FIG. 11, for the emotion “positive”, the bidding apparatus 200 has the advertisement information desired to be output “Delicious curry at A store” and the current bid price is “XX yen per charge”. ”. In addition, the bid device 200 has the advertisement information desired to be output for the emotion “negative” as “Please consult with F company if it is a funeral”, and the current bid price is “□□ ¥” per charge. Present that. The bid price is not limited to the above. For example, when accepting a bid for a limited time period, the bid price can be appropriately changed depending on the bid conditions, such as presenting “XX million yen / month”.

続いて、入札装置200は、広告主から入札情報を受け付ける(ステップS22)。このとき、受け付ける入札情報としては、入札を希望するユーザの感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格等が含まれる。そして、入札装置200は、受け付けた入札価格が現在の入札価格を上回る場合、広告一覧情報において対応する感情の欄の情報を受け付けた入札情報により更新する。   Subsequently, the bid device 200 receives bid information from the advertiser (step S22). At this time, the accepted bid information includes the emotions of the user who wishes to bid, the advertisement information desired to be output, for example, the bid price per charge / time, and the like. Then, when the accepted bid price exceeds the current bid price, the bid device 200 updates the corresponding emotion information in the advertisement list information with the accepted bid information.

そして、ユーザが対話エージェントシステムと会話している場合(ステップS23)、応答生成サーバ30は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を入札装置200へ送信する(ステップS24)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置200は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。このとき、入札装置200は、例えば、ユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はネガティブであると推定してもよい。そして、入札装置200は、入札一覧情報の中で、ユーザに関する情報から推定される感情と一致する感情に対応する入札情報を抽出する(ステップS25)。入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、入札装置200は、抽出された入札情報における広告情報を応答生成サーバ30へ送信する(ステップS26)。その後、応答生成サーバ30は、受信した広告情報の広告をユーザに対して出力する。具体的には、ユーザに関する情報から推定される感情がポジティブである場合、入札装置200は、入札一覧情報中に感情“ポジティブ”に対応する入札情報があるため、感情“ポジティブ”の広告情報“A店のカレーおいしいよ”を応答生成サーバ30へ送信する。そして、応答生成サーバ30は、適宜のタイミングで“A店のカレーおいしいよ”をユーザに対して出力する。   Then, when the user is conversing with the dialog agent system (step S23), the response generation server 30 transmits information regarding the user who has a conversation based on the determination tree with the dialog agent system to the bid device 200 (step S24). . Here, the information regarding the user includes voice information acquired from the user's utterance. Thereafter, the bid device 200 estimates the user's emotion based on the information about the user acquired from the response generation server 30. At this time, for example, when the user's utterance is small or when the user's utterance is slow, the bidding apparatus 200 estimates that the emotion of the user who has a conversation based on the dialogue tree and the determination tree is negative. May be. Then, the bid device 200 extracts bid information corresponding to the emotion that matches the emotion estimated from the information related to the user from the bid list information (step S25). If there is an emotion that matches the emotion estimated from the information about the user in the bid list information, the bid device 200 transmits the advertisement information in the extracted bid information to the response generation server 30 (step S26). Thereafter, the response generation server 30 outputs the advertisement of the received advertisement information to the user. Specifically, when the emotion estimated from the information related to the user is positive, the bid apparatus 200 has the bid information corresponding to the emotion “positive” in the bid list information. “The curry of store A is delicious” is transmitted to the response generation server 30. Then, the response generation server 30 outputs “Delicious curry at store A” to the user at an appropriate timing.

このように、第2の実施形態に係る入札装置200が推定されるユーザの感情ごとに入札を受け付けて、応答生成サーバ30から取得したユーザに関する情報から推定されるユーザの感情と一致する広告情報を応答生成サーバ30へ送信する。そのため、対話エージェントシステムは、判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情に基づく広告をユーザへ出力することが可能となる。具体的には、入札装置200は、広告主に推定したユーザの感情を示す感情情報を提示することができる。これにより、入札装置200は、推定されるユーザの感情に対して広告の入札を広告主から受け付けることができる。これにより、入札装置200は、広告の効果を向上させる入札を受け付けることができる。つまり、入札装置200は、適切なタイミングでユーザに訴求力の高い広告を出力することを可能にする。なお、入札装置100は、応答生成サーバ30から取得したユーザに関する情報から推定されるユーザの感情と類似又は所定の対応関係にある入札情報における広告情報を応答生成サーバ30へ送信してもよい。   In this way, the bid information 200 according to the second embodiment accepts a bid for each estimated user emotion, and the advertisement information that matches the user emotion estimated from the information about the user acquired from the response generation server 30 Is transmitted to the response generation server 30. Therefore, the dialog agent system can output to the user an advertisement based on the user's emotion estimated from information regarding the user who has a conversation based on the determination tree. Specifically, the bid device 200 can present emotion information indicating the estimated user emotion to the advertiser. Thereby, the bid apparatus 200 can accept an advertisement bid from the advertiser for the estimated user's emotion. Thereby, the bid apparatus 200 can accept a bid for improving the effect of the advertisement. That is, the bid device 200 can output a highly appealing advertisement to the user at an appropriate timing. The bid device 100 may transmit advertisement information in the bid information similar to or in a predetermined correspondence with the user's emotion estimated from the information about the user acquired from the response generation server 30 to the response generation server 30.

〔2.入札装置の構成〕
次に、図12を用いて、第2の実施形態に係る入札装置200の構成について説明する。図12は、実施例に係る入札装置200の構成例を示す図である。図12に示すように、入札装置200は、通信部110と、記憶部220と、制御部230とを有する。なお、以下では、図4に示す第1の実施形態に係る入札装置100と重複する説明は省略する。
[2. Bidding equipment configuration]
Next, the configuration of the bidding apparatus 200 according to the second embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a configuration example of the bidding apparatus 200 according to the embodiment. As illustrated in FIG. 12, the bid device 200 includes a communication unit 110, a storage unit 220, and a control unit 230. In addition, below, the description which overlaps with the bid apparatus 100 which concerns on 1st Embodiment shown in FIG. 4 is abbreviate | omitted.

(記憶部220)
記憶部220は、例えば、図11に示すような広告主により登録された入札情報に基づいた入札一覧情報や応答生成サーバ30から取得したユーザに関する情報等を記憶する。
(Storage unit 220)
The storage unit 220 stores, for example, bid list information based on bid information registered by the advertiser as illustrated in FIG. 11, information about the user acquired from the response generation server 30, and the like.

図12に示すように、制御部230は、取得部231と、推定部232と、提示部233と、受付部234と、送信部235と、抽出部236とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 12, the control unit 230 includes an acquisition unit 231, an estimation unit 232, a presentation unit 233, a reception unit 234, a transmission unit 235, and an extraction unit 236. Information described below Implement or execute a processing function or action. Note that the internal configuration of the control unit 230 is not limited to the configuration illustrated in FIG. 12, and may be another configuration as long as information processing described later is performed. Further, the connection relationship between the processing units included in the control unit 230 is not limited to the connection relationship illustrated in FIG. 12, and may be another connection relationship.

(取得部231)
取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を応答生成サーバ30から取得する。ここで、取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を、例えば対話が進むたび、つまりノードが遷移するたびに応答生成サーバ30から取得してもよい。
(Acquisition unit 231)
The acquisition unit 231 acquires information about a user who has a conversation based on the dialog agent system and the determination tree from the response generation server 30. Here, the acquisition unit 231 may acquire information related to a user who has a conversation based on the dialog agent system and the determination tree, for example, from the response generation server 30 every time the conversation progresses, that is, every time a node transitions.

(推定部232)
推定部232は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。例えば、推定部232は、取得部231により応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。ここで、推定部232が推定する感情は、嬉しい、怒っている、哀しい、楽しい等、人間の感情の分類に沿って種々の適宜設定可能である。以下では、推定部232が推定する感情をポジティブ及びネガティブの2種類として説明する。この場合、推定部232は、例えば、ユーザの発話の抑揚が大きい場合やユーザの発話のテンポが良い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はポジティブであると推定してもよい。なお、取得部231が対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情を取得する場合、推定部232は、取得部231が取得したユーザの感情に関する情報を用いてもよい。このとき、記憶部220は、取得部231により応答生成サーバ30から取得したユーザの感情に関する情報を記憶する。
(Estimation unit 232)
The estimation unit 232 estimates the emotion of the user when having a conversation with the dialog agent system in the dialog agent system that interacts with the user. For example, the estimation unit 232 estimates the user's emotion based on information about the user acquired from the response generation server 30 by the acquisition unit 231. Here, the emotion estimated by the estimation unit 232 can be appropriately set in accordance with the classification of human emotions such as happy, angry, sad, and fun. Hereinafter, the emotion estimated by the estimation unit 232 will be described as two types, positive and negative. In this case, the estimation unit 232 estimates that the emotion of the user having a conversation based on the dialogue agent system and the determination tree is positive, for example, when the user's utterance inflection is large or the user's utterance is good. May be. In addition, when the acquisition part 231 acquires the emotion of the user who has a conversation based on a dialog agent system and a determination tree, the estimation part 232 may use the information regarding the user's emotion which the acquisition part 231 acquired. At this time, the storage unit 220 stores information on the user's emotion acquired from the response generation server 30 by the acquisition unit 231.

(提示部233)
提示部233は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部233は、推定されるユーザの各感情に対する入札一覧情報を広告主端末60へ提示する。図11に示す例において、提示部233は、感情“ポジティブ”について、出力を希望する広告情報が“A店のカレーおいしいよ”であり、現在の入札価格が料金/1回につき“○○円”であることを提示する。また、提示部233は、感情“ネガティブ”について、出力を希望する広告情報が“葬儀ならF社へご相談ください”であり、現在の入札価格が料金/1回につき“□□円”であることを提示する。なお、入札価格は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。
(Presentation unit 233)
The presenting unit 233 presents emotion information indicating the user's emotion estimated by the estimating unit to the advertiser of the advertisement output during the conversation. For example, the presentation unit 233 presents bid list information for each estimated emotion of the user to the advertiser terminal 60. In the example shown in FIG. 11, for the emotion “positive”, the presentation unit 233 indicates that the advertisement information desired to be output is “Delicious curry at store A”, and the current bid price is “XX yen per charge”. ”. In addition, the presentation unit 233 has the advertisement information that is desired to be output for the emotion “negative” as “Please consult with F company if it is a funeral”, and the current bid price is “□□ ¥” per charge. Present that. The bid price is not limited to the above. For example, when accepting a bid for a limited time period, the bid price can be appropriately changed depending on the bid conditions, such as presenting “XX million yen / month”.

ここでは図示することは省略するが、提示部233は、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札を希望するユーザの感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格等が含まれる入札情報を入力することにより入札を行う。   Although illustration is omitted here, the presentation unit 233 presents a bid page for registering bid information to the advertiser terminal 60. The advertiser performs a bid by inputting bid information including the emotion of the user who wishes to bid, the advertisement information desired to be output, for example, a bid / a bid price per time.

(受付部234)
受付部234は、所定の入札ページを介して、入札情報を広告主端末60から受信する。図11に示す例において、受付部234が受け付ける入札情報としては、入札を希望する感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる。そして、入受付部234は、受け付けた入札価格が現在の入札価格を上回る場合、広告一覧情報における対応する感情の欄を受け付けた入札情報により更新する。
(Reception unit 234)
The accepting unit 234 receives bid information from the advertiser terminal 60 via a predetermined bid page. In the example shown in FIG. 11, the bid information received by the receiving unit 234 includes emotions for which bids are desired, advertisement information for which output is desired, for example, a bid price per charge. When the received bid price exceeds the current bid price, the entry receiving unit 234 updates the corresponding emotion column in the advertisement list information with the received bid information.

(送信部235)
送信部235は、図11に示す例における広告一覧情報中で、以下に説明する抽出部236により抽出された入札情報における広告情報を応答生成サーバ30へ送信する。そして、応答生成サーバ30は、ユーザに対して適宜のタイミングで、送信部235から受信した広告情報の広告を出力する。
(Transmitter 235)
The transmission unit 235 transmits the advertisement information in the bid information extracted by the extraction unit 236 described below to the response generation server 30 in the advertisement list information in the example illustrated in FIG. And the response production | generation server 30 outputs the advertisement of the advertisement information received from the transmission part 235 at a suitable timing with respect to a user.

(抽出部236)
抽出部236は、取得部231により取得されたユーザに関する情報に基づいて推定されるユーザの感情と、ユーザが行っている会話について推定部232が推定した感情との比較結果に基づいて、会話中に出力される広告を抽出する。つまり、本実施形態において、抽出部236は、図11に示す例における入札一覧情報の中で、推定部232により推定される感情と一致する感情に対応する入札情報を抽出する。したがって、入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、上述したように、送信部235は、抽出部236により抽出された入札情報における広告情報を応答生成サーバ30へ送信する。具体的には、ユーザに関する情報から推定される感情がネガティブである場合、抽出部236は、入札一覧情報中に感情“ネガティブ”に対応する入札情報を抽出する。そして、送信部235は、感情“ネガティブ”の広告情報“葬儀ならF社へご相談ください”を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、適宜のタイミングで“葬儀ならF社へご相談ください”をユーザに対して出力する。
(Extractor 236)
Based on the comparison result between the emotion of the user estimated based on the information about the user acquired by the acquisition unit 231 and the emotion estimated by the estimation unit 232 for the conversation the user is performing, Extract advertisements that are output to. That is, in the present embodiment, the extraction unit 236 extracts bid information corresponding to an emotion that matches the emotion estimated by the estimation unit 232 from the bid list information in the example illustrated in FIG. Therefore, when there is an emotion in the bid list information that matches the emotion estimated from the information related to the user, as described above, the transmission unit 235 sends the advertisement information in the bid information extracted by the extraction unit 236 to the response generation server. To 30. Specifically, when the emotion estimated from the information about the user is negative, the extraction unit 236 extracts bid information corresponding to the emotion “negative” from the bid list information. Then, the transmitting unit 235 transmits the emotion “negative” advertisement information “please consult company F for funeral” to the response generation server 30. Thereafter, the response generation server 30 outputs “consult F company for funeral” to the user at an appropriate timing.

〔3.入札処理手順〕
次に、図13を用いて、第2の実施形態に係る対話エージェントシステムによる入札処理の手順について説明する。図13は、第2の実施形態に係る対話エージェントシステムによる入札処理手順を示すシーケンス図である。
[3. (Bid processing procedure)
Next, with reference to FIG. 13, a procedure of bidding processing by the interactive agent system according to the second embodiment will be described. FIG. 13 is a sequence diagram showing a bidding process procedure by the dialog agent system according to the second embodiment.

図12に示すように、入札装置200は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む入札一覧情報を広告主へ提示する(ステップS201)。続いて、入札装置200は、広告主端末60から広告情報を含む入札情報を受け付ける(ステップS202)。   As shown in FIG. 12, the bidding apparatus 200 presents bid list information including emotion information estimated as emotions of the user who uses the interactive agent system to the advertiser (step S201). Subsequently, the bid device 200 receives bid information including advertisement information from the advertiser terminal 60 (step S202).

そして、ユーザが対話エージェントシステムと会話している場合(ステップS203)、応答生成サーバ30は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を入札装置200へ送信する(ステップS204)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。   Then, when the user is conversing with the dialog agent system (step S203), the response generation server 30 transmits information regarding the user who has a conversation based on the dialog agent system and the determination tree to the bid device 200 (step S204). . Here, the information regarding the user includes voice information acquired from the user's utterance.

続いて、入札装置200は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、入札装置200は、入札一覧情報の中で、ユーザに関する情報から推定される感情と一致する入札情報を抽出する(ステップS205)。   Subsequently, the bid device 200 estimates the user's emotion based on the information about the user acquired from the response generation server 30. Then, the bid device 200 extracts bid information that matches the emotion estimated from the information related to the user from the bid list information (step S205).

入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、入札装置200は、その感情に対応する入札情報における広告情報を応答生成サーバ30へ送信する(ステップS206)。その後、応答生成サーバ30は、受信した広告情報を反映させ、音声サービスを提供する(ステップS207)。具体的には、応答生成サーバ30は、ユーザに対して適宜のタイミングで、入札装置200から受信した広告情報の広告を出力する。   If there is an emotion in the bid list information that matches the emotion estimated from the information about the user, the bid device 200 transmits the advertisement information in the bid information corresponding to the emotion to the response generation server 30 (step S206). Thereafter, the response generation server 30 reflects the received advertisement information and provides a voice service (step S207). Specifically, the response generation server 30 outputs an advertisement of advertisement information received from the bid device 200 to the user at an appropriate timing.

〔4.変形例〕
上述した第2の実施形態に係る対話エージェントシステムは、上記第2の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、以下では、上記第2の実施形態に係る対話エージェントシステムを変形した実施形態について説明する。
[4. (Modification)
The dialog agent system according to the second embodiment described above may be implemented in various different forms other than the second embodiment. Therefore, in the following, an embodiment in which the dialog agent system according to the second embodiment is modified will be described.

〔4−1.キーワードに応じた広告出力〕
上記第2の実施形態では、入札装置200の受付部234は、入札を希望する感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付ける。しかし、受付部234は、上記のような感情や広告情報に加えて、広告出力を希望するキーワードも受け付けてもよい。この場合、図11に示す例における入札一覧情報には各入札に対応するキーワードが含まれる。つまり、受付部234は、各感情についてキーワードごとに広告の入札を受け付けることができる。
[4-1. (Ad output according to keyword)
In the second embodiment, the accepting unit 234 of the bidding apparatus 200 accepts the bid information including the emotion that the user wishes to bid and the advertisement information that he / she wants to output, for example, the fee / a bid price per time. However, the accepting unit 234 may accept a keyword for which an advertisement output is desired in addition to the above emotion and advertisement information. In this case, the keyword corresponding to each bid is included in the bid list information in the example shown in FIG. That is, the reception unit 234 can receive an advertisement bid for each keyword for each emotion.

ここで、受付部234が広告出力を希望するキーワードを含む入札情報を受け付けた後の処理について説明する。まず、取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を応答生成サーバ30から取得する。この場合、取得部231により応答生成サーバ30から取得したユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。そして、推定部232は、取得部231が取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、抽出部236は、入札一覧情報の中で、推定部232により推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部235は、その抽出された入札情報における広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、送信部235は、ユーザの発話の内容に関する情報が抽出された入札情報のキーワードに関連する場合、抽出された入札情報における広告情報を応答生成サーバ30へ送信してもよい。ここでいう、ユーザの発話の内容に関する情報がキーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードがユーザの発話の内容に関する情報中に含まれていること等をいう。   Here, a process after the reception unit 234 receives bid information including a keyword for which an advertisement output is desired will be described. First, the acquisition unit 231 acquires information about a user who has a conversation based on the dialog agent system and the determination tree from the response generation server 30. In this case, the information on the user acquired from the response generation server 30 by the acquisition unit 231 includes information on the content of the user's utterance, for example, text information. And the estimation part 232 estimates a user's emotion based on the information regarding the user which the acquisition part 231 acquired. Then, the extraction unit 236 extracts bid information corresponding to emotion information that matches the emotion estimated by the estimation unit 232 from the bid list information. Here, when the keyword of the extracted bid information is included in the information regarding the content of the user's utterance, the transmission unit 235 transmits the advertisement information in the extracted bid information to the response generation server 30. Thereafter, the response generation server 30 outputs an advertisement based on the received advertisement information. Thereby, the advertiser can output an advertisement in a dialogue in which both his / her desired emotion and keyword correspond, and can output an advertisement with high appeal to the user. Moreover, the transmission part 235 may transmit the advertisement information in the extracted bid information to the response generation server 30 when the information about the content of the user's utterance is related to the extracted keyword of the bid information. The information related to the content of the user's utterance here is related to the keyword, for example, when the keyword is “Kima”, it is related to the meaning of the keyword such as “Indian cuisine”, “Curry”, “Lassi”, etc. This means that a meaningful word is included in the information related to the content of the user's utterance.

〔4−2.効果〕
上述してきたように、第2の実施形態に係る入札装置200は、取得部231と、推定部232と、提示部233と、抽出部236とを有する。取得部231は、対話エージェントシステムと会話しているユーザに関する情報を取得する。推定部232は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部233は、推定部232が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。抽出部236は、取得部231により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について推定部232が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する。
[4-2. effect〕
As described above, the bidding apparatus 200 according to the second embodiment includes the acquisition unit 231, the estimation unit 232, the presentation unit 233, and the extraction unit 236. The acquisition unit 231 acquires information regarding a user who is having a conversation with the dialog agent system. The estimation unit 232 estimates the emotion of the user when having a conversation with the dialog agent system in the dialog agent system that interacts with the user. The presentation unit 233 presents emotion information indicating the user's emotion estimated by the estimation unit 232 to the advertiser of the advertisement output during the conversation. The extraction unit 236 is based on a comparison result between the emotion of the user estimated based on the information about the user acquired by the acquisition unit 231 and the emotion estimated by the estimation unit 232 regarding the conversation the user is performing. The advertisement output during the conversation is extracted.

これにより、第2の実施形態に係る入札装置200は、利用しているユーザに関する情報から推定されるユーザの感情に基づく広告をユーザへ出力することが可能し、広告の効果を向上させるための提示を行うことができる。   Thereby, the bidding apparatus 200 according to the second embodiment can output an advertisement based on the user's emotion estimated from the information about the user who is using it to the user, and improve the effect of the advertisement. You can make a presentation.

(第3の実施形態)
第3の実施形態では、判定ツリーから推定されるユーザの感情と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情とに基づく入札サービスを提供する例について説明する。なお、第3の実施形態に係る対話エージェントシステムの構成は、図3に示した構成と同様であるので、以下では説明を省略する。
(Third embodiment)
In the third embodiment, an example of providing a bidding service based on a user's emotion estimated from a determination tree and a user's emotion estimated from information on a user who has a conversation based on the dialog agent system and the determination tree explain. Note that the configuration of the interactive agent system according to the third embodiment is the same as the configuration shown in FIG.

〔1.入札処理〕
まず、図14に示す例を用いて第3の実施形態に係る入札処理について説明する。図14に示すように、入札装置300は、判定ツリーを応答生成サーバ30から取得する(ステップS31)。この場合、入札装置300は、例えば判定ツリーが更新されるたびに判定ツリーを応答生成サーバ30から取得してもよい。続いて、入札装置300は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する。そして、入札装置300は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS32)。図14に示す例において、入札装置300は、判定ツリーにおいてユーザの感情がポジティブであると推定される領域と、ネガティブであると判定された領域とをそれぞれ点線で囲み、その感情を表す文字とともに提示する。このとき、入札装置300は、判定ツリー全体を広告主へ提示してもよいし、感情情報を含む判定ツリーの一部を提示してもよい。図14の例の場合、入札装置300は、ユーザの感情がポジティブであることを示す領域と、ユーザの感情がネガティブであることを示す領域とを識別可能に判定ツリーを提示する。
[1. Bidding process)
First, the bidding process according to the third embodiment will be described using the example shown in FIG. As shown in FIG. 14, the bid apparatus 300 acquires a determination tree from the response generation server 30 (step S31). In this case, the bidding apparatus 300 may acquire the determination tree from the response generation server 30 every time the determination tree is updated, for example. Subsequently, based on the acquired determination tree, the bid device 300 estimates the user's emotion at each node in the determination tree. Then, the bidding device 300 presents a determination tree including emotion information estimated as the emotion of the user who uses the dialog agent system (step S32). In the example shown in FIG. 14, the bidding apparatus 300 surrounds an area in which a user's emotion is estimated to be positive and an area determined to be negative in the determination tree with dotted lines, together with characters representing the emotion. Present. At this time, the bidding apparatus 300 may present the entire determination tree to the advertiser, or may present a part of the determination tree including emotion information. In the case of the example in FIG. 14, the bidding apparatus 300 presents a determination tree so that an area indicating that the user's emotion is positive and an area indicating that the user's emotion is negative can be identified.

続いて、入札装置300は、広告主から入札情報を受け付ける(ステップS33)。このとき、受け付ける入札情報としては、追加する新たなルールである広告に関する動作ノードの情報や入札価格に関する情報等が含まれてもよい。   Subsequently, the bid device 300 receives bid information from the advertiser (step S33). At this time, the accepted bid information may include information on an operation node related to an advertisement, information on a bid price, and the like, which are new rules to be added.

そして、ユーザ端末10が対話エージェントシステムと会話している場合(ステップS34)、応答生成サーバ30は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを入札装置300へ送信する(ステップS35)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置300は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。このとき、入札装置300は、例えば、ユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はネガティブであると推定してもよい。   When the user terminal 10 is talking to the dialog agent system (step S34), the response generation server 30 is based on the information about the node used in the dialog at the time of acquisition, the dialog agent system, and the determination tree. Information regarding the user who has a conversation is transmitted to the bid device 300 (step S35). Here, the information regarding the user includes voice information acquired from the user's utterance. Thereafter, the bid device 300 estimates the user's emotion based on the information about the user acquired from the response generation server 30. At this time, the bidding apparatus 300 estimates that, for example, when the user's utterance inflection is small or when the user's utterance is slow, the emotion of the user who has a conversation based on the determination tree with the dialog agent system is negative. May be.

そして、受け付けた入札情報に対応するノードと、取得した時点の対話において使用されているノードが一致した場合、入札装置300は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較した結果に応じた入札情報を抽出する(ステップS36)。上記比較の結果が所定の条件を満たす場合、入札装置300は、落札が決定した広告主から受け付けた入札情報に含まれる広告に関する新たなルールである動作ノードの情報を基に判定ツリーを更新し、その更新した判定ツリーを応答生成サーバ30へ送信する(ステップS37)。なお、ここでいう、所定の条件とは、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とが一致することであってもよい。   If the node corresponding to the accepted bid information matches the node used in the conversation at the time of acquisition, the bid device 300 is estimated from the user's emotion estimated from the determination tree and the information about the user. The bid information corresponding to the result of comparing with the emotion is extracted (step S36). When the result of the comparison satisfies a predetermined condition, the bidding apparatus 300 updates the determination tree based on the information of the operation node, which is a new rule related to the advertisement included in the bid information received from the advertiser determined to make a successful bid. Then, the updated determination tree is transmitted to the response generation server 30 (step S37). Here, the predetermined condition may be that the emotion of the user estimated from the determination tree matches the emotion estimated from the information about the user.

このように、第3の実施形態に係る入札装置300が広告主に感情情報を含む判定ツリーを提示することができる。そのため、広告主は、自身の広告に適した会話の流れとユーザの感情とに合わせて広告を追加することができる。これにより、入札装置300は、広告の効果を向上させる入札を受け付けることができる。   As described above, the bidding apparatus 300 according to the third embodiment can present a determination tree including emotion information to the advertiser. Therefore, the advertiser can add an advertisement in accordance with the flow of conversation suitable for his / her advertisement and the emotion of the user. Thereby, the bid apparatus 300 can accept a bid for improving the effect of the advertisement.

〔2.入札装置の構成〕
次に、図15を用いて、第3の実施形態に係る入札装置300の構成について説明する。図15は、実施例に係る入札装置300の構成例を示す図である。図15に示すように、入札装置300は、通信部110と、記憶部320と、制御部330とを有する。なお、以下では、図4に示す第1の実施形態に係る入札装置100や図12に示す第2の実施形態に係る入札装置200に重複する説明は省略する。
[2. Bidding equipment configuration]
Next, the configuration of the bidding apparatus 300 according to the third embodiment will be described with reference to FIG. FIG. 15 is a diagram illustrating a configuration example of the bidding apparatus 300 according to the embodiment. As shown in FIG. 15, the bid device 300 includes a communication unit 110, a storage unit 320, and a control unit 330. In addition, below, the description which overlaps with the bid apparatus 100 which concerns on 1st Embodiment shown in FIG. 4, and the bid apparatus 200 which concerns on 2nd Embodiment shown in FIG. 12 is abbreviate | omitted.

(記憶部320)
記憶部320は、例えば、応答生成サーバ30から取得した判定ツリーや、ユーザに関する情報や、対話エージェントシステムを利用するユーザの感情として推定される感情情報や、広告主により登録された入札情報等を記憶する。
(Storage unit 320)
The storage unit 320 includes, for example, the determination tree acquired from the response generation server 30, information about the user, emotion information estimated as a user's emotion using the interactive agent system, bid information registered by the advertiser, and the like. Remember.

図15に示すように、制御部330は、取得部331と、推定部232と、提示部333と、受付部334と、送信部335と、抽出部336を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図15に示した接続関係に限られず、他の接続関係であってもよい。   As illustrated in FIG. 15, the control unit 330 includes an acquisition unit 331, an estimation unit 232, a presentation unit 333, a reception unit 334, a transmission unit 335, and an extraction unit 336. Information processing described below Realize or execute the functions and operations of Note that the internal configuration of the control unit 330 is not limited to the configuration illustrated in FIG. 15, and may be another configuration as long as information processing described later is performed. Further, the connection relationship between the processing units included in the control unit 330 is not limited to the connection relationship illustrated in FIG. 15, and may be another connection relationship.

(取得部331)
取得部331は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する。この場合、取得部331は、例えば判定ツリーが更新されるたびに判定ツリーを応答生成サーバ30から取得してもよい。また、取得部331は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを応答生成サーバ30から取得する。ここで、取得部331は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを、例えば対話が進むたび、つまりノードが遷移するたびに応答生成サーバ30から取得してもよい。
(Acquisition unit 331)
The acquisition unit 331 acquires from the response generation server 30 a determination tree that is information relating to the rules of the dialog that the response generation server 30 uses for dialog with the user. In this case, the acquisition unit 331 may acquire the determination tree from the response generation server 30 every time the determination tree is updated, for example. Further, the acquisition unit 331 acquires from the response generation server 30 information related to the node used in the conversation at the time of acquisition and information related to the user who has a conversation based on the dialog agent system and the determination tree. Here, the acquisition unit 331 obtains information on the node used in the dialog at the time of acquisition and information on the user who has a conversation based on the dialog agent system and the determination tree. You may acquire from the response production | generation server 30 whenever it changes.

(推定部332)
推定部332は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。例えば、推定部332は、取得部331により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。また、推定部332は、取得部331により応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。つまり、推定部332は、判定ツリー中の各ノードにおけるユーザの感情と、ユーザに関する情報に基づいたユーザの感情とを推定する。
(Estimation unit 332)
The estimation unit 332 estimates the emotion of the user when having a conversation with the dialog agent system in the dialog agent system that interacts with the user. For example, the estimation unit 332 estimates the user's emotion at each node in the determination tree acquired from the response generation server 30 by the acquisition unit 331. Further, the estimation unit 332 estimates the user's emotion based on the information about the user acquired from the response generation server 30 by the acquisition unit 331. That is, the estimation unit 332 estimates the user's emotion at each node in the determination tree and the user's emotion based on the information about the user.

(提示部333)
提示部333は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部333は、図14に示すように、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報を含む判定ツリーを広告主端末60へ提示する。また、提示部333は、図4に示す提示部133と同様の機能を有する。
(Presentation part 333)
The presentation unit 333 presents emotion information indicating the user's emotion estimated by the estimation unit to the advertiser of the advertisement that is output during the conversation. For example, as shown in FIG. 14, the presentation unit 333 presents to the advertiser terminal 60 a determination tree that includes emotion information estimated as the user's emotion at each node in the determination tree. The presentation unit 333 has the same function as the presentation unit 133 illustrated in FIG.

ここでは図示することは省略するが、提示部333は、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札ページを用いて追加する新たなノードや入札価格等の情報を入力することにより入札を行う。   Although illustration is omitted here, the presentation unit 333 presents a bid page for registering bid information to the advertiser terminal 60. The advertiser performs a bid by inputting information such as a new node to be added and a bid price using the bid page.

(受付部334)
受付部334は、所定の入札ページを介して、入札情報を広告主端末60から受信する。また、受付部334は、図4に示す受付部134と同様の機能を有する。
(Reception unit 334)
The accepting unit 334 receives bid information from the advertiser terminal 60 via a predetermined bid page. The reception unit 334 has the same function as the reception unit 134 illustrated in FIG.

(送信部335)
送信部335は、以下に説明する抽出部336により更新された判定ツリーを応答生成サーバ30へ送信する。そして、送信部335から判定ツリーを受信した応答生成サーバ30は、受信した判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
(Transmitter 335)
The transmission unit 335 transmits the determination tree updated by the extraction unit 336 described below to the response generation server 30. And the response production | generation server 30 which received the determination tree from the transmission part 335 determines the response message returned to a user with respect to the input message which is a user's utterance based on the received determination tree.

(抽出部336)
抽出部336は、取得部331により取得されたユーザに関する情報に基づいて推定されるユーザの感情と、ユーザが行っている会話について推定部332が推定した感情との比較結果に基づいて、会話中に出力される広告を抽出する。つまり、本実施形態において、抽出部336は、広告主が新たな動作ノードの追加を入札したノードと、取得部331により取得した使用されているノードが一致した場合、その広告主の入札した入札情報を抽出する。そして、抽出部336は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較する。判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす場合、抽出部336は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを更新する。そして、送信部335は、その更新した判定ツリーを応答生成サーバ30へ送信する。
(Extractor 336)
Based on the comparison result between the user's emotion estimated based on the information about the user acquired by the acquisition unit 331 and the emotion estimated by the estimation unit 332 for the conversation the user is performing, the extraction unit 336 Extract advertisements that are output to. In other words, in the present embodiment, the extraction unit 336, when the node for which the advertiser has bid for the addition of a new operation node matches the used node acquired by the acquisition unit 331, the bid for which the advertiser has bid. Extract information. Then, the extracting unit 336 compares the user's emotion estimated from the determination tree with the emotion estimated from the information related to the user. When the result of the comparison between the user's emotion estimated from the determination tree and the emotion estimated from the information related to the user satisfies a predetermined condition, the extraction unit 336 is included in the bid information received from the advertiser determined to be successful The decision tree is updated based on the information of the operation node related to the advertisement, which is a new rule. Then, the transmission unit 335 transmits the updated determination tree to the response generation server 30.

なお、ここでいう、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果についての所定の条件とは、両感情が類似することであってもよい。また、抽出部336は、取得部331により取得した使用されているノードが、広告主が新たな動作ノードの追加を入札したノードに近接している場合に、上記判定ツリーの更新処理を実行してもよい。また、両感情の比較に結果における所定の条件として、両感情が反対の関係にある場合としてもよい。例えば、判定ツリーから推定されるユーザの感情がポジティブであって、ユーザに関する情報から推定される感情がネガティブである場合、対話エージェントシステムは、病院に関する広告等をユーザへ出力してもよい。また、この場合、受付部334が広告主から受け付ける入札情報には、上記所定の条件に関する情報が含まれてもよい。   Here, the predetermined condition regarding the result of comparison between the emotion of the user estimated from the determination tree and the emotion estimated from the information about the user may be that both emotions are similar. In addition, the extraction unit 336 executes the determination tree update process when the used node acquired by the acquisition unit 331 is close to the node for which the advertiser has bid for the addition of a new operation node. May be. Moreover, it is good also as a case where both emotions have the opposite relationship as a predetermined condition in a result for comparison of both emotions. For example, when the emotion of the user estimated from the determination tree is positive and the emotion estimated from the information about the user is negative, the dialogue agent system may output an advertisement or the like regarding the hospital to the user. In this case, the bid information received by the receiving unit 334 from the advertiser may include information on the predetermined condition.

〔3.入札処理手順〕
次に、図16を用いて、第3の実施形態に係る対話エージェントシステムによる入札処理の手順について説明する。図16は、第3の実施形態に係る対話エージェントシステムによる入札処理手順を示すシーケンス図である。
[3. (Bid processing procedure)
Next, with reference to FIG. 16, a procedure of bidding processing by the interactive agent system according to the third embodiment will be described. FIG. 16 is a sequence diagram showing a bidding process procedure by the dialog agent system according to the third embodiment.

図16に示すように、入札装置300は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する(ステップS301)。この場合、入札装置300は、取得した判定ツリーを記憶部320に格納する。そして、入札装置300は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する(ステップS302)。その後、入札装置300は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS303)。   As illustrated in FIG. 16, the bid device 300 obtains from the response generation server 30 a determination tree that is information relating to the rules of the dialog that the response generation server 30 uses for the dialog with the user (step S301). In this case, the bid device 300 stores the acquired determination tree in the storage unit 320. Then, the bidding apparatus 300 estimates the user's emotion at each node in the determination tree based on the acquired determination tree (step S302). Thereafter, the bidding device 300 presents a determination tree including emotion information estimated as the emotion of the user who uses the dialog agent system (step S303).

続いて、入札装置300は、所定の入札ページを介して、広告主端末60から新たなノードを含む入札情報を受信する(ステップS304)。   Subsequently, the bid apparatus 300 receives bid information including a new node from the advertiser terminal 60 via a predetermined bid page (step S304).

そして、ユーザ端末10が対話エージェントシステムと会話している場合(ステップS305)、応答生成サーバ30は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを入札装置300へ送信する(ステップS306)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置300は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、広告主端末60が新たな動作ノードの追加を入札したノードと、ユーザ端末10により使用されているノードが一致した場合、入札装置300は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較する(ステップS307)。   When the user terminal 10 is talking to the dialog agent system (step S305), the response generation server 30 is based on the information about the node used in the dialog at the time of acquisition, the dialog agent system, and the determination tree. Information related to the user having the conversation is transmitted to the bid device 300 (step S306). Here, the information regarding the user includes voice information acquired from the user's utterance. Thereafter, the bid device 300 estimates the user's emotion based on the information about the user acquired from the response generation server 30. When the node on which the advertiser terminal 60 bids for the addition of a new operation node matches the node used by the user terminal 10, the bidding device 300 determines the user's emotion estimated from the determination tree, and the user Is compared with the emotion estimated from the information related to (step S307).

判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす、例えば両感情が一致する場合、入札装置300は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを生成し(ステップS308)、新たなルールを含んだ判定ツリーを応答生成サーバ30へ送信する(ステップS309)。その後、応答生成サーバ30は、入札装置300から受信した新たなノードを含んだ判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定し、音声サービスを提供する(ステップS310)。   When the result of the comparison between the user's emotion estimated from the determination tree and the emotion estimated from the information related to the user satisfies a predetermined condition, for example, both emotions match, the bidding device 300 determines the advertiser whose bid has been determined. The decision tree is generated based on the information of the operation node related to the advertisement, which is a new rule included in the bid information received from (Step S308), and the determination tree including the new rule is transmitted to the response generation server 30 (Step S308). S309). Thereafter, the response generation server 30 determines a response message to be returned to the user in response to the input message that is the user's utterance based on the determination tree including the new node received from the bid device 300, and provides a voice service. (Step S310).

〔4.変形例〕
上述した第3の実施形態に係る対話エージェントシステムは、第3の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、第3の実施形態に係る対話エージェントシステムを変形した実施形態について説明する。
[4. (Modification)
The dialog agent system according to the third embodiment described above may be implemented in various different forms other than the third embodiment. Therefore, a modified embodiment of the dialog agent system according to the third embodiment will be described.

〔4−1.キーワードに基づく広告の抽出〕
上記第3の実施形態では、入札装置300は、判定ツリーを更新して応答生成サーバ30へ送信する。しかし、入札装置300は、広告情報をその都度応答生成サーバ30へ送信してもよい。この場合、入札装置300は、入札を希望する感情、広告出力を希望するキーワード、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付けてもよい(図11参照)。つまり、入札装置300は、各感情についてキーワードごとに広告の入札を受け付ける。
[4-1. (Advertising based on keywords)
In the third embodiment, the bid device 300 updates the determination tree and transmits it to the response generation server 30. However, the bid device 300 may transmit the advertisement information to the response generation server 30 each time. In this case, the bidding apparatus 300 may accept an emotion that a bid is desired, a keyword that is desired to output an advertisement, and advertisement information that is desired to be output, for example, bid information including a bid / a bid price per time (FIG. 11). reference). That is, the bid device 300 accepts an advertisement bid for each keyword for each emotion.

ここで、入札装置300の受付部334が広告出力を希望するキーワードを受け付けた後の処理について説明する。まず、取得部131は、ユーザが対話エージェントシステムと会話している場合、取得した時点の対話において使用されているノードに関する情報や、ユーザに関する情報を応答生成サーバ30から取得する。この場合、ユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。   Here, a process after the accepting unit 334 of the bid device 300 accepts a keyword for which an advertisement output is desired will be described. First, when the user is conversing with the dialog agent system, the acquisition unit 131 acquires, from the response generation server 30, information related to the node used in the dialog at the time of acquisition and information related to the user. In this case, the information regarding the user includes information regarding the content of the user's utterance, for example, text information.

ここで、抽出部336は、取得した時点の対話において使用されているノードにおいて推定される感情とユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす、例えば両感情が一致する場合、次の処理を行う。抽出部336は、受付部334により受け付けた入札情報の中で、ユーザに関する情報から推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された感情に対応する入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部335は、その抽出された感情に対応する広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、入札装置300は、取得した時点の対話において使用されているノードにおいて推定される感情とユーザに関する情報から推定される感情との両方を用いて、ユーザの感情を推定しているため、より精度よくユーザの感情を推定できる。また、送信部335は、ユーザの発話の内容に関する情報が抽出された感情に対応する入札情報のキーワードに関連する場合、出された感情に対応する広告情報を応答生成サーバ30へ送信してもよい。ここでいう、キーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードが含まれていること等をいう。また、入札情報のキーワードは、検出ノードにおいて検出に用いるワードと関連付けてもよい。この場合、入札装置300は、入札情報のキーワードと取得した時点の対話において使用されている検出ノードにおいて検出に用いるワードとが、所定の条件を満たす場合、例えば一致または関連する場合、上記の処理を行ってもよい。   Here, the extraction unit 336 satisfies the predetermined result of the comparison between the emotion estimated at the node used in the acquired dialogue and the emotion estimated from the information about the user, for example, both emotions match. If so, the following processing is performed. The extraction unit 336 extracts bid information corresponding to emotion information that matches emotion estimated from information about the user, from among the bid information received by the reception unit 334. Here, when the keyword of the bid information corresponding to the extracted emotion is included in the information regarding the content of the user's utterance, the transmission unit 335 sends the advertisement information corresponding to the extracted emotion to the response generation server 30. Send to. Thereafter, the response generation server 30 outputs an advertisement based on the received advertisement information. Thereby, the advertiser can output an advertisement in a dialogue in which both his / her desired emotion and keyword correspond, and can output an advertisement with high appeal to the user. In addition, since the bid device 300 estimates the user's emotion using both the emotion estimated in the node used in the conversation at the time of acquisition and the emotion estimated from the information about the user, The user's emotion can be estimated with high accuracy. Further, the transmission unit 335 may transmit the advertisement information corresponding to the issued emotion to the response generation server 30 when the information about the content of the user's utterance is related to the keyword of the bid information corresponding to the extracted emotion. Good. As used herein, “related to a keyword” includes words having a meaning related to the meaning of the keyword, such as “Indian cuisine”, “Curry”, and “Lassi” when the keyword is “Kima”. It means being. The keyword of the bid information may be associated with a word used for detection at the detection node. In this case, the bidding apparatus 300 performs the above processing when the keyword of the bid information and the word used for detection in the detection node used in the dialog at the time of acquisition satisfy a predetermined condition, for example, match or relate to each other. May be performed.

〔4−2.効果〕
上述してきたように、第3の実施形態に係る入札装置300は、取得部331と、推定部332と、提示部333と、抽出部336とを有する。取得部331は、対話エージェントシステムと会話しているユーザに関する情報を取得する。推定部332は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部333は、推定部332が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。抽出部336は、取得部331により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について推定部332が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する。
[4-2. effect〕
As described above, the bidding apparatus 300 according to the third embodiment includes the acquisition unit 331, the estimation unit 332, the presentation unit 333, and the extraction unit 336. The acquisition unit 331 acquires information about a user who is having a conversation with the dialog agent system. The estimation unit 332 estimates the emotion of the user when having a conversation with the dialog agent system in the dialog agent system that interacts with the user. The presentation unit 333 presents emotion information indicating the user's emotion estimated by the estimation unit 332 to the advertiser of the advertisement output during the conversation. The extraction unit 336 is based on a comparison result between the user's emotion estimated based on the information about the user acquired by the acquisition unit 331 and the emotion estimated by the estimation unit 332 for the conversation the user is performing. The advertisement output during the conversation is extracted.

これにより、第3の実施形態に係る入札装置300は、自身の広告に適した会話の流れとユーザの感情とに合わせて広告をユーザへ出力することが可能し、広告の効果を向上させるための提示を行うことができる。   Thereby, the bid apparatus 300 according to the third embodiment can output the advertisement to the user in accordance with the conversation flow suitable for the advertisement and the user's emotion, and improve the effect of the advertisement. Can be presented.

(第1〜3の実施形態について)
〔1.判定情報〕
上記1〜3の実施形態では、判定情報として図2に示すような判定ツリーを用いる。しかし、判定情報は、判定ツリーのようなツリー状に限らず、例えば、ノードマップ状であってもよい。このようなノードマップ状の判定情報を用いた場合、根ノード(図2に示す例においてはN101に相当)は会話が始まったときのノードとなる。
(About the first to third embodiments)
[1. Judgment information)
In the first to third embodiments, a determination tree as shown in FIG. 2 is used as the determination information. However, the determination information is not limited to a tree shape such as a determination tree, and may be, for example, a node map shape. When such node-map determination information is used, the root node (corresponding to N101 in the example shown in FIG. 2) is the node at the start of the conversation.

〔2.ユーザの感情について〕
上記1〜3の実施形態では、入札装置100〜300(以下、単に入札装置と記載する)は、判定ツリーの内容に基づいて、ユーザの感情が「ポジティブ」であるか、「ネガティブ」であるかを推定した。しかしながら、実施形態は、これに限定されるものではない。すなわち、入札装置は、ユーザの任意の感情を推定し、推定した感情を提示することができる。
[2. User emotions)
In the above-described embodiments 1 to 3, the bidding devices 100 to 300 (hereinafter simply referred to as bidding devices) have the user's emotion “positive” or “negative” based on the content of the determination tree. I estimated. However, the embodiment is not limited to this. That is, the bidding device can estimate an arbitrary emotion of the user and present the estimated emotion.

例えば、入札装置は、「快適」であるか「不快」であるかに基づいて、ユーザの感情を推定してよい。また、入札装置は、「喜び」、「怒り」、「悲しみ」、「楽しみ」等、任意の感情を推定対象としてよい。また、会話が継続することで、ユーザの感情は変化する。そこで、入札装置は、予測される会話の流れに沿って、ノードごとに推定対象となる各感情のスコアリングを行い、かかるスコアリングに基づいて、各ノードにおけるユーザの感情を推定してもよい。他にも、入札装置は、ユーザの感情を任意の次元数を有するベクトルで示し、各次元と推定対象となる感情とを紐付け、ノードごとにベクトル操作を行うことで、ユーザの感情を推定してもよい。このように、入札装置は、ユーザの感情を決めうち(すなわちトップダウン方式で)で推定してもよく、会話の流れに応じて(すなわちボトムアップ方式)で推定してもよい。   For example, the bidding device may estimate the user's emotion based on whether it is “comfortable” or “uncomfortable”. In addition, the bidding apparatus may set an arbitrary emotion such as “joy”, “anger”, “sadness”, “fun”, or the like as an estimation target. In addition, the user's emotion changes as the conversation continues. Therefore, the bidding apparatus may score each emotion to be estimated for each node along the predicted conversation flow, and may estimate the user's emotion at each node based on the scoring. . In addition, the bidding device estimates the user's emotion by indicating the user's emotion as a vector having an arbitrary number of dimensions, associating each dimension with the emotion to be estimated, and performing a vector operation for each node. May be. In this way, the bidding device may estimate the user's emotions while deciding (that is, in a top-down manner) or may be estimated according to the flow of conversation (ie, in a bottom-up manner).

具体的には、入札装置は、各感情に対応する評価関数を予め設定してもよい。この場合、入札装置は、例えば、各評価関数として、正規分布関数などを採用してもよく、所定の感情モデルに基づく任意の分布を採用してもよい。そして、入札装置が推定する感情としては、例えば、「喜び」、「受容」、「怒り」、「嫌悪」、「恐れ」、「驚き」、「期待」、「悲しみ」等が挙げられるが、入札装置は、列挙した感情に限らず人間の感情であればどのような分類の感情を推定してもよい。   Specifically, the bidding device may preset an evaluation function corresponding to each emotion. In this case, for example, the bidding device may employ a normal distribution function or the like as each evaluation function, or may employ an arbitrary distribution based on a predetermined emotion model. The emotions estimated by the bid device include, for example, “joy”, “acceptance”, “anger”, “disgust”, “fear”, “surprise”, “expectation”, “sadness”, etc. The bidding device is not limited to the enumerated emotions and may estimate any classification of emotions as long as they are human emotions.

また、入札装置は、各評価関数を用いて、各「感情」を数値化してもよい。例えば、入札装置は、応答ノードに登録された応答から、各感情に対応する快不快の数値を算出してもよい。この場合、入札装置は、例えば、応答テキストの形態素解析や、単語のベクトル化の技術を採用してもよい。他にも、入札装置は、応答ノードと接続された検出ノードとの対応や、所定のホップ数内に存在する各ノードとの関係、それまでの快不快の数値の履歴等に基づいた補正を行ってもよい。   In addition, the bidding device may digitize each “emotion” using each evaluation function. For example, the bid device may calculate a numerical value of pleasantness / discomfort corresponding to each emotion from the response registered in the response node. In this case, the bidding device may employ, for example, a morphological analysis of response text or a vectorization technique of words. In addition, the bidding device makes corrections based on the correspondence between the responding node and the detection node connected, the relationship with each node existing within a predetermined number of hops, the history of pleasant and unpleasant values so far, etc. You may go.

また、入札装置は、重み付け関数を用いて、現在の「感情」を決定してもよい。例えば、入札装置は、所定の式を用いて、快不快の数値を統合してもよい。この場合、入札装置は、例えば、快不快の数値の総和だけではなく、快不快等の各感情に対する重み付けを用いてもよい。また、入札装置は、時間とともに感情が薄れるような忘却曲線を用いてもよい。この場合、入札装置は、例えば、重み付け関数における快不快等の各感情に対する重み付けを時間がたつにつれて次第に小さくしてもよい。また、入札装置は、快不快の数値の統合結果に基づいて、利用者の感情(例えば、快不快)を推定してもよい。また、入札装置は、各感情の数値をそのまま表示してもよいし、各感情の数値を色に対応付けて出力することで、利用者の感情のパターンを提示してもよい。この場合、入札装置は、例えばヒートマップのように、各感情の数値の高い箇所を赤色とし、数値の低い箇所を青色で提示してもよい。この場合、入札装置は、各色付けた箇所に例えば、「喜び」、「悲しみ」等の感情の文字情報をあわせて提示してもよい。また、入札装置は、例えば「喜び」の感情であれば赤色として、数値の高い箇所の彩度を高くし、数値の低い箇所の彩度を低く提示し、「悲しみ」の感情であれば青色として、数値の高い箇所の彩度を高くし、数値の低い箇所の彩度を低く提示してもよい。   In addition, the bidding apparatus may determine the current “emotion” using a weighting function. For example, the bid device may integrate numerical values of pleasantness and unpleasantness using a predetermined formula. In this case, for example, the bidding device may use not only the sum of numerical values of pleasant and unpleasant but also weights for emotions such as pleasant and unpleasant. In addition, the bidding device may use a forgetting curve in which emotions fade with time. In this case, for example, the bidding device may gradually reduce the weighting for each emotion such as pleasant discomfort in the weighting function over time. Further, the bidding device may estimate the user's emotion (for example, pleasant and uncomfortable) based on the integration result of the pleasant and unpleasant numerical values. In addition, the bid device may display the numerical value of each emotion as it is, or may present the emotional pattern of the user by outputting the numerical value of each emotion in association with the color. In this case, the bidding device may present a part with a high numerical value of each emotion in red and a part with a low numerical value in blue as in a heat map, for example. In this case, the bidding device may present, for example, character information of emotions such as “joy” and “sadness” in each colored part. In addition, the bidding device, for example, displays red if the emotion is “joy”, increases the saturation of the portion with a high numerical value, shows low saturation in the portion with a low numerical value, and blue if the emotion is “sad” As an alternative, the saturation at a high numerical value may be increased and the saturation at a low numerical value may be presented low.

〔3.応用例〕
また、上記1〜3の実施形態では、ユーザ端末10を用いて対話エージェントシステムを利用する形態に基づいて説明したが、上記1〜3の実施形態に限らず、例えば、ユーザは、ユーザ端末10と同等の機能有するロボットに対して会話を行うことにより、対話エージェントシステムを利用してもよい。
[3. Application example)
Moreover, although the said 1-3 embodiment demonstrated based on the form which utilizes a dialog agent system using the user terminal 10, it is not restricted to the said 1-3 embodiment, For example, a user is the user terminal 10 The conversation agent system may be used by having a conversation with a robot having the same function as the above.

〔4.プログラム〕
上述してきた各実施形態に係る入札装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。図17は、各入札装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[4. program〕
The bid device according to each embodiment described above is realized by a computer 1000 configured as shown in FIG. 17, for example. FIG. 17 is a hardware configuration diagram illustrating an example of a computer 1000 that implements the functions of each bidding device. The computer 1000 includes a CPU 1100, RAM 1200, ROM 1300, HDD 1400, communication interface (I / F) 1500, input / output interface (I / F) 1600, and media interface (I / F) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網70を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網70を介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the communication network 70 and sends the data to the CPU 1100, and transmits the data generated by the CPU 1100 to other devices via the communication network 70.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が第1の実施形態に係る入札装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、第1の実施形態の入札装置における記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網70を介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the bidding apparatus 100 according to the first embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 130 by executing a program loaded on the RAM 1200. Further, the HDD 1400 stores data in the storage unit 120 in the bidding apparatus according to the first embodiment. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from other devices via the communication network 70.

〔5.その他〕
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. Others]
In addition, among the processes described in the above embodiments, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed All or a part of the above can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図4に示した取得部131と受付部134とは統合されてもよい。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the acquisition unit 131 and the reception unit 134 illustrated in FIG. 4 may be integrated.

また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, each embodiment mentioned above can be combined suitably in the range which does not contradict a process content.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications based on the knowledge of those skilled in the art, including the aspects described in the disclosure line of the invention. It is possible to implement the present invention in other forms with improvements.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 対話エージェントシステム
10 ユーザ端末
20 音声認識サーバ
30 応答生成サーバ
40 音声合成サーバ
50 サービスAPIサーバ
60 広告主端末
100 入札装置
120 記憶部
131 取得部
132 推定部
133 提示部
134 受付部
135 送信部
DESCRIPTION OF SYMBOLS 1 Dialogue agent system 10 User terminal 20 Speech recognition server 30 Response generation server 40 Speech synthesis server 50 Service API server 60 Advertiser terminal 100 Bid device 120 Storage part 131 Acquisition part 132 Estimation part 133 Presentation part 134 Reception part 135 Transmission part

Claims (13)

ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する推定部と、
前記推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示部と、
を備えたことを特徴とする提示装置。
In an interactive agent system that interacts with a user, an estimation unit that estimates an emotion of the user when talking with the interactive agent system;
A presentation unit that presents emotion information indicating a user's emotion estimated by the estimation unit to an advertiser of an advertisement output during the conversation;
A presentation device comprising:
前記提示部により提示された感情情報に応じた広告を、前記広告主から受け付ける受付部、
をさらに備えたことを特徴とする請求項1に記載の提示装置。
A receiving unit that receives an advertisement corresponding to the emotion information presented by the presenting unit from the advertiser;
The presentation device according to claim 1, further comprising:
前記提示部は、
前記対話エージェントシステムとの会話のうち、前記ユーザが所定の感情であると推定される会話の領域を前記感情情報とともに広告主へ提示する
ことを特徴とする請求項1または2に記載の提示装置。
The presenting unit
3. The presentation device according to claim 1, wherein, in the conversation with the dialog agent system, a region of conversation in which the user is estimated to have a predetermined emotion is presented to the advertiser together with the emotion information. .
前記提示部は、
前記ユーザの感情がポジティブであると推定される領域と他の領域とを識別可能に広告主へ提示する、
ことを特徴とする請求項3に記載の提示装置。
The presenting unit
Presenting to the advertiser an area that is presumed to be positive for the user's emotion and other areas,
The presentation device according to claim 3.
前記提示部は、
前記ユーザの感情がネガティブであると推定される領域と他の領域とを識別可能に広告主へ提示する、
ことを特徴とする請求項3又は請求項4に記載の提示装置。
The presenting unit
Presenting the advertiser with an area that is presumably negative for the user's emotion and other areas,
The presentation device according to claim 3 or 4, wherein
前記提示部は、
前記ユーザが所定の感情であると推定される領域同士をクラスタリングすることにより、前記所定の感情に対応する領域を提示する、
ことを特徴とする請求項3〜5のいずれか一つに記載の提示装置。
The presenting unit
By clustering areas where the user is presumed to be a predetermined emotion, an area corresponding to the predetermined emotion is presented.
The presentation device according to any one of claims 3 to 5, wherein
前記提示部は、
前記広告主の業種に応じて、前記ユーザが所定の感情であると推定される会話の領域を変動させる、
ことを特徴とする請求項3〜6のいずれか一つに記載の提示装置。
The presenting unit
According to the advertiser's business type, the conversation area where the user is presumed to have a predetermined emotion is changed.
The presentation device according to any one of claims 3 to 6, wherein
前記提示部は、
前記領域とともに、前記領域に含まれる会話中に広告を出力するための入札価格を提示する、
ことを特徴とする請求項3〜7のいずれか一つに記載の提示装置。
The presenting unit
Along with the area, present a bid price for outputting an advertisement during a conversation included in the area.
The presenting device according to any one of claims 3 to 7, wherein
前記提示部は、
前記領域に含まれる会話の価値に応じて算出される入札価格を提示する、
ことを特徴とする請求項8に記載の提示装置。
The presenting unit
Presenting a bid price calculated according to the value of the conversation included in the area;
The presentation device according to claim 8.
前記提示部は、
前記領域に対応する前記ユーザの感情に応じて算出される入札価格を提示する、
ことを特徴とする請求項8又は請求項9に記載の提示装置。
The presenting unit
Presenting a bid price calculated according to the emotion of the user corresponding to the region,
The presentation device according to claim 8 or 9, wherein
前記対話エージェントシステムと会話しているユーザに関する情報を取得する取得部と、
前記取得部により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について前記推定部が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する抽出部と、
をさらに備えたことを特徴とする請求項1〜10のいずれか一つに記載の提示装置。
An acquisition unit for acquiring information on a user who is talking to the dialog agent system;
Based on the comparison result between the emotion of the user estimated based on the information about the user acquired by the acquisition unit and the emotion estimated by the estimation unit for the conversation being performed by the user, output during the conversation An extractor for extracting advertisements to be generated,
The presentation device according to claim 1, further comprising:
コンピュータが実行する入札方法であって、
ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する推定工程と、
前記推定工程で推定されたユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示工程と、
を備えたことを特徴とする提示方法。
A computer-implemented bidding method,
In a dialog agent system that interacts with a user, an estimation step for estimating a user's emotion when talking with the dialog agent system;
Presenting step of presenting emotion information indicating the user's emotion estimated in the estimation step to an advertiser of the advertisement output during the conversation;
A presentation method characterized by comprising:
ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する推定手順と、
前記推定手順で推定されたユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示手順と、
をコンピュータに実行させることを特徴とする提示プログラム。
In a dialogue agent system that interacts with a user, an estimation procedure for estimating a user's emotion when talking with the dialogue agent system;
A presentation procedure for presenting emotion information indicating a user's emotion estimated in the estimation procedure to an advertiser of an advertisement output during the conversation;
A program for causing a computer to execute.
JP2014148302A 2014-07-18 2014-07-18 Presentation device, presentation method, and presentation program Active JP6262613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014148302A JP6262613B2 (en) 2014-07-18 2014-07-18 Presentation device, presentation method, and presentation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014148302A JP6262613B2 (en) 2014-07-18 2014-07-18 Presentation device, presentation method, and presentation program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017239524A Division JP6368025B2 (en) 2017-12-14 2017-12-14 Apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2016024631A true JP2016024631A (en) 2016-02-08
JP6262613B2 JP6262613B2 (en) 2018-01-17

Family

ID=55271341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014148302A Active JP6262613B2 (en) 2014-07-18 2014-07-18 Presentation device, presentation method, and presentation program

Country Status (1)

Country Link
JP (1) JP6262613B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6243564B1 (en) * 2017-03-17 2017-12-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
WO2018087968A1 (en) * 2016-11-09 2018-05-17 ソニー株式会社 Communication device, server device, recording medium, and control method
WO2018169000A1 (en) * 2017-03-16 2018-09-20 国立研究開発法人情報通信研究機構 Interactive system and computer program therefor
JP2018156625A (en) * 2017-11-06 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2019040299A (en) * 2017-08-23 2019-03-14 富士通株式会社 Interaction control system, program and method
JP2020087234A (en) * 2018-11-30 2020-06-04 株式会社三菱総合研究所 Information processing device, information processing method and program
JP2020091907A (en) * 2017-12-22 2020-06-11 サウンドハウンド,インコーポレイテッド Natural language grammar adapted to interactive experience
JP2020187262A (en) * 2019-05-15 2020-11-19 株式会社Nttドコモ Emotion estimation device, emotion estimation system, and emotion estimation method
US11900928B2 (en) 2017-12-23 2024-02-13 Soundhound Ai Ip, Llc System and method for adapted interactive experiences

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114457A (en) * 1993-10-15 1995-05-02 Hitachi Ltd Scenario generating system
JP2004310034A (en) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd Interactive agent system
JP2006085368A (en) * 2004-09-15 2006-03-30 Oki Electric Ind Co Ltd Electronic communication device, computer program and recording medium
JP2006178063A (en) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc Interactive processing device
JP2007241379A (en) * 2006-03-06 2007-09-20 Tokyo Electric Power Co Inc:The Feeling acquisition system
JP2008134316A (en) * 2006-11-27 2008-06-12 Nec Corp Electronic advertisement attaching apparatus and electronic advertisement attaching method, database and electronic advertisement attaching system
JP2008170820A (en) * 2007-01-12 2008-07-24 Takeshi Moriyama Content provision system and method
US20090210220A1 (en) * 2005-06-09 2009-08-20 Shunji Mitsuyoshi Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program
US20100138294A1 (en) * 2008-12-03 2010-06-03 Microsoft Corporation Provision of location-based advertising
JP2010224813A (en) * 2009-03-23 2010-10-07 Toshiba Corp Emotion estimation device and method
US20110035283A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Sponsor-based advertising apparatus and method using extracted affect
US20110225043A1 (en) * 2010-03-12 2011-09-15 Yahoo! Inc. Emotional targeting
US20120143693A1 (en) * 2010-12-02 2012-06-07 Microsoft Corporation Targeting Advertisements Based on Emotion
JP2014056302A (en) * 2012-09-11 2014-03-27 Nassua Solutions Corp Recommendation system for commodity or service and recommendation method for commodity or service

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114457A (en) * 1993-10-15 1995-05-02 Hitachi Ltd Scenario generating system
JP2004310034A (en) * 2003-03-24 2004-11-04 Matsushita Electric Works Ltd Interactive agent system
JP2006085368A (en) * 2004-09-15 2006-03-30 Oki Electric Ind Co Ltd Electronic communication device, computer program and recording medium
JP2006178063A (en) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc Interactive processing device
US20090210220A1 (en) * 2005-06-09 2009-08-20 Shunji Mitsuyoshi Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program
JP2007241379A (en) * 2006-03-06 2007-09-20 Tokyo Electric Power Co Inc:The Feeling acquisition system
JP2008134316A (en) * 2006-11-27 2008-06-12 Nec Corp Electronic advertisement attaching apparatus and electronic advertisement attaching method, database and electronic advertisement attaching system
JP2008170820A (en) * 2007-01-12 2008-07-24 Takeshi Moriyama Content provision system and method
US20100138294A1 (en) * 2008-12-03 2010-06-03 Microsoft Corporation Provision of location-based advertising
JP2012510681A (en) * 2008-12-03 2012-05-10 マイクロソフト コーポレーション Providing location-based advertising
JP2010224813A (en) * 2009-03-23 2010-10-07 Toshiba Corp Emotion estimation device and method
US20110035283A1 (en) * 2009-08-10 2011-02-10 Samsung Electronics Co., Ltd. Sponsor-based advertising apparatus and method using extracted affect
US20110225043A1 (en) * 2010-03-12 2011-09-15 Yahoo! Inc. Emotional targeting
US20120143693A1 (en) * 2010-12-02 2012-06-07 Microsoft Corporation Targeting Advertisements Based on Emotion
JP2014056302A (en) * 2012-09-11 2014-03-27 Nassua Solutions Corp Recommendation system for commodity or service and recommendation method for commodity or service

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018087968A1 (en) * 2016-11-09 2018-05-17 ソニー株式会社 Communication device, server device, recording medium, and control method
JP7040461B2 (en) 2016-11-09 2022-03-23 ソニーグループ株式会社 Communication equipment, server equipment, recording media, control methods, and programs
JPWO2018087968A1 (en) * 2016-11-09 2019-09-26 ソニー株式会社 COMMUNICATION DEVICE, SERVER DEVICE, RECORDING MEDIUM, AND CONTROL METHOD
US11113335B2 (en) 2017-03-16 2021-09-07 National Institute Of Information And Communications Technology Dialogue system and computer program therefor
WO2018169000A1 (en) * 2017-03-16 2018-09-20 国立研究開発法人情報通信研究機構 Interactive system and computer program therefor
JP2018156273A (en) * 2017-03-16 2018-10-04 国立研究開発法人情報通信研究機構 Dialog system and computer program therefor
JP2018156475A (en) * 2017-03-17 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6243564B1 (en) * 2017-03-17 2017-12-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2019040299A (en) * 2017-08-23 2019-03-14 富士通株式会社 Interaction control system, program and method
JP2018156625A (en) * 2017-11-06 2018-10-04 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2020091907A (en) * 2017-12-22 2020-06-11 サウンドハウンド,インコーポレイテッド Natural language grammar adapted to interactive experience
JP7129439B2 (en) 2017-12-22 2022-09-01 サウンドハウンド,インコーポレイテッド Natural Language Grammar Adapted for Interactive Experiences
US11900928B2 (en) 2017-12-23 2024-02-13 Soundhound Ai Ip, Llc System and method for adapted interactive experiences
JP2020087234A (en) * 2018-11-30 2020-06-04 株式会社三菱総合研究所 Information processing device, information processing method and program
JP2020187262A (en) * 2019-05-15 2020-11-19 株式会社Nttドコモ Emotion estimation device, emotion estimation system, and emotion estimation method

Also Published As

Publication number Publication date
JP6262613B2 (en) 2018-01-17

Similar Documents

Publication Publication Date Title
JP6262613B2 (en) Presentation device, presentation method, and presentation program
US11308173B2 (en) Searching for ideograms in an online social network
US20190311709A1 (en) Computerized system and method for formatted transcription of multimedia content
US10614487B1 (en) Server for enabling voice-responsive content as part of a media stream to an end user on a remote device
US20210217413A1 (en) Voice activated interactive audio system and method
JP7099589B2 (en) Servers, communication control methods, and programs
KR20170092603A (en) Emotion type classification for interactive dialog system
JP6568263B2 (en) Apparatus, method, and program
JP6310363B2 (en) Information processing apparatus, information processing method, and information processing program
CN106612230B (en) Media information popularization method, client and server
US20160055533A1 (en) Response generation device, response generation method, and non-transitory computer readable storage medium
US11586689B2 (en) Electronic apparatus and controlling method thereof
US20190079644A1 (en) Method for providing translation with emoticon, user terminal, server and computer program
CN115212561B (en) Service processing method based on voice game data of player and related product
JP2016045584A (en) Response generation device, response generation method, and response generation program
JP2021131908A (en) Natural language grammars adapted for interactive experiences
JP5121763B2 (en) Emotion estimation apparatus and method
JP6368025B2 (en) Apparatus, method, and program
JP2011113289A (en) System and method for supporting document decoration
KR102149035B1 (en) Advertising page creation and management system for performance marketing
JP6066791B2 (en) Product information providing system and product information providing program
JP2009193133A (en) Information processor, information processing method, and program
KR20160050599A (en) Emoticon providing method and combined Digital music
CN111787042A (en) Method and device for pushing information
JP2016207217A (en) Management apparatus and method of identifying preference

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171214

R150 Certificate of patent or registration of utility model

Ref document number: 6262613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350