JP2016024631A - Presentation device, presentation method, and presentation program - Google Patents
Presentation device, presentation method, and presentation program Download PDFInfo
- Publication number
- JP2016024631A JP2016024631A JP2014148302A JP2014148302A JP2016024631A JP 2016024631 A JP2016024631 A JP 2016024631A JP 2014148302 A JP2014148302 A JP 2014148302A JP 2014148302 A JP2014148302 A JP 2014148302A JP 2016024631 A JP2016024631 A JP 2016024631A
- Authority
- JP
- Japan
- Prior art keywords
- user
- emotion
- information
- bid
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 60
- 230000002452 interceptive effect Effects 0.000 claims abstract description 28
- 230000008451 emotion Effects 0.000 claims description 338
- 230000000694 effects Effects 0.000 abstract description 15
- 230000003993 interaction Effects 0.000 abstract 2
- 230000004044 response Effects 0.000 description 145
- 239000003795 chemical substances by application Substances 0.000 description 83
- 230000008569 process Effects 0.000 description 32
- 238000001514 detection method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 26
- 238000003860 storage Methods 0.000 description 20
- 238000000605 extraction Methods 0.000 description 19
- 230000005540 biological transmission Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 12
- 235000021438 curry Nutrition 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003066 decision tree Methods 0.000 description 6
- 230000010365 information processing Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 235000020129 lassi Nutrition 0.000 description 3
- 229940124579 cold medicine Drugs 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 235000008694 Humulus lupulus Nutrition 0.000 description 1
- 241001122767 Theaceae Species 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、提示装置、提示方法及び提示プログラムに関する。 The present invention relates to a presentation device, a presentation method, and a presentation program.
従来、ユーザ端末からメッセージを受け付けたことに応じて、このメッセージに対応するメッセージをユーザ端末に出力する対話エージェントシステムが知られている。このような対話エージェントシステムにおいて、ユーザ端末から受け付けたメッセージに対して多様なメッセージの出力を行ったり、そのユーザ端末を使用するユーザに適したメッセージの出力を行ったりする技術が提供されている。 2. Description of the Related Art Conventionally, there is known an interactive agent system that outputs a message corresponding to a message to the user terminal in response to receiving the message from the user terminal. In such an interactive agent system, there are provided technologies for outputting various messages to messages received from user terminals and outputting messages suitable for users using the user terminals.
また、上記の対話エージェントシステムにおいて、ユーザ端末からのメッセージに所定のキーワードが含まれる場合、そのキーワードに対応する広告をメッセージとしてユーザ端末へ出力する技術が知られている。 Also, in the above interactive agent system, when a predetermined keyword is included in a message from the user terminal, a technique for outputting an advertisement corresponding to the keyword to the user terminal as a message is known.
しかしながら、上記の従来技術では、広告の効果を向上させることができるとは限らない。具体的には、ユーザ端末からのメッセージに含まれるキーワードにのみ基づいて広告を出力する場合、ユーザの状態に関わらず広告が出力されるため、ユーザに訴求力の高い広告の出力とならない場合がある。 However, the above-described conventional technology does not always improve the advertising effect. Specifically, when an advertisement is output based only on a keyword included in a message from the user terminal, the advertisement is output regardless of the state of the user, and therefore, an advertisement that is highly appealing to the user may not be output. is there.
本願は、広告の効果を向上させるための提示を行うことができる提示装置、提示方法及び提示プログラムを提供することを目的とする。 An object of the present application is to provide a presentation device, a presentation method, and a presentation program that can make a presentation for improving the effect of an advertisement.
本願に係る提示装置は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合の前記ユーザの感情を推定する推定部と、前記推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示部と、を備えたことを特徴とする。 A presentation device according to the present application includes: an estimation unit that estimates an emotion of the user when a conversation is performed with the dialog agent system in an interactive agent system that interacts with the user; and emotion information that indicates an emotion of the user estimated by the estimation unit A presentation unit that presents the advertisement to the advertiser of the advertisement output during the conversation.
実施形態の一態様によれば、広告の効果を向上させるための提示を行うことができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that a presentation for improving the effect of the advertisement can be performed.
以下に、本願に係る提示装置、提示方法及び提示プログラムを実現するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る提示装置、提示方法及び提示プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する記載は省略される。また、以下の説明では、提示装置の一例として、所定の入札処理を実行する入札装置について説明する。 Hereinafter, modes for realizing a presentation device, a presentation method, and a presentation program according to the present application (hereinafter referred to as “embodiments”) will be described in detail with reference to the drawings. In addition, the presentation apparatus, the presentation method, and the presentation program which concern on this application are not limited by this embodiment. Moreover, in the following each embodiment, the same site | part is attached | subjected the same code | symbol and the overlapping description is abbreviate | omitted. Further, in the following description, a bidding apparatus that executes a predetermined bidding process will be described as an example of a presentation apparatus.
(第1の実施形態)
〔1.入札処理〕
まず、図1を用いて、第1の実施形態に係る入札処理の一例について説明する。図1は、第1の実施形態に係る入札処理の一例を示す図である。図1に示した入札装置100は、感情情報に基づいた広告を出力する権利を取得するための入札サービスを提供する。具体的には、入札装置100は、対話エージェントシステム1に用いられるルールに関する情報である判定情報として判定ツリー(例えば、コーパス)を応答生成サーバ30から取得し、判定ツリー中の各ノードにおけるユーザの感情を推定する。その後、入札装置100は、感情情報とともに判定ツリーを広告主に提示し、提示した判定ツリーに対して広告主から入札を受け付ける。また、図1に示す応答生成サーバ30は、判定ツリーを用いてユーザとの対話における応答を決定する。なお、以下の説明では、ユーザの感情が前向きな任意の状態である「ポジティブ」であるか、ユーザの感情が後ろ向きな任意の状態である「ネガティブ」のいずれであるかを推定する例について説明するが、後述するように、入札装置100は、ユーザが有する他の任意の感情についても推定してよい。
(First embodiment)
[1. Bidding process)
First, an example of a bidding process according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a bid process according to the first embodiment. The
ここで、図2を用いて、応答生成サーバ30が用いる判定ツリーについて説明する。図2は、第1の実施形態に係る判定ツリーの一例を示す図である。つまり、対話エージェントシステム1は、対話のルールに関する情報として図2に示すような判定ツリーを用いてユーザとの対話を実現する。具体的には、応答生成サーバ30は、図2に示すような判定ツリーに基づいてユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
Here, the determination tree used by the
図2に示す例において、破線ブロックは検出ノードを示しており、実線ブロックは動作ノードを示している。また、これらのブロックには、N101〜N112までのノードIDがそれぞれ付されている。例えば、ノードID「N101」の破線ブロック「“天気”検出」は検出ノードを示しており、ノードID「N103」の実線ブロック「“今日は雨です”」は動作ノードを示している。検出ノードはユーザからの入力メッセージに対応する処理手順を定めており、動作ノードは応答メッセージに対応する処理手順を定めている。したがって、図2に示す判定ツリーは、検出ノード及び動作ノードを含む。 In the example shown in FIG. 2, the broken line block indicates a detection node, and the solid line block indicates an operation node. Further, node IDs N101 to N112 are assigned to these blocks, respectively. For example, the broken line block ““ weather ”detection” of the node ID “N101” indicates a detection node, and the solid line block ““ Today is raining ”of the node ID“ N103 ”indicates an operation node. The detection node defines a processing procedure corresponding to the input message from the user, and the operation node defines a processing procedure corresponding to the response message. Therefore, the decision tree shown in FIG. 2 includes a detection node and an operation node.
また、図2に示す各ノードは矢印線により接続されることで関連付けられる。具体的には、矢印線の始点側のノードが接続元ノードとして、矢先側のノードが接続先ノードとして関連付けられる。例えば、ノードID「N104」のノードとノードID「N106」のノードとを関連付ける矢印線は、接続元ノードがノードID「N104」の検出ノードであり、接続先ノードがノードID「N106」の動作ノードであることを示している。また、ノードID「N104」のノードは、接続元ノードとして、ノードID「N107」の動作ノードとも関連付けられている。ここで、応答生成サーバ30は、ユーザの発話からキーワードを検出し、そのキーワードに対応する検出ノードが接続先ノードとして関連付けられていれば、その検出ノードへ遷移する。具体的には、応答生成サーバ30は、ノードID「N103」の動作ノードに対応する応答メッセージ「“今日は雨です”」をユーザへ応答した後、ユーザの発話の中に“嬉しい”が含まれていた場合、ノードID「N104」に対応する「“嬉しい”検出」が行われたと判定し、接続先ノードであるノードID「N106」又はノードID「N107」いずれかの動作ノードへ遷移する。そして、対応する動作ノードの応答メッセージをユーザへ応答する。具体的には、ノードID「N106」へ遷移した場合、応答生成サーバ30は、ノードID「N106」の動作ノードに対応する応答メッセージ「“良かったですね”」をユーザへ応答する。このようにして、対話エージェントシステム1は、ユーザとの対話を進行させる。なお、応答生成サーバ30は、各接続元ノードから接続先ノードへ、所定の遷移確率を用いて遷移させてもよく、ランダムに遷移させてもよい。
Further, the nodes shown in FIG. 2 are associated by being connected by an arrow line. Specifically, the node on the starting point side of the arrow line is associated as the connection source node, and the node on the arrow side is associated as the connection destination node. For example, the arrow line that associates the node with the node ID “N104” and the node with the node ID “N106” indicates that the connection source node is the detection node with the node ID “N104” and the connection destination node is the operation with the node ID “N106”. Indicates a node. The node with the node ID “N104” is also associated with the operation node with the node ID “N107” as the connection source node. Here, the
ここで、図2に示す判定ツリー中の動作ノードには、広告に関する動作ノードと会話に関する動作ノードとが含まれる。例えば、ノードID「N106」の動作ノードは、「“良かったですね”」という具体的な店名や商品名を含まない応答メッセージであるため、会話に関する動作ノードに対応する。また、ノードID「N107」の動作ノードは、「“A店の出前はいかがですか?”」という具体的な店名を含む応答メッセージであるため、広告に関する動作ノードに対応する。対話エージェントシステム1は、このような広告に関するノードと、会話に関するノードとを織り交ぜることにより、自然な会話の中で広告をユーザへ提供する。 Here, the action nodes in the determination tree shown in FIG. 2 include an action node related to advertisement and an action node related to conversation. For example, the operation node with the node ID “N106” is a response message that does not include a specific store name or product name ““ It was good ”, and therefore corresponds to an operation node related to conversation. In addition, the operation node of the node ID “N107” is “How about the store A? Since it is a response message including a specific store name “”, it corresponds to an operation node related to an advertisement. The dialogue agent system 1 provides the user with an advertisement in a natural conversation by interweaving such a node related to the advertisement and a node related to the conversation.
図1に戻って、第1の実施形態に係る入札処理について説明する。図1に示すように、入札装置100は、判定ツリーを応答生成サーバ30から取得する(ステップS11)。このとき、入札装置100は、判定ツリー全体を取得してもよいし、判定ツリーの一部を取得してもよい。また、入札装置100は、例えば1日おきなど予め設定した期間おきに判定ツリーを応答生成サーバ30から取得してもよい。
Returning to FIG. 1, the bidding process according to the first embodiment will be described. As shown in FIG. 1, the
続いて、入札装置100は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する。そして、入札装置100は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーを広告主へ提示する(ステップS12)。図1に示す例において、入札装置100は、判定ツリーにおいてユーザの感情がポジティブであると推定される領域と、ネガティブであると判定された領域とをそれぞれ点線で囲み、その感情を表す文字とともに広告主へ提示する。つまり、図1に示す例において、“ポジティブ”、“ネガティブ”などの感情を表す文字が、対話エージェントシステム1を利用するユーザの感情として推定される感情情報となる。なお、対話エージェントシステム1を利用するユーザの感情として推定される感情情報は、他のノードと識別可能に、ユーザの感情とノードとの対応関係を示すものであればどのような態様であってもよい。また、入札装置100は、判定ツリー全体を広告主へ提示してもよいし、感情情報を含む判定ツリーの一部を提示してもよい。図1の例の場合、入札装置100は、ユーザの感情がポジティブであることを示す領域と、ユーザの感情がネガティブであることを示す領域とを識別可能に判定ツリーを提示する。なお、ユーザの感情の推定については検出ノードや動作ノードに基づいて行うが、詳細は後述する。
Subsequently, based on the acquired determination tree, the
続いて、入札装置100は、広告主から入札情報を受け付ける(ステップS13)。このとき、受け付ける入札情報としては、追加する新たなルールである広告に関する動作ノードの情報や入札価格に関する情報等が含まれてもよい。
Subsequently, the
そして、入札装置100は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを更新し、その更新した判定ツリーを応答生成サーバ30へ送信する(ステップS14)。その後、応答生成サーバ30は、更新された判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
Then, the
このように、第1の実施形態に係る入札装置100は、広告主に推定したユーザの感情を示す感情情報を含む判定ツリーを提示することができる。これにより、入札装置100は、推定されるユーザの感情に対して広告の入札を広告主から受け付けることができる。言い換えると、広告主は、推定したユーザの感情を示す感情情報の提示を受けることにより、自身の広告に適したユーザの感情に合わせて広告を追加することができる。これにより、入札装置100は、ユーザの感情に合わせて広告を出力する判定ツリーを生成することができる。つまり、入札装置100は、適切なタイミングでユーザに訴求力の高い広告を出力することを可能にする。なお、上記の入札処理は、提示装置と入札装置とが協調して実行してもよい。
Thus, the
〔2.対話エージェントシステムの構成〕
図3に例示するように、本実施形態に係る対話エージェントシステム1には、ユーザ端末10と、音声認識サーバ20と、応答生成サーバ30と、音声合成サーバ40と、サービスAPI(Application Program Interface)サーバ50と、広告主端末60と、入札装置100とが含まれる。ユーザ端末10と、音声認識サーバ20と、応答生成サーバ30と、音声合成サーバ40と、サービスAPIサーバ50と、広告主端末60と、入札装置100とは、通信網70を介して情報の送受信を行う。
[2. Dialogue agent system configuration]
As illustrated in FIG. 3, the dialog agent system 1 according to the present embodiment includes a
ここから、対話エージェントシステム1がユーザへ音声サービスを提供する処理の概要について説明する。ユーザ端末10は、携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、タブレット型PC、ノート型PC、デスクトップ型PC等の情報処理装置である。ユーザ端末10は、アプリケーションの起動後、ユーザの発話を検知すると、発話の音声データを音声認識サーバ20へ送信する。
From here, the outline | summary of the process in which the dialogue agent system 1 provides a voice service to a user is demonstrated. The
音声認識サーバ20は、ユーザ端末10から発話の音声データを受信すると、音声データをテキストデータに変換し、発話のテキストデータをユーザ端末10へ送信する。音声認識サーバ20から発話のテキストデータを受信したユーザ端末10は、発話のテキストデータを応答生成サーバ30に送信する。
When the
応答生成サーバ30は、ユーザ端末10によって送信される発話のテキストデータに応じて、ユーザの発話に対する応答生成情報をユーザ端末10に送信するコンピュータである。応答生成サーバ30は、ユーザ端末10から発話のテキストデータを受信すると、応答の生成に必要なデータの検索条件を指定し、ユーザ端末10が起動したアプリケーションに対応するサービスAPIサーバ50に対してデータの要求を行う。
The
サービスAPIサーバ50は、応答生成サーバ30から受信した検索条件に従って、データを応答生成サーバ30に送信する。例えば、サービスAPIサーバ50は、応答データを取得する処理を行い、取得した応答データを応答生成サーバ30に送信する。例えば、サービスAPIサーバ50は、XML(Extensible Markup Language)データを応答データとして応答生成サーバ30に送信する。
The
応答生成サーバ30は、サービスAPIサーバ50から応答データとして、例えばXMLデータを受信すると、XMLデータからデータを抽出し、XMLデータをHTMLデータに変換する。そして、応答生成サーバ30は、応答発話表示用のテキストデータを音声合成サーバ40に送信する。音声合成サーバ40は、応答発話表示用のテキストデータから音声を合成する音声合成処理を行って生成した応答発話用の中間表記を応答生成サーバ30に送信する。応答生成サーバ30は、応答発話用の中間表記と応答発話表示用のテキストデータとHTMLデータとをユーザ端末10に送信する。
When the
ユーザ端末10は、受信した応答発話用の中間表記を用いて、応答の音声を出力するとともに、応答発話表示用のテキストデータとHTMLデータとを用いて、応答内容を表示する。このようにして、対話エージェントシステム1は、ユーザの発話に対して適切な応答を行う音声サービスを実現する。
The
〔3.入札装置の構成〕
次に、図4を用いて、第1の実施形態に係る入札装置100の構成について説明する。図4は、実施例に係る入札装置100の構成例を示す図である。図4に示すように、入札装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、入札装置100は、入札装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Bidding equipment configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)によって実現される。かかる通信部110は、通信網70と有線又は無線で接続される。そして、通信部110は、通信網70を介して、応答生成サーバ30や広告主端末60等との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、応答生成サーバ30から取得した判定ツリーや対話エージェントシステム1を利用するユーザの感情として推定される感情情報や広告主により登録された入札情報等を記憶する。また、記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
(Storage unit 120)
The storage unit 120 stores, for example, the judgment tree acquired from the
制御部130は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、入札装置100内部の記憶装置に記憶されている各種プログラム(入札プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
The control unit 130 is configured so that, for example, various programs (corresponding to an example of a bidding program) stored in a storage device inside the
図4に示すように、制御部130は、取得部131と、推定部132と、提示部133と、受付部134と、送信部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 4, the control unit 130 includes an
(取得部131)
取得部131は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する。このとき、取得部131は、判定ツリー全体を取得してもよいし、判定ツリーの一部を取得してもよい。また、入札装置100は、例えば1日おきなど予め設定した期間おきに判定ツリーを応答生成サーバ30から取得してもよい。
(Acquisition part 131)
The
(推定部132)
推定部132は、対話エージェントシステム1が用いる対話のルールに基づいて、当該対話エージェントシステム1と会話を行う場合のユーザの感情を推定する。例えば、推定部132は、取得部131により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。ここで、推定部132が推定する感情は、嬉しい、怒っている、哀しい、楽しい等、人間の感情の分類に沿って種々の適宜設定可能である。以下では、推定部132が推定する感情をポジティブ及びネガティブの2種類として説明する。なお、推定部132が推定するポジティブとは、テンションが高い、楽しい、心地良い、めでたい、テンポがいい等嬉しさや楽しさを示す感情を含む。また、推定部132が推定するネガティブとは、テンションが低い、楽しくない、心地悪い、めでたくない、テンポが悪い等怒り、哀しみ、罪の意識、恐怖、嫌悪を含む感情である。
(Estimation unit 132)
The
推定部132は、例えば、ノードにおけるユーザの感情を推定するために、判定ツリー中の各ノードの情報を用いる。図2に示す例を用いて説明すると、N104の検出ノード「“嬉しい”検出」については、“嬉しい”というポジティブなキーワードが検出されているため、推定部132は、N104の検出ノードにおけるユーザの感情をポジティブであると推定する。そして、推定部132は、N104の検出ノードの接続先ノードであるN106の動作ノード「“良かったですね”」、及びN107の動作ノード「“A店の出前はいかがですか?”」についても、N104の検出ノードと同様にユーザの感情をポジティブであると推定する。一方、N105の検出ノード「“嫌”検出」については、“嫌”というネガティブなキーワードが検出されているため、推定部132は、N105の検出ノードにおけるユーザの感情をネガティブであると推定する。そして、推定部132は、N104の検出ノード以降の接続先ノードN108〜N112のノードについても、N104の検出ノードと同様にユーザの感情をネガティブであると推定する。このように、推定部132は、接続元ノードについて推定されるユーザの感情を用いて、各ノードにおけるユーザの感情を推定してもよい。また、推定部132は、接続元ノードや接続先ノードに関わらず、そのノード自身の情報のみに基づいて、そのノードにおけるユーザの感情を推定してもよい。また、推定部132は、例えば、感情の分類ごとにキーワードを対応付けて記憶しているデータベースに基づいて、ノードにおけるユーザの感情を推定してもよい。この場合、推定部132は、例えば、判定ツリー中のある領域においてキーワードの出現に偏りがある場合、その領域に含まれるノードにおける感情を、偏って出現するキーワードに対応する感情であると推定してもよい。例えば、推定部132は、特定の感情に対応付けられたキーワードが、他の感情に対応付けられたキーワードと比較して所定の割合以上に多く出現する領域に含まれるノードにおけるユーザの感情を、その特定の感情と推定してもよい。
For example, the
また、推定部132は、判定ツリー中の各ノードにおけるユーザの感情の推定に、例えば、そのノードが過去に使用された際のユーザの発話に関する情報を用いてもよい。この場合、推定部132は、例えば、過去にノードが使用された際のユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、そのノードにおけるユーザの感情はネガティブであると推定してもよい。なお、過去のユーザの発話に関する情報を用いる場合、取得部131は、予め応答生成サーバ30から過去のユーザの発話に関する情報を取得する。このとき、記憶部120は、取得部131により応答生成サーバ30から取得した過去のユーザの発話に関する情報を記憶する。なお、推定部132がユーザの感情を推定する処理は、上述した処理に限定されるものではない。例えば、推定部132は、あるノードに対応する発話から他のノードに対応する発話へと会話が移るまでの時間、会話に対応するノードを結んだ経路などに基づいて、ユーザの感情を推定してもよい。また、推定部132は、各ノードに対し、感情の分類ごとに算出されるスコアを付与し、かかるスコアに基づいてユーザの感情を推定してもよい。また、推定部132は、接続された複数のノードと対応する会話について言語解析を行い、かかる言語解析の結果に基づいて、かかる会話を行っている際のユーザの感情を推定し、推定したユーザの感情を、処理対象としたノードにおけるユーザの感情としてもよい。
Moreover, the
(提示部133)
提示部133は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部133は、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示する。
(Presentation unit 133)
The presentation unit 133 presents emotion information indicating the user's emotion estimated by the estimation unit to the advertiser of the advertisement output during the conversation. For example, the presentation unit 133 presents to the advertiser terminal 60 a determination tree that includes emotion information estimated by the
ここで、図5に、第1の実施形態にかかる提示部133によって広告主端末60へ提示される広告主ページの一例を示す。提示部133は、広告主ページW10に、応答生成サーバ30から取得した判定ツリーと、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報とを掲載する。図5に示す例において、ノードID「N101」の検出ブロック「“天気”検出」から、ノードID「N112」の動作ブロック「“C店で紅茶はいかがですか?”検出」までの12つのノードが、広告主ページW10に掲載される。そして、図5に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されるノードとして掲載され、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW10において、ユーザの感情がポジティブであると推定されるN104、N106、N107を含む領域R11を点線で囲み、文字“ポジティブ”とともに提示する。また、提示部133は、広告主ページW10において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R12を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、対応する感情ごとに識別可能にクラスタリングしたノードを感情情報とともに提示する。これにより、ユーザは各ノードがどの感情に対応するかを視認しやすくなる。なお、提示部133は、対応する感情ごとにノードを識別可能に提示できればよく、例えば、対応する感情ごとにノードの色を変えて提示したり、ノードごとに感情情報を表示したりしてもよい。また、ここでは図示することは省略するが、広告主ページW10において、広告主が領域R11又は領域R12のノードを選択した場合、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札ページを用いて追加する新たなノードや入札価格等の情報を入力することにより入札を行う。
Here, FIG. 5 shows an example of the advertiser page presented to the
(受付部134)
受付部134は、所定の入札ページを介して、入札情報を広告主端末60から受信する。その後、受付部134は、落札が決定した広告主から受け付けた入札情報に含まれる広告に関する新たなノードである動作ノード等の情報を基に判定ツリーを更新する。ここで、受付部134が受けた入札情報に含まれる新たなノードは、判定ツリーへ追加されるかについての判定が行われる。これにより、受付部134は、追加を行ってよいと判定された新たなノードのみを判定ツリーへ追加するため、使用すべきでない表現を含む等を不適切なノードが追加されることを防止できる。例えば、受付部134は、受け付けた入札情報の新たなノードを追加するかの判定を行ってもよい。また、入札装置100の管理者等が、登録された複数の入札情報の中から、判定ツリーに追加を行う新たなノードを決定して、判定ツリーへの追加を行ってもよい。このとき、受付部134や管理者は、新たなノードに基づいて判定を行ってもよく、また入札価格に基づいて判定を行っても、入札情報に含まれる種々の情報を総合して判定を行ってもよい。なお、入札情報の登録が認められた広告主には、適宜の手段によりその広告主が追加した新たなノードの追加の可否に関する結果を通知してもよい。
(Reception unit 134)
The accepting unit 134 receives bid information from the
図6は、図5に示す例において更新された判定ツリーを示しており、広告主ページW10においてユーザの感情がポジティブであると推定される領域R11のN104の接続先ノードとして新たにN113が追加されている。具体的には、ノードID「N113」の動作ブロック「“小説「XYZ」はいかがですか?”」が追加される。この判定ツリーを用いることにより、ユーザの感情がポジティブであると推定される対話の流れにおいて、“小説「XYZ」はいかがですか?”という広告が出力することが可能となる。 FIG. 6 shows the determination tree updated in the example shown in FIG. 5, and N113 is newly added as a connection destination node of N104 in region R11 in which the user's emotion is estimated to be positive in advertiser page W10. Has been. Specifically, how about the operation block ““ Novel “XYZ” ”of node ID“ N113 ”? "" Is added. By using this decision tree, “How about a novel“ XYZ ”in the flow of dialogue that presumes that the user's emotion is positive? "Can be output.
(送信部135)
送信部135は、その更新した判定ツリーを応答生成サーバ30へ送信する。そして、送信部135から判定ツリーを受信した応答生成サーバ30は、受信した判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
(Transmitter 135)
The
〔4.入札処理手順〕
次に、図7を用いて、第1の実施形態に係る対話エージェントシステム1による入札処理の手順について説明する。図7は、第1の実施形態に係る対話エージェントシステム1による入札処理手順を示すシーケンス図である。
[4. (Bid processing procedure)
Next, referring to FIG. 7, the procedure of the bidding process by the interactive agent system 1 according to the first embodiment will be described. FIG. 7 is a sequence diagram showing a bidding process procedure by the interactive agent system 1 according to the first embodiment.
図7に示すように、入札装置100は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する(ステップS101)。この場合、入札装置100は、取得した判定ツリーを記憶部120に格納する。
As illustrated in FIG. 7, the
そして、入札装置100は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する(ステップS102)。そして、入札装置100は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS103)。
Then, the
続いて、入札装置100は、所定の入札ページを介して、広告主端末60から新たなノードを含む入札情報を受信する(ステップS104)。
Subsequently, the
続いて、入札装置100は、広告主端末60から受信した新たなノードを含んだ判定ツリーを生成し(ステップS105)、新たなノードを含んだ判定ツリーを応答生成サーバ30へ送信する(ステップS106)。その後、応答生成サーバ30は、入札装置100から受信した新たなノードを含んだ判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定し、音声サービスを提供する(ステップS107)。
Subsequently, the
〔5.変形例〕
上述した第1の実施形態に係る対話エージェントシステム1は、上記第1の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、以下では、上記の対話エージェントシステム1を変形した実施形態について説明する。
[5. (Modification)
The dialog agent system 1 according to the first embodiment described above may be implemented in various different forms other than the first embodiment. Therefore, in the following, an embodiment in which the above-described dialog agent system 1 is modified will be described.
〔5−1.広告主の業種に応じた提示内容の変動〕
上記第1の実施形態では、入札装置100の提示部133が、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示した。しかし、提示部133は、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させる。
[5-1. (Changes in the presentation content according to the type of business of the advertiser)
In the first embodiment, the presentation unit 133 of the
図8は、提示部133によって業種が製薬会社である広告主の広告主端末60へ提示される広告主ページの一例を示す。ここで、入札装置100において、業種「製薬会社」は、感情“ネガティブ”と関連付けられているものとする。提示部133は、広告主ページW20に、応答生成サーバ30から取得した判定ツリーと、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報とを掲載する。図8に示す例において、図5に示す広告主ページW10と同様に、広告主ページW20には、N101〜N112までの12つのノードが掲載される。
FIG. 8 shows an example of an advertiser page presented to the
ここで、図8に示す例では、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW20において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R21を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、ユーザの感情“ネガティブ”に対応するノードをクラスタリングして感情情報とともに識別可能に表示する。一方で、図8に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されない。具体的には、提示部133は、広告主ページW10において、ユーザの感情がポジティブであると推定されるN104、N106、N107もユーザの感情は推定されていない他のノードを同様の表示態様で提示する。これにより、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させ、広告主の業種ごとに識別可能に提示する領域を出し分けることにより、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。 Here, in the example illustrated in FIG. 8, six nodes N105 and N108 to N112 are listed as nodes that are estimated to have negative user emotions. Specifically, in the advertiser page W20, the presentation unit 133 surrounds a region R21 including N105 and N108 to N112, which is estimated to be negative for the user's emotion, with a dotted line and presents it together with the character “negative”. In this way, the presentation unit 133 clusters the nodes corresponding to the user's emotion “negative” and displays the nodes together with the emotion information in an identifiable manner. On the other hand, in the example shown in FIG. 8, it is not estimated that the user's emotion is positive in the three nodes N104, N106, and N107. Specifically, in the advertiser page W10, the presentation unit 133 displays other nodes in which the user's emotion is also estimated in the same display manner in the N104, N106, and N107 that are estimated that the user's emotion is positive. Present. In this way, depending on the advertiser's industry, the area of conversation in which the user is presumed to have a predetermined emotion is changed, and the areas of the advertiser's business are categorized and presented separately for each advertiser's industry. It is possible to make a presentation for improving the effectiveness of the advertisement according to the type of business.
図9は、図8に示す例において更新された判定ツリーを示しており、広告主ページW20においてユーザの感情がネガティブであると推定される領域R21のN109の接続先ノードとして新たにN114が追加されている。具体的には、ノードID「N114」の動作ブロック「“風邪薬Mはいかがですか?”」が追加される。この判定ツリーを用いることにより、ユーザの感情がネガティブであると推定される対話の流れにおいて、“風邪薬Mはいかがですか?”という広告が出力することが可能となる。なお、図8に示す例において、入札装置100は、製薬会社である広告主に対して、ユーザの感情がネガティブと推定されるノードを識別可能に提示したが、どの感情について識別可能に提示するかは、広告主自身に選択させてもよい。また、入札装置100は、広告主の業種に応じて、どの感情について識別可能に提示することを希望するかを推定してもよい。この場合、入札装置100は、広告主の業種が病院や葬儀社などであれば、ユーザの感情がネガティブと推定される会話において、広告を出力することを希望する業種の広告主であると推定してもよい。
FIG. 9 shows the determination tree updated in the example shown in FIG. 8, and N114 is newly added as a connection destination node of N109 in region R21 in which the user's emotion is estimated to be negative in advertiser page W20. Has been. Specifically, how is the operation block ““ cold medicine M? ”Of the node ID“ N114 ”. "" Is added. By using this determination tree, it is possible to output an advertisement “How about the cold medicine M?” In the flow of dialogue in which the user's emotion is estimated to be negative. In the example illustrated in FIG. 8, the
〔5−2.入札価格の提示〕
上記第1の実施形態では、入札装置100の提示部133が、対話エージェントシステム1を利用するユーザの感情として推定部132により推定される感情情報を含む判定ツリーを広告主端末60へ提示した。しかし、提示部133は、対話エージェントシステム1を利用するユーザの感情として推定される感情情報を含む判定ツリーとともに、所定の領域に含まれる会話中に広告を出力するための入札価格に関する情報を提示してもよい。
[5-2. (Bid price presentation)
In the first embodiment, the presentation unit 133 of the
ここで、図10に、提示部133によって広告主端末60へ提示される広告主ページの一例を示す。提示部133は、広告主ページW30に、ユーザの感情として推定される感情情報を含む判定ツリーとともに入札価格を掲載する。図10に示す例において、図5に示す広告主ページW10と同様に、広告主ページW30には、N101〜N112までの12つのノードが掲載される。そして、図10に示す例では、N104、N106、N107の3つのノードがユーザの感情がポジティブであると推定されるノードとして掲載され、N105、N108〜N112の6つのノードがユーザの感情がネガティブであると推定されるノードとして掲載される。具体的には、提示部133は、広告主ページW30において、ユーザの感情がポジティブであると推定されるN104、N106、N107を含む領域R31を点線で囲み、文字“ポジティブ”とともに提示する。また、提示部133は、広告主ページW30において、ユーザの感情がネガティブであると推定されるN105、N108〜N112を含む領域R32を点線で囲み、文字“ネガティブ”とともに提示する。このように、提示部133は、対応する感情ごとに識別可能にクラスタリングしたノードを感情情報とともに提示する。
Here, FIG. 10 shows an example of the advertiser page presented to the
そして、図10に示す例では、提示部133は、領域R31中に文字“ポジティブ”とともに、“参考登録料:○万円”、“参考料金:△△円/1回”という入札価格に関する情報を提示する。なお、上記の入札価格に関する情報は、領域R31に新たなルールを追加するために必要な参考価格となり、この情報を基に広告主が入札情報を登録する。また、提示部133は、領域R32に文字“ネガティブ”とともに、“参考登録料:□万円”、“参考料金:☆☆円/1回”という入札価格に関する情報を提示する。これにより、広告主は、入札価格を基に入札情報を登録するかどうかを判断できる。なお、提示部133が提示する入札価格に関する情報は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。また、提示部133は、即決する登録料及び料金を入札価格として提示してもよい。この場合、受付部134は、所定の入札ページを介して、広告主から入札の意思と広告に関する情報とを含む入札情報を受け付ける。 In the example illustrated in FIG. 10, the presentation unit 133 includes information on the bid price such as “reference registration fee: ¥ 10,000 yen” and “reference fee: ΔΔ yen / once” together with the characters “positive” in the region R31. Present. Note that the information regarding the bid price is a reference price necessary for adding a new rule to the region R31, and the advertiser registers bid information based on this information. In addition, the presentation unit 133 presents information on the bid price such as “reference registration fee: □ 10,000 yen” and “reference fee: ☆☆ yen / once” together with the character “negative” in the region R32. Thereby, the advertiser can determine whether or not to register bid information based on the bid price. In addition, the information regarding the bid price presented by the presentation unit 133 is not limited to the above. For example, when accepting a bid with a limited period, it can be appropriately changed depending on the bid conditions such as presenting “XX million yen / month”. It is. In addition, the presentation unit 133 may present a registration fee and a fee that are decided immediately as a bid price. In this case, the accepting unit 134 accepts bid information including an intention to bid and information related to the advertisement from the advertiser via a predetermined bid page.
〔5−3.入札価格〕
ここで、入札装置100は、提示部133により提示する入札価格を、その領域に含まれる会話の価値に応じて算出してもよい。例えば、入札装置100は、使用された回数の多いルールを含む領域の入札価格を他の領域の入札価格よりも高額に設定してもよい。
[5-3. Bid price)
Here, the
また、入札装置100は、提示部133により提示する入札価格を、その領域におけるユーザの感情に応じて算出してもよい。例えば、入札装置100は、ユーザの感情がポジティブと推定される領域についての入札価格を、ユーザの感情がポジティブと推定される領域についての入札価格よりも高額に設定してもよい。また、入札装置100は、ユーザの感情がネガティブと推定される領域において広告を出力することを希望する広告主に対しては、ユーザの感情がネガティブと推定される領域について、他の広告主よりも高額な入札価格を提示してもよい。
Further, the
〔5−4.キーワードに基づく広告の抽出〕
また、上記第1の実施形態では、入札装置100は、判定ツリーを更新して応答生成サーバ30へ送信する。しかし、入札装置100は、広告情報をその都度応答生成サーバ30へ送信してもよい。この場合、入札装置100は、入札を希望する感情、広告出力を希望するキーワード、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付けてもよい(図11参照)。つまり、入札装置100は、各感情についてキーワードごとに広告の入札を受け付ける。また、この場合、入札装置100は、登録された入札情報の中から指定された感情に対応する入札情報を抽出する抽出部と備えてもよい。
[5-4. (Advertising based on keywords)
In the first embodiment, the
ここで、入札装置100の受付部134が広告出力を希望するキーワードを含む入札情報を受け付けた後の処理について説明する。まず、取得部131は、ユーザが対話エージェントシステムと会話している場合、取得した時点の対話において使用されているノードに関する情報や、ユーザに関する情報を応答生成サーバ30から取得する。この場合、ユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。そして、図示しない抽出部は、受付部134により受け付けた入札情報の中で、取得した時点の対話において使用されているノードにおいて推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部135は、その抽出された入札情報における広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、送信部135は、ユーザの発話の内容に関する情報が抽出された入札情報のキーワードに関連する場合、抽出された入札情報における広告情報を応答生成サーバ30へ送信してもよい。ここでいう、キーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードがユーザの発話の内容に関する情報中に含まれていること等をいう。また、入札情報のキーワードは、検出ノードにおいて検出に用いるワードと関連付けてもよい。この場合、入札装置100は、入札情報のキーワードと取得した時点の対話において使用されている検出ノードにおいて検出に用いるワードとが、所定の条件を満たす場合、例えば、一致または関連する場合、上記の処理を行ってもよい。
Here, a process after the reception unit 134 of the
〔5−5.装置構成〕
また、図4に示した入札装置100は、記憶部120を有しなくてもよい。具体的には、入札装置100は、記憶部120を保持するデータベースサーバと接続されてもよい。
[5-5. Device configuration〕
Further, the
〔5−6.効果〕
上述してきたように、第1の実施形態に係る入札装置100は、推定部132と、提示部133とを有する。推定部132は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部133は、推定部132が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。
[5-6. effect〕
As described above, the
これにより、第1の実施形態に係る入札装置100は、広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100は、受付部134を有する。受付部134は、提示部133により提示された感情情報に応じた広告を、広告主から受け付ける。
In addition, the
これにより、第1の実施形態に係る入札装置100は、感情情報に応じた広告を広告主から受け付けることができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、対話エージェントシステムとの会話のうち、ユーザが所定の感情であると推定される会話の領域を感情情報とともに広告主へ提示する。
In addition, in the
これにより、第1の実施形態に係る入札装置100は、広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、ユーザの感情がポジティブであると推定される領域と他の領域とを識別可能に広告主へ提示する。
In addition, in the
これにより、第1の実施形態に係る入札装置100は、ユーザはどの領域のノードがポジティブな感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、ユーザの感情がネガティブであると推定される領域と他の領域とを識別可能に広告主へ提示する。
In addition, in the
これにより、第1の実施形態に係る入札装置100は、ユーザはどの領域のノードがネガティブな感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、ユーザが所定の感情であると推定される領域同士をクラスタリングすることにより、所定の感情に対応する領域を提示する。
In addition, in the
これにより、第1の実施形態に係る入札装置100は、ユーザは各ノードがどの感情に対応するかを視認しやすくなり、広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、広告主の業種に応じて、ユーザが所定の感情であると推定される会話の領域を変動させる。
Further, in the
これにより、第1の実施形態に係る入札装置100は、広告主ごとに識別可能に提示する領域を出し分けることにより、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。
Thereby, the
また、第1の実施形態に係る入札装置100において提示部133は、領域に含まれる会話中に広告を出力するための入札価格を提示する。
In the
これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。
Thereby, since the
また、第1の実施形態に係る入札装置100において提示部133は、領域に含まれる会話の価値に応じて算出される入札価格を提示する。
Further, in the
これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告主の業種に応じて広告の効果を向上させるための提示を行うことができる。
Thereby, since the
また、第1の実施形態に係る入札装置100において提示部133は、領域に対応するユーザの感情に応じて算出される入札価格を提示する。
Further, in the
これにより、第1の実施形態に係る入札装置100は、広告主は入札価格を基に入札するかどうかを判断できるため、広告の効果を向上させるための提示を行うことができる。
Thereby, since the
(第2の実施形態)
上記第1の実施形態において説明したように、対話エージェントシステム1では、取得部131により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。すなわち、対話エージェントシステム1では、判定ツリーという過去のユーザとの対話等により生成された情報から推定されるユーザの感情に基づいて入札サービスを提供している。そこで、第2の実施形態では、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情に基づく入札サービスを提供する例について説明する。なお、第2の実施形態に係る対話エージェントシステムの構成は、図3に示した構成と同様であるので、以下では説明を省略する。
(Second Embodiment)
As described in the first embodiment, in the interactive agent system 1, the emotion of the user at each node in the determination tree acquired from the
〔1.入札処理〕
まず、図11に示す例を用いて第2の実施形態に係る入札処理について説明する。図11に示すように、入札装置200は、推定されるユーザの各感情に対する入札一覧情報を広告主へ提示する(ステップS21)。図11に示す例において、入札装置200は、感情“ポジティブ”について、出力を希望する広告情報が“A店のカレーおいしいよ”であり、現在の入札価格が料金/1回につき“○○円”であることを提示する。また、入札装置200は、感情“ネガティブ”について、出力を希望する広告情報が“葬儀ならF社へご相談ください”であり、現在の入札価格が料金/1回につき“□□円”であることを提示する。なお、入札価格は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。
[1. Bidding process)
First, the bidding process according to the second embodiment will be described using the example shown in FIG. As shown in FIG. 11, the
続いて、入札装置200は、広告主から入札情報を受け付ける(ステップS22)。このとき、受け付ける入札情報としては、入札を希望するユーザの感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格等が含まれる。そして、入札装置200は、受け付けた入札価格が現在の入札価格を上回る場合、広告一覧情報において対応する感情の欄の情報を受け付けた入札情報により更新する。
Subsequently, the
そして、ユーザが対話エージェントシステムと会話している場合(ステップS23)、応答生成サーバ30は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を入札装置200へ送信する(ステップS24)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置200は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。このとき、入札装置200は、例えば、ユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はネガティブであると推定してもよい。そして、入札装置200は、入札一覧情報の中で、ユーザに関する情報から推定される感情と一致する感情に対応する入札情報を抽出する(ステップS25)。入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、入札装置200は、抽出された入札情報における広告情報を応答生成サーバ30へ送信する(ステップS26)。その後、応答生成サーバ30は、受信した広告情報の広告をユーザに対して出力する。具体的には、ユーザに関する情報から推定される感情がポジティブである場合、入札装置200は、入札一覧情報中に感情“ポジティブ”に対応する入札情報があるため、感情“ポジティブ”の広告情報“A店のカレーおいしいよ”を応答生成サーバ30へ送信する。そして、応答生成サーバ30は、適宜のタイミングで“A店のカレーおいしいよ”をユーザに対して出力する。
Then, when the user is conversing with the dialog agent system (step S23), the
このように、第2の実施形態に係る入札装置200が推定されるユーザの感情ごとに入札を受け付けて、応答生成サーバ30から取得したユーザに関する情報から推定されるユーザの感情と一致する広告情報を応答生成サーバ30へ送信する。そのため、対話エージェントシステムは、判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情に基づく広告をユーザへ出力することが可能となる。具体的には、入札装置200は、広告主に推定したユーザの感情を示す感情情報を提示することができる。これにより、入札装置200は、推定されるユーザの感情に対して広告の入札を広告主から受け付けることができる。これにより、入札装置200は、広告の効果を向上させる入札を受け付けることができる。つまり、入札装置200は、適切なタイミングでユーザに訴求力の高い広告を出力することを可能にする。なお、入札装置100は、応答生成サーバ30から取得したユーザに関する情報から推定されるユーザの感情と類似又は所定の対応関係にある入札情報における広告情報を応答生成サーバ30へ送信してもよい。
In this way, the
〔2.入札装置の構成〕
次に、図12を用いて、第2の実施形態に係る入札装置200の構成について説明する。図12は、実施例に係る入札装置200の構成例を示す図である。図12に示すように、入札装置200は、通信部110と、記憶部220と、制御部230とを有する。なお、以下では、図4に示す第1の実施形態に係る入札装置100と重複する説明は省略する。
[2. Bidding equipment configuration]
Next, the configuration of the
(記憶部220)
記憶部220は、例えば、図11に示すような広告主により登録された入札情報に基づいた入札一覧情報や応答生成サーバ30から取得したユーザに関する情報等を記憶する。
(Storage unit 220)
The
図12に示すように、制御部230は、取得部231と、推定部232と、提示部233と、受付部234と、送信部235と、抽出部236とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 12, the
(取得部231)
取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を応答生成サーバ30から取得する。ここで、取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を、例えば対話が進むたび、つまりノードが遷移するたびに応答生成サーバ30から取得してもよい。
(Acquisition unit 231)
The
(推定部232)
推定部232は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。例えば、推定部232は、取得部231により応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。ここで、推定部232が推定する感情は、嬉しい、怒っている、哀しい、楽しい等、人間の感情の分類に沿って種々の適宜設定可能である。以下では、推定部232が推定する感情をポジティブ及びネガティブの2種類として説明する。この場合、推定部232は、例えば、ユーザの発話の抑揚が大きい場合やユーザの発話のテンポが良い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はポジティブであると推定してもよい。なお、取得部231が対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情を取得する場合、推定部232は、取得部231が取得したユーザの感情に関する情報を用いてもよい。このとき、記憶部220は、取得部231により応答生成サーバ30から取得したユーザの感情に関する情報を記憶する。
(Estimation unit 232)
The
(提示部233)
提示部233は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部233は、推定されるユーザの各感情に対する入札一覧情報を広告主端末60へ提示する。図11に示す例において、提示部233は、感情“ポジティブ”について、出力を希望する広告情報が“A店のカレーおいしいよ”であり、現在の入札価格が料金/1回につき“○○円”であることを提示する。また、提示部233は、感情“ネガティブ”について、出力を希望する広告情報が“葬儀ならF社へご相談ください”であり、現在の入札価格が料金/1回につき“□□円”であることを提示する。なお、入札価格は、上記に限らず、例えば、期間を限定した入札を受け付ける場合は“○○万円/1ヶ月”を提示するなど、入札条件によって適宜変更可能である。
(Presentation unit 233)
The presenting
ここでは図示することは省略するが、提示部233は、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札を希望するユーザの感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格等が含まれる入札情報を入力することにより入札を行う。
Although illustration is omitted here, the
(受付部234)
受付部234は、所定の入札ページを介して、入札情報を広告主端末60から受信する。図11に示す例において、受付部234が受け付ける入札情報としては、入札を希望する感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる。そして、入受付部234は、受け付けた入札価格が現在の入札価格を上回る場合、広告一覧情報における対応する感情の欄を受け付けた入札情報により更新する。
(Reception unit 234)
The accepting
(送信部235)
送信部235は、図11に示す例における広告一覧情報中で、以下に説明する抽出部236により抽出された入札情報における広告情報を応答生成サーバ30へ送信する。そして、応答生成サーバ30は、ユーザに対して適宜のタイミングで、送信部235から受信した広告情報の広告を出力する。
(Transmitter 235)
The transmission unit 235 transmits the advertisement information in the bid information extracted by the
(抽出部236)
抽出部236は、取得部231により取得されたユーザに関する情報に基づいて推定されるユーザの感情と、ユーザが行っている会話について推定部232が推定した感情との比較結果に基づいて、会話中に出力される広告を抽出する。つまり、本実施形態において、抽出部236は、図11に示す例における入札一覧情報の中で、推定部232により推定される感情と一致する感情に対応する入札情報を抽出する。したがって、入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、上述したように、送信部235は、抽出部236により抽出された入札情報における広告情報を応答生成サーバ30へ送信する。具体的には、ユーザに関する情報から推定される感情がネガティブである場合、抽出部236は、入札一覧情報中に感情“ネガティブ”に対応する入札情報を抽出する。そして、送信部235は、感情“ネガティブ”の広告情報“葬儀ならF社へご相談ください”を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、適宜のタイミングで“葬儀ならF社へご相談ください”をユーザに対して出力する。
(Extractor 236)
Based on the comparison result between the emotion of the user estimated based on the information about the user acquired by the
〔3.入札処理手順〕
次に、図13を用いて、第2の実施形態に係る対話エージェントシステムによる入札処理の手順について説明する。図13は、第2の実施形態に係る対話エージェントシステムによる入札処理手順を示すシーケンス図である。
[3. (Bid processing procedure)
Next, with reference to FIG. 13, a procedure of bidding processing by the interactive agent system according to the second embodiment will be described. FIG. 13 is a sequence diagram showing a bidding process procedure by the dialog agent system according to the second embodiment.
図12に示すように、入札装置200は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む入札一覧情報を広告主へ提示する(ステップS201)。続いて、入札装置200は、広告主端末60から広告情報を含む入札情報を受け付ける(ステップS202)。
As shown in FIG. 12, the
そして、ユーザが対話エージェントシステムと会話している場合(ステップS203)、応答生成サーバ30は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を入札装置200へ送信する(ステップS204)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。
Then, when the user is conversing with the dialog agent system (step S203), the
続いて、入札装置200は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、入札装置200は、入札一覧情報の中で、ユーザに関する情報から推定される感情と一致する入札情報を抽出する(ステップS205)。
Subsequently, the
入札一覧情報の中にユーザに関する情報から推定される感情と一致する感情がある場合、入札装置200は、その感情に対応する入札情報における広告情報を応答生成サーバ30へ送信する(ステップS206)。その後、応答生成サーバ30は、受信した広告情報を反映させ、音声サービスを提供する(ステップS207)。具体的には、応答生成サーバ30は、ユーザに対して適宜のタイミングで、入札装置200から受信した広告情報の広告を出力する。
If there is an emotion in the bid list information that matches the emotion estimated from the information about the user, the
〔4.変形例〕
上述した第2の実施形態に係る対話エージェントシステムは、上記第2の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、以下では、上記第2の実施形態に係る対話エージェントシステムを変形した実施形態について説明する。
[4. (Modification)
The dialog agent system according to the second embodiment described above may be implemented in various different forms other than the second embodiment. Therefore, in the following, an embodiment in which the dialog agent system according to the second embodiment is modified will be described.
〔4−1.キーワードに応じた広告出力〕
上記第2の実施形態では、入札装置200の受付部234は、入札を希望する感情、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付ける。しかし、受付部234は、上記のような感情や広告情報に加えて、広告出力を希望するキーワードも受け付けてもよい。この場合、図11に示す例における入札一覧情報には各入札に対応するキーワードが含まれる。つまり、受付部234は、各感情についてキーワードごとに広告の入札を受け付けることができる。
[4-1. (Ad output according to keyword)
In the second embodiment, the accepting
ここで、受付部234が広告出力を希望するキーワードを含む入札情報を受け付けた後の処理について説明する。まず、取得部231は、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報を応答生成サーバ30から取得する。この場合、取得部231により応答生成サーバ30から取得したユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。そして、推定部232は、取得部231が取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、抽出部236は、入札一覧情報の中で、推定部232により推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部235は、その抽出された入札情報における広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、送信部235は、ユーザの発話の内容に関する情報が抽出された入札情報のキーワードに関連する場合、抽出された入札情報における広告情報を応答生成サーバ30へ送信してもよい。ここでいう、ユーザの発話の内容に関する情報がキーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードがユーザの発話の内容に関する情報中に含まれていること等をいう。
Here, a process after the
〔4−2.効果〕
上述してきたように、第2の実施形態に係る入札装置200は、取得部231と、推定部232と、提示部233と、抽出部236とを有する。取得部231は、対話エージェントシステムと会話しているユーザに関する情報を取得する。推定部232は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部233は、推定部232が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。抽出部236は、取得部231により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について推定部232が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する。
[4-2. effect〕
As described above, the
これにより、第2の実施形態に係る入札装置200は、利用しているユーザに関する情報から推定されるユーザの感情に基づく広告をユーザへ出力することが可能し、広告の効果を向上させるための提示を行うことができる。
Thereby, the
(第3の実施形態)
第3の実施形態では、判定ツリーから推定されるユーザの感情と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報から推定されるユーザの感情とに基づく入札サービスを提供する例について説明する。なお、第3の実施形態に係る対話エージェントシステムの構成は、図3に示した構成と同様であるので、以下では説明を省略する。
(Third embodiment)
In the third embodiment, an example of providing a bidding service based on a user's emotion estimated from a determination tree and a user's emotion estimated from information on a user who has a conversation based on the dialog agent system and the determination tree explain. Note that the configuration of the interactive agent system according to the third embodiment is the same as the configuration shown in FIG.
〔1.入札処理〕
まず、図14に示す例を用いて第3の実施形態に係る入札処理について説明する。図14に示すように、入札装置300は、判定ツリーを応答生成サーバ30から取得する(ステップS31)。この場合、入札装置300は、例えば判定ツリーが更新されるたびに判定ツリーを応答生成サーバ30から取得してもよい。続いて、入札装置300は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する。そして、入札装置300は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS32)。図14に示す例において、入札装置300は、判定ツリーにおいてユーザの感情がポジティブであると推定される領域と、ネガティブであると判定された領域とをそれぞれ点線で囲み、その感情を表す文字とともに提示する。このとき、入札装置300は、判定ツリー全体を広告主へ提示してもよいし、感情情報を含む判定ツリーの一部を提示してもよい。図14の例の場合、入札装置300は、ユーザの感情がポジティブであることを示す領域と、ユーザの感情がネガティブであることを示す領域とを識別可能に判定ツリーを提示する。
[1. Bidding process)
First, the bidding process according to the third embodiment will be described using the example shown in FIG. As shown in FIG. 14, the
続いて、入札装置300は、広告主から入札情報を受け付ける(ステップS33)。このとき、受け付ける入札情報としては、追加する新たなルールである広告に関する動作ノードの情報や入札価格に関する情報等が含まれてもよい。
Subsequently, the
そして、ユーザ端末10が対話エージェントシステムと会話している場合(ステップS34)、応答生成サーバ30は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを入札装置300へ送信する(ステップS35)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置300は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。このとき、入札装置300は、例えば、ユーザの発話の抑揚が小さい場合やユーザの発話のテンポが悪い場合、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザの感情はネガティブであると推定してもよい。
When the
そして、受け付けた入札情報に対応するノードと、取得した時点の対話において使用されているノードが一致した場合、入札装置300は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較した結果に応じた入札情報を抽出する(ステップS36)。上記比較の結果が所定の条件を満たす場合、入札装置300は、落札が決定した広告主から受け付けた入札情報に含まれる広告に関する新たなルールである動作ノードの情報を基に判定ツリーを更新し、その更新した判定ツリーを応答生成サーバ30へ送信する(ステップS37)。なお、ここでいう、所定の条件とは、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とが一致することであってもよい。
If the node corresponding to the accepted bid information matches the node used in the conversation at the time of acquisition, the
このように、第3の実施形態に係る入札装置300が広告主に感情情報を含む判定ツリーを提示することができる。そのため、広告主は、自身の広告に適した会話の流れとユーザの感情とに合わせて広告を追加することができる。これにより、入札装置300は、広告の効果を向上させる入札を受け付けることができる。
As described above, the
〔2.入札装置の構成〕
次に、図15を用いて、第3の実施形態に係る入札装置300の構成について説明する。図15は、実施例に係る入札装置300の構成例を示す図である。図15に示すように、入札装置300は、通信部110と、記憶部320と、制御部330とを有する。なお、以下では、図4に示す第1の実施形態に係る入札装置100や図12に示す第2の実施形態に係る入札装置200に重複する説明は省略する。
[2. Bidding equipment configuration]
Next, the configuration of the
(記憶部320)
記憶部320は、例えば、応答生成サーバ30から取得した判定ツリーや、ユーザに関する情報や、対話エージェントシステムを利用するユーザの感情として推定される感情情報や、広告主により登録された入札情報等を記憶する。
(Storage unit 320)
The
図15に示すように、制御部330は、取得部331と、推定部232と、提示部333と、受付部334と、送信部335と、抽出部336を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図15に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 15, the
(取得部331)
取得部331は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する。この場合、取得部331は、例えば判定ツリーが更新されるたびに判定ツリーを応答生成サーバ30から取得してもよい。また、取得部331は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを応答生成サーバ30から取得する。ここで、取得部331は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを、例えば対話が進むたび、つまりノードが遷移するたびに応答生成サーバ30から取得してもよい。
(Acquisition unit 331)
The
(推定部332)
推定部332は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。例えば、推定部332は、取得部331により応答生成サーバ30から取得した判定ツリー中の各ノードにおけるユーザの感情を推定する。また、推定部332は、取得部331により応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。つまり、推定部332は、判定ツリー中の各ノードにおけるユーザの感情と、ユーザに関する情報に基づいたユーザの感情とを推定する。
(Estimation unit 332)
The
(提示部333)
提示部333は、推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する。例えば、提示部333は、図14に示すように、判定ツリー中の各ノードにおけるユーザの感情として推定される感情情報を含む判定ツリーを広告主端末60へ提示する。また、提示部333は、図4に示す提示部133と同様の機能を有する。
(Presentation part 333)
The
ここでは図示することは省略するが、提示部333は、入札情報を登録する入札ページを広告主端末60へ提示する。広告主は、入札ページを用いて追加する新たなノードや入札価格等の情報を入力することにより入札を行う。
Although illustration is omitted here, the
(受付部334)
受付部334は、所定の入札ページを介して、入札情報を広告主端末60から受信する。また、受付部334は、図4に示す受付部134と同様の機能を有する。
(Reception unit 334)
The accepting
(送信部335)
送信部335は、以下に説明する抽出部336により更新された判定ツリーを応答生成サーバ30へ送信する。そして、送信部335から判定ツリーを受信した応答生成サーバ30は、受信した判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定する。
(Transmitter 335)
The
(抽出部336)
抽出部336は、取得部331により取得されたユーザに関する情報に基づいて推定されるユーザの感情と、ユーザが行っている会話について推定部332が推定した感情との比較結果に基づいて、会話中に出力される広告を抽出する。つまり、本実施形態において、抽出部336は、広告主が新たな動作ノードの追加を入札したノードと、取得部331により取得した使用されているノードが一致した場合、その広告主の入札した入札情報を抽出する。そして、抽出部336は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較する。判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす場合、抽出部336は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを更新する。そして、送信部335は、その更新した判定ツリーを応答生成サーバ30へ送信する。
(Extractor 336)
Based on the comparison result between the user's emotion estimated based on the information about the user acquired by the
なお、ここでいう、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果についての所定の条件とは、両感情が類似することであってもよい。また、抽出部336は、取得部331により取得した使用されているノードが、広告主が新たな動作ノードの追加を入札したノードに近接している場合に、上記判定ツリーの更新処理を実行してもよい。また、両感情の比較に結果における所定の条件として、両感情が反対の関係にある場合としてもよい。例えば、判定ツリーから推定されるユーザの感情がポジティブであって、ユーザに関する情報から推定される感情がネガティブである場合、対話エージェントシステムは、病院に関する広告等をユーザへ出力してもよい。また、この場合、受付部334が広告主から受け付ける入札情報には、上記所定の条件に関する情報が含まれてもよい。
Here, the predetermined condition regarding the result of comparison between the emotion of the user estimated from the determination tree and the emotion estimated from the information about the user may be that both emotions are similar. In addition, the
〔3.入札処理手順〕
次に、図16を用いて、第3の実施形態に係る対話エージェントシステムによる入札処理の手順について説明する。図16は、第3の実施形態に係る対話エージェントシステムによる入札処理手順を示すシーケンス図である。
[3. (Bid processing procedure)
Next, with reference to FIG. 16, a procedure of bidding processing by the interactive agent system according to the third embodiment will be described. FIG. 16 is a sequence diagram showing a bidding process procedure by the dialog agent system according to the third embodiment.
図16に示すように、入札装置300は、応答生成サーバ30がユーザとの対話に用いている対話のルールに関する情報である判定ツリーを応答生成サーバ30から取得する(ステップS301)。この場合、入札装置300は、取得した判定ツリーを記憶部320に格納する。そして、入札装置300は、取得した判定ツリーに基づいて、その判定ツリー中の各ノードにおけるユーザの感情を推定する(ステップS302)。その後、入札装置300は、対話エージェントシステムを利用するユーザの感情として推定される感情情報を含む判定ツリーを提示する(ステップS303)。
As illustrated in FIG. 16, the
続いて、入札装置300は、所定の入札ページを介して、広告主端末60から新たなノードを含む入札情報を受信する(ステップS304)。
Subsequently, the
そして、ユーザ端末10が対話エージェントシステムと会話している場合(ステップS305)、応答生成サーバ30は、取得した時点の対話において使用されているノードに関する情報と、対話エージェントシステムと判定ツリーに基づいて会話を行うユーザに関する情報とを入札装置300へ送信する(ステップS306)。ここで、ユーザに関する情報には、ユーザの発話から取得した音声情報が含まれる。その後、入札装置300は、応答生成サーバ30から取得したユーザに関する情報に基づいてユーザの感情を推定する。そして、広告主端末60が新たな動作ノードの追加を入札したノードと、ユーザ端末10により使用されているノードが一致した場合、入札装置300は、判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情とを比較する(ステップS307)。
When the
判定ツリーから推定されるユーザの感情と、ユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす、例えば両感情が一致する場合、入札装置300は、落札が決定した広告主から受け付けた入札情報に含まれる新たなルールである広告に関する動作ノードの情報を基に判定ツリーを生成し(ステップS308)、新たなルールを含んだ判定ツリーを応答生成サーバ30へ送信する(ステップS309)。その後、応答生成サーバ30は、入札装置300から受信した新たなノードを含んだ判定ツリーに基づいて、ユーザの発話である入力メッセージに対して、ユーザへ返す応答メッセージを決定し、音声サービスを提供する(ステップS310)。
When the result of the comparison between the user's emotion estimated from the determination tree and the emotion estimated from the information related to the user satisfies a predetermined condition, for example, both emotions match, the
〔4.変形例〕
上述した第3の実施形態に係る対話エージェントシステムは、第3の実施形態以外にも様々な異なる形態にて実施されてよい。そこで、第3の実施形態に係る対話エージェントシステムを変形した実施形態について説明する。
[4. (Modification)
The dialog agent system according to the third embodiment described above may be implemented in various different forms other than the third embodiment. Therefore, a modified embodiment of the dialog agent system according to the third embodiment will be described.
〔4−1.キーワードに基づく広告の抽出〕
上記第3の実施形態では、入札装置300は、判定ツリーを更新して応答生成サーバ30へ送信する。しかし、入札装置300は、広告情報をその都度応答生成サーバ30へ送信してもよい。この場合、入札装置300は、入札を希望する感情、広告出力を希望するキーワード、出力を希望する広告情報、例えば料金/1回につきに関する入札価格が含まれる入札情報を受け付けてもよい(図11参照)。つまり、入札装置300は、各感情についてキーワードごとに広告の入札を受け付ける。
[4-1. (Advertising based on keywords)
In the third embodiment, the
ここで、入札装置300の受付部334が広告出力を希望するキーワードを受け付けた後の処理について説明する。まず、取得部131は、ユーザが対話エージェントシステムと会話している場合、取得した時点の対話において使用されているノードに関する情報や、ユーザに関する情報を応答生成サーバ30から取得する。この場合、ユーザに関する情報には、ユーザの発話の内容に関する情報、例えばテキスト情報が含まれる。
Here, a process after the accepting
ここで、抽出部336は、取得した時点の対話において使用されているノードにおいて推定される感情とユーザに関する情報から推定される感情との比較の結果が所定の条件を満たす、例えば両感情が一致する場合、次の処理を行う。抽出部336は、受付部334により受け付けた入札情報の中で、ユーザに関する情報から推定される感情と一致する感情情報に対応する入札情報を抽出する。ここで、抽出された感情に対応する入札情報のキーワードがユーザの発話の内容に関する情報中に含まれている場合、送信部335は、その抽出された感情に対応する広告情報を応答生成サーバ30へ送信する。その後、応答生成サーバ30は、受信した広告情報を基づいて広告を出力する。これにより、広告主は、自身の希望する感情とキーワードとの両方が対応する対話において広告を出力することができ、ユーザに訴求力の高い広告を出力することができる。また、入札装置300は、取得した時点の対話において使用されているノードにおいて推定される感情とユーザに関する情報から推定される感情との両方を用いて、ユーザの感情を推定しているため、より精度よくユーザの感情を推定できる。また、送信部335は、ユーザの発話の内容に関する情報が抽出された感情に対応する入札情報のキーワードに関連する場合、出された感情に対応する広告情報を応答生成サーバ30へ送信してもよい。ここでいう、キーワードに関連するとは、例えば、キーワードが“キーマ”である場合、“インド料理”や“カレー”や“ラッシー”など、そのキーワードの意味に関連する意味を有するワードが含まれていること等をいう。また、入札情報のキーワードは、検出ノードにおいて検出に用いるワードと関連付けてもよい。この場合、入札装置300は、入札情報のキーワードと取得した時点の対話において使用されている検出ノードにおいて検出に用いるワードとが、所定の条件を満たす場合、例えば一致または関連する場合、上記の処理を行ってもよい。
Here, the
〔4−2.効果〕
上述してきたように、第3の実施形態に係る入札装置300は、取得部331と、推定部332と、提示部333と、抽出部336とを有する。取得部331は、対話エージェントシステムと会話しているユーザに関する情報を取得する。推定部332は、ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する。提示部333は、推定部332が推定したユーザの感情を示す感情情報を、会話中に出力される広告の広告主へ提示する。抽出部336は、取得部331により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について推定部332が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する。
[4-2. effect〕
As described above, the
これにより、第3の実施形態に係る入札装置300は、自身の広告に適した会話の流れとユーザの感情とに合わせて広告をユーザへ出力することが可能し、広告の効果を向上させるための提示を行うことができる。
Thereby, the
(第1〜3の実施形態について)
〔1.判定情報〕
上記1〜3の実施形態では、判定情報として図2に示すような判定ツリーを用いる。しかし、判定情報は、判定ツリーのようなツリー状に限らず、例えば、ノードマップ状であってもよい。このようなノードマップ状の判定情報を用いた場合、根ノード(図2に示す例においてはN101に相当)は会話が始まったときのノードとなる。
(About the first to third embodiments)
[1. Judgment information)
In the first to third embodiments, a determination tree as shown in FIG. 2 is used as the determination information. However, the determination information is not limited to a tree shape such as a determination tree, and may be, for example, a node map shape. When such node-map determination information is used, the root node (corresponding to N101 in the example shown in FIG. 2) is the node at the start of the conversation.
〔2.ユーザの感情について〕
上記1〜3の実施形態では、入札装置100〜300(以下、単に入札装置と記載する)は、判定ツリーの内容に基づいて、ユーザの感情が「ポジティブ」であるか、「ネガティブ」であるかを推定した。しかしながら、実施形態は、これに限定されるものではない。すなわち、入札装置は、ユーザの任意の感情を推定し、推定した感情を提示することができる。
[2. User emotions)
In the above-described embodiments 1 to 3, the
例えば、入札装置は、「快適」であるか「不快」であるかに基づいて、ユーザの感情を推定してよい。また、入札装置は、「喜び」、「怒り」、「悲しみ」、「楽しみ」等、任意の感情を推定対象としてよい。また、会話が継続することで、ユーザの感情は変化する。そこで、入札装置は、予測される会話の流れに沿って、ノードごとに推定対象となる各感情のスコアリングを行い、かかるスコアリングに基づいて、各ノードにおけるユーザの感情を推定してもよい。他にも、入札装置は、ユーザの感情を任意の次元数を有するベクトルで示し、各次元と推定対象となる感情とを紐付け、ノードごとにベクトル操作を行うことで、ユーザの感情を推定してもよい。このように、入札装置は、ユーザの感情を決めうち(すなわちトップダウン方式で)で推定してもよく、会話の流れに応じて(すなわちボトムアップ方式)で推定してもよい。 For example, the bidding device may estimate the user's emotion based on whether it is “comfortable” or “uncomfortable”. In addition, the bidding apparatus may set an arbitrary emotion such as “joy”, “anger”, “sadness”, “fun”, or the like as an estimation target. In addition, the user's emotion changes as the conversation continues. Therefore, the bidding apparatus may score each emotion to be estimated for each node along the predicted conversation flow, and may estimate the user's emotion at each node based on the scoring. . In addition, the bidding device estimates the user's emotion by indicating the user's emotion as a vector having an arbitrary number of dimensions, associating each dimension with the emotion to be estimated, and performing a vector operation for each node. May be. In this way, the bidding device may estimate the user's emotions while deciding (that is, in a top-down manner) or may be estimated according to the flow of conversation (ie, in a bottom-up manner).
具体的には、入札装置は、各感情に対応する評価関数を予め設定してもよい。この場合、入札装置は、例えば、各評価関数として、正規分布関数などを採用してもよく、所定の感情モデルに基づく任意の分布を採用してもよい。そして、入札装置が推定する感情としては、例えば、「喜び」、「受容」、「怒り」、「嫌悪」、「恐れ」、「驚き」、「期待」、「悲しみ」等が挙げられるが、入札装置は、列挙した感情に限らず人間の感情であればどのような分類の感情を推定してもよい。 Specifically, the bidding device may preset an evaluation function corresponding to each emotion. In this case, for example, the bidding device may employ a normal distribution function or the like as each evaluation function, or may employ an arbitrary distribution based on a predetermined emotion model. The emotions estimated by the bid device include, for example, “joy”, “acceptance”, “anger”, “disgust”, “fear”, “surprise”, “expectation”, “sadness”, etc. The bidding device is not limited to the enumerated emotions and may estimate any classification of emotions as long as they are human emotions.
また、入札装置は、各評価関数を用いて、各「感情」を数値化してもよい。例えば、入札装置は、応答ノードに登録された応答から、各感情に対応する快不快の数値を算出してもよい。この場合、入札装置は、例えば、応答テキストの形態素解析や、単語のベクトル化の技術を採用してもよい。他にも、入札装置は、応答ノードと接続された検出ノードとの対応や、所定のホップ数内に存在する各ノードとの関係、それまでの快不快の数値の履歴等に基づいた補正を行ってもよい。 In addition, the bidding device may digitize each “emotion” using each evaluation function. For example, the bid device may calculate a numerical value of pleasantness / discomfort corresponding to each emotion from the response registered in the response node. In this case, the bidding device may employ, for example, a morphological analysis of response text or a vectorization technique of words. In addition, the bidding device makes corrections based on the correspondence between the responding node and the detection node connected, the relationship with each node existing within a predetermined number of hops, the history of pleasant and unpleasant values so far, etc. You may go.
また、入札装置は、重み付け関数を用いて、現在の「感情」を決定してもよい。例えば、入札装置は、所定の式を用いて、快不快の数値を統合してもよい。この場合、入札装置は、例えば、快不快の数値の総和だけではなく、快不快等の各感情に対する重み付けを用いてもよい。また、入札装置は、時間とともに感情が薄れるような忘却曲線を用いてもよい。この場合、入札装置は、例えば、重み付け関数における快不快等の各感情に対する重み付けを時間がたつにつれて次第に小さくしてもよい。また、入札装置は、快不快の数値の統合結果に基づいて、利用者の感情(例えば、快不快)を推定してもよい。また、入札装置は、各感情の数値をそのまま表示してもよいし、各感情の数値を色に対応付けて出力することで、利用者の感情のパターンを提示してもよい。この場合、入札装置は、例えばヒートマップのように、各感情の数値の高い箇所を赤色とし、数値の低い箇所を青色で提示してもよい。この場合、入札装置は、各色付けた箇所に例えば、「喜び」、「悲しみ」等の感情の文字情報をあわせて提示してもよい。また、入札装置は、例えば「喜び」の感情であれば赤色として、数値の高い箇所の彩度を高くし、数値の低い箇所の彩度を低く提示し、「悲しみ」の感情であれば青色として、数値の高い箇所の彩度を高くし、数値の低い箇所の彩度を低く提示してもよい。 In addition, the bidding apparatus may determine the current “emotion” using a weighting function. For example, the bid device may integrate numerical values of pleasantness and unpleasantness using a predetermined formula. In this case, for example, the bidding device may use not only the sum of numerical values of pleasant and unpleasant but also weights for emotions such as pleasant and unpleasant. In addition, the bidding device may use a forgetting curve in which emotions fade with time. In this case, for example, the bidding device may gradually reduce the weighting for each emotion such as pleasant discomfort in the weighting function over time. Further, the bidding device may estimate the user's emotion (for example, pleasant and uncomfortable) based on the integration result of the pleasant and unpleasant numerical values. In addition, the bid device may display the numerical value of each emotion as it is, or may present the emotional pattern of the user by outputting the numerical value of each emotion in association with the color. In this case, the bidding device may present a part with a high numerical value of each emotion in red and a part with a low numerical value in blue as in a heat map, for example. In this case, the bidding device may present, for example, character information of emotions such as “joy” and “sadness” in each colored part. In addition, the bidding device, for example, displays red if the emotion is “joy”, increases the saturation of the portion with a high numerical value, shows low saturation in the portion with a low numerical value, and blue if the emotion is “sad” As an alternative, the saturation at a high numerical value may be increased and the saturation at a low numerical value may be presented low.
〔3.応用例〕
また、上記1〜3の実施形態では、ユーザ端末10を用いて対話エージェントシステムを利用する形態に基づいて説明したが、上記1〜3の実施形態に限らず、例えば、ユーザは、ユーザ端末10と同等の機能有するロボットに対して会話を行うことにより、対話エージェントシステムを利用してもよい。
[3. Application example)
Moreover, although the said 1-3 embodiment demonstrated based on the form which utilizes a dialog agent system using the
〔4.プログラム〕
上述してきた各実施形態に係る入札装置は、例えば図17に示すような構成のコンピュータ1000によって実現される。図17は、各入札装置の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[4. program〕
The bid device according to each embodiment described above is realized by a
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網70を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを通信網70を介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が第1の実施形態に係る入札装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、第1の実施形態の入札装置における記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網70を介してこれらのプログラムを取得してもよい。
For example, when the
〔5.その他〕
また、上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[5. Others]
In addition, among the processes described in the above embodiments, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed All or a part of the above can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図4に示した取得部131と受付部134とは統合されてもよい。
Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the
また、上述してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, each embodiment mentioned above can be combined suitably in the range which does not contradict a process content.
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications based on the knowledge of those skilled in the art, including the aspects described in the disclosure line of the invention. It is possible to implement the present invention in other forms with improvements.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 対話エージェントシステム
10 ユーザ端末
20 音声認識サーバ
30 応答生成サーバ
40 音声合成サーバ
50 サービスAPIサーバ
60 広告主端末
100 入札装置
120 記憶部
131 取得部
132 推定部
133 提示部
134 受付部
135 送信部
DESCRIPTION OF SYMBOLS 1
Claims (13)
前記推定部が推定したユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示部と、
を備えたことを特徴とする提示装置。 In an interactive agent system that interacts with a user, an estimation unit that estimates an emotion of the user when talking with the interactive agent system;
A presentation unit that presents emotion information indicating a user's emotion estimated by the estimation unit to an advertiser of an advertisement output during the conversation;
A presentation device comprising:
をさらに備えたことを特徴とする請求項1に記載の提示装置。 A receiving unit that receives an advertisement corresponding to the emotion information presented by the presenting unit from the advertiser;
The presentation device according to claim 1, further comprising:
前記対話エージェントシステムとの会話のうち、前記ユーザが所定の感情であると推定される会話の領域を前記感情情報とともに広告主へ提示する
ことを特徴とする請求項1または2に記載の提示装置。 The presenting unit
3. The presentation device according to claim 1, wherein, in the conversation with the dialog agent system, a region of conversation in which the user is estimated to have a predetermined emotion is presented to the advertiser together with the emotion information. .
前記ユーザの感情がポジティブであると推定される領域と他の領域とを識別可能に広告主へ提示する、
ことを特徴とする請求項3に記載の提示装置。 The presenting unit
Presenting to the advertiser an area that is presumed to be positive for the user's emotion and other areas,
The presentation device according to claim 3.
前記ユーザの感情がネガティブであると推定される領域と他の領域とを識別可能に広告主へ提示する、
ことを特徴とする請求項3又は請求項4に記載の提示装置。 The presenting unit
Presenting the advertiser with an area that is presumably negative for the user's emotion and other areas,
The presentation device according to claim 3 or 4, wherein
前記ユーザが所定の感情であると推定される領域同士をクラスタリングすることにより、前記所定の感情に対応する領域を提示する、
ことを特徴とする請求項3〜5のいずれか一つに記載の提示装置。 The presenting unit
By clustering areas where the user is presumed to be a predetermined emotion, an area corresponding to the predetermined emotion is presented.
The presentation device according to any one of claims 3 to 5, wherein
前記広告主の業種に応じて、前記ユーザが所定の感情であると推定される会話の領域を変動させる、
ことを特徴とする請求項3〜6のいずれか一つに記載の提示装置。 The presenting unit
According to the advertiser's business type, the conversation area where the user is presumed to have a predetermined emotion is changed.
The presentation device according to any one of claims 3 to 6, wherein
前記領域とともに、前記領域に含まれる会話中に広告を出力するための入札価格を提示する、
ことを特徴とする請求項3〜7のいずれか一つに記載の提示装置。 The presenting unit
Along with the area, present a bid price for outputting an advertisement during a conversation included in the area.
The presenting device according to any one of claims 3 to 7, wherein
前記領域に含まれる会話の価値に応じて算出される入札価格を提示する、
ことを特徴とする請求項8に記載の提示装置。 The presenting unit
Presenting a bid price calculated according to the value of the conversation included in the area;
The presentation device according to claim 8.
前記領域に対応する前記ユーザの感情に応じて算出される入札価格を提示する、
ことを特徴とする請求項8又は請求項9に記載の提示装置。 The presenting unit
Presenting a bid price calculated according to the emotion of the user corresponding to the region,
The presentation device according to claim 8 or 9, wherein
前記取得部により取得されたユーザに関する情報に基づいて推定される当該ユーザの感情と、当該ユーザが行っている会話について前記推定部が推定した感情との比較結果に基づいて、当該会話中に出力される広告を抽出する抽出部と、
をさらに備えたことを特徴とする請求項1〜10のいずれか一つに記載の提示装置。 An acquisition unit for acquiring information on a user who is talking to the dialog agent system;
Based on the comparison result between the emotion of the user estimated based on the information about the user acquired by the acquisition unit and the emotion estimated by the estimation unit for the conversation being performed by the user, output during the conversation An extractor for extracting advertisements to be generated,
The presentation device according to claim 1, further comprising:
ユーザと対話する対話エージェントシステムにおいて、当該対話エージェントシステムと会話を行う場合のユーザの感情を推定する推定工程と、
前記推定工程で推定されたユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示工程と、
を備えたことを特徴とする提示方法。 A computer-implemented bidding method,
In a dialog agent system that interacts with a user, an estimation step for estimating a user's emotion when talking with the dialog agent system;
Presenting step of presenting emotion information indicating the user's emotion estimated in the estimation step to an advertiser of the advertisement output during the conversation;
A presentation method characterized by comprising:
前記推定手順で推定されたユーザの感情を示す感情情報を、前記会話中に出力される広告の広告主へ提示する提示手順と、
をコンピュータに実行させることを特徴とする提示プログラム。 In a dialogue agent system that interacts with a user, an estimation procedure for estimating a user's emotion when talking with the dialogue agent system;
A presentation procedure for presenting emotion information indicating a user's emotion estimated in the estimation procedure to an advertiser of an advertisement output during the conversation;
A program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014148302A JP6262613B2 (en) | 2014-07-18 | 2014-07-18 | Presentation device, presentation method, and presentation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014148302A JP6262613B2 (en) | 2014-07-18 | 2014-07-18 | Presentation device, presentation method, and presentation program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017239524A Division JP6368025B2 (en) | 2017-12-14 | 2017-12-14 | Apparatus, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016024631A true JP2016024631A (en) | 2016-02-08 |
JP6262613B2 JP6262613B2 (en) | 2018-01-17 |
Family
ID=55271341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014148302A Active JP6262613B2 (en) | 2014-07-18 | 2014-07-18 | Presentation device, presentation method, and presentation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6262613B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6243564B1 (en) * | 2017-03-17 | 2017-12-06 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
WO2018087968A1 (en) * | 2016-11-09 | 2018-05-17 | ソニー株式会社 | Communication device, server device, recording medium, and control method |
WO2018169000A1 (en) * | 2017-03-16 | 2018-09-20 | 国立研究開発法人情報通信研究機構 | Interactive system and computer program therefor |
JP2018156625A (en) * | 2017-11-06 | 2018-10-04 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2019040299A (en) * | 2017-08-23 | 2019-03-14 | 富士通株式会社 | Interaction control system, program and method |
JP2020087234A (en) * | 2018-11-30 | 2020-06-04 | 株式会社三菱総合研究所 | Information processing device, information processing method and program |
JP2020091907A (en) * | 2017-12-22 | 2020-06-11 | サウンドハウンド,インコーポレイテッド | Natural language grammar adapted to interactive experience |
JP2020187262A (en) * | 2019-05-15 | 2020-11-19 | 株式会社Nttドコモ | Emotion estimation device, emotion estimation system, and emotion estimation method |
US11900928B2 (en) | 2017-12-23 | 2024-02-13 | Soundhound Ai Ip, Llc | System and method for adapted interactive experiences |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07114457A (en) * | 1993-10-15 | 1995-05-02 | Hitachi Ltd | Scenario generating system |
JP2004310034A (en) * | 2003-03-24 | 2004-11-04 | Matsushita Electric Works Ltd | Interactive agent system |
JP2006085368A (en) * | 2004-09-15 | 2006-03-30 | Oki Electric Ind Co Ltd | Electronic communication device, computer program and recording medium |
JP2006178063A (en) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | Interactive processing device |
JP2007241379A (en) * | 2006-03-06 | 2007-09-20 | Tokyo Electric Power Co Inc:The | Feeling acquisition system |
JP2008134316A (en) * | 2006-11-27 | 2008-06-12 | Nec Corp | Electronic advertisement attaching apparatus and electronic advertisement attaching method, database and electronic advertisement attaching system |
JP2008170820A (en) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | Content provision system and method |
US20090210220A1 (en) * | 2005-06-09 | 2009-08-20 | Shunji Mitsuyoshi | Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program |
US20100138294A1 (en) * | 2008-12-03 | 2010-06-03 | Microsoft Corporation | Provision of location-based advertising |
JP2010224813A (en) * | 2009-03-23 | 2010-10-07 | Toshiba Corp | Emotion estimation device and method |
US20110035283A1 (en) * | 2009-08-10 | 2011-02-10 | Samsung Electronics Co., Ltd. | Sponsor-based advertising apparatus and method using extracted affect |
US20110225043A1 (en) * | 2010-03-12 | 2011-09-15 | Yahoo! Inc. | Emotional targeting |
US20120143693A1 (en) * | 2010-12-02 | 2012-06-07 | Microsoft Corporation | Targeting Advertisements Based on Emotion |
JP2014056302A (en) * | 2012-09-11 | 2014-03-27 | Nassua Solutions Corp | Recommendation system for commodity or service and recommendation method for commodity or service |
-
2014
- 2014-07-18 JP JP2014148302A patent/JP6262613B2/en active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07114457A (en) * | 1993-10-15 | 1995-05-02 | Hitachi Ltd | Scenario generating system |
JP2004310034A (en) * | 2003-03-24 | 2004-11-04 | Matsushita Electric Works Ltd | Interactive agent system |
JP2006085368A (en) * | 2004-09-15 | 2006-03-30 | Oki Electric Ind Co Ltd | Electronic communication device, computer program and recording medium |
JP2006178063A (en) * | 2004-12-21 | 2006-07-06 | Toyota Central Res & Dev Lab Inc | Interactive processing device |
US20090210220A1 (en) * | 2005-06-09 | 2009-08-20 | Shunji Mitsuyoshi | Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program |
JP2007241379A (en) * | 2006-03-06 | 2007-09-20 | Tokyo Electric Power Co Inc:The | Feeling acquisition system |
JP2008134316A (en) * | 2006-11-27 | 2008-06-12 | Nec Corp | Electronic advertisement attaching apparatus and electronic advertisement attaching method, database and electronic advertisement attaching system |
JP2008170820A (en) * | 2007-01-12 | 2008-07-24 | Takeshi Moriyama | Content provision system and method |
US20100138294A1 (en) * | 2008-12-03 | 2010-06-03 | Microsoft Corporation | Provision of location-based advertising |
JP2012510681A (en) * | 2008-12-03 | 2012-05-10 | マイクロソフト コーポレーション | Providing location-based advertising |
JP2010224813A (en) * | 2009-03-23 | 2010-10-07 | Toshiba Corp | Emotion estimation device and method |
US20110035283A1 (en) * | 2009-08-10 | 2011-02-10 | Samsung Electronics Co., Ltd. | Sponsor-based advertising apparatus and method using extracted affect |
US20110225043A1 (en) * | 2010-03-12 | 2011-09-15 | Yahoo! Inc. | Emotional targeting |
US20120143693A1 (en) * | 2010-12-02 | 2012-06-07 | Microsoft Corporation | Targeting Advertisements Based on Emotion |
JP2014056302A (en) * | 2012-09-11 | 2014-03-27 | Nassua Solutions Corp | Recommendation system for commodity or service and recommendation method for commodity or service |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018087968A1 (en) * | 2016-11-09 | 2018-05-17 | ソニー株式会社 | Communication device, server device, recording medium, and control method |
JP7040461B2 (en) | 2016-11-09 | 2022-03-23 | ソニーグループ株式会社 | Communication equipment, server equipment, recording media, control methods, and programs |
JPWO2018087968A1 (en) * | 2016-11-09 | 2019-09-26 | ソニー株式会社 | COMMUNICATION DEVICE, SERVER DEVICE, RECORDING MEDIUM, AND CONTROL METHOD |
US11113335B2 (en) | 2017-03-16 | 2021-09-07 | National Institute Of Information And Communications Technology | Dialogue system and computer program therefor |
WO2018169000A1 (en) * | 2017-03-16 | 2018-09-20 | 国立研究開発法人情報通信研究機構 | Interactive system and computer program therefor |
JP2018156273A (en) * | 2017-03-16 | 2018-10-04 | 国立研究開発法人情報通信研究機構 | Dialog system and computer program therefor |
JP2018156475A (en) * | 2017-03-17 | 2018-10-04 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP6243564B1 (en) * | 2017-03-17 | 2017-12-06 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2019040299A (en) * | 2017-08-23 | 2019-03-14 | 富士通株式会社 | Interaction control system, program and method |
JP2018156625A (en) * | 2017-11-06 | 2018-10-04 | ヤフー株式会社 | Information processing apparatus, information processing method, and information processing program |
JP2020091907A (en) * | 2017-12-22 | 2020-06-11 | サウンドハウンド,インコーポレイテッド | Natural language grammar adapted to interactive experience |
JP7129439B2 (en) | 2017-12-22 | 2022-09-01 | サウンドハウンド,インコーポレイテッド | Natural Language Grammar Adapted for Interactive Experiences |
US11900928B2 (en) | 2017-12-23 | 2024-02-13 | Soundhound Ai Ip, Llc | System and method for adapted interactive experiences |
JP2020087234A (en) * | 2018-11-30 | 2020-06-04 | 株式会社三菱総合研究所 | Information processing device, information processing method and program |
JP2020187262A (en) * | 2019-05-15 | 2020-11-19 | 株式会社Nttドコモ | Emotion estimation device, emotion estimation system, and emotion estimation method |
Also Published As
Publication number | Publication date |
---|---|
JP6262613B2 (en) | 2018-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6262613B2 (en) | Presentation device, presentation method, and presentation program | |
US11308173B2 (en) | Searching for ideograms in an online social network | |
US20190311709A1 (en) | Computerized system and method for formatted transcription of multimedia content | |
US10614487B1 (en) | Server for enabling voice-responsive content as part of a media stream to an end user on a remote device | |
US20210217413A1 (en) | Voice activated interactive audio system and method | |
JP7099589B2 (en) | Servers, communication control methods, and programs | |
KR20170092603A (en) | Emotion type classification for interactive dialog system | |
JP6568263B2 (en) | Apparatus, method, and program | |
JP6310363B2 (en) | Information processing apparatus, information processing method, and information processing program | |
CN106612230B (en) | Media information popularization method, client and server | |
US20160055533A1 (en) | Response generation device, response generation method, and non-transitory computer readable storage medium | |
US11586689B2 (en) | Electronic apparatus and controlling method thereof | |
US20190079644A1 (en) | Method for providing translation with emoticon, user terminal, server and computer program | |
CN115212561B (en) | Service processing method based on voice game data of player and related product | |
JP2016045584A (en) | Response generation device, response generation method, and response generation program | |
JP2021131908A (en) | Natural language grammars adapted for interactive experiences | |
JP5121763B2 (en) | Emotion estimation apparatus and method | |
JP6368025B2 (en) | Apparatus, method, and program | |
JP2011113289A (en) | System and method for supporting document decoration | |
KR102149035B1 (en) | Advertising page creation and management system for performance marketing | |
JP6066791B2 (en) | Product information providing system and product information providing program | |
JP2009193133A (en) | Information processor, information processing method, and program | |
KR20160050599A (en) | Emoticon providing method and combined Digital music | |
CN111787042A (en) | Method and device for pushing information | |
JP2016207217A (en) | Management apparatus and method of identifying preference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6262613 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R371 | Transfer withdrawn |
Free format text: JAPANESE INTERMEDIATE CODE: R371 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |