JP6882116B2 - Generator, generation method, generation program, training data, and model - Google Patents
Generator, generation method, generation program, training data, and model Download PDFInfo
- Publication number
- JP6882116B2 JP6882116B2 JP2017156774A JP2017156774A JP6882116B2 JP 6882116 B2 JP6882116 B2 JP 6882116B2 JP 2017156774 A JP2017156774 A JP 2017156774A JP 2017156774 A JP2017156774 A JP 2017156774A JP 6882116 B2 JP6882116 B2 JP 6882116B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- emotion
- model
- behavior information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 85
- 238000012549 training Methods 0.000 title description 6
- 230000008451 emotion Effects 0.000 claims description 235
- 230000008569 process Effects 0.000 claims description 39
- 230000003542 behavioural effect Effects 0.000 claims description 18
- 230000002996 emotional effect Effects 0.000 claims description 16
- 230000006399 behavior Effects 0.000 description 197
- 230000009471 action Effects 0.000 description 89
- 230000004044 response Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 22
- 101100028092 Drosophila melanogaster Or22a gene Proteins 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 238000013459 approach Methods 0.000 description 12
- 230000010365 information processing Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 101150077336 ADT3 gene Proteins 0.000 description 8
- 101150086549 adt-1 gene Proteins 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 101100002675 Arabidopsis thaliana ADT4 gene Proteins 0.000 description 6
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 6
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000007935 neutral effect Effects 0.000 description 6
- 230000002349 favourable effect Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 101100216981 Arabidopsis thaliana ADT5 gene Proteins 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150016799 ADT2 gene Proteins 0.000 description 1
- 206010063659 Aversion Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Description
本発明は、生成装置、生成方法、生成プログラム、学習データ、及びモデルに関する。 The present invention relates to a generator, a generator, a generator, training data, and a model.
従来、ユーザのウェブでの行動履歴等のユーザに関する種々の情報を用いたサービスが提供されている。例えば、行動履歴に基づく所定のカテゴリとアンケート属性とを対応付ける技術が提供されている。 Conventionally, a service using various information about a user such as a user's behavior history on the Web has been provided. For example, a technique for associating a predetermined category based on an action history with a questionnaire attribute is provided.
しかしながら、上記の従来技術では、ユーザの感情を適切に推定可能にすることができるとは限らない。例えば、行動履歴に基づく所定のカテゴリとアンケート属性との対応付けだけでは、ユーザの感情を適切に推定可能にすることが難しい。 However, it is not always possible to appropriately estimate the user's emotions with the above-mentioned prior art. For example, it is difficult to appropriately estimate the user's emotion only by associating a predetermined category based on the behavior history with the questionnaire attribute.
本願は、上記に鑑みてなされたものであって、ユーザの感情を適切に推定可能にする生成装置、生成方法、生成プログラム、学習データ、及びモデルを提供することを目的とする。 The present application has been made in view of the above, and an object of the present application is to provide a generation device, a generation method, a generation program, learning data, and a model that can appropriately estimate a user's emotion.
本願に係る生成装置は、ユーザの行動情報と、前記ユーザの感情に関する感情情報とを取得する取得部と、前記取得部により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成部と、を備えたことを特徴とする。 The generation device according to the present application is based on an acquisition unit that acquires user behavior information and emotion information related to the user's emotion, the user's behavior information acquired by the acquisition unit, and the user's emotion information. It is characterized by including a generation unit that generates a model for estimating the emotion of the input user to which the behavior information is input.
実施形態の一態様によれば、ユーザの感情を適切に推定可能にすることができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that the user's emotion can be appropriately estimated.
以下に、本願に係る生成装置、生成方法、生成プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る生成装置、生成方法、生成プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the generator, the generation method, the generation program, the learning data, and the embodiment for carrying out the model (hereinafter referred to as “the embodiment”) according to the present application will be described in detail with reference to the drawings. It should be noted that this embodiment does not limit the generator, the generation method, the generation program, the learning data, and the model according to the present application. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
(実施形態)
〔1.生成処理〕
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1は、実施形態に係る生成処理の一例を示す図である。図1では、生成装置100がユーザの情報の関連付け(紐付け)を行う一例を示す。また、図1では、生成装置100が紐付けた情報を用いてモデルを生成する一例を示す。以下では、ユーザの行動情報とそのユーザの感情情報である正解情報が対応付けられた情報(データ)を「学習データ」ともいう。
(Embodiment)
[1. Generation process]
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a generation process according to an embodiment. FIG. 1 shows an example in which the
〔生成システムの構成〕
まず、図1の説明に先立って、図3に示す生成システム1について説明する。図3に示すように、生成システム1は、端末装置10と、サービス提供装置50と、生成装置100とが含まれる。端末装置10と、サービス提供装置50と、生成装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る生成システムの構成例を示す図である。なお、図3に示した生成システム1には、複数台の端末装置10や、複数台のサービス提供装置50や、複数台の生成装置100が含まれてもよい。
[Configuration of generation system]
First, prior to the description of FIG. 1, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。具体的には、図1では、端末装置10がユーザID「U1」により識別されるユーザ(以下、「ユーザU1」とする場合がある)が利用するスマートフォンである場合を示す。
The
また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報(センサ情報)を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。また、端末装置10は、GPSセンサ等に限らず種々のセンサにより、各種センサ情報を検知してもよい。また、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得する。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。例えば、端末装置10は、タッチパネルディスプレイによりユーザの操作を受け付ける。
Further, the
また、図1に示す例においては、端末装置10を利用するユーザに応じて、端末装置10を端末装置10−1〜10−5として説明する。例えば、端末装置10−1は、ユーザU1により使用される端末装置10である。また、例えば、端末装置10−2は、ユーザU2により使用される端末装置10である。また、以下では、端末装置10−1〜10−5について、特に区別なく説明する場合には、端末装置10と記載する。なお、上記のように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。
Further, in the example shown in FIG. 1, the
サービス提供装置50は、ユーザに動画配信サービス(単に「動画サービス」ともいう)であるAサービスを提供する情報処理装置である。例えば、サービス提供装置50は、端末装置10を利用するユーザに動画サービスを提供する。例えば、サービス提供装置50は、端末装置10にAサービスに関する各種情報を提供する。
The
生成装置100は、ユーザに関する情報が所定の条件を満たす場合、ユーザが回答したアンケートに関するアンケート情報を、ユーザの行動情報に関連付けると決定する情報処理装置である。また、生成装置100は、ユーザの行動情報と、ユーザの感情に関する感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する情報処理装置である。また、生成装置100は、推定したユーザの感情に関する情報に基づいて、種々のサービスを提供する。例えば、生成装置100は、推定したユーザの感情に関する情報をサービス提供装置50に提供し、提供された情報を用いてサービス提供装置50がユーザへ種々のサービスを提供するがこの点については、図11で説明する。
The
まず、図1を用いて、実施形態に係る生成処理の一例について説明する。図1では、生成装置100が所定の条件に基づいて、各ユーザから収集した行動情報とアンケート回答とを関連付ける(紐付ける)場合を示す。また、図1では、生成装置100が関連付けた(紐付けた)行動情報とアンケート回答との組合せ(学習データ)とを用いてユーザの感情を推定するモデルを生成する場合を示す。また、以下では、図1の例を別の観点から示す図2を適宜参照して説明する。図2は、実施形態に係る情報の紐付けの一例を示す図である。
First, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 1 shows a case where the
生成装置100は、ユーザU1が利用する端末装置10−1からユーザU1の行動情報を取得する(ステップS11−1)。例えば、生成装置100は、端末装置10−1からユーザU1のAサービスにおける行動情報を取得する。なお、生成装置100は、図2に示すように、電子商取引サービスであるBサービス等のAサービス以外のサービスにおけるユーザの行動情報を取得してもよい。例えば、生成装置100は、端末装置10−1からユーザU1のBサービスにおける行動情報を取得してもよい。
The
また、生成装置100は、上記に限らずユーザの種々の行動情報を取得してもよい。例えば、生成装置100は、端末装置10−1からユーザU1のインターネット(ウェブ)上における行動情報を取得する。例えば、生成装置100は、ユーザU1がウェブコンテンツを閲覧したことを示す情報や、クエリを用いて検索を行ったことを示す情報の種々のウェブ上での行動情報を取得する。例えば、生成装置100は、ユーザU1の現実世界(以下「実空間」とする)における行動情報を取得してもよい。また、例えば、生成装置100は、ユーザU1がAコンビニでB商品の購入を行ったことを示す情報や、Bレストランで飲食を行ったことを示す情報等の種々の行動情報を取得してもよい。
Further, the
また、生成装置100は、ユーザU2が利用する端末装置10−2から行動情報を取得する(ステップS11−2)。例えば、生成装置100は、端末装置10−2からユーザU2のAサービスにおける行動情報を取得する。また、生成装置100は、図2に示すように、ユーザU2のAサービスやBサービスにおける行動情報を取得する。また、例えば、生成装置100は、端末装置10−2からユーザU2のウェブ上や実空間における行動情報を取得する。
Further, the
また、生成装置100は、ユーザU3が利用する端末装置10−3から行動情報を取得する(ステップS11−3)。例えば、生成装置100は、端末装置10−3からユーザU3のAサービスにおける行動情報を取得する。例えば、生成装置100は、ステップS11−3以前の所定の期間内(例えば直近1ヶ月や2週間等)においてユーザU3のAサービスを利用したことを示す行動情報を取得する。例えば、生成装置100は、端末装置10−3からユーザU3のAサービスにおける行動情報等、ユーザU3のウェブ上や実空間における行動情報を取得する。
Further, the
また、生成装置100は、ユーザU4が利用する端末装置10−4から行動情報を取得する(ステップS11−4)。例えば、生成装置100は、端末装置10−4からユーザU4のAサービスにおける行動情報を取得する。例えば、生成装置100は、ステップS11−4以前の所定の期間内(例えば直近1ヶ月や2週間等)においてユーザU4のAサービスを利用したことを示す行動情報を取得する。例えば、生成装置100は、端末装置10−4からユーザU4のAサービスにおける行動情報等、ユーザU4のウェブ上や実空間における行動情報を取得する。
Further, the
以下、ステップS11−1〜S11−4を区別せずに説明する場合、ステップS11と総称する。また、ステップS11−1〜S11−4に限らず、各ユーザの行動情報を取得は、複数回行われてもよい。なお、図1では、5人のユーザU1〜U5を図示するが、生成装置100は、ユーザU1〜U5に限らず、多数のユーザ(例えば、100万ユーザや1000万ユーザ等)の行動情報を取得する。また、生成装置100は、各ユーザが利用する端末装置10以外の外部装置から各ユーザの行動情報を取得してもよい。例えば、生成装置100は、各ユーザが利用するサービスを提供する外部装置から各ユーザの行動情報を取得してもよい。
Hereinafter, when steps S11-1 to S11-4 will be described without distinction, they are collectively referred to as step S11. Further, the acquisition of the behavior information of each user is not limited to steps S11-1 to S11-4, and may be performed a plurality of times. In FIG. 1, five users U1 to U5 are illustrated, but the
ここで、図1及び図2の例では、生成装置100は、ユーザU5が利用する端末装置10−5からAサービスにおける行動情報を取得していないものとする。すなわち、図1及び図2の例では、ステップS11の時点から所定の期間内にユーザU5がAサービスを利用していないユーザ(以下、「不適合ユーザ」とする)であるものとする。例えば、図1及び図2の例では、ユーザU5が1ヶ月以上Aサービスを利用していない不適合ユーザであるものとする。なお、生成装置100は、所定の期間内におけるAサービスの利用に関する行動情報を含まないユーザU5の行動情報ADT5を取得しているものとする。このように、図1の例では、生成装置100は、所定の期間内においてAサービスを利用しているユーザU1〜U4等を含む利用ユーザ群UG1や、それ以外のユーザU5等の行動情報を取得する。
Here, in the examples of FIGS. 1 and 2, it is assumed that the
そして、図1の示す例において、生成装置100は、ユーザが回答したアンケートに関するアンケート情報を取得する。例えば、生成装置100は、いわゆるクラウドソーシングなどによるタスクを行う複数のワーカからアンケート情報を取得する。具体的には、生成装置100は、Aサービスに関するアンケートをクラウドソーシングによりユーザ(ワーカ)に回答させ、その回答を取得する。
Then, in the example shown in FIG. 1, the
例えば、生成装置100は、図2に示すように「あなたはAサービスを友人や同僚に薦めますか?(0〜10で回答)」等の種々の内容のアンケートAN11をクラウドソーシングによりユーザ(ワーカ)に回答させ、その回答を取得する。なお、アンケートについては、ネット・プロモーター・スコア(Net Promoter Score)等の種々の従来手法が用いられてもよい。
For example, as shown in FIG. 2, the
例えば、図1の例では、生成装置100は、所定のサイト等にアンケートAN11への回答の仕事(タスク)を掲載し、不特定多数の人(ユーザ)に仕事(タスク)を依頼することにより、アンケートAN11に回答するユーザ(ワーカ)を募集する。なお、上記のようなクラウドソーシングに関する処理は他の外部装置が行い、生成装置100は、他の外部装置からユーザのアンケートへの回答を取得してもよい。なお、図1及び図2の例では、説明を簡単にするために、アンケートAN11が図2に示すように「あなたはAサービスを友人や同僚に薦めますか?(0〜10で回答)」のみであるものとして説明する。
For example, in the example of FIG. 1, the
例えば、生成装置100は、ワーカであるユーザU3が利用する端末装置10−3からユーザU3の回答を取得する(ステップS12−1)。例えば、ユーザU3は、端末装置10−3を利用してクラウドソーシングのサイト等においてアンケートAN11への回答のタスクを承諾することにより、アンケートAN11へ回答する。図1の例では、生成装置100は、ユーザU3からアンケートAN11に対する回答がスコア「3」であるとの回答を取得する。
For example, the
また、例えば、生成装置100は、ワーカであるユーザU4が利用する端末装置10−4からユーザU4の回答を取得する(ステップS12−2)。例えば、ユーザU4は、端末装置10−4を利用してクラウドソーシングのサイト等においてアンケートAN11への回答のタスクを承諾することにより、アンケートAN11へ回答する。図1の例では、生成装置100は、ユーザU4からアンケートAN11に対する回答がスコア「9」であるとの回答を取得する。
Further, for example, the
また、例えば、生成装置100は、ワーカであるユーザU5が利用する端末装置10−5からユーザU5の回答を取得する(ステップS12−3)。例えば、ユーザU5は、端末装置10−5を利用してクラウドソーシングのサイト等においてアンケートAN11への回答のタスクを承諾することにより、アンケートAN11へ回答する。図1の例では、生成装置100は、ユーザU5からアンケートAN11に対する回答がスコア「1」であるとの回答を取得する。
Further, for example, the
以下、ステップS12−1〜S12−3を区別せずに説明する場合、ステップS12と総称する。なお、図1では、5人のユーザU1〜U5を図示するが、生成装置100は、ユーザU3〜U5に限らず、多数のユーザ(例えば、1万ユーザや10万ユーザ等)からアンケートへの回答を含むアンケート情報を取得する。また、生成装置100は、各ユーザが利用する端末装置10以外の外部装置から各ユーザのアンケート情報を取得してもよい。例えば、生成装置100は、クラウドソーシングに関するサービスを提供する外部装置から各ユーザのアンケート情報を取得してもよい。このように、生成装置100は、クラウドソーシングにおいてタスクを行うことを承諾したユーザ(ワーカ)から回答を取得する。図1の例では、生成装置100は、ユーザU3〜U5等を含む回答ユーザ群UG2から回答を取得する。
Hereinafter, when steps S12-1 to S12-3 are described without distinction, they are collectively referred to as step S12. Although five users U1 to U5 are shown in FIG. 1, the
そして、生成装置100は、各ユーザU1〜U5等の行動情報を収集する(ステップS13)。図1の例では、生成装置100は、収集した各ユーザU1〜U5等の行動情報を行動情報記憶部121に記憶する。例えば、生成装置100は、ユーザU1の行動情報ADT1をユーザU1に対応付けて行動情報記憶部121に記憶する。例えば、生成装置100は、ユーザU2の行動情報ADT2をユーザU2に対応付けて行動情報記憶部121に記憶する。例えば、生成装置100は、図2中の行動ログLG11に示すように所定の期間内においてAサービスを利用した利用ユーザ群UG1のユーザの行動ログ等を収集する。
Then, the
また、生成装置100は、各ユーザU3〜U5等を含む各ワーカからの回答を含むアンケート情報を収集する(ステップS14)。例えば、生成装置100は、図2中のアンケート回答ログAL11に示すように、クラウドソーシングにおいてAサービスのアンケートに回答した回答ユーザ群UG2のユーザのアンケート情報等を収集する。図1の例では、生成装置100は、収集した各ユーザU3〜U5等のアンケート情報を感情情報記憶部122に記憶する。例えば、生成装置100は、各ユーザのアンケート回答とアンケート回答に対応する感情(以下、「対応感情」ともいう)とをユーザに対応付けて感情情報記憶部122に記憶する。
In addition, the
図1中の感情情報記憶部122に示す「ユーザID」は、ユーザを識別するための識別情報を示す。図1中の感情情報記憶部122に示す「アンケート回答」は、対応するユーザが回答した内容を示す。図1中の感情情報記憶部122に示す「対応感情」は、ユーザの感情を示す。例えば、「対応感情」は、所定の閾値とアンケート回答との比較に基づくユーザの行動有無の推定を示す。図1では「対応感情」は、アンケート回答が「6」以下(すなわち「0」〜「6」)である場合は、「嫌悪」と推定され、アンケート回答が「7」、「8」である場合は、「中立」と推定され、アンケート回答が「9」以上(すなわち「9」、「10」)である場合は、「好感」と推定される場合を示す。
The “user ID” shown in the emotion
図1の例では、生成装置100は、ユーザU3のアンケート回答「3」と対応感情「嫌悪」とをユーザU3に対応付けて感情情報記憶部122に記憶する。例えば、生成装置100は、ユーザU4のアンケート回答「9」と対応感情「好感」とをユーザU4に対応付けて感情情報記憶部122に記憶する。例えば、生成装置100は、ユーザU5のアンケート回答「1」と対応感情「嫌悪」とをユーザU5に対応付けて感情情報記憶部122に記憶する。
In the example of FIG. 1, the
そして、生成装置100は、ユーザの行動情報とユーザのアンケート情報とについて、紐付けする対象を決定する(ステップS15)。ここで、図1の例では、感情情報記憶部122に記憶されたアンケート情報には、Aサービスをあまり利用していない不適合ユーザ等のAサービスのアンケートについて回答するのに適切ではないユーザのアンケート情報が含まれる。そのため、生成装置100は、ユーザのアンケート情報のうち、不適合ユーザでないユーザ(以下、「適合ユーザ」とする)のアンケート情報を紐付けする対象を決定する。そして、生成装置100は、適合ユーザのうち、行動情報群に行動情報が含まれるユーザのアンケート情報を、そのユーザの行動情報に紐付けると決定する。
Then, the
図1の例では、生成装置100は、回答ユーザ群UG2のうち、所定の期間内においてAサービスを利用しているユーザU3を適合ユーザとして、紐付け対象とすることを決定する。例えば、生成装置100は、図2に示すように、ユーザU3の行動と回答とを紐付ける。例えば、生成装置100は、ユーザU3のアンケート情報と行動情報を関連付ける。図1の例では、生成装置100は、紐付情報記憶部123に示すように、ユーザU3の行動情報ADT3と、アンケート情報に含まれるスコア(感情)とを関連付けて記憶する。具体的には、生成装置100は、ユーザU3の行動情報ADT3と、スコア「3」及び感情「嫌悪」とを関連付け、データID「DT1」により識別されるデータ(データDT1)として記憶する。
In the example of FIG. 1, the
また、図1の例では、生成装置100は、回答ユーザ群UG2のうち、所定の期間内においてAサービスを利用しているユーザU4を適合ユーザとして、紐付け対象とすることを決定する。例えば、生成装置100は、図2に示すように、ユーザU4の行動と回答とを紐付ける。例えば、生成装置100は、ユーザU4のアンケート情報と行動情報を関連付ける。図1の例では、生成装置100は、紐付情報記憶部123に示すように、ユーザU4の行動情報ADT4と、アンケート情報に含まれるスコア(感情)とを関連付けて記憶する。具体的には、生成装置100は、ユーザU4の行動情報ADT4と、スコア「9」及び感情「好感」とを関連付け、データID「DT2」により識別されるデータ(データDT2)として記憶する。
Further, in the example of FIG. 1, the
また、図1の例では、生成装置100は、回答ユーザ群UG2のうち、不適合ユーザであるユーザU5については、紐付け対象にしないと決定する。例えば、生成装置100は、図2に示すように、ユーザU5の回答は行動とは紐付けしないと決定する。
Further, in the example of FIG. 1, the
上述したように、生成装置100は、Aサービスのアンケートの回答に相応しくないユーザ(不適合ユーザ)の情報の紐付けを行わないと決定することにより、有用でない情報を利用しないようにすることができる。例えば、クラウドソーシングにおいては、あるタスクを行うワーカには、所定の恩恵(ポイントや金銭等)を目当てにタスクを行うユーザ(不適合ユーザ)が含まれる場合がある。このような不適合ユーザは、タスクに関連していないユーザである場合が多く、このようなユーザ(ワーカ)の情報とタスクを行うのに適したユーザの情報とが混在している場合、情報の精度が低下するという問題がある。そのため、生成装置100は、不適合ユーザの情報の紐付けを行わない、すなわち不適合ユーザの情報を利用しないと決定することにより、適合ユーザのみの情報の利用が可能となり、情報の精度を向上させることができる。したがって、生成装置100は、ユーザの情報を適切に利用可能にすることができる。
As described above, the
また、生成装置100は、回答ユーザ群UG2に含まれる他のユーザについても同様に紐付けを行うかを決定する。図1の例では、生成装置100は、ユーザU18を適合ユーザとして、紐付け対象とすることを決定する。例えば、生成装置100は、ユーザU18の行動情報ADT18と、スコア「7」及び感情「中立」とを関連付け、データID「DT3」により識別されるデータ(データDT3)として記憶する。
In addition, the
そして、生成装置100は、学習データに基づいてモデルを生成する(ステップS16)。例えば、生成装置100は、紐付情報記憶部123中のデータDT1〜DT3等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。例えば、生成装置100は、ユーザの行動情報に関する特徴量を用いて、モデルを生成する。また、例えば、生成装置100は、ユーザのウェブ上における行動情報に関する特徴量を用いて、モデルを生成する。例えば、生成装置100は、ユーザの実空間上における行動情報に関する特徴量を用いて、モデルを生成する。このように、生成装置100は、ユーザの行動情報に含まれる特徴を学習し、ユーザの感情に関する情報を推定するモデルを生成する。なお、生成装置100が学習する行動情報に含まれる特徴は、生成装置100の管理者等の人間が生成装置100に入力してもよいし、生成装置100に自動的に学習(抽出)させてもよい。
Then, the
例えば、生成装置100は、紐付情報記憶部123に記憶されたデータを学習データ(教師データ)として、モデルM1を生成する。例えば、生成装置100は、データDT1に示すように、正解情報がユーザの感情「嫌悪」に対応するスコア「3」である場合、モデルM1にデータDT1に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「3」に近づくように、学習処理を行う。例えば、生成装置100は、データDT1の行動情報ADT3がモデルM1に入力された場合に、モデルM1が出力するスコアが「3」に近づくように、学習処理を行う。このように、生成装置100は、スコアが所定の閾値(例えば、「7」等)未満のユーザの行動情報を負例(悪い感情)としてモデルを生成する。
For example, the
また、例えば、生成装置100は、データDT2に示すように、正解情報がユーザの感情「好感」に対応するスコア「9」である場合、モデルM1にデータDT2に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「9」に近づくように、学習処理を行う。例えば、生成装置100は、データDT2の行動情報ADT4がモデルM1に入力された場合に、モデルM1が出力するスコアが「9」に近づくように、学習処理を行う。このように、生成装置100は、スコアが所定の閾値(例えば、「9」等)以上のユーザの行動情報を正例(良い感情)としてモデルを生成する。
Further, for example, in the
また、例えば、生成装置100は、データDT3に示すように、正解情報がユーザの感情「中立」に対応するスコア「7」である場合、モデルM1にデータDT3に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「7」に近づくように、学習処理を行う。例えば、生成装置100は、データDT3の行動情報ADT18がモデルM1に入力された場合に、モデルM1が出力するスコアが「7」に近づくように、学習処理を行う。
Further, for example, when the correct answer information has a score of "7" corresponding to the user's emotion "neutral" as shown in the data DT3, the
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、生成装置100は、学習データに含まれる行動情報が入力された場合に、正解情報に対応するスコアを出力するようにモデルM1を学習可能であれば、どのような手法によりモデルM1の生成を行ってもよい。
The model learning method is not limited to the above-mentioned method, and any known technique can be applied. It should be noted that the generation of each model may be performed by appropriately using various conventional techniques related to machine learning. For example, the model may be generated by using a technique related to machine learning of supervised learning such as SVM (Support Vector Machine). Further, for example, model generation may be performed using a technique related to machine learning of unsupervised learning. For example, model generation may be performed using a technique of deep learning. For example, the model may be generated by appropriately using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network). The description regarding the generation of the model is an example, and the generation of the model may be performed by a learning method appropriately selected according to the information that can be acquired and the like. That is, if the
上記のような処理により、図1の例では、生成装置100は、モデル情報記憶部124に示すように、モデルID「M1」により識別されるモデル(モデルM1)を生成する。上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別されるモデルである。また、図1中のモデル情報記憶部124に示すように、モデルM1は推定対象「感情」、すなわちユーザの感情の推定のために用いられるモデルであり、その具体的なモデルデータが「モデルデータMDT1」であることを示す。例えば、生成装置100は、モデルM1にユーザの行動情報を入力することにより、入力した行動情報に対応するユーザ(入力ユーザ)の感情の推定に用いられるスコアを、モデルM1に出力させ、モデルM1が出力するスコアに基づいて入力ユーザの感情を推定する。
Through the above processing, in the example of FIG. 1, the
上述したように、生成装置100は、行動情報と正解情報とが対応付けられた学習データを用いて学習することにより、ユーザの感情を適切に推定可能にするモデルを生成することができる。したがって、生成装置100は、上述のように生成したモデルを用いることにより、例えば、Aサービスを利用するユーザがどのような感情であるかを精度よく推定することを可能にすることができる。したがって、生成装置100は、ユーザの感情を適切に推定可能にすることができる。
As described above, the
〔1−1.アンケート情報〕
図1の例では、生成装置100は、ユーザが所定期間内にアンケートの対象に関する行動を行っている場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。具体的には、生成装置100は、ユーザが所定期間内にアンケートの対象であるAサービスにおける行動を行っている場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。なお、上記は一例であり、生成装置100は、種々の情報を適宜用いて決定処理を行ってもよい。
[1-1. Questionnaire information]
In the example of FIG. 1, when the user performs an action related to the target of the questionnaire within a predetermined period, the
例えば、生成装置100は、アンケートのターゲットリストに含まれるユーザが回答したアンケートに関するアンケート情報を取得する。例えば、生成装置100は、所定の条件を満たすユーザ(ターゲットユーザ)にアンケートを回答させてもよい。例えば、生成装置100は、アンケートのターゲット一覧に含まれるターゲットユーザに対してアンケートへの回答を依頼し、ターゲットユーザが回答したアンケートに関するアンケート情報を取得してもよい。そして、例えば、生成装置100はターゲットユーザのうち、行動情報群にユーザの行動情報が含まれるユーザのアンケート情報を、そのユーザの行動情報に関連付けると決定してもよい。
For example, the
また、例えば、生成装置100は、アンケートのターゲットリストに含まれるユーザが回答したアンケートに関するアンケート情報を取得してもよい。例えば、生成装置100は、アンケートの対象であるAサービスに関する行動を行ったユーザが回答したアンケートに関するアンケート情報を取得してもよい。
Further, for example, the
例えば、生成装置100は、ユーザのアンケートの対象に関する行動が所定の条件を満たす場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定してもよい。例えば、生成装置100は、ユーザのアンケートの対象に関する行動が所定量以上である場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定してもよい。例えば、生成装置100は、ユーザのアンケートの対象であるAサービスの利用頻度が所定の閾値以上である場合、そのユーザのアンケート情報を、そのユーザの行動情報に関連付けると決定してもよい。例えば、生成装置100は、ユーザがAサービスのヘビーユーザである場合、そのユーザのアンケート情報を、そのユーザの行動情報に関連付けると決定してもよい。
For example, the
〔1−2.感情の推定〕
生成装置100は、図1の例に限らず、種々の情報を適宜用いてユーザの感情を推定してもよい。この点について、図12を用いて説明する。図12は、ユーザの操作情報を用いた生成処理の一例を示す図である。図12の例では、ユーザU11の端末装置10に対する操作に関する情報を収集し、ユーザの操作履歴(ユーザ操作ログ)を用いてユーザの感情を推定するモデルM11を生成する場合を示す。また、図12の例では、ユーザU11の入力した文字情報等の入力情報を用いて推定したユーザの感情を正解情報とする場合を示す。
[1-2. Emotional estimation]
The
まず、ユーザU11は、端末装置10に対して操作を行う(ステップS21)。図12の例では、ユーザU11は、アプリXXを起動し、端末装置10の画面に指F1でタッチ(触れる)等することにより、アプリXXに対してクリックやスクロール等の種々の操作を行うものとする。例えば、ユーザU11は、端末装置10の画面に表示されたアプリXXに対して、指F1でクリックやスクロール等の種々の操作を行うものとする。例えば、ユーザU11は、アプリXXのユーザビリティが低いため、端末装置10の画面を強く押したり、高速でスクロール操作を行なったりする等の種々の操作を行うものとする。
First, the user U11 operates the terminal device 10 (step S21). In the example of FIG. 12, the user U11 activates the application XX and performs various operations such as clicking and scrolling on the application XX by touching (touching) the screen of the
そして、生成装置100(図1参照)は、ユーザU11のユーザ操作ログを収集する(ステップS22)。図12の例では、生成装置100は、図2中のユーザ操作ログOP11に示すように、ユーザU11のユーザ操作ログを収集する。例えば、生成装置100は、収集したユーザU11のユーザ操作ログをユーザU11に対応付けて行動情報記憶部121(図1参照)に記憶する。
Then, the generation device 100 (see FIG. 1) collects the user operation log of the user U11 (step S22). In the example of FIG. 12, the
また、生成装置100は、ユーザU11が所定のSNS(Social Networking Service)において入力(投稿)した入力情報(投稿情報)を収集する(ステップS23)。図12の例では、生成装置100は、ユーザU11が日時dt1において、「アプリXX使いづらくてイライラ…」という内容の投稿を、所定のSNSにおいて行ったことを示す情報を収集する。図12の例では、生成装置100は、図2中の投稿情報一覧INF11に示すように、ユーザU11の投稿情報を収集する。例えば、生成装置100は、収集したユーザU11の投稿情報をユーザU11に対応付けて行動情報記憶部121に記憶する。
Further, the
そして、生成装置100は、収集した投稿情報を用いてユーザの感情を推定する(ステップS24)。ここで、図12の例では、ユーザがアプリXXについて操作を行った後の日時dt1において、ユーザU11が「アプリXXが使いづらくイライラ…」と怒りの感情になったと推定される投稿を行っているため、生成装置100は、日時dt1におけるユーザU11の感情を「怒り」と推定する。例えば、生成装置100は、ユーザの感情を「喜び」、「怒り」、「悲しみ」、「楽しみ」、「無感情」といった種々の種別のいずれであるかを推定してもよい。なお、生成装置100は、上記に限らず、目的等に応じて種々の種別の感情を推定してもよい。例えば、生成装置100は、怒りや悲しみ等を負の感情として推定してもよい。また、例えば、生成装置100は、喜びや楽しみ等を正の感情として推定してもよい。また、例えば、生成装置100は、ユーザの心の動きがない状態を無感情として推定してもよい。
Then, the
このように、図12の例では、生成装置100は、ユーザが投稿した情報(投稿情報)等に基づいて、ユーザの感情を推定する。なお、ユーザの感情の推定は、種々の従来技術を適宜用いて行われてもよい。例えば、生成装置100は、ユーザが投稿した文字情報を構文解析等の種々の従来技術を適宜用いて解析することにより、ユーザの感情を推定してもよい。例えば、種々の感情ごとにキーワードの一覧を記憶部120(図3参照)に記憶し、ユーザが投稿した文字情報に含まれるキーワードが最も該当する一覧の感情をユーザの感情として推定してもよい。また、例えば、生成装置100は、ユーザが検索に用いたクエリ等のユーザが入力した種々の入力情報を用いてユーザの感情を推定してもよい。なお、上記は一例であり、生成装置100は、ユーザの感情を推定可能であれば、どのような手法により推定してもよい。
As described above, in the example of FIG. 12, the
そして、生成装置100は、収集した情報に基づいてモデルを生成する(ステップS25)。図12の例では、生成装置100は、ユーザ操作ログを入力として、ユーザの感情を推定するモデルM11を生成する。例えば、生成装置100は、ユーザ操作ログOP11に示すようなユーザU11の操作情報が入力された場合に、ユーザの感情が「怒り」であると推定するモデルM11を生成する。例えば、生成装置100は、ユーザ操作ログOP11に示すようなユーザU11の操作情報が入力された場合に、ユーザの感情「怒り」に対応する所定の閾値以上のスコアを出力するモデルM11を生成する。
Then, the
生成装置100は、図1と同様の処理により、モデル一覧ML11に示すように、モデルM11を生成する。例えば、生成装置100は、生成したモデルM11をモデル情報記憶部124(図1参照)に記憶する。このように、生成装置100は、ユーザの操作ログを入力データとし、推定対象「感情(怒り)」とするモデルM11を生成する。例えば、生成装置100は、モデルM11にユーザの操作ログを入力することにより、入力した操作ログに対応するユーザ(入力ユーザ)の怒りの感情の推定に用いられるスコアを、モデルM11に出力させ、モデルM11が出力するスコアに基づいて入力ユーザが怒りの感情をいただいているかを推定する。
The
なお、図12の例では、ユーザU11のみを図示するが、生成装置100は、多数のユーザの操作ログや投稿情報等を収集してモデルを生成するものとする。すなわち、生成装置100は、多数のユーザの操作ログや投稿情報等を用いてモデルを生成する。
In the example of FIG. 12, only the user U11 is shown, but the
また、例えば、生成装置100は、ユーザがネットワークを介したサービスにおいて入力した入力情報を含む行動情報を用いてモデルを生成してもよい。この場合、生成装置100は、ユーザがネットワークを介したサービスにおいて入力した入力情報を含む行動情報に基づいて、ユーザの感情を推定してもよい。例えば、生成装置100は、ソーシャルネットワーキングサービス(SNS)においてユーザが投稿した投稿情報とその投稿時のユーザの位置情報を用いてモデルを生成してもよい。例えば、生成装置100は、Twitter(登録商標)やFacebook(登録商標)等においてユーザが投稿した投稿情報を用いてモデルを生成してもよい。例えば、生成装置100は、ユーザがTwitterにおいて投稿した文章(文字情報)を用いてモデルを生成してもよい。
Further, for example, the
例えば、予測装置100は、ユーザがメッセージサービスにおいて入力した入力情報を用いてモデルを生成してもよい。例えば、予測装置100は、ユーザがLINE(登録商標)等のメッセージサービスにおいて入力した入力情報を用いてモデルを生成してもよい。例えば、予測装置100は、電子メールにおいて入力した入力情報を用いてモデルを生成してもよい。
For example, the
例えば、生成装置100は、ユーザの操作履歴を含む行動情報を用いてモデルを生成してもよい。この場合、生成装置100は、ユーザの操作履歴を含む行動情報に基づいて、ユーザの感情を推定してもよい。例えば、生成装置100は、ユーザの端末装置10に対する操作履歴を含む行動情報を用いてモデルを生成してもよい。例えば、生成装置100は、ユーザの端末装置10に対するタップ操作やスワイプ操作の強さや速さ等の情報を含む操作履歴を用いてモデルを生成してもよい。例えば、生成装置100は、ユーザの端末装置10に対するタップ操作やスワイプ操作の強さや速さが所定の閾値以上である場合に、ユーザが怒りの感情を抱いていると推定するモデルを生成してもよい。
For example, the
また、例えば、生成装置100は、UI(ユーザインターフェイス)に関する情報を用いてモデルを生成してもよい。この場合、生成装置100は、UIに関する情報(ユーザの操作履歴等の行動情報)に基づいて、ユーザの感情を推定してもよい。例えば、生成装置100は、UI(ユーザインターフェイス)に関する情報を含む行動情報に基づいて、ユーザの感情を推定してもよい。この場合、例えば、生成装置100は、いわゆるABテストのように、ユーザに複数のUIの画面等を提供し、その各UIに関する情報(ユーザの行動情報)を入力した場合のモデルの出力に基づいて、各UIを評価してもよい。例えば、生成装置100は、第1のUIに関する情報(ユーザの行動情報)を入力した場合のモデルの出力の方が、第2のUIに関する情報(ユーザの行動情報)を入力した場合のモデルの出力よりも良い感情(例えば高いスコア)である場合、第1のUIの方が第2のUIよりも良い評価であると決定してもよい。
Further, for example, the
また、例えば、生成装置100は、ユーザが利用する端末装置10における通信速度(通信環境)やユーザが位置する地域等の種々の情報(特徴量)を用いてユーザの感情を推定してもよい。また、例えば、生成装置100は、温度や気圧等のユーザの置かれている環境情報を用いてユーザの感情を推定してもよい。また、例えば、生成装置100は、ユーザを撮像した画像情報を用いてユーザの感情を推定してもよい。また、例えば、生成装置100は、ユーザの生体情報を用いてユーザの感情を推定してもよい。例えば、生成装置100は、ユーザの心拍や血圧等の生体情報を用いてユーザの感情を推定してもよい。
Further, for example, the
なお、上記は一例であり、生成装置100は、種々の情報を適宜用いてユーザの感情を推定してもよい。
The above is an example, and the
〔2.生成装置の構成〕
次に、図4を用いて、実施形態に係る生成装置100の構成について説明する。図4は、実施形態に係る生成装置の構成例を示す図である。図4に示すように、生成装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、生成装置100は、生成装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Generator configuration]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、行動情報記憶部121と、感情情報記憶部122と、紐付情報記憶部123と、モデル情報記憶部124とを有する。
(Memory unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. As shown in FIG. 4, the storage unit 120 according to the embodiment includes an action
(行動情報記憶部121)
実施形態に係る行動情報記憶部121は、ユーザの行動に関する各種情報を記憶する。図5は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部121は、各ユーザの行動等の各種の行動情報を記憶する。図5に示す行動情報記憶部121には、「ユーザID」、「行動情報」といった項目が含まれる。
(Behavior information storage unit 121)
The behavior
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。「行動情報」は、データIDにより識別されるデータに対応するユーザの行動情報を示す。図5では「行動情報」に「ADT1」といった概念的な情報が格納される例を示したが、実際には、ユーザが行った行動に関する種々の情報、または、その格納場所を示すファイルパス名などが格納される。 The "user ID" indicates identification information for identifying a user. For example, the user identified by the user ID "U1" corresponds to the user U1 shown in the example of FIG. The "behavior information" indicates the user's behavior information corresponding to the data identified by the data ID. In FIG. 5, an example in which conceptual information such as "ADT1" is stored in "behavior information" is shown, but in reality, various information about the action performed by the user or a file path name indicating the storage location thereof. Etc. are stored.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)については、行動情報ADT1が収集されたことを示す。例えば、行動情報ADT1には、ユーザU1のインターネット(ウェブ)上における行動情報が含まれてもよい。例えば、行動情報ADT1には、ユーザU1によるAサービスのサイト内における行動(ページ遷移等)を示す情報や、ある日時にAサービスを利用して動画コンテンツを閲覧したことを示す情報の種々の行動情報が含まれてもよい。例えば、行動情報ADT1には、ユーザU1がある日時にCサイトのコンテンツを閲覧したことを示す情報や、ある日時に「Aサービスが便利」等の所定の入力情報を投稿したことを示す情報の種々のウェブ上での行動情報が含まれてもよい。また、例えば、行動情報ADT1には、ユーザU1がある日時にAコンビニでB商品の購入を行ったことを示す情報や、ある日時にBレストランで飲食を行ったことを示す情報等の種々の情報が含まれてもよい。 For example, in the example shown in FIG. 5, it is shown that the action information ADT1 has been collected for the user (user U1) identified by the user ID "U1". For example, the behavior information ADT1 may include the behavior information of the user U1 on the Internet (web). For example, the behavior information ADT1 includes various behaviors of information indicating the behavior (page transition, etc.) of the user U1 in the site of the A service and information indicating that the video content was viewed using the A service at a certain date and time. Information may be included. For example, the behavior information ADT1 includes information indicating that the user U1 has browsed the contents of the C site at a certain date and time, and information indicating that the user U1 has posted predetermined input information such as "A service is convenient" at a certain date and time. Behavioral information on various web sites may be included. Further, for example, the behavior information ADT1 includes various information such as information indicating that the user U1 purchased the B product at the A convenience store on a certain date and time, and information indicating that the user U1 ate and drank at the B restaurant on a certain date and time. Information may be included.
なお、行動情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図5では、ユーザIDごとに行動情報が行動情報記憶部121に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The behavior
例えば、行動情報には、「行動ID」、「日時」、「種別」、「内容」といった項目の情報が含まれてもよい。この場合、例えば、「行動ID」は、ユーザの行動を識別する情報を示す。例えば、「日時」は、対応するユーザの行動が行われた日時を示す。例えば、「日時」には、「2017年8月1日22時58分42秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。例えば、ユーザU1について、行動ID「AC11」により識別される行動ログ中の日時には「日時X」が格納され、種別には「閲覧」が格納され、内容には「Aサービスの動画コンテンツ」が格納されてもよい。 For example, the action information may include information on items such as "action ID", "date and time", "type", and "content". In this case, for example, the "behavior ID" indicates information that identifies the user's behavior. For example, "date and time" indicates the date and time when the corresponding user's action was performed. For example, a specific date and time such as "August 1, 2017 22:58:42" may be stored in the "date and time". Further, "type" indicates information regarding the type of action of the corresponding user. In addition, "content" indicates the content targeted in the corresponding user's behavior. For example, for user U1, "date and time X" is stored in the date and time in the action log identified by the action ID "AC11", "viewing" is stored in the type, and "video content of service A" is stored in the content. It may be stored.
(感情情報記憶部122)
実施形態に係る感情情報記憶部122は、ユーザの感情に関する各種情報を記憶する。図6は、実施形態に係る感情情報記憶部の一例を示す図である。図6に示す感情情報記憶部122は、「ユーザID」、「アンケート回答」、「対応感情」といった項目を有する。
(Emotion information storage unit 122)
The emotion
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U3」により識別されるユーザは、図1の例に示したユーザU3に対応する。「アンケート回答」は、対応するユーザが回答した内容を示す。「対応感情」は、ユーザの感情を示す。例えば、「対応感情」は、所定の閾値とアンケート回答との比較に基づくユーザの行動有無の推定を示す。図6では「対応感情」は、アンケート回答が「6」以下(すなわち「0」〜「6」)である場合は、「嫌悪」が格納され、アンケート回答が「7」、「8」である場合は、「中立」が格納され、アンケート回答が「9」以上(すなわち「9」、「10」)である場合は、「好感」が格納される場合を示す。 The "user ID" indicates identification information for identifying a user. For example, the user identified by the user ID "U3" corresponds to the user U3 shown in the example of FIG. "Questionnaire response" indicates the content answered by the corresponding user. "Corresponding emotion" indicates the emotion of the user. For example, "correspondence emotion" indicates an estimation of the presence or absence of user behavior based on a comparison between a predetermined threshold value and a questionnaire response. In FIG. 6, when the questionnaire response is "6" or less (that is, "0" to "6"), "disgust" is stored in the "correspondence emotion", and the questionnaire responses are "7" and "8". In this case, "neutral" is stored, and when the questionnaire response is "9" or more (that is, "9", "10"), "favorable feeling" is stored.
例えば、図6に示す例において、ユーザU3のアンケート回答は「3」であり、対応感情が「嫌悪」であることを示す。また、例えば、ユーザU4のアンケート回答は「9」であり、対応感情が「好感」であることを示す。また、例えば、ユーザU5のアンケート回答は「1」であり、対応感情が「嫌悪」であることを示す。 For example, in the example shown in FIG. 6, the questionnaire response of the user U3 is "3", indicating that the corresponding emotion is "disgust". Further, for example, the questionnaire response of the user U4 is "9", indicating that the corresponding emotion is "favorable". Further, for example, the questionnaire response of the user U5 is "1", indicating that the corresponding emotion is "disgust".
なお、感情情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The emotion
(紐付情報記憶部123)
実施形態に係る紐付情報記憶部123は、紐付けされた各種情報を記憶する。紐付情報記憶部123は、紐付情報を学習データとして記憶する。図7は、実施形態に係る紐付情報記憶部の一例を示す図である。例えば、紐付情報記憶部123は、モデルの生成に用いる教師データを記憶する。図7に示す紐付情報記憶部123には、「データID」、「ユーザID」、「正解情報(スコア(感情))」、「行動情報」といった項目が含まれる。
(Linked information storage unit 123)
The associated
「データID」は、データを識別するための識別情報を示す。例えば、「データID」は、ユーザの行動情報と感情情報とが紐付けられた情報の組合せを識別するための識別情報を示す。例えば、「データID」は、学習データ(教師データ)として用いられるユーザの行動情報と正解情報との組合せを識別するための識別情報を示す。「ユーザID」は、ユーザを識別するための識別情報を示す。「正解情報(スコア(感情))」は、データIDにより識別されるデータに対応する正解情報を示す。例えば、「正解情報(スコア(感情))」は、データIDにより識別されるデータに対応するユーザの感情を示す。 The "data ID" indicates identification information for identifying the data. For example, the "data ID" indicates identification information for identifying a combination of information associated with the user's behavior information and emotion information. For example, the "data ID" indicates identification information for identifying a combination of user behavior information and correct answer information used as learning data (teacher data). The "user ID" indicates identification information for identifying a user. "Correct answer information (score (emotion))" indicates correct answer information corresponding to the data identified by the data ID. For example, "correct answer information (score (emotion))" indicates the emotion of the user corresponding to the data identified by the data ID.
「行動情報」は、データIDにより識別されるデータに対応するユーザの行動情報を示す。図7では「行動情報」に「ADT3」といった概念的な情報が格納される例を示したが、実際には、ユーザが行った行動に関する種々の情報、または、その格納場所を示すファイルパス名などが格納される。 The "behavior information" indicates the user's behavior information corresponding to the data identified by the data ID. In FIG. 7, an example in which conceptual information such as "ADT3" is stored in "behavior information" is shown, but in reality, various information about the behavior performed by the user or a file path name indicating the storage location thereof. Etc. are stored.
例えば、図7に示す例において、データID「DT1」により識別されるデータ(学習データDT1)は、ユーザID「U3」により識別されるユーザ(ユーザU3)に対応する情報(データ)であることを示す。また、学習データDT1は、正解情報が「3(嫌悪)」であることを示す。すなわち、学習データDT1は、ユーザU3がAサービスに対して嫌悪の感情を抱いていることを示す。また、学習データDT1は、行動情報ADT3を含むことを示す。 For example, in the example shown in FIG. 7, the data (learning data DT1) identified by the data ID "DT1" is information (data) corresponding to the user (user U3) identified by the user ID "U3". Is shown. Further, the learning data DT1 indicates that the correct answer information is "3 (disgust)". That is, the learning data DT1 indicates that the user U3 has an aversion to the A service. Further, it is shown that the learning data DT1 includes the behavior information ADT3.
なお、紐付情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、紐付情報記憶部123は、学習データが追加された日時に関する情報を記憶してもよい。例えば、紐付情報記憶部123には、正解情報が「有(1)」の場合、ユーザがその行動を行った日時を示す情報を記憶してもよい。また、例えば、紐付情報記憶部123は、各学習データがどのような判定処理により追加されたかを示す情報を記憶してもよい。例えば、紐付情報記憶部123は、各学習データが管理者の選択により判定されたか等を示す情報を記憶してもよい。
The linked
(モデル情報記憶部124)
実施形態に係るモデル情報記憶部124は、モデルに関する情報を記憶する。例えば、モデル情報記憶部124は、決定処理により生成されたモデル情報(モデルデータ)を記憶する。図8は、実施形態に係るモデル情報記憶部の一例を示す図である。図8に示すモデル情報記憶部124は、「モデルID」、「推定対象」、「モデルデータ」といった項目が含まれる。なお、図8では、モデルM1のみを図示するが、M2、M3、M4、M5等、各推定対象に応じて多数のモデル情報が記憶されてもよい。
(Model information storage unit 124)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「推定対象」は、対応するモデルの推定対象を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 The "model ID" indicates identification information for identifying the model. For example, the model identified by the model ID "M1" corresponds to the model M1 shown in the example of FIG. “Estimation target” indicates the estimation target of the corresponding model. Further, the "model data" indicates the data of the corresponding corresponding model associated with the model data. For example, "model data" includes information including nodes in each layer, functions adopted by each node, connection relationships of nodes, and connection coefficients set for connections between nodes.
例えば、図8に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、推定対象がユーザの「感情」であり、入力された行動情報に対応するユーザの感情に関する情報の推定に用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 For example, in the example shown in FIG. 8, in the model (model M1) identified by the model ID "M1", the estimation target is the user's "emotion", and the information regarding the user's emotion corresponding to the input behavior information is used. Indicates that it is used for estimation. Further, it is shown that the model data of the model M1 is the model data MDT1.
モデルM1(モデルデータMDT1)は、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの感情の推定に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M1 (model data MDT1) includes an input layer into which user action information is input, an output layer, and a first element that is any layer from the input layer to the output layer and belongs to a layer other than the output layer. , A second element whose value is calculated based on the first element and the weight of the first element, and each element belonging to each layer other than the output layer with respect to the action information input to the input layer is first. As an element, it is a model for making a computer function so as to output a score value used for estimating a user's emotion from an output layer by performing an operation based on a first element and a weight of the first element.
ここで、モデルM1等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the model M1 and the like are realized by the regression model represented by "y = a 1 * x 1 + a 2 * x 2 + ... + a i * x i". In this case, for example, the first element included in the model M1 corresponds to input data (xi) such as x1 and x2. Further, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element corresponds to any node of the input layer, and the second element can be regarded as the node of the output layer.
また、モデルM1等がDNN等、1つまたは複数の中間層を有するニューラルネットワーク(neural network)で実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the model M1 or the like is realized by a neural network or the like having one or a plurality of intermediate layers such as DNN. In this case, for example, the first element included in the model M1 corresponds to either the node of the input layer or the intermediate layer. Further, the second element corresponds to a node in the next stage, which is a node to which a value is transmitted from a node corresponding to the first element. Further, the weight of the first element corresponds to a connection coefficient which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
なお、モデル情報記憶部124は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、生成装置100内部の記憶装置に記憶されている各種プログラム(決定プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部124に記憶されているモデルM1等に従った情報処理により、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの感情の推定に用いられるスコアの値を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the
図4に示すように、制御部130は、取得部131と、決定部132と、生成部133と、推定部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。制御部130は、記憶部120に記憶されているモデルM1(モデルデータMDT1)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの感情の推定に用いられるスコアの値を出力層から出力する。
As shown in FIG. 4, the
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、行動情報記憶部121や、感情情報記憶部122や、紐付情報記憶部123や、モデル情報記憶部124等から各種情報を取得する。また、取得部131は、各種情報を外部の情報処理装置から取得してもよい。また、取得部131は、各種情報を端末装置10等から取得してもよい。例えば、取得部131は、端末装置10からユーザの行動情報を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various information from the behavior
取得部131は、ユーザが回答したアンケートに関するアンケート情報を取得する。例えば、取得部131は、複数のユーザの行動情報を含む行動情報群を取得する。例えば、取得部131は、クラウドソーシングにおいてユーザが回答したアンケートに関するアンケート情報を取得する。 The acquisition unit 131 acquires the questionnaire information regarding the questionnaire answered by the user. For example, the acquisition unit 131 acquires a behavior information group including behavior information of a plurality of users. For example, the acquisition unit 131 acquires questionnaire information regarding a questionnaire answered by a user in crowdsourcing.
例えば、取得部131は、アンケートのターゲットリストに含まれるユーザが回答したアンケートに関するアンケート情報を取得する。例えば、取得部131は、アンケートの対象に関する行動が所定の条件を満たすユーザが回答したアンケートに関するアンケート情報を取得する。例えば、取得部131は、アンケートの対象に関する行動が所定量以上であるユーザが回答したアンケートに関するアンケート情報を取得する。 For example, the acquisition unit 131 acquires questionnaire information regarding the questionnaire answered by the user included in the target list of the questionnaire. For example, the acquisition unit 131 acquires questionnaire information regarding a questionnaire answered by a user whose behavior regarding the subject of the questionnaire satisfies a predetermined condition. For example, the acquisition unit 131 acquires questionnaire information regarding a questionnaire answered by a user whose behavior regarding the target of the questionnaire is a predetermined amount or more.
取得部131は、ユーザの行動情報と、ユーザの感情に関する感情情報とを取得する。例えば、取得部131は、ユーザの行動情報以外の他の行動情報に基づくユーザの感情情報を取得する。例えば、取得部131は、ユーザが利用する端末装置10に対するユーザの操作に関する情報を含むユーザの行動情報を取得する。
The acquisition unit 131 acquires the user's behavior information and emotion information regarding the user's emotions. For example, the acquisition unit 131 acquires the user's emotional information based on other behavioral information other than the user's behavioral information. For example, the acquisition unit 131 acquires user behavior information including information regarding the user's operation with respect to the
例えば、取得部131は、ユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得する。例えば、取得部131は、クラウドソーシングにおいてユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得する。例えば、取得部131は、アンケートの対象に関する行動が所定量以上であるユーザが回答したアンケートに関するアンケート情報を取得する。例えば、取得部131は、ユーザがネットワークを介したサービスにおいて入力した入力情報に基づくユーザの感情情報を取得する。例えば、取得部131は、ユーザの行動情報と、ユーザの感情を示すスコアとを取得する。 For example, the acquisition unit 131 acquires the user's emotional information based on the questionnaire information regarding the questionnaire answered by the user. For example, the acquisition unit 131 acquires the user's emotional information based on the questionnaire information regarding the questionnaire answered by the user in crowdsourcing. For example, the acquisition unit 131 acquires questionnaire information regarding a questionnaire answered by a user whose behavior regarding the target of the questionnaire is a predetermined amount or more. For example, the acquisition unit 131 acquires the user's emotional information based on the input information input by the user in the service via the network. For example, the acquisition unit 131 acquires the user's behavior information and the score indicating the user's emotion.
図1の例では、取得部131は、ユーザU1が利用する端末装置10−1からユーザU1の行動情報を取得する。例えば、取得部131は、端末装置10−1からユーザU1のAサービスにおける行動情報を取得する。例えば、取得部131は、図2に示すように、電子商取引サービスであるBサービス等のAサービス以外のサービスにおけるユーザの行動情報を取得してもよい。例えば、取得部131は、端末装置10−1からユーザU1のBサービスにおける行動情報を取得してもよい。 In the example of FIG. 1, the acquisition unit 131 acquires the action information of the user U1 from the terminal device 10-1 used by the user U1. For example, the acquisition unit 131 acquires the action information of the user U1 in the A service from the terminal device 10-1. For example, as shown in FIG. 2, the acquisition unit 131 may acquire user behavior information in a service other than the A service, such as the B service, which is an electronic commerce service. For example, the acquisition unit 131 may acquire the action information of the user U1 in the B service from the terminal device 10-1.
例えば、取得部131は、端末装置10−1からユーザU1のインターネット(ウェブ)上における行動情報を取得する。例えば、取得部131は、ユーザU1がウェブコンテンツを閲覧したことを示す情報や、クエリを用いて検索を行ったことを示す情報の種々のウェブ上での行動情報を取得する。例えば、取得部131は、ユーザU1の現実世界における行動情報を取得してもよい。例えば、取得部131は、ユーザU1がAコンビニでB商品の購入を行ったことを示す情報や、Bレストランで飲食を行ったことを示す情報等の種々の行動情報を取得してもよい。 For example, the acquisition unit 131 acquires the behavior information of the user U1 on the Internet (web) from the terminal device 10-1. For example, the acquisition unit 131 acquires various behavioral information on the web, such as information indicating that the user U1 has browsed the web content and information indicating that the user U1 has performed a search using a query. For example, the acquisition unit 131 may acquire the behavior information of the user U1 in the real world. For example, the acquisition unit 131 may acquire various behavioral information such as information indicating that the user U1 has purchased the B product at the A convenience store and information indicating that the user U1 has eaten or drink at the B restaurant.
また、図1の例では、取得部131は、ユーザU2が利用する端末装置10−2から行動情報を取得する。例えば、取得部131は、端末装置10−2からユーザU2のAサービスにおける行動情報を取得する。例えば、取得部131は、図2に示すように、ユーザU2のAサービスやBサービスにおける行動情報を取得する。また、例えば、生成装置100は、端末装置10−2からユーザU2のウェブ上や実空間における行動情報を取得する。
Further, in the example of FIG. 1, the acquisition unit 131 acquires the action information from the terminal device 10-2 used by the user U2. For example, the acquisition unit 131 acquires the action information of the user U2 in the A service from the terminal device 10-2. For example, as shown in FIG. 2, the acquisition unit 131 acquires the action information of the user U2 in the A service and the B service. Further, for example, the
例えば、取得部131は、ユーザU3が利用する端末装置10−3から行動情報を取得する。例えば、取得部131は、端末装置10−3からユーザU3のAサービスにおける行動情報を取得する。例えば、取得部131は、所定の期間内(例えば直近1週間や3週間等)においてユーザU3のAサービスを利用したことを示す行動情報を取得する。例えば、取得部131は、端末装置10−3からユーザU3のAサービスにおける行動情報等、ユーザU3のウェブ上や実空間における行動情報を取得する。 For example, the acquisition unit 131 acquires action information from the terminal device 10-3 used by the user U3. For example, the acquisition unit 131 acquires the action information of the user U3 in the A service from the terminal device 10-3. For example, the acquisition unit 131 acquires behavioral information indicating that the user U3's A service has been used within a predetermined period (for example, the latest one week, three weeks, etc.). For example, the acquisition unit 131 acquires the behavior information of the user U3 on the Web or in the real space, such as the behavior information of the user U3 in the A service, from the terminal device 10-3.
例えば、取得部131は、ユーザU4が利用する端末装置10−4から行動情報を取得する。例えば、取得部131は、端末装置10−4からユーザU4のAサービスにおける行動情報を取得する。例えば、取得部131は、所定の期間内(例えば直近1ヶ月や2週間等)においてユーザU4のAサービスを利用したことを示す行動情報を取得する。例えば、取得部131は、端末装置10−4からユーザU4のAサービスにおける行動情報等、ユーザU4のウェブ上や実空間における行動情報を取得する。 For example, the acquisition unit 131 acquires action information from the terminal device 10-4 used by the user U4. For example, the acquisition unit 131 acquires the action information of the user U4 in the A service from the terminal device 10-4. For example, the acquisition unit 131 acquires behavioral information indicating that the user U4 has used the A service within a predetermined period (for example, the latest one month or two weeks). For example, the acquisition unit 131 acquires the behavior information of the user U4 on the Web or in the real space, such as the behavior information of the user U4 in the A service, from the terminal device 10-4.
また、図1の例では、取得部131は、ユーザが回答したアンケートに関するアンケート情報を取得する。例えば、取得部131は、いわゆるクラウドソーシングなどによるタスクを行う複数のワーカからアンケート情報を取得する。例えば、取得部131は、Aサービスに関するアンケートをクラウドソーシングによりユーザ(ワーカ)に回答させ、その回答を取得する。 Further, in the example of FIG. 1, the acquisition unit 131 acquires the questionnaire information regarding the questionnaire answered by the user. For example, the acquisition unit 131 acquires questionnaire information from a plurality of workers who perform tasks such as so-called crowdsourcing. For example, the acquisition unit 131 causes the user (worker) to answer the questionnaire regarding the A service by crowdsourcing, and acquires the answer.
例えば、取得部131は、図2に示すように「あなたはAサービスを友人や同僚に薦めますか?(0〜10で回答)」等の種々の内容のアンケートAN11をクラウドソーシングによりユーザ(ワーカ)に回答させ、その回答を取得する。 For example, as shown in FIG. 2, the acquisition unit 131 crowdsources the user (worker) to the questionnaire AN11 with various contents such as "Do you recommend service A to friends and colleagues? (Answer from 0 to 10)". ) To answer and get the answer.
また、図1の例では、取得部131は、ワーカであるユーザU3が利用する端末装置10−3からユーザU3の回答を取得する。例えば、取得部131は、ユーザU3からアンケートAN11に対する回答がスコア「3」であるとの回答を取得する。例えば、取得部131は、ワーカであるユーザU4が利用する端末装置10−4からユーザU4の回答を取得する。例えば、取得部131は、ユーザU4からアンケートAN11に対する回答がスコア「9」であるとの回答を取得する。例えば、取得部131は、ワーカであるユーザU5が利用する端末装置10−5からユーザU5の回答を取得する。例えば、取得部131は、ユーザU5からアンケートAN11に対する回答がスコア「1」であるとの回答を取得する。 Further, in the example of FIG. 1, the acquisition unit 131 acquires the answer of the user U3 from the terminal device 10-3 used by the user U3 who is a worker. For example, the acquisition unit 131 acquires an answer from the user U3 that the answer to the questionnaire AN11 is a score of “3”. For example, the acquisition unit 131 acquires the answer of the user U4 from the terminal device 10-4 used by the user U4 who is a worker. For example, the acquisition unit 131 acquires an answer from the user U4 that the answer to the questionnaire AN11 is a score of “9”. For example, the acquisition unit 131 acquires the answer of the user U5 from the terminal device 10-5 used by the user U5 who is a worker. For example, the acquisition unit 131 acquires an answer from the user U5 that the answer to the questionnaire AN11 is a score of “1”.
(決定部132)
決定部132は、各種情報を推定する。決定部132は、行動情報記憶部121や、感情情報記憶部122や、紐付情報記憶部123や、モデル情報記憶部124等の各種情報に基づいて、種々の決定を行う。
(Decision unit 132)
The determination unit 132 estimates various types of information. The decision unit 132 makes various decisions based on various information such as the action
決定部132は、ユーザに関する情報が所定の条件を満たす場合、取得部131により取得されたユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。例えば、決定部132は、行動情報群にユーザの行動情報が含まれる場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。 When the information about the user satisfies a predetermined condition, the determination unit 132 determines that the user's questionnaire information acquired by the acquisition unit 131 is associated with the user's behavior information. For example, when the behavior information group includes the behavior information of the user, the determination unit 132 determines that the questionnaire information of the user is associated with the behavior information of the user.
例えば、決定部132は、ユーザの行動情報にアンケートの対象に関する行動情報が含まれる場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。例えば、決定部132は、ユーザが所定期間内にアンケートの対象に関する行動を行っている場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。 For example, the determination unit 132 determines that the user's questionnaire information is associated with the user's behavior information when the user's behavior information includes the behavior information regarding the target of the questionnaire. For example, the determination unit 132 determines that the user's questionnaire information is associated with the user's behavior information when the user is performing an action regarding the target of the questionnaire within a predetermined period.
例えば、決定部132は、ユーザのアンケートの対象に関する行動が所定の条件を満たす場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。例えば、決定部132は、ユーザのアンケートの対象に関する行動が所定量以上である場合、ユーザのアンケート情報を、ユーザの行動情報に関連付けると決定する。 For example, the determination unit 132 determines that the user's questionnaire information is associated with the user's behavior information when the behavior regarding the target of the user's questionnaire satisfies a predetermined condition. For example, the determination unit 132 determines that the user's questionnaire information is associated with the user's behavior information when the behavior regarding the target of the user's questionnaire is equal to or greater than a predetermined amount.
図1の例では、決定部132は、ユーザの行動情報とユーザのアンケート情報とについて、紐付けする対象を決定する。例えば、決定部132は、ユーザのアンケート情報のうち、不適合ユーザでないユーザのアンケート情報を紐付けする対象を決定する。例えば、決定部132は、適合ユーザのうち、行動情報群に行動情報が含まれるユーザのアンケート情報を、そのユーザの行動情報に紐付けると決定する。 In the example of FIG. 1, the determination unit 132 determines the target to be associated with the user's behavior information and the user's questionnaire information. For example, the determination unit 132 determines a target to which the questionnaire information of a user who is not a nonconforming user is associated with the questionnaire information of the user. For example, the determination unit 132 determines that the questionnaire information of a user whose behavior information group includes the behavior information among the conforming users is associated with the behavior information of the user.
図1の例では、決定部132は、回答ユーザ群UG2のうち、所定の期間内においてAサービスを利用しているユーザU3を適合ユーザとして、紐付け対象とすることを決定する。例えば、決定部132は、図2に示すように、ユーザU3の行動と回答とを紐付ける。例えば、決定部132は、ユーザU3のアンケート情報と行動情報を関連付ける。例えば、決定部132は、紐付情報記憶部123に示すように、ユーザU3の行動情報ADT3と、アンケート情報に含まれるスコア(感情)とを関連付けて、紐付情報記憶部123に格納する。例えば、決定部132は、ユーザU3の行動情報ADT3と、スコア「3」及び感情「嫌悪」とを関連付け、データID「DT1」により識別されるデータ(データDT1)として、紐付情報記憶部123に格納する。
In the example of FIG. 1, the determination unit 132 determines that the user U3 who is using the A service within a predetermined period of the response user group UG2 is to be linked as a conforming user. For example, the determination unit 132 associates the action of the user U3 with the answer, as shown in FIG. For example, the decision unit 132 associates the questionnaire information of the user U3 with the action information. For example, the determination unit 132 associates the behavior information ADT3 of the user U3 with the score (emotion) included in the questionnaire information and stores it in the association
例えば、決定部132は、回答ユーザ群UG2のうち、所定の期間内においてAサービスを利用しているユーザU4を適合ユーザとして、紐付け対象とすることを決定する。例えば、決定部132は、図2に示すように、ユーザU4の行動と回答とを紐付ける。例えば、決定部132は、ユーザU4のアンケート情報と行動情報を関連付ける。例えば、決定部132は、紐付情報記憶部123に示すように、ユーザU4の行動情報ADT4と、アンケート情報に含まれるスコア(感情)とを関連付けて、紐付情報記憶部123に格納する。例えば、決定部132は、ユーザU4の行動情報ADT4と、スコア「9」及び感情「好感」とを関連付け、データID「DT2」により識別されるデータ(データDT2)として、紐付情報記憶部123に格納する。
For example, the determination unit 132 determines that the user U4 who is using the A service within a predetermined period of the response user group UG2 is set as the matching user and is to be linked. For example, the determination unit 132 associates the action of the user U4 with the answer, as shown in FIG. For example, the determination unit 132 associates the questionnaire information of the user U4 with the behavior information. For example, the determination unit 132 associates the behavior information ADT4 of the user U4 with the score (emotion) included in the questionnaire information and stores it in the association
また、図1の例では、決定部132は、回答ユーザ群UG2のうち、不適合ユーザであるユーザU5については、紐付け対象にしないと決定する。例えば、決定部132は、図2に示すように、ユーザU5の回答は行動とは紐付けしないと決定する。例えば、決定部132は、ユーザU18を適合ユーザとして、紐付け対象とすることを決定する。例えば、決定部132は、ユーザU18の行動情報ADT18と、スコア「7」及び感情「中立」とを関連付け、データID「DT3」により識別されるデータ(データDT3)として、紐付情報記憶部123に格納する。
Further, in the example of FIG. 1, the determination unit 132 determines that the user U5, which is a nonconforming user, among the responding user group UG2 is not to be linked. For example, the determination unit 132 determines that the response of the user U5 is not associated with the action, as shown in FIG. For example, the determination unit 132 determines that the user U18 is a conforming user and is to be linked. For example, the determination unit 132 associates the behavior information ADT18 of the user U18 with the score “7” and the emotion “neutral”, and supplies the associated
(生成部133)
生成部133は、各種情報を生成する。また、生成部133は、行動情報記憶部121や、感情情報記憶部122や、紐付情報記憶部123や、モデル情報記憶部124等の各種情報に基づいて、種々の情報を生成する。
(Generator 133)
The generation unit 133 generates various information. Further, the generation unit 133 generates various information based on various information such as the behavior
例えば、生成部133は、ユーザの行動情報と、ユーザのアンケート情報に基づくユーザの感情に関する感情情報とを用いて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する。例えば、生成部133は、スコアが所定の閾値以上のユーザの行動情報を正例としてモデルを生成する。例えば、生成部133は、スコアが所定の閾値未満のユーザの行動情報を負例としてモデルを生成する。 For example, the generation unit 133 generates a model for estimating the emotion of the input user to which the behavior information is input by using the user's behavior information and the emotion information about the user's emotion based on the user's questionnaire information. For example, the generation unit 133 generates a model using the behavior information of a user whose score is equal to or higher than a predetermined threshold value as a positive example. For example, the generation unit 133 generates a model using the behavior information of a user whose score is less than a predetermined threshold as a negative example.
また、生成部133は、取得部131より取得されたユーザの行動情報と、ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する。また、生成部133は、ユーザの行動情報と、スコアとに基づいて、行動情報が入力される入力ユーザの感情を示すスコアを出力するモデルを生成する。 Further, the generation unit 133 generates a model for estimating the emotion of the input user to which the behavior information is input, based on the user's behavior information acquired from the acquisition unit 131 and the user's emotion information. In addition, the generation unit 133 generates a model that outputs a score indicating the emotion of the input user to which the behavior information is input, based on the behavior information of the user and the score.
例えば、生成部133は、モデルM1等を生成し、生成したモデルM1等をモデル情報記憶部124に格納する。なお、生成部133は、いかなる学習アルゴリズムを用いてモデルM1等を生成してもよい。例えば、生成部133は、ニューラルネットワーク、サポートベクターマシン(SVM)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1等を生成する。一例として、生成部133がニューラルネットワークを用いてモデルM1等を生成する場合、モデルM1等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。
For example, the generation unit 133 generates the model M1 and the like, and stores the generated model M1 and the like in the model
生成部133は、モデルを生成し、生成したモデルをモデル情報記憶部124に格納する。具体的には、生成部133は、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの感情の推定に用いられるスコアの値を出力層から出力するモデルを生成する。
The generation unit 133 generates a model and stores the generated model in the model
例えば、生成部133は、学習データに基づいてモデルを生成する。例えば、生成部133は、学習データに基づいてモデルを生成する。例えば、生成部133は、紐付情報記憶部123中のデータDT1〜DT3等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。
For example, the generation unit 133 generates a model based on the training data. For example, the generation unit 133 generates a model based on the training data. For example, the generation unit 133 generates a model by performing learning using the data DT1 to DT3 in the associated
図1の例では、生成部133は、モデル情報記憶部124に示すように、モデルM1を生成する。例えば、生成部133は、学習データに基づいてモデルを生成する。例えば、生成部133は、紐付情報記憶部123中のデータDT1〜DT3等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。例えば、生成部133は、ユーザの行動情報に関する特徴量を用いて、モデルを生成する。また、例えば、生成部133は、ユーザのウェブ上における行動情報に関する特徴量を用いて、モデルを生成する。例えば、生成部133は、ユーザの実空間上における行動情報に関する特徴量を用いて、モデルを生成する。このように、生成部133は、ユーザの行動情報に含まれる特徴を学習し、ユーザの感情に関する情報を推定するモデルを生成する。なお、生成部133が学習する行動情報に含まれる特徴は、生成部133の管理者等の人間が生成部133に入力してもよいし、生成部133に自動的に学習(抽出)させてもよい。
In the example of FIG. 1, the generation unit 133 generates the model M1 as shown in the model
例えば、生成部133は、紐付情報記憶部123に記憶されたデータを学習データ(教師データ)として、モデルM1を生成する。例えば、生成部133は、データDT1に示すように、正解情報がユーザの感情「嫌悪」に対応するスコア「3」である場合、モデルM1にデータDT1に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「3」に近づくように、学習処理を行う。例えば、生成部133は、データDT1の行動情報ADT3がモデルM1に入力された場合に、モデルM1が出力するスコアが「3」に近づくように、学習処理を行う。
For example, the generation unit 133 generates the model M1 using the data stored in the association
また、例えば、生成部133は、データDT2に示すように、正解情報がユーザの感情「好感」に対応するスコア「9」である場合、モデルM1にデータDT2に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「9」に近づくように、学習処理を行う。例えば、生成部133は、データDT2の行動情報ADT4がモデルM1に入力された場合に、モデルM1が出力するスコアが「9」に近づくように、学習処理を行う。 Further, for example, when the correct answer information has a score of "9" corresponding to the user's emotion "favorability" as shown in the data DT2, the generation unit 133 has input the action information included in the data DT2 into the model M1. In this case, the learning process is performed so that the score output by the model M1 approaches "9". For example, the generation unit 133 performs learning processing so that when the behavior information ADT4 of the data DT2 is input to the model M1, the score output by the model M1 approaches "9".
また、例えば、生成部133は、データDT3に示すように、正解情報がユーザの感情「中立」に対応するスコア「7」である場合、モデルM1にデータDT3に含まれる行動情報が入力された場合に、モデルM1が出力するスコアが「7」に近づくように、学習処理を行う。例えば、生成部133は、データDT3の行動情報ADT18がモデルM1に入力された場合に、モデルM1が出力するスコアが「7」に近づくように、学習処理を行う。 Further, for example, when the correct answer information has a score of "7" corresponding to the user's emotion "neutral" as shown in the data DT3, the generation unit 133 has input the action information included in the data DT3 into the model M1. In this case, the learning process is performed so that the score output by the model M1 approaches "7". For example, the generation unit 133 performs a learning process so that when the behavior information ADT18 of the data DT3 is input to the model M1, the score output by the model M1 approaches "7".
また、例えば、生成部133は、紐付情報記憶部123に記憶された学習データを用いて、モデル情報記憶部124に示すようなモデルを生成する。例えば、生成部133は、取得部131により取得された学習データに基づいて、各ユーザの感情の推定に用いられるモデルを生成する。例えば、生成部133は、行動情報と、行動情報に対応する各ユーザの感情に関する感情情報を示す正解情報とを含む学習データに基づいて、各ユーザの感情の推定に用いられるモデルを生成する。
Further, for example, the generation unit 133 uses the learning data stored in the associated
(推定部134)
推定部134は、各種情報を推定する。推定部134は、モデル情報記憶部124に記憶されたモデルを用いて種々の情報を推定する。例えば、推定部134は、取得部131により取得された各種情報に基づいて、種々の情報を推定する。推定部134は、ユーザの行動情報をモデルに入力することにより、ユーザの感情に関する情報を推定する。
(Estimating unit 134)
The
例えば、推定部134は、モデルM1にユーザの行動情報を入力することにより、入力した行動情報に対応するユーザの感情に関するスコアを、モデルM1に出力させ、モデルM1が出力するスコアに基づいて、ユーザがどのような感情であるかを推定する。
For example, the
例えば、推定部134は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、スコアの算出を行う。具体的には、モデルM1は、ユーザの行動情報(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、ユーザの感情の推定を定量化した値(すなわち、ユーザがどうような感情であるかを示唆するスコア)を出力するように係数が設定される。推定部134は、このようなモデルM1を用いて、ユーザによる所定の対象に関する行動の確率に関するスコアを算出する。
For example, the
なお、上記例では、モデルM1が、ユーザの行動情報が入力された場合にユーザによる所定の対象に関する行動の確率の推定を定量化した値を出力するモデルである例を示した。しかし、実施形態に係るモデル(モデルX)は、モデルM1にデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルXは、ユーザの行動情報を入力とし、モデルM1が出力するスコアを出力とするよう学習されたモデル(モデルY)であってもよい。または、モデルM1は、ユーザの行動情報を入力とし、モデルYの出力値を出力とするよう学習されたモデルであってもよい。また、推定部134がGAN(Generative Adversarial Networks)を用いた推定処理を行う場合、モデルM1は、GANの一部を構成するモデルであってもよい。
In the above example, the model M1 is a model that outputs a quantified value of the estimation of the probability of the behavior of a predetermined target by the user when the behavior information of the user is input. However, the model (model X) according to the embodiment may be a model generated based on the result obtained by repeating the input / output of data to the model M1. For example, the model X may be a model (model Y) trained to input the user's behavior information and output the score output by the model M1. Alternatively, the model M1 may be a model trained to input the user's behavior information and output the output value of the model Y. Further, when the
(提供部135)
提供部135は、各種情報を提供する。例えば、提供部135は、端末装置10に各種情報を提供する。提供部135は、推定部134により推定された推定情報に基づくサービスを提供してもよい。例えば、提供部135は、生成部133により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部135は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。例えば、提供部135は、生成部133により生成されたマッピング情報を外部の情報処理装置へ提供する。
(Providing section 135)
The providing unit 135 provides various types of information. For example, the providing unit 135 provides various information to the
例えば、提供部135は、ユーザの行動情報と、ユーザのアンケート情報に基づくユーザの感情情報とを用いて、情報提供を行う。例えば、提供部135は、生成部133により生成されたモデルを用いて推定された入力ユーザの感情に関する情報提供を行う。 For example, the providing unit 135 provides information by using the user's behavior information and the user's emotional information based on the user's questionnaire information. For example, the providing unit 135 provides information on the emotion of the input user estimated using the model generated by the generating unit 133.
〔3.決定処理のフロー〕
次に、図9を用いて、実施形態に係る生成システム1による決定処理の手順について説明する。図9は、実施形態に係る決定処理の一例を示すフローチャートである。
[3. Decision processing flow]
Next, the procedure of the determination process by the
図9に示すように、生成装置100は、行動情報を取得する(ステップS101)。例えば、生成装置100は、行動情報記憶部121からユーザU1〜U5の行動情報ADT1〜ADT5等を取得する。
As shown in FIG. 9, the
また、生成装置100は、アンケート情報を取得する(ステップS102)。図1の例では、生成装置100は、感情情報記憶部122からユーザU3〜U5等のアンケート情報等を取得する。
Further, the
そして、生成装置100は、所定の条件を満たすユーザの行動情報とアンケート情報とを紐付けると決定する(ステップS103)。図1の例では、生成装置100は、ユーザU3やユーザU4等の行動情報とアンケート情報とを紐付けると決定する。
Then, the
〔4.生成処理のフロー〕
次に、図10を用いて、実施形態に係る生成システム1による生成処理の手順について説明する。図10は、実施形態に係る生成処理の一例を示すフローチャートである。
[4. Generation process flow]
Next, the procedure of the generation process by the
図10に示すように、生成装置100は、ユーザの行動情報と感情情報とを取得する(ステップS201)。例えば、生成装置100は、ユーザの行動情報と感情情報とが関連付けられた学習データを、紐付情報記憶部123から取得する。
As shown in FIG. 10, the
その後、生成装置100は、ユーザの行動情報と感情情報とに基づいて、ユーザの感情を推定するモデルを生成する(ステップS202)。図1の例では、生成装置100は、紐付情報記憶部123に示すようなユーザの行動情報と感情情報とが関連付けられた学習データを用いて、ユーザの感情を推定するモデルM1を生成する。
After that, the
〔5.推定処理〕
図11を用いて、実施形態に係る推定処理の一例について説明する。図11は、実施形態に係る推定処理の一例を示す図である。図11では、生成装置100は、ユーザの行動情報を取得した場合に、その感情情報に基づいて推定したユーザの感情に関する情報を提供する場合を示す。
[5. Estimate processing]
An example of the estimation process according to the embodiment will be described with reference to FIG. FIG. 11 is a diagram showing an example of the estimation process according to the embodiment. FIG. 11 shows a case where the
まず、生成装置100は、対象ユーザとなるユーザU101の行動情報を取得する(ステップS21)。図11の例では、生成装置100は、ユーザU101が利用する端末装置10からユーザU101の行動情報ADT101を取得する。なお、生成装置100は、サービス提供装置50や他の外部装置からユーザU101の行動情報ADT101を取得してもよい。
First, the
行動情報ADT101を生成した生成装置100は、行動情報ADT101をモデルに入力する。例えば、生成装置100は、行動情報ADT101を、モデルM1に入力する。
The
図11の例では、生成装置100は、処理群PS21に示すような処理により、ユーザU101の感情を示すスコアを算出する。生成装置100は、行動情報ADT101をモデルM1に入力する(ステップS22)。行動情報ADT101が入力されたモデルM1は、スコアを出力する(ステップS23)。モデルM1は、各クラスに対応するスコアを出力する。図11の例では、行動情報ADT101が入力されたモデルM1は、スコアSC11に示すように、スコア「9.5」を出力する。これにより、生成装置100は、モデルM1を用いて、ユーザU101の感情が「好感」であると推定する。
In the example of FIG. 11, the
そして、生成装置100は、推定結果を生成する(ステップS24)。図11の例では、生成装置100は、対象ユーザであるユーザU101の感情が「好感」であるとの推定結果情報ER21を生成する。
Then, the
その後、生成装置100は、推定結果に基づいて情報提供を行う(ステップS25)。図11の例では、生成装置100は、生成した推定結果情報ER21をサービス提供装置50へ提供する。
After that, the
そして、生成装置100から情報提供を受けたサービス提供装置50は、生成装置100から取得した情報に基づいて、ユーザU101が利用する端末装置10へAサービスを提供する(ステップS26)。
Then, the
〔6.効果〕
上述してきたように、実施形態に係る生成装置100は、取得部131と、生成部133とを有する。取得部131は、ユーザの行動情報と、ユーザの感情に関する感情情報とを取得する。また、生成部133は、取得部131より取得されたユーザの行動情報と、ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する。
[6. effect〕
As described above, the
このように、実施形態に係る生成装置100は、ユーザの行動情報と、ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、ユーザの行動情報以外の他の行動情報に基づくユーザの感情情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、ユーザの行動情報以外の他の行動情報に基づくユーザの感情情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、ユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、ユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、クラウドソーシングにおいてユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、クラウドソーシングにおいてユーザが回答したアンケートに関するアンケート情報に基づくユーザの感情情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、アンケートの対象に関する行動が所定量以上であるユーザが回答したアンケートに関するアンケート情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、アンケートの対象に関する行動が所定量以上であるユーザが回答したアンケートに関するアンケート情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、ユーザが利用する端末装置10に対するユーザの操作に関する情報を含むユーザの行動情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、ユーザが利用する端末装置10に対するユーザの操作に関する情報を含むユーザの行動情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、ユーザがネットワークを介したサービスにおいて入力した入力情報に基づくユーザの感情情報を取得する。
Further, in the
このように、実施形態に係る生成装置100は、ユーザがネットワークを介したサービスにおいて入力した入力情報に基づくユーザの感情情報を取得することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、取得部131は、ユーザの行動情報と、ユーザの感情を示すスコアとを取得する。また、生成部133は、ユーザの行動情報と、スコアとに基づいて、行動情報が入力される入力ユーザの感情を示すスコアを出力するモデルを生成する。
Further, in the
このように、実施形態に係る生成装置100は、ユーザの行動情報と、スコアとに基づいて、行動情報が入力される入力ユーザの感情を示すスコアを出力するモデルを生成することにより、ユーザの感情を適切に推定可能にすることができる。
In this way, the
また、実施形態に係る生成装置100において、生成部133は、スコアが所定の閾値以上のユーザの行動情報を正例としてモデルを生成する。
Further, in the
このように、実施形態に係る生成装置100は、スコアが所定の閾値以上のユーザの行動情報を正例としてモデルを生成することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、生成部133は、スコアが所定の閾値未満のユーザの行動情報を負例としてモデルを生成する。
Further, in the
このように、実施形態に係る生成装置100は、スコアが所定の閾値未満のユーザの行動情報を負例としてモデルを生成することにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
また、実施形態に係る生成装置100において、提供部135は、生成部133により生成されたモデルを用いて推定された入力ユーザの感情に関する情報提供を行う。
Further, in the
このように、実施形態に係る生成装置100は、モデルを用いて推定された入力ユーザの感情に関する情報提供を行うことにより、ユーザの感情を適切に推定可能にすることができる。
As described above, the
〔7.ハードウェア構成〕
上述してきた実施形態に係る生成装置100は、例えば図13に示すような構成のコンピュータ1000によって実現される。図13は、生成装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[7. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る生成装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1(モデルデータMDT1))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described in detail with reference to the drawings, these are examples and vary based on the knowledge of those skilled in the art, including the embodiments described in the disclosure line of the invention. It is possible to carry out the present invention in another form in which the above is modified or improved.
〔8.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[8. Others]
Further, among the processes described in the above-described embodiments and modifications, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed. It is also possible to automatically perform all or part of the processed processing by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modifications can be appropriately combined as long as the processing contents do not contradict each other.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition means or an acquisition circuit.
1 生成システム
100 生成装置
121 行動情報記憶部
122 感情情報記憶部
123 紐付情報記憶部
124 モデル情報記憶部
130 制御部
131 取得部
132 決定部
133 生成部
134 推定部
135 提供部
10 端末装置
50 サービス提供装置
N ネットワーク
1
Claims (18)
前記取得部により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成部と、
を備え、
前記取得部は、
前記ユーザが利用する端末装置に対する前記ユーザの操作に関する情報を含む前記ユーザの行動情報を取得することを特徴とする生成装置。 An acquisition unit that acquires user behavior information and emotion information related to the user's emotions,
A generation unit that generates a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition unit and the emotion information of the user.
Equipped with a,
The acquisition unit
Generating apparatus characterized that you get the behavior information of the user including information about the operation of the user for the terminal device the user uses.
前記取得部により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成部と、
を備え、
前記取得部は、
前記ユーザがネットワークを介したサービスにおいて入力した入力情報に基づく前記ユーザの感情情報を取得することを特徴とする生成装置。 An acquisition unit that acquires user behavior information and emotion information related to the user's emotions,
A generation unit that generates a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition unit and the emotion information of the user.
With
The acquisition unit
A generation device characterized by acquiring emotional information of the user based on input information input by the user in a service via a network.
前記取得部により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成部と、
を備え、
前記取得部は、
前記ユーザの行動情報と、当該ユーザの感情を示すスコアとを取得し、
前記生成部は、
前記ユーザの行動情報と、前記スコアとに基づいて、行動情報が入力される前記入力ユーザの感情を示すスコアを出力するモデルを生成することを特徴とする生成装置。 An acquisition unit that acquires user behavior information and emotion information related to the user's emotions,
A generation unit that generates a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition unit and the emotion information of the user.
With
The acquisition unit
The behavior information of the user and the score indicating the emotion of the user are acquired, and the result is obtained.
The generator
A generation device for generating a model that outputs a score indicating the emotion of the input user to which the behavior information is input based on the behavior information of the user and the score.
前記取得部により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成部と、
前記生成部により生成された前記モデルを用いて推定された前記入力ユーザの感情に関する情報提供を行う提供部と、
を備えることを特徴とする生成装置。 An acquisition unit that acquires user behavior information and emotion information related to the user's emotions,
A generation unit that generates a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition unit and the emotion information of the user.
A providing unit that provides information on the emotion of the input user estimated using the model generated by the generating unit, and a providing unit.
A generator characterized by comprising.
前記スコアが所定の閾値以上の前記ユーザの行動情報を正例として前記モデルを生成する
ことを特徴とする請求項3に記載の生成装置。 The generator
The generator according to claim 3 , wherein the model is generated using the behavior information of the user whose score is equal to or higher than a predetermined threshold value as a positive example.
前記スコアが所定の閾値未満の前記ユーザの行動情報を負例として前記モデルを生成する
ことを特徴とする請求項3または請求項5に記載の生成装置。 The generator
The generator according to claim 3 or 5 , wherein the model is generated using the behavior information of the user whose score is less than a predetermined threshold value as a negative example.
前記ユーザの行動情報以外の他の行動情報に基づく前記ユーザの感情情報を取得する、
ことを特徴とする請求項1〜6のいずれか1項に記載の生成装置。 The acquisition unit
Acquires the user's emotional information based on other behavioral information other than the user's behavioral information.
The generator according to any one of claims 1 to 6, wherein the generator is characterized by the above.
前記ユーザが回答したアンケートに関するアンケート情報に基づく前記ユーザの感情情報を取得する、
ことを特徴とする請求項1〜7のいずれか1項に記載の生成装置。 The acquisition unit
Acquire emotional information of the user based on the questionnaire information regarding the questionnaire answered by the user.
The generator according to any one of claims 1 to 7, wherein the generator is characterized by the above.
クラウドソーシングにおいて前記ユーザが回答したアンケートに関するアンケート情報に基づく前記ユーザの感情情報を取得する、
ことを特徴とする請求項1〜8のいずれか1項に記載の生成装置。 The acquisition unit
Acquire emotional information of the user based on the questionnaire information regarding the questionnaire answered by the user in crowdsourcing.
The generator according to any one of claims 1 to 8 , wherein the generator is characterized by the above.
アンケートの対象に関する行動が所定量以上である前記ユーザが回答したアンケートに関するアンケート情報を取得する、
ことを特徴とする請求項1〜9のいずれか1項に記載の生成装置。 The acquisition unit
Acquire questionnaire information about the questionnaire answered by the user whose behavior regarding the subject of the questionnaire is equal to or more than a predetermined amount.
The generator according to any one of claims 1 to 9 , wherein the generator is characterized by the above.
ユーザの行動情報と、前記ユーザの感情に関する感情情報とを取得する取得工程と、
前記取得工程により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成工程と、
を含み、
前記取得工程は、
前記ユーザが利用する端末装置に対する前記ユーザの操作に関する情報を含む前記ユーザの行動情報を取得することを特徴とする生成方法。 It ’s a computer-executed generation method.
An acquisition process for acquiring user behavior information and emotion information related to the user's emotions,
A generation step of generating a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition step and the emotion information of the user.
Only including,
The acquisition process is
A generation method comprising acquiring behavioral information of the user including information on the operation of the user with respect to the terminal device used by the user.
前記取得手順により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成手順と、
をコンピュータに実行させ、
前記取得手順は、
前記ユーザが利用する端末装置に対する前記ユーザの操作に関する情報を含む前記ユーザの行動情報を取得することを特徴とする生成プログラム。 An acquisition procedure for acquiring user behavior information and emotion information related to the user's emotions, and
A generation procedure for generating a model for estimating the emotion of an input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition procedure and the emotion information of the user.
Let the computer run
The acquisition procedure is
Generator characterized that you get the behavior information of the user including information about the operation of the user for the terminal device the user uses.
ユーザの行動情報と、前記ユーザの感情に関する感情情報とを取得する取得工程と、An acquisition process for acquiring user behavior information and emotion information related to the user's emotions,
前記取得工程により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成工程と、A generation step of generating a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition step and the emotion information of the user.
を含み、Including
前記取得工程は、The acquisition process is
前記ユーザがネットワークを介したサービスにおいて入力した入力情報に基づく前記ユーザの感情情報を取得することを特徴とする生成方法。A generation method comprising acquiring emotional information of the user based on input information input by the user in a service via a network.
前記取得手順により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成手順と、A generation procedure for generating a model for estimating the emotion of an input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition procedure and the emotion information of the user.
をコンピュータに実行させ、Let the computer run
前記取得手順は、The acquisition procedure is
前記ユーザがネットワークを介したサービスにおいて入力した入力情報に基づく前記ユーザの感情情報を取得することを特徴とする生成プログラム。A generation program characterized by acquiring emotional information of the user based on input information input by the user in a service via a network.
ユーザの行動情報と、前記ユーザの感情に関する感情情報とを取得する取得工程と、An acquisition process for acquiring user behavior information and emotion information related to the user's emotions,
前記取得工程により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成工程と、A generation step of generating a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition step and the emotion information of the user.
を含み、Including
前記取得工程は、The acquisition process is
前記ユーザの行動情報と、当該ユーザの感情を示すスコアとを取得し、The behavior information of the user and the score indicating the emotion of the user are acquired, and the result is obtained.
前記生成工程は、The production step is
前記ユーザの行動情報と、前記スコアとに基づいて、行動情報が入力される前記入力ユーザの感情を示すスコアを出力するモデルを生成することを特徴とする生成方法。A generation method characterized by generating a model that outputs a score indicating the emotion of the input user to which the behavior information is input based on the behavior information of the user and the score.
前記取得手順により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成手順と、A generation procedure for generating a model for estimating the emotion of an input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition procedure and the emotion information of the user.
をコンピュータに実行させ、Let the computer run
前記取得手順は、The acquisition procedure is
前記ユーザの行動情報と、当該ユーザの感情を示すスコアとを取得し、The behavior information of the user and the score indicating the emotion of the user are acquired, and the result is obtained.
前記生成手順は、The generation procedure is
前記ユーザの行動情報と、前記スコアとに基づいて、行動情報が入力される前記入力ユーザの感情を示すスコアを出力するモデルを生成することを特徴とする生成プログラム。A generation program characterized by generating a model that outputs a score indicating the emotion of the input user to which the behavior information is input based on the behavior information of the user and the score.
ユーザの行動情報と、前記ユーザの感情に関する感情情報とを取得する取得工程と、An acquisition process for acquiring user behavior information and emotion information related to the user's emotions,
前記取得工程により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成工程と、A generation step of generating a model for estimating the emotion of the input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition step and the emotion information of the user.
前記生成工程により生成された前記モデルを用いて推定された前記入力ユーザの感情に関する情報提供を行う提供工程と、A providing step of providing information on the emotion of the input user estimated using the model generated by the generation step, and a providing step.
を含むことを特徴とする生成方法。A generation method characterized by including.
前記取得手順により取得された前記ユーザの行動情報と、前記ユーザの感情情報とに基づいて、行動情報が入力される入力ユーザの感情を推定するモデルを生成する生成手順と、A generation procedure for generating a model for estimating the emotion of an input user to which the behavior information is input based on the behavior information of the user acquired by the acquisition procedure and the emotion information of the user.
前記生成手順により生成された前記モデルを用いて推定された前記入力ユーザの感情に関する情報提供を行う提供手順と、A provision procedure for providing information on the emotion of the input user estimated using the model generated by the generation procedure, and a provision procedure.
をコンピュータに実行させることを特徴とする生成プログラム。A generator characterized by having a computer execute.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156774A JP6882116B2 (en) | 2017-08-15 | 2017-08-15 | Generator, generation method, generation program, training data, and model |
JP2021078668A JP7348230B2 (en) | 2017-08-15 | 2021-05-06 | Generation device, generation method, and generation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017156774A JP6882116B2 (en) | 2017-08-15 | 2017-08-15 | Generator, generation method, generation program, training data, and model |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021078668A Division JP7348230B2 (en) | 2017-08-15 | 2021-05-06 | Generation device, generation method, and generation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019036114A JP2019036114A (en) | 2019-03-07 |
JP6882116B2 true JP6882116B2 (en) | 2021-06-02 |
Family
ID=65637639
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017156774A Active JP6882116B2 (en) | 2017-08-15 | 2017-08-15 | Generator, generation method, generation program, training data, and model |
JP2021078668A Active JP7348230B2 (en) | 2017-08-15 | 2021-05-06 | Generation device, generation method, and generation program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021078668A Active JP7348230B2 (en) | 2017-08-15 | 2021-05-06 | Generation device, generation method, and generation program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6882116B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7139270B2 (en) * | 2019-03-18 | 2022-09-20 | ヤフー株式会社 | Estimation device, estimation method and estimation program |
JP7146025B1 (en) | 2021-06-16 | 2022-10-03 | ヤフー株式会社 | Information processing device, information processing method, and information processing program |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004287667A (en) * | 2003-03-20 | 2004-10-14 | Dainippon Printing Co Ltd | Questionnaire preparation system, questionnaire preparation method, server computer, program, and recording medium |
JP2012094056A (en) * | 2010-10-28 | 2012-05-17 | Ntt Comware Corp | User state estimation system, user state estimation method and user state estimation program |
US20130018957A1 (en) * | 2011-07-14 | 2013-01-17 | Parnaby Tracey J | System and Method for Facilitating Management of Structured Sentiment Content |
JP2013105232A (en) * | 2011-11-11 | 2013-05-30 | Nippon Telegr & Teleph Corp <Ntt> | Emotion estimation device and emotion estimation method |
US10706367B2 (en) * | 2013-09-10 | 2020-07-07 | Facebook, Inc. | Sentiment polarity for users of a social networking system |
US9805381B2 (en) * | 2014-08-21 | 2017-10-31 | Affectomatics Ltd. | Crowd-based scores for food from measurements of affective response |
US10261947B2 (en) | 2015-01-29 | 2019-04-16 | Affectomatics Ltd. | Determining a cause of inaccuracy in predicted affective response |
JP6523891B2 (en) * | 2015-09-15 | 2019-06-05 | 株式会社東芝 | Server apparatus, data collection method and program |
CN106095868A (en) * | 2016-06-03 | 2016-11-09 | 北京小米移动软件有限公司 | Obtain the method and device of mood information |
-
2017
- 2017-08-15 JP JP2017156774A patent/JP6882116B2/en active Active
-
2021
- 2021-05-06 JP JP2021078668A patent/JP7348230B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7348230B2 (en) | 2023-09-20 |
JP2021119526A (en) | 2021-08-12 |
JP2019036114A (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657371B2 (en) | Machine-learning-based application for improving digital content delivery | |
US11188992B2 (en) | Inferring appropriate courses for recommendation based on member characteristics | |
US20170068982A1 (en) | Personalized contextual coupon engine | |
US20190303835A1 (en) | Entity representation learning for improving digital content recommendations | |
US20180285824A1 (en) | Search based on interactions of social connections with companies offering jobs | |
JP2017107569A (en) | Method, program, and server device for transmitting product related information | |
JP6823612B2 (en) | Predictors, prediction methods, and prediction programs | |
US20170293860A1 (en) | System and methods for suggesting beneficial actions | |
WO2016018470A1 (en) | Influencer score | |
JP6911603B2 (en) | How to generate predictive models for the categories of facilities visited by users, programs, server equipment, and processing equipment | |
US20170243277A1 (en) | Inferring service opportunities | |
JP7348230B2 (en) | Generation device, generation method, and generation program | |
US20180218328A1 (en) | Job offerings based on company-employee relationships | |
CN110175297A (en) | Personalized every member's model in feeding | |
US11853901B2 (en) | Learning method of AI model and electronic apparatus | |
US11151661B2 (en) | Feed actor optimization | |
US11334612B2 (en) | Multilevel representation learning for computer content quality | |
WO2011104677A1 (en) | Method and apparatus for computer relevancy | |
US20180285822A1 (en) | Ranking job offerings based on connection mesh strength | |
US10600099B2 (en) | Inferring service providers | |
JP6955392B2 (en) | Decision device, decision method, and decision program | |
US11514115B2 (en) | Feed optimization | |
US20230325944A1 (en) | Adaptive wellness collaborative media system | |
CN110955840B (en) | Joint optimization of notifications and pushes | |
US11526786B2 (en) | Recommending network connections by optimizing for two-sided implicit value of an edge |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210506 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6882116 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |